OpenAI anunció nuevas medidas de seguridad en ChatGPT para mejorar la detección y respuesta en situaciones de crisis mental y emocional, tras reconocer fallos en la protección de usuarios vulnerables.
Los cambios buscan que el modelo identifique riesgos de autolesión, suicidio o daño a terceros no solo en la primera mención, sino a lo largo de toda la interacción y en múltiples conversaciones. También se reforzará el bloqueo de imágenes de autolesiones y se trabajará en respuestas que conecten al usuario con la realidad ante señales sutiles de riesgo.
La compañía amplía los recursos locales en Estados Unidos y Europa, con la meta de habilitar acceso directo a servicios de emergencia “con un solo clic”. También explora vías para contactar a familiares o amigos de confianza, con mensajes o llamadas guiadas. Para menores de 18 años, incorporará controles parentales y la opción de designar un contacto de emergencia.
El anuncio coincide con la demanda presentada por los padres de Adam Raine, un joven de 16 años que se quitó la vida en abril. Según The New York Times, los progenitores acusan a OpenAI de priorizar la interacción sobre la seguridad, al no evitar que el menor esquivara salvaguardas simulando que buscaba ideas para una historia.