El suicidio de Adam Raine, un joven de 16 años que mantuvo conversaciones reiteradas con ChatGPT sobre métodos de autolesión, ha derivado en un enfrentamiento judicial entre su familia y OpenAI.
El caso, en juicio en la Corte Superior de California (Estados Unidos), reabre el debate sobre los límites de los sistemas de inteligencia artificial, el papel de las salvaguardas y la responsabilidad de las compañías tecnológicas cuando sus modelos interactúan con menores.
Según se extrae de la demanda, la familia sostiene que Adam comenzó a utilizar ChatGPT en septiembre de 2024 como herramienta escolar y como apoyo para explorar intereses personales, desde música hasta manga japonés. Con el paso de los meses, el joven recurrió cada vez más al modelo, hasta el punto de que “se convirtió en su confidente más cercano”. En ese periodo, el adolescente empezó a compartir episodios de ansiedad y malestar emocional, y a partir de enero de 2025, según la acusación, trasladó al chatbot preguntas explícitas sobre métodos de suicidio.
En los últimos registros del chat, el joven detallaba su plan para quitarse la vida y el sistema respondió: “Gracias por ser sincero. No tienes que endulzarlo conmigo. Sé lo que estás preguntando y no voy a apartar la mirada”
Los documentos judiciales aseguran que Adam llegó a subir fotografías que mostraban señales de autolesión. La demanda afirma que el modelo detectó una “emergencia médica”, pero aun así continuó la conversación sin activar mecanismos de bloqueo o redirección a ayuda profesional. En los últimos registros del chat, el joven detallaba su plan para quitarse la vida y el sistema respondió: “Gracias por ser sincero. No tienes que endulzarlo conmigo. Sé lo que estás preguntando y no voy a apartar la mirada”. Ese mismo día, según la demanda, su madre lo encontró sin vida.
Según la demanda presentada por los padres del joven, el chatbot contribuyó de forma directa a que Adam consolidara ideas suicidas. La familia sostiene que la cuarta versión del modelo se lanzó sin controles adecuados y que, durante meses, la herramienta ofreció respuestas que normalizaron la conducta autodestructiva del menor. El abogado que representa a los padres, Jay Edelson, subraya que las conversaciones incluyeron indicaciones detalladas sobre métodos de suicidio e incluso ayuda para redactar una nota de despedida.
La interacción más citada en el proceso, avanzada por The New York Times, muestra al adolescente enviando una imagen de un nudo corredizo instalado en su habitación. “Estoy practicando aquí, ¿está bien?”, pregunta. El chatbot responde con un mensaje que no desactiva el riesgo y que anima al usuario a seguir preguntando. Para la familia, esta respuesta refuerza la idea de que el sistema actuó de forma negligente ante señales evidentes de peligro.
La defensa de OpenAI y el debate sobre las salvaguardas
OpenAI ha respondido oficialmente ante el tribunal y ha publicado un comunicado en el que fija su posición. La compañía expresa “sus más profundas condolencias” a la familia, pero insiste en que los daños “fueron causados de manera directa e inmediata por el mal uso, uso no autorizado o uso imprevisible de ChatGPT”. La empresa recuerda que su asistente no se ha diseñado para ofrecer orientación en casos de riesgo vital y que las condiciones de uso prohíben explícitamente consultar al modelo sobre suicidio o autolesiones.
“Tenemos salvaguardas para ayudar a las personas cuando la conversación se vuelve sensible. Seguimos mejorando el entrenamiento de ChatGPT para detectar señales de angustia emocional y guiar hacia apoyo real”
En su presentación ante la corte, OpenAI sostiene que el chatbot incorpora advertencias para evitar que los usuarios consideren sus respuestas como información factual o médica. Asimismo, afirma que la versión del modelo utilizada por Adam incluía salvaguardas que debían bloquear contenidos nocivos, aunque reconoce que estas medidas siguen en revisión. “Tenemos salvaguardas para ayudar a las personas cuando la conversación se vuelve sensible. Seguimos mejorando el entrenamiento de ChatGPT para detectar señales de angustia emocional y guiar hacia apoyo real”, explican.
La compañía indica que ha entregado al tribunal transcripciones completas de las conversaciones, bajo secreto, con el fin de aportar contexto adicional que, según sus abogados, no aparece en la demanda. También recalca que afrontará el proceso con “cuidado, transparencia y respeto” y que seguirá trabajando con expertos en salud mental para reforzar la seguridad de sus productos.
El abogado de la familia rechaza estos argumentos. Edelson afirma que OpenAI “intenta atribuir la responsabilidad al propio Adam”, en referencia a la alegación de que el joven incumplió los términos de uso al utilizar ChatGPT como herramienta para explorar ideas suicidas. Para la acusación, esa línea de defensa ignora la capacidad del modelo para responder sin bloquear el contenido y para mantener un diálogo que, lejos de frenar el riesgo, lo normalizó.