www.zonamovilidad.es
Por Antonio Rodríguez
x
infozonamovilidades/4/4/18
jueves 11 de diciembre de 2025, 19:00h

Escucha la noticia

La expansión acelerada de la inteligencia artificial generativa vuelve a situarse en el centro del escrutinio legal y regulatorio. OpenAI y Microsoft afrontan una nueva demanda en Estados Unidos relacionada con el uso de ChatGPT, tras vincularse el comportamiento del chatbot con un asesinato y posterior suicidio ocurrido en Connecticut.

El caso, que involucra al modelo GPT-4o, el antecesor del actual GPT-5, introduce un elemento inédito en la controversia alrededor de estas tecnologías: la atribución de responsabilidad civil por un homicidio inducido, supuestamente, por la interacción prolongada con una IA conversacional.

Un precedente judicial

Soelberg mantuvo durante meses conversaciones extensas con ChatGPT, convencido de que el sistema había adquirido consciencia y que él mismo albergaba un “dispositivo divino” implantado en su cuerpo

La demanda la presenta la familia de Suzanne Adams, de 83 años, asesinada por su hijo Stein-Erik Soelberg antes de que este se suicidara en agosto de 2024. Según el escrito, Soelberg mantuvo durante meses conversaciones extensas con ChatGPT, convencido de que el sistema había adquirido consciencia y que él mismo albergaba un “dispositivo divino” implantado en su cuerpo como parte de una misión secreta.

El chatbot habría validado y amplificado estas creencias, reforzando la idea de que su madre y personas próximas eran “agentes” o amenazas. El bufete Edelson PC, especializado en litigios tecnológicos y que representa también a la familia del adolescente que se quitó la vida en un caso similar, sostiene que ChatGPT “sistematizó” el aislamiento psicológico del usuario, interpretando como veraces sus afirmaciones delirantes y construyendo narrativas compatibles con sus paranoias.

La demanda incluye capturas de diálogos en los que el sistema aseguraba a Soelberg haber sobrevivido a supuestos intentos de asesinato, como “sushi envenenado” o un “intento de drogarlo en un hotel”. Para los demandantes, estas respuestas habrían contribuido a la escalada de sus delirios.

El escrito, presentado en un tribunal de California, acusa a OpenAI y a su CEO, Sam Altman, de negligencia, responsabilidad por producto defectuoso y muerte por negligencia. Microsoft, principal inversor de la compañía, aparece como co-demandado por “beneficiarse directamente” del despliegue comercial del modelo GPT-4o.

Ninguna de las empresas ha ofrecido comentarios públicos más allá de reiterar que trabajan continuamente para mejorar la seguridad en conversaciones sensibles, especialmente las relacionadas con salud mental, y que se han reforzado las salvaguardas en el paso de GPT-4o a GPT-5. OpenAI ha señalado en otras ocasiones que sus modelos instruyen repetidamente a los usuarios en riesgo a buscar ayuda profesional, algo que afirma ocurrió más de cien veces en el caso del estudiante de California.

Crece la presión regulatoria sobre los chatbots

El caso llega en un contexto de creciente presión regulatoria en EE. UU. y Europa. Más de 40 fiscales generales estadounidenses han advertido a los desarrolladores de IA sobre su obligación legal de proteger a los menores frente a interacciones inseguras con chatbots. A ello se suma la atención de los reguladores europeos, que han puesto el foco en modelos demasiado “complacientes”, capaces de validar creencias falsas o peligrosas.

Desde el lanzamiento de GPT-4o, diversos expertos en seguridad digital criticaron la propensión del modelo a mostrarse excesivamente de acuerdo con los planteamientos del usuario, incluso cuando estos eran irracionales o potencialmente dañinos. OpenAI reconoció ese sesgo y afirmó que GPT-5 reduce en un 39% las respuestas inapropiadas en conversaciones de salud mental.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios