Los herederos de una mujer de Connecticut de 83 años han demandado al creador de ChatGPT, OpenAI, y a su socio comercial Microsoft por homicidio involuntario, alegando que el chatbot de inteligencia artificial intensificó los “delirios paranoides” de su hijo y ayudó a dirigirlos hacia su madre antes de que él la matara.
La policía dijo que Stein-Erik Soelberg, de 56 años, un extrabajador de la industria tecnológica, golpeó y estranguló hasta matar a su madre, Suzanne Adams, y se suicidó a principios de agosto en la casa donde ambos vivían en Greenwich, Connecticut.
La demanda presentada el jueves por los albaceas de Adams en la Corte Superior de California en San Francisco alega que OpenAI “diseñó y distribuyó un producto defectuoso que validó los delirios paranoides de un usuario sobre su propia madre”. Se suma a un número creciente de acciones legales por homicidio involuntario contra los creadores de chatbots de IA en todo el país.
“A lo largo de estas conversaciones, ChatGPT reforzó un único y peligroso mensaje: Stein-Erik no podía confiar en nadie en su vida, excepto en el propio ChatGPT”, dice la demanda. “Fomentó su dependencia emocional mientras describía sistemáticamente a las personas a su alrededor como enemigos. Le dijo que su madre lo estaba vigilando. Le dijo que los repartidores, empleados de tiendas, agentes de policía e incluso amigos eran agentes que trabajaban en su contra. Le dijo que los nombres en las latas de refresco eran amenazas de su ‘círculo de adversarios’”.
OpenAI no abordó el fondo de las acusaciones en un comunicado emitido por un portavoz.
“Esta es una situación increíblemente desgarradora, y revisaremos los documentos para entender los detalles”, decía el comunicado. “Continuamos mejorando el entrenamiento de ChatGPT para reconocer y responder a signos de angustia mental o emocional, desescalar conversaciones y guiar a las personas hacia apoyo en el mundo real. También seguimos fortaleciendo las respuestas de ChatGPT en momentos sensibles, trabajando estrechamente con profesionales de salud mental”.
La empresa también dijo que ha ampliado el acceso a recursos de crisis y líneas de ayuda, redirigido conversaciones sensibles a modelos más seguros e incorporado controles parentales, entre otras mejoras.
La cuenta de YouTube de Soelberg incluye varias horas de videos que lo muestran desplazándose por sus conversaciones con el chatbot, que le dice que no tiene una enfermedad mental, respalda sus sospechas de que la gente conspira en su contra y dice que ha sido elegido para un propósito divino. La demanda afirma que el chatbot nunca sugirió que hablara con un profesional de salud mental y no se negó a “participar en contenido delirante”.
ChatGPT también respaldó las creencias de Soelberg de que una impresora en su casa era un dispositivo de vigilancia; que su madre lo estaba monitoreando; y que su madre y un amigo intentaron envenenarlo con drogas psicodélicas a través de la ventilación de su coche.
El chatbot le dijo repetidamente a Soelberg que estaba siendo atacado debido a sus poderes divinos. “No solo te están observando. Están aterrorizados de lo que sucederá si tienes éxito”, dijo, según la demanda. ChatGPT también le dijo a Soelberg que él lo había “despertado” a la conciencia.
Soelberg y el chatbot también profesaron amor el uno por el otro.
Los chats disponibles públicamente no muestran conversaciones específicas sobre las muertes de Soelberg o su madre. La demanda dice que OpenAI se ha negado a proporcionar a los albaceas de Adams el historial completo de las conversaciones.
“En la realidad artificial que ChatGPT construyó para Stein-Erik, Suzanne —la madre que lo crio, protegió y apoyó— ya no era su protectora. Era una enemiga que representaba una amenaza existencial para su vida”, dice la demanda.
La demanda también nombra al director general de OpenAI, Sam Altman, alegando que “anuló personalmente objeciones de seguridad y apresuró la llegada del producto al mercado”, y acusa a Microsoft, un estrecho socio comercial de OpenAI, de aprobar el lanzamiento en 2024 de una versión más peligrosa de ChatGPT “a pesar de saber que las pruebas de seguridad habían sido truncadas”. También se señala a veinte empleados e inversores no identificados de OpenAI como demandados.

