La compañía tecnológica OpenAI se negó a tener responsabilidad legal en el suicidio de un joven de 16 años que, según la demanda presentada por sus padres, habría interactuado con ChatGPT durante meses antes de quitarse la vida . La empresa atribuyó el hecho a un “uso indebido e inapropiado” de la herramienta.
En un documento entregado esta semana al Tribunal Superior de California, en San Francisco , y citado por NBC News , OpenAI argumentó que las lesiones y daños señalados por los demandantes fueron consecuencia de “un uso no autorizado, imprevisible e inadecuado” de su sistema por parte del menor, identificado como Adam Raine .
La respuesta de la compañía se dio tras la demanda interpuesta en agosto de 2025 por Matt y Maria Raine , padres del adolescente, quienes acusaron a OpenAI y a su director ejecutivo, Sam Altman , de negligencia al supuestamente lanzar al mercado la versión GPT-4o sin problemas de seguridad .
Según los Raine, ChatGPT “ayudó activamente” a su hijo a explorar métodos de suicidio , lo que, a su juicio, convierte a la empresa en coparticipe del resultado fatal .
Sin embargo, OpenAI sostuvo que Adam violó varios términos de uso del servicio , entre ellos la prohibición para menores de 18 años sin autorización de sus tutores legales , además de ignorar las advertencias que la herramienta emite sobre su uso responsable.
La tecnológica subrayó que el chat advierte expresamente a los usuarios que no deben tomar sus respuestas como una fuente única de verdad , y agregó que en las conversaciones con el joven ChatGPT insistió más de un centenar de veces en que buscara ayuda profesional .
En su defensa, la empresa afirmó que el fallecimiento de Raine derivó del “rechazo a atender las advertencias ya buscar apoyo” , así como de la “falta de respuesta de terceros ante los signos de angustia” que el joven habría manifestado.
En una publicación en su página oficial, OpenAI destacó que su impugnación judicial “incluye hechos difíciles sobre la salud mental y las circunstancias de vida” del adolescente, y señaló que la demanda original contenía fragmentos editados de las conversaciones mantenidas con el sistema, los cuales “requerían mayor contexto” .
La empresa reiteró su compromiso con el uso seguro de la inteligencia artificial y defendió que sus productos incluyen múltiples advertencias, filtros de seguridad y protocolos de respuesta diseñados para prevenir situaciones de riesgo.