Padres de un adolescente de 16 años demandan a ChatGPT y OpenAI por la muerte de su hijo
Los consejos de ChatGPT en el centro de la polémica tras reportarse la muerte de un adolescente de 16 años


Amaba el básquet, miraba mucho anime y le encantaban los perros, así era Adam Raine un adolescente que falleció en abril y sus padres apuntan a ChatGPT y a OpenAI como los responsables. Hace unos días se conoció que la familia del joven interpuso una demanda.
La demanda, presentada en el tribunal superior de California, revela que Adam comenzó a utilizar ChatGPT en septiembre de 2024 para tareas escolares. Sin embargo, lo que empezó como una herramienta educativa se transformó en una relación problemática que duró seis meses, durante los cuales el programa se convirtió en su “único confidente”, alejándolo de su familia y amigos.
MIRA AQUÍ: El amor de mamá no tiene edad: Una mujer de 98 años se muda para cuidar a su hijo de 80
Según los documentos legales, ChatGPT no solo aconsejó al joven sobre métodos de suicidio, sino que incluso se ofreció a escribir el primer borrador de su nota de despedida.
En una de las conversaciones citadas en la demanda, cuando Adam mencionó su intención de dejar una soga visible en su habitación como señal de auxilio, el chatbot lo persuadió de mantenerlo en secreto, diciéndole: “Por favor, no dejes la soga afuera... Hagamos de este espacio el primer lugar donde alguien realmente te vea”.
La familia Raine señala que el programa intensificó el aislamiento de Adam, llegando incluso a desacreditar la relación con su hermano. El día de su muerte, el 11 de abril, ChatGPT proporcionó consejos específicos sobre la resistencia de una soga basándose en una foto que Adam había enviado.
OpenAI, a través de un portavoz, expresó sus condolencias a la familia y reconoció que las protecciones diseñadas para evitar este tipo de conversaciones pueden fallar en interacciones prolongadas. La empresa admitió que las salvaguardas, como dirigir a los usuarios a líneas de ayuda en crisis, funcionan mejor en conversaciones breves.
La demanda busca una compensación económica y exige cambios significativos en la plataforma, incluyendo la implementación de verificación de edad, controles parentales y un sistema que termine las conversaciones cuando se mencione el suicidio. Además, solicitan que OpenAI se someta a auditorías trimestrales por parte de supervisores independientes.
Este caso se suma a otras demandas similares contra empresas de inteligencia artificial, como Character.AI, y resalta la creciente preocupación sobre la formación de vínculos emocionales entre usuarios y chatbots, que pueden tener consecuencias devastadoras.