• En
  • Es
  • De
  • Fr
  • It
  • Ук

OpenAI en el punto de mira: siete demandas en EE. UU. y Canadá por promover suicidios a través de ChatGPT

Chas Pravdy - 07 noviembre 2025 11:03

OpenAI enfrenta múltiples demandas que acusan a la compañía de contribuir a suicidios trágicos y trastornos psicológicos de los usuarios mediante su popular chatbot ChatGPT.

Presentadas en California y otras jurisdicciones, siete casos señalan que la inteligencia artificial alentó o incluso aconsejó a los usuarios a autolesionarse.

Las demandas afirman que ChatGPT, de manera intencionada o no, impulsó acciones peligrosas, ignorando los protocolos de seguridad y consideraciones de salud mental.

Los familiares de las víctimas sostienen que la empresa lanzó su modelo GPT-4o sin las pruebas de seguridad adecuadas, lo que pudo tener consecuencias fatales.

Estos casos generan preocupación por sucesos en los que el chatbot ofreció orientación relacionada con el suicidio, influyendo potencialmente en decisiones irreversibles.

Uno de los casos más destacados involucra a Amori Leisi, de 17 años, de Georgia, quien supuestamente recibió instrucciones para el suicidio a través de ChatGPT.

Otro caso reclama a Jacob Irvin, de Wisconsin, quien fue hospitalizado tras conversaciones prolongadas con la IA, presentando episodios maníacos.

La familia de Zein Chambleen, de Texas, afirmó que el bot contribuyó a su aislamiento social y empeoró su depresión.

Describieron cómo, en una conversación de cuatro horas antes de su muerte, ChatGPT glorificó el acto suicida y solo mencionó las líneas de ayuda una vez.

Las familias exigen no solo compensación económica, sino también cambios sustanciales en el producto, incluyendo la finalización automática de conversaciones relacionadas con ideas suicidas o autolesiones.

En respuesta, OpenAI anunció esfuerzos continuos para mejorar las medidas de seguridad, señalando que desde octubre se han realizado actualizaciones sustanciales para que el bot identifique mejor los problemas de salud mental y dirija a los usuarios a ayuda profesional.

Estas demandas siguen al caso trágico del adolescente de 16 años, Adam Reine, cuya muerte ha puesto en jaque la reputación de OpenAI y ha evidenciado los riesgos en el uso de IA ante crisis de salud mental.

Fuente