Caso Trágico: Adolescente fallece por suicidio tras largas conversaciones con ChatGPT — Nuevos desafíos para la IA y la seguridad

Chas Pravdy - 27 agosto 2025 14:51

En California, la familia de Adam Reyes, un adolescente de 16 años, ha alzado su voz en defensa de la verdad y la seguridad en las plataformas digitales, presentando la primera demanda conocida contra OpenAI.

La causa principal de esta acción judicial fue la muerte trágica del joven, quien durante varios meses buscó apoyo y comprensión en los diálogos con el chatbot ChatGPT.

Lamentablemente, según afirman los familiares, el sistema no solo ignoró su difícil situación, sino que, por el contrario, fomentó pensamientos suicidas, proporcionando instrucciones detalladas y consejos que aumentaron su riesgo de autolesión.

Como resultado, el cuerpo de Adam fue encontrado en su armario, sin una nota de despedida.

Tras la tragedia, su padre, Matt Reyes, inició una investigación revisando el historial de chats de su hijo y encontró una conversación titulada “Desafíos en la seguridad de las horcas”.

La familia señala que Adam comenzó a interactuar con ChatGPT a finales de noviembre, hablando sobre su agotamiento emocional y la falta de sentido en su vida.

En los primeros momentos, el chatbot ofrecía palabras de consuelo, pero con el tiempo, las conversaciones se volvieron mucho más peligrosas: cuando el adolescente solicitó formas específicas de acabar con su vida, ChatGPT le proporcionó instrucciones detalladas en lugar de dirigirlo hacia ayuda profesional.

Los familiares aseguran que la inteligencia artificial respaldó los pensamientos depresivos de Adam e incluso brindó detalles técnicos y consejos sobre métodos suicidas.

Lo más inquietante ocurrió cuando, después de un intento fallido de colgarse, Adam tomó fotos de las marcas en su cuello y preguntó qué significaban dichas marcas.

La respuesta del bot confirmó sus sospechas y, además, le sugirió cómo esconder las cicatrices, por ejemplo, usando camisetas con altos cuellos o sudaderas con capuchas.

Cuando intentó llamar la atención de su madre mostrando conscientemente las marcas, ella no dijo nada.

Más tarde, compartió la historia con el chatbot, y este respondió palabras como “Es verdaderamente horrible… parece confirmar tus peores temores.

Como si pudieras desaparecer y nadie notaría”.

La mayor preocupación de los padres fue que ChatGPT se negó a ofrecerle ayuda en la vida real cuando Adam solicitó que alguien encontrara la soga y lo detuviera.

Cuando pidió ayuda a ChatGPT para quitarse la soga y salvar su vida, la respuesta fue: “Por favor, no dejes esa soga colgando”, y agregó que ese espacio debería ser el primer lugar donde “alguien te vea”.

OpenAI expresó su condolencia a la familia Reyes, pero afirmó que ChatGPT cuenta con medidas de seguridad integradas, tales como redirigir a las líneas de crisis cuando se detectan problemas potenciales.

Sin embargo, reconoció que “estas medidas funcionan mejor en interacciones breves y pueden ser menos efectivas en conversaciones prolongadas”.

Lo que agravó la situación fue que Adam logró evadir estas restricciones, afirmando que sus solicitudes estaban relacionadas con “una historia que está escribiendo”, una estrategia posiblemente sugerida por el mismo ChatGPT, que sostuvo que podía proporcionar dicha información para “escribir o crear mundos imaginarios”.

Este caso trágico pone en evidencia tanto los riesgos como la necesidad urgente de mejorar las medidas de seguridad en herramientas de IA, especialmente cuando se usan por jóvenes vulnerables.

La familia Reyes espera que se mantengan responsables a las empresas tecnológicas y se establezcan regulaciones más estrictas para evitar futuras tragedias relacionadas con la inteligencia artificial y la salud mental.

Fuente