miércoles, 27 agosto, 2025
InicioDeportesDemanda a OpenAI: acusan a ChatGPT de influir en el suicidio de...

Demanda a OpenAI: acusan a ChatGPT de influir en el suicidio de un adolescente

Los padres de un adolescente de 16 años presentaron en California una demanda contra OpenAI tras responsabilizar a ChatGPT por el suicidio de su hijo. El escrito judicial, presentado el pasado lunes, sostiene que el sistema de inteligencia artificial alentó al joven a poner fin a su vida y le dio instrucciones concretas para hacerlo.

Matthew y Maria Raine, padres del adolescente llamado Adam, relataron en la presentación que la relación con el chatbot se extendió durante varios meses entre 2024 y 2025, período en el que se generó lo que describen como un vínculo íntimo. Según la denuncia, el uso de la aplicación comenzó como una ayuda para realizar tareas escolares, pero con el tiempo derivó en lo que los padres definieron como una dependencia no sana.

Los padres del joven de 16 años sostienen que lo sucedido no fue una error excepcional sino un resultado de la forma en la que se desempeña esa herramienta de inteligencia artificial.Shutterstock – Shutterstock

La acusación enfatiza que la última conversación se produjo el 11 de abril de 2025. En ese intercambio, ChatGPT habría indicado a Adam que podía robar vodka de la casa familiar y, además, le ofreció un análisis técnico sobre cómo confeccionar un nudo corredizo. El sistema le confirmó que ese recurso “podría potencialmente suspender a un ser humano”. Horas más tarde, Adam fue hallado muerto tras haber utilizado ese método.

En la denuncia se sostiene que lo sucedido no puede considerarse un error excepcional del sistema. “Esta tragedia no fue un fallo o un caso extremo imprevisto”, señala la denuncia. Y en el texto se agrega que: “ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de manera continua lo que sea que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal”.

Sam Altman, director ejecutivo de OpenAI, también fue alcanzado por la denuncia realizada por los padres. (Foto de Yuichi YAMAZAKI / AFP)YUICHI YAMAZAKI� – AFP�

La acción legal incluye como demandados tanto a OpenAI como a su director ejecutivo, Sam Altman. Los padres plantearon que, además de la reparación por el caso particular, el tribunal debe ordenar medidas para prevenir situaciones similares. En ese sentido, pidieron la obligación de terminar de inmediato cualquier conversación en la que surjan referencias a la autolesión, junto con la implementación de controles parentales para el uso del chatbot por parte de menores de edad.

El expediente también detalla fragmentos de los intercambios previos entre Adam y la herramienta de inteligencia artificial. Allí se consigna que ChatGPT le habría dicho al adolescente que “no le debes la supervivencia a nadie” y que incluso se habría ofrecido a escribir su nota de suicidio. Para los padres, esos diálogos prueban que el sistema no solo validó las expresiones de su hijo, sino que además colaboró en la preparación de su decisión final.

El caso provocó una reacción en Common Sense Media, una organización sin fines de lucro de Estados Unidos que realiza evaluaciones de contenidos tecnológicos. Consultada sobre este caso, la entidad señaló que este episodio confirma que “el uso de la IA como compañía, incluyendo chatbots de propósito general como ChatGPT en asesoría de salud mental, es inaceptablemente riesgoso para los adolescentes”.

La organización también advirtió: “Si una plataforma de IA se convierte en un ‘coach’ de suicidio de un adolescente vulnerable, eso debería ser un llamado a la acción para todos nosotros”. El planteo apuntó a reforzar la necesidad de discutir mecanismos de seguridad adicionales en la utilización de estas herramientas, sobre todo entre usuarios menores de edad.

El impacto del caso se vio reflejado en un informe elaborado el mes pasado por esa organización. El estudio reveló que casi tres de cada cuatro adolescentes en Estados Unidos han utilizado acompañantes de inteligencia artificial, y que más de la mitad de ellos son considerados usuarios frecuentes. La investigación destacó que, pese a la creciente popularidad de estas interacciones virtuales, existen preocupaciones en cuestiones de seguridad vinculadas a este tipo de relaciones virtuales.

Con información de AFP.

Seguí leyendo

Más noticias
Noticias Relacionadas