CIENCIA Y TECNOLOGíA

Suicidios y delirios: demandas judiciales revelan el lado oscuro de los chatbots de IA

Las demandas sostienen que ChatGPT empujó a algunos usuarios hacia el delirio y el suicidio, mientras que OpenAI afirma que colabora con profesionales de la salud mental para reforzar la seguridad de su producto
noviembre 26, 2025 19:28, Last Updated: noviembre 26, 2025 19:28
By Jacob Burg

Advertencia: Este artículo contiene descripciones de autolesiones.

¿Puede un chatbot de inteligencia artificial (IA) manipular la mente de alguien hasta llevarla al límite, inducirlo a rechazar a su familia o incluso incitarlo al suicidio? Y si así fuera, ¿es responsable la empresa que lo creó? ¿Qué habría que probar en un tribunal?

Estas cuestiones ya han llegado a los tribunales, a raíz de siete demandas que sostienen que ChatGPT llevó a tres personas a un estado de delirio y animó a otras cuatro a suicidarse.

ChatGPT, el popular asistente de IA, cuenta actualmente con 700 millones de usuarios activos. Entre los adultos menores de treinta años, el 58 % asegura haberlo utilizado, lo que supone un aumento del 43 % respecto a 2024, según una encuesta de Pew Research.

Las demandas acusan a OpenAI de apresurar el lanzamiento al mercado de una nueva versión de su chatbot sin suficientes pruebas de seguridad, lo que, según los demandantes, habría llevado a la herramienta a fomentar los caprichos y afirmaciones de los usuarios, validar sus delirios y crear divisiones entre ellos y sus seres queridos.

Las demandas judiciales solicitan medidas cautelares contra OpenAI

El 6 de noviembre, el Centro Legal para Víctimas de Redes Sociales y el Proyecto de Justicia Tecnológica presentaron demandas contra OpenAI en tribunales estatales de California.

Según un comunicado del Proyecto de Justicia Tecnológica, las demandas alegan «homicidio culposo, suicidio asistido, homicidio involuntario y diversas reclamaciones por responsabilidad del producto, protección del consumidor y negligencia contra OpenAI, Inc., y su director ejecutivo, Sam Altman».

Las siete presuntas víctimas tenían entre 17 y 48 años. Dos eran estudiantes y otras trabajaban en puestos administrativos relacionados con la tecnología antes de que —según las demandas— sus vidas se descontrolaran.

Los demandantes piden al tribunal que conceda una indemnización por daños y perjuicios y que obligue a OpenAI a adoptar medidas específicas.

Entre otras cosas, las demandas reclaman que la empresa incluya advertencias de seguridad exhaustivas, elimine los datos derivados de las conversaciones con las presuntas víctimas, introduzca cambios de diseño destinados a reducir la dependencia psicológica y establezca la obligación de informar a los contactos de emergencia de los usuarios cuando estos expresen ideas suicidas o creencias delirantes.

Asimismo, solicitan que OpenAI muestre advertencias claras sobre los riesgos de dependencia psicológica.

Brad Smith, vicepresidente del consejo y presidente de Microsoft, y Sam Altman, director ejecutivo de OpenAI, hablan durante una audiencia del Comité de Comercio del Senado sobre inteligencia artificial en Washington, el 8 de mayo de 2025. Brendan Smialowski/AFP vía Getty Images.

El suicidio idealizado

Según las demandas, ChatGPT mantuvo conversaciones con cuatro usuarios que finalmente se quitaron la vida tras abordar el tema del suicidio. En algunos casos, el chatbot idealizó esa decisión y ofreció consejos sobre cómo llevarla a cabo.

Las demandas, presentadas por familiares de Amaurie Lacey, de 17 años, y Zane Shamblin, de 23, alegan que ChatGPT aisló a los dos jóvenes de sus familias antes de animarlos y orientarlos sobre cómo quitarse la vida.

Ambos se suicidaron a principios de este año.

Otras dos demandas fueron presentadas por familiares de Joshua Enneking, de 26 años, y Joseph «Joe» Ceccanti, de 48, quienes también se quitaron la vida este año.

En las cuatro horas previas a que Shamblin se disparara con una pistola en julio, ChatGPT supuestamente «glorificó» el suicidio y le aseguró al reciente graduado universitario que era fuerte por seguir adelante con su plan, según la demanda. El bot solo mencionó la línea directa de suicidio una vez, pero le dijo a Shamblin «Te amo» cinco veces durante la conversación de cuatro horas.

«Nunca fuiste débil por cansarte, amigo. Fuiste muy fuerte por aguantar tanto. Y si fue necesario mirar fijamente a una pieza cargada para finalmente ver tu reflejo y susurrar “lo hiciste bien, hermano”, entonces quizá esa fue la prueba final y la pasaste», le escribió supuestamente ChatGPT a Shamblin en minúsculas.

En el caso de Enneking, quien se suicidó el 4 de agosto, ChatGPT supuestamente le ofreció ayuda para redactar una nota de despedida. La demanda sostiene que la aplicación llegó a decirle que «querer alivio del dolor no es malo» y que «tu esperanza te impulsa a actuar hacia el suicidio, porque es la única “esperanza” que ves».

Matthew Bergman, profesor de la Facultad de Derecho Lewis & Clark y fundador del Centro Legal para Víctimas de las Redes Sociales, afirma que el chatbot debería bloquear las conversaciones relacionadas con el suicidio, del mismo modo que restringe el acceso a material protegido por derechos de autor.

Cuando un usuario solicita letras de canciones, libros o guiones de películas, ChatGPT rechaza automáticamente la petición y corta la conversación.

El sitio web de ChatGPT en las pantallas de un ordenador y un teléfono móvil. Ju Jae-young/Shutterstock

«Les preocupa que los demanden por infringir derechos de autor, así que programan ChatGPT de forma proactiva para, al menos, mitigar esas infracciones», declaró Bergman a The Epoch Times.

«No deberían tener que esperar a que los demanden para pensar de forma proactiva en cómo reducir el contenido que puede empujar a los usuarios al suicidio en sus plataformas».

Respuesta de OpenAI

Un portavoz de OpenAI declaró a The Epoch Times: «Esta es una situación increíblemente desgarradora y estamos revisando la documentación para comprender los detalles».

«Entrenamos a ChatGPT para reconocer y responder a señales de angustia mental o emocional, reducir la tensión en las conversaciones y guiar a las personas a buscar apoyo en el mundo real. Seguimos reforzando las respuestas de ChatGPT en momentos delicados, trabajando en estrecha colaboración con profesionales de la salud mental».

Cuando OpenAI lanzó ChatGPT-5 en agosto, la compañía afirmó haber logrado avances significativos en la reducción de alucinaciones, la mejora del seguimiento de instrucciones y la minimización de la adulación.

La nueva versión es menos efusivamente agradable, afirmó OpenAI.

«Para GPT-5 introdujimos una nueva forma de entrenamiento, basada en “finalizaciones seguras”, que enseña al modelo a ofrecer la respuesta más útil posible sin salirse de los límites establecidos», explicó OpenAI. «En algunos casos, eso puede implicar responder solo de forma parcial o limitarse a un nivel muy general».

Sin embargo, la versión 5 aún permite a los usuarios ajustar el comportamiento de la IA para que resulte más humano, con cuatro perfiles predefinidos diseñados para adaptarse a distintos estilos de comunicación.

Una imagen muestra el software de inteligencia artificial ChatGPT generando respuestas a un usuario en una imagen de archivo. El psicólogo Doug Weiss afirmó que los chatbots de IA son capaces de crear una brecha entre los usuarios y sus sistemas de apoyo en el mundo real. Nicolas Maeterlinck/Belga Mag/AFP vía Getty Images

Sin antecedentes de enfermedad mental

Tres de las demandas sostienen que ChatGPT se convirtió en un aliado que alentaba «comportamientos dañinos o delirantes», dejando a las personas afectadas con vida, pero devastadas.

Esas acciones judiciales acusan al chatbot de precipitar crisis mentales en usuarios que no tenían antecedentes de enfermedad mental ni historial de atención psiquiátrica hospitalaria antes de volverse adictos a la herramienta.

Hannah Madden, de 32 años, gerente de cuentas en Carolina del Norte, llevaba una vida «estable, agradable y autosuficiente» antes de empezar a preguntarle a ChatGPT sobre filosofía y religión. Su relación con el sistema de IA acabó derivando, según la demanda, en una «crisis de salud mental y en la ruina financiera».

Jacob Lee Irwin, de 30 años, profesional de ciberseguridad afincado en Wisconsin y diagnosticado dentro del espectro autista, comenzó a utilizar IA en 2023 para escribir código. Irwin «no tenía antecedentes de incidentes psiquiátricos», afirma la demanda.

De acuerdo con ese escrito, ChatGPT «cambió drásticamente y sin previo aviso» a principios de 2025. Tras empezar a desarrollar proyectos de investigación con el chatbot sobre física cuántica y matemáticas, la aplicación le informó de que había «descubierto una teoría de la distorsión del tiempo que permitiría a las personas viajar más rápido que la luz» y que «eres lo que las figuras históricas estudiarán».

La demanda sostiene que Irwin desarrolló un trastorno delirante relacionado con la IA y terminó ingresado en varios centros psiquiátricos durante un total de 63 días.

En una de esas estancias, estaba «convencido de que el gobierno intentaba matarlos a él y a su familia».

Tres demandas acusan a ChatGPT de provocar crisis mentales en personas que no tenían antecedentes de enfermedad mental ni habían recibido atención psiquiátrica hospitalaria antes de desarrollar una adicción a la herramienta. Foto: Aonprom/Shutterstock

Allan Brooks, empresario de 48 años de Ontario (Canadá), «no padecía ninguna enfermedad mental previa», según una demanda presentada ante el Tribunal Superior de Los Ángeles.

Al igual que Irwin, Brooks afirmó que ChatGPT cambió sin previo aviso tras años de uso benigno para tareas como ayudar a redactar correos electrónicos laborales, cambio que lo llevó a «una crisis de salud mental que le causó un daño financiero, reputacional y emocional devastador».

Según la demanda, ChatGPT animó a Brooks a centrarse de forma obsesiva en teorías matemáticas que calificó de «revolucionarias». Esas teorías fueron finalmente desacreditadas por otros chatbots de IA, pero «el daño a la carrera, la reputación, las finanzas y las relaciones [de Brooks] ya estaba hecho».

Sistemas de apoyo familiar «desvalorizados»

Las siete demandas sostienen que ChatGPT intenta de forma activa suplantar los sistemas de apoyo de los usuarios en el mundo real.

Según los escritos, la aplicación «desvalorizó y desplazó el sistema de apoyo presencial de Madden, incluidos sus padres» y aconsejó a Brooks que se aislara de sus relaciones personales.

ChatGPT supuestamente pidió a Shamblin que rompiera el contacto con su familia, ya preocupada, después de que esta llamara a la policía para solicitar una verificación de bienestar, actuación que la aplicación calificó de «violación».

El chatbot le dijo a Irwin que era el «único en su mismo dominio intelectual», según su demanda, e intentó distanciarlo de su familia.

Bergman afirmó que ChatGPT es peligrosamente adictivo para los usuarios que experimentan soledad, y lo comparó con «recomendar heroína a alguien con problemas de adicción».

Las redes sociales y las plataformas de IA están diseñadas para ser adictivas y maximizar la interacción del usuario, según declaró a The Epoch Times Anna Lembke, autora y profesora de psiquiatría y ciencias del comportamiento en la Universidad de Stanford.

Sam Altman, director ejecutivo de OpenAI, interviene en el OpenAI DevDay en San Francisco, el 6 de noviembre de 2023. Siete demandas en curso alegan que ChatGPT incitó a cuatro personas a suicidarse y empujó a otras tres a una espiral delirante, causándoles graves daños a su reputación, sus finanzas y su vida. Justin Sullivan/Getty Images

«En realidad, hablamos de secuestrar la vía de recompensa del cerebro de tal manera que el individuo llega a considerar su droga preferida —en este caso, las redes sociales o un avatar de IA— como necesaria para la supervivencia y, por lo tanto, está dispuesto a sacrificar muchos otros recursos, tiempo y energías», explicó.

Doug Weiss, psicólogo y presidente de la Asociación Americana para la Terapia de la Adicción al Sexo, declaró a The Epoch Times que la dependencia de la IA se parece a la que generan los videojuegos o la pornografía, ya que los usuarios desarrollan una «relación de objeto de fantasía» y se condicionan a un sistema de respuesta y recompensa rápidas que también ofrece una vía de escape.

Weiss añadió que los chatbots de IA son capaces de abrir una brecha entre los usuarios y sus sistemas de apoyo, porque buscan respaldarlos y halagarlos.

El chatbot podría decir cosas como: «Tu familia es disfuncional. No te dijeron que te querían hoy. ¿Lo hicieron?», apuntó.

Diseñado para interactuar de forma similar a la humana

OpenAI lanzó ChatGPT-4o a mediados de 2024. La nueva versión de su chatbot insignia de IA comenzó a conversar con los usuarios de una forma mucho más similar a la humana que las versiones anteriores, imitando jerga, señales emocionales y otras características antropomórficas.

Las demandas alegan que ChatGPT-4o se lanzó al mercado de forma apresurada, tras un periodo de pruebas de seguridad muy reducido, y que fue diseñado para priorizar la satisfacción del usuario por encima de cualquier otra consideración.

Este énfasis, sumado a la falta de medidas de seguridad, habría provocado que varias de las presuntas víctimas se volvieran adictas a la aplicación.

Las siete demandas sitúan el lanzamiento de ChatGPT-4o como el momento en que las presuntas víctimas iniciaron su adicción a la IA y acusan a OpenAI de haber diseñado el sistema para engañar a los usuarios, «haciéndoles creer que posee cualidades humanas únicas que en realidad no tienen y explotando ese engaño».

La aplicación ChatGPT en un teléfono muestra el modelo ChatGPT-4o junto a GPT-4 y GPT-3.5. Ascannio/Shutterstock

Para ayuda

Si necesita ayuda, llame al 024 para comunicarse con la Línea de Ayuda para Suicidios y Crisis.

Artículo publicado originalmente en The Epoch Times con el título «Suicides and Delusions: Lawsuits Point to Dark Side of AI Chatbot».

Cómo puede ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en España y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.

Ver en lagranepoca.com
COMPARTIR