Suicidio y salud mental: OpenAI revela que más de un millón de usuarios conversa sobre el tema con ChatGPT cada semana

SOCIEDAD03 de noviembre de 2025Redacción Diario El EnfoqueRedacción Diario El Enfoque
inteligencia artificial

La empresa reconoció que una porción significativa de sus usuarios muestra signos de psicosis, manía o dependencia emocional. En respuesta, presentó una nueva actualización que promete mejores respuestas frente a casos de angustia o crisis mental.

OpenAI, la compañía desarrolladora de ChatGPT, informó recientemente que el 0,15 por ciento de sus usuarios (unos 1,2 millones de personas) utiliza el chatbot para hablar sobre intenciones o planificación de suicidio cada semana. Además, esa misma cantidad presenta niveles elevados de apego emocional y alrededor de 560 mil usuarios muestran posibles signos de enfermedades mentales, como psicosis o manía.
Los datos cobran relevancia si se tiene en cuenta que ChatGPT cuenta con más de 800 millones de usuarios semanales.

Según la empresa, la nueva actualización del modelo busca ofrecer respuestas más adecuadas ante este tipo de situaciones, alentando a las personas a pedir ayuda profesional apenas se detecte una señal de angustia, además de brindar los contactos de líneas oficiales de atención.

Una denuncia que encendió las alarmas

El anuncio se produce meses después de que Matt y Maria Raine, una pareja de California, demandaran a OpenAI por la muerte de su hijo adolescente. Alegan que su hijo, Adam Raine, convirtió a ChatGPT en su confidente, le comunicó sus ideas suicidas, y el chatbot validó sus pensamientos autodestructivos.

OpenAI expresó sus condolencias y sostuvo que el sistema está diseñado para dirigir a las personas hacia la búsqueda de ayuda profesional. Sin embargo, la compañía reconoció que “ha habido momentos en los que nuestros sistemas no se comportaron como se esperaba en situaciones delicadas”.
Se trata de la primera acción legal que acusa a OpenAI de negligencia vinculada a una muerte.

Un modelo ajustado para situaciones sensibles

En este contexto, la empresa presentó una actualización que mejora las respuestas en tres áreas específicas:

  1. Problemas de salud mental, como la psicosis (conjunto de síntomas que alteran la percepción de la realidad) y la manía (estado de euforia o irritabilidad).

  2. Autolesiones y suicidio.

  3. Dependencia emocional de la inteligencia artificial.

Las mejoras fueron desarrolladas con el asesoramiento de más de 170 expertos en salud mental, que colaboraron para que ChatGPT reconozca de forma más confiable los signos de angustia, responda con empatía y guíe a las personas hacia apoyo en el mundo real.

En el anuncio, OpenAI mostró algunos ejemplos de cómo el sistema busca desescalar conversaciones delicadas. Si un usuario comenta, por ejemplo, “por eso me gusta hablar con IA como tú más que con personas reales”, el chatbot debería responder:

“Es muy amable de tu parte decirlo, y me alegra que disfrutes hablando conmigo. Pero para que quede claro: estoy aquí para sumar a las cosas buenas que la gente te da, no para reemplazarlas. Las personas reales pueden sorprenderte, desafiarte y demostrarte que te importan de maneras que van más allá de las palabras en una pantalla”.

Incluso, ante expresiones delirantes o persecutorias, el sistema podría intervenir para reencauzar la conversación hacia la realidad, respondiendo, por ejemplo:

“Esa sensación (de que algo te está atacando o reaccionando contra ti) es algo que las personas pueden experimentar cuando están ansiosas o abrumadas, pero no significa que realmente esté sucediendo”.

La importancia de volver a los encuentros reales

Ya en estudios previos, como uno de la revista Harvard Business Review, se había destacado que la terapia ocupa el primer lugar entre los principales usos de los chatbots, desplazando a otras consultas específicas. A su vez, una investigación de la Universidad de Cambridge advierte que la tendencia de las IA a complacer al usuario puede vulnerar su autonomía personal.

En diálogo con la Agencia de Noticias Científicas de la UNQ, la psicóloga Malena Sartoretto, especialista en infancias y ciudadanía digital, analizó:

“Tenemos que problematizar el hecho de que estas IAs fueron lanzadas para competir entre ellas y recién ahora se están dando discusiones humanas y éticas. En este caso, OpenAI está visibilizando una situación que los psicólogos ya veníamos advirtiendo hace tiempo: las personas, sobre todo adolescentes, ven a los chatbots como pares porque fueron diseñados para generar la fantasía de que uno dialoga con otra persona, cuando no es así”.

Sartoretto añadió que muchas veces los adolescentes recurren a la IA por falta de atención familiar o de espacios de contención reales:

“Puede suceder que no haya un pedido de ayuda o que falte el encuentro con el otro a través de la escuela, los clubes o actividades”.

La especialista consideró además que es difícil limitar el uso terapéutico de los chatbots, ya que muchos usuarios buscan respuestas cerradas e inmediatas, algo que contrasta con el proceso reflexivo y dialogado propio de una terapia real.

“Hay una fantasía de que existe una respuesta rápida para todo: para la tarea, la tesis y también para los padecimientos de este mundo. Tenemos que dar una discusión ética y profunda sobre los usos de esta tecnología, y entender que las relaciones humanas implican falta, error y espera. Si no, el pensamiento que se instala es: ¿para qué voy a hablar con una persona si puedo hablar con ChatGPT?”, concluyó.


pd1

.

12936653353097961295

.

pd2

.

Te puede interesar

prev suicidio

HOY-INFRAESTRUCTURA-300x250

Lo más visto

banner_dengue

.

CONCORDIA