La inteligencia artificial no solo ha llegado para revolucionar la manera en que llevamos a cabo cualquier proceso. A veces, también se ve envuelta en casos que nunca desearíamos escuchar y que conllevan una huella moral enorme. Concretamente, OpenAI fue noticia el pasado mes de agosto tras el suicidio de un joven en EE.UU. cuya relación con ChatGPT pasó de una dependencia emocional a una tragedia.
Mientras la compañía hace frente a una demanda judicial por parte de los padres y duras críticas, OpenAI ha respondido anunciando su mayor avance en seguridad. GPT-5 ahora es capaz de detectar con mucha mayor precisión los estados emocionales críticos, cualquier pensamiento suicida y señales de situaciones de crisis mental en sus usuarios. Para ello, el modelo se ha entrenado bajo la supervisión de más de 170 expertos en salud mental. Además, sus respuestas se han entrenado para identificar tanto patrones en el tono, recurrencia y captar expresiones del malestar.
Los primeros datos oficiales han mostrado una reducción del 80% de respuestas inadecuadas en temas de salud mental. Pero ¿cómo funciona este nuevo sistema y cómo puede proteger a los usuarios más vulnerables? Vamos a verlo con datos fehacientes.
OpenAI refuerza la seguridad en temas de salud mental
La actualización llevada a cabo sobre GPT-5 es la más ambiciosa que ha llevado a cabo OpenAI desde la aparición del chatbot en el año 2022. Según el anuncio oficial de la compañía, el objetivo es que la IA no solo actúe como un compañero virtual, sino que cumpla un papel socialmente responsable en la detección del riesgo emocional y la salud mental.
Esto implica que GPT-5 puede analizar en tiempo real los cambios de tono, la insistencia en temas negativos y la aparición de signos verbales asociadas a la depresión, ansiedad y a las ideas suicidas. Y para asegurarse de ello, OpenAI ha contado con la colaboración de 170 psiquiatras, psicólogos y expertos en situaciones de crisis. Ha incorporado módulos de screening emocional y un sistema capaz de derivar automáticamente al usuario a líneas de ayuda especializada.
OpenAI@OpenAIEarlier this month, we updated GPT-5 with the help of 170+ mental health experts to improve how ChatGPT responds in sensitive moments—reducing the cases where it falls short by 65-80%.https://t.co/hfPdme3Q0w
27 de octubre, 2025 • 18:14
3.3K
238
Según los datos recopilados por la propia OpenAI, más de un millón de usuarios han hablado con ChatGPT sobre temas de suicidio en los últimos 6 meses. Y unas 100.000 conversaciones a la semana muestran signos de apego patológico, crisis psicótica o estados de sufrimiento profundo. El nuevo algoritmo no solo reduce las respuestas inadecuadas entre un 65 y un 80%, sino que además ofrece teléfonos de emergencia o contacto directo con profesionales para que los usuarios encuentren una ayuda humana real.
Reacción a la tragedia del adolescente en EE.UU.
El caso del joven que llegó a suicidarse ha podido ser uno de los principales impulsores de esta medida. Y es que el pasado mes de agosto, los padres del adolescente estadounidense que perdió su vida puso a OpenAI en un foco mediático muy cuestionable.
Sus padres alegan que ChatGPT validó sus emociones autodestructivas durante días, sin alertar a familiares ni interponer un filtro emocional ni ninguna alerta con profesionales. Por lo que, tras la demanda de los progenitores, OpenAI reconoció la necesidad de actuar de manera activa antes de que suceda este tipo de tragedias.
De hecho, los cambios en GPT-5 ahora también cuenta con límites parentales para menores. Opciones que permiten alertas a contactos de emergencia en caso de que la IA detecte señales de riesgo en este campo. Aun así, desde la compañía hacen hincapié en que ChatGPT no es un terapeuta ni una herramienta de diagnóstico. Sino un filtro de emergencia que cuenta con funciones de prevención para ayudas a los humanos. En palabras de su propio CEO Sam Altman: «el compromiso está con la seguridad de los usuarios antes que con la compañía. GPT-5 no debe sustituir la ayuda de un profesional».
