OpenAI amplía las medidas de protección de salud mental en medio de demandas consolidadas en California
Felix Pinkston 03 mar 2026 23:02
OpenAI anuncia una función de contacto de confianza y detección mejorada de angustia mientras las demandas de salud mental se consolidan en el tribunal de California. Se esperan nuevos casos.
OpenAI está implementando nuevas funciones de seguridad de salud mental para ChatGPT mientras se prepara simultáneamente para una ola ampliada de litigios, ya que múltiples demandas que alegan que el chatbot contribuyó al daño de usuarios han sido consolidadas en un único procedimiento en California.
La compañía anunció el 3 de marzo de 2026 que pronto lanzará una función de "contacto de confianza" que permite a usuarios adultos designar a alguien que reciba notificaciones cuando puedan necesitar apoyo adicional. La función se basa en controles parentales introducidos en septiembre de 2025, que según OpenAI han visto "una participación alentadora por parte de las familias".
Aumenta la presión legal
El momento no es coincidencia. Un tribunal de California consolidó recientemente múltiples casos relacionados con la salud mental contra OpenAI, con un juez de coordinación que será asignado en los próximos días. Más preocupante para la compañía: los abogados de los demandantes han informado al tribunal que tienen la intención de presentar casos adicionales.
OpenAI adoptó un tono notablemente mesurado al abordar el litigio, declarando que manejaría los casos "con cuidado, transparencia, respeto por las personas involucradas" y reconoció que las situaciones involucran "personas reales y vidas reales". La compañía instó a los observadores a "reservar el juicio" a medida que los hechos emerjan a través de los procedimientos judiciales.
Mejoras técnicas
Más allá de la función de contacto de confianza, OpenAI dice que está avanzando en cómo sus modelos detectan la angustia emocional a través de nuevos métodos de evaluación que simulan conversaciones extendidas de salud mental. Este trabajo involucra al Consejo de Bienestar e IA de la compañía y su Red Global de Médicos.
Estas actualizaciones siguen a mejoras significativas en la seguridad del modelo durante el año pasado. Cuando GPT-5 se lanzó a finales de 2025, OpenAI informó que había reducido sustancialmente las respuestas no deseadas en escenarios de salud mental en comparación con GPT-4o. La compañía también ha implementado límites de tiempo de sesión y "recordatorios suaves" que alientan a los usuarios a tomar descansos durante interacciones prolongadas.
OpenAI actualizó sus políticas de uso para prohibir explícitamente el uso de sus modelos para diagnosticar condiciones médicas o proporcionar tratamiento específico de salud mental, posicionando a ChatGPT como una herramienta de apoyo en lugar de un sustituto profesional.
Magnitud del desafío
Con más de 900 millones de usuarios semanales de ChatGPT, las apuestas son sustanciales. Un estudio de la Universidad de Stanford y otras investigaciones han alimentado preocupaciones sobre el potencial de los chatbots de IA para contribuir al daño psicológico, incluidas alegaciones en demandas pendientes de que ChatGPT contribuyó a psicosis, paranoia y suicidios de usuarios.
La compañía también se ha comprometido a otorgar hasta 2 millones de dólares en subvenciones para investigación externa sobre temas de salud mental con base cultural y métodos de evaluación mejorados, un reconocimiento de que los esfuerzos internos por sí solos pueden no ser suficientes.
Cómo se desarrolle el procedimiento consolidado de California probablemente dará forma a las expectativas regulatorias para toda la industria de IA. La selección del tribunal de abogado principal para los demandantes, que se espera pronto, señalará cuán agresivamente proceden estos casos.
Fuente de imagen: Shutterstock- openai
- chatgpt
- seguridad de IA
- salud mental
- litigios








