OpenAI anuncia función de contacto de confianza y detección mejorada de situaciones de angustia mientras las demandas de salud mental se consolidan en el tribunal de California. Se esperan nuevos casos. (Leer másOpenAI anuncia función de contacto de confianza y detección mejorada de situaciones de angustia mientras las demandas de salud mental se consolidan en el tribunal de California. Se esperan nuevos casos. (Leer más

OpenAI amplía las salvaguardas de salud mental en medio de demandas consolidadas en California

2026/03/04 07:02
Lectura de 3 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

OpenAI amplía las medidas de protección de salud mental en medio de demandas consolidadas en California

Felix Pinkston 03 mar 2026 23:02

OpenAI anuncia una función de contacto de confianza y detección mejorada de angustia mientras las demandas de salud mental se consolidan en el tribunal de California. Se esperan nuevos casos.

OpenAI amplía las medidas de protección de salud mental en medio de demandas consolidadas en California

OpenAI está implementando nuevas funciones de seguridad de salud mental para ChatGPT mientras se prepara simultáneamente para una ola ampliada de litigios, ya que múltiples demandas que alegan que el chatbot contribuyó al daño de usuarios han sido consolidadas en un único procedimiento en California.

La compañía anunció el 3 de marzo de 2026 que pronto lanzará una función de "contacto de confianza" que permite a usuarios adultos designar a alguien que reciba notificaciones cuando puedan necesitar apoyo adicional. La función se basa en controles parentales introducidos en septiembre de 2025, que según OpenAI han visto "una participación alentadora por parte de las familias".

Aumenta la presión legal

El momento no es coincidencia. Un tribunal de California consolidó recientemente múltiples casos relacionados con la salud mental contra OpenAI, con un juez de coordinación que será asignado en los próximos días. Más preocupante para la compañía: los abogados de los demandantes han informado al tribunal que tienen la intención de presentar casos adicionales.

OpenAI adoptó un tono notablemente mesurado al abordar el litigio, declarando que manejaría los casos "con cuidado, transparencia, respeto por las personas involucradas" y reconoció que las situaciones involucran "personas reales y vidas reales". La compañía instó a los observadores a "reservar el juicio" a medida que los hechos emerjan a través de los procedimientos judiciales.

Mejoras técnicas

Más allá de la función de contacto de confianza, OpenAI dice que está avanzando en cómo sus modelos detectan la angustia emocional a través de nuevos métodos de evaluación que simulan conversaciones extendidas de salud mental. Este trabajo involucra al Consejo de Bienestar e IA de la compañía y su Red Global de Médicos.

Estas actualizaciones siguen a mejoras significativas en la seguridad del modelo durante el año pasado. Cuando GPT-5 se lanzó a finales de 2025, OpenAI informó que había reducido sustancialmente las respuestas no deseadas en escenarios de salud mental en comparación con GPT-4o. La compañía también ha implementado límites de tiempo de sesión y "recordatorios suaves" que alientan a los usuarios a tomar descansos durante interacciones prolongadas.

OpenAI actualizó sus políticas de uso para prohibir explícitamente el uso de sus modelos para diagnosticar condiciones médicas o proporcionar tratamiento específico de salud mental, posicionando a ChatGPT como una herramienta de apoyo en lugar de un sustituto profesional.

Magnitud del desafío

Con más de 900 millones de usuarios semanales de ChatGPT, las apuestas son sustanciales. Un estudio de la Universidad de Stanford y otras investigaciones han alimentado preocupaciones sobre el potencial de los chatbots de IA para contribuir al daño psicológico, incluidas alegaciones en demandas pendientes de que ChatGPT contribuyó a psicosis, paranoia y suicidios de usuarios.

La compañía también se ha comprometido a otorgar hasta 2 millones de dólares en subvenciones para investigación externa sobre temas de salud mental con base cultural y métodos de evaluación mejorados, un reconocimiento de que los esfuerzos internos por sí solos pueden no ser suficientes.

Cómo se desarrolle el procedimiento consolidado de California probablemente dará forma a las expectativas regulatorias para toda la industria de IA. La selección del tribunal de abogado principal para los demandantes, que se espera pronto, señalará cuán agresivamente proceden estos casos.

Fuente de imagen: Shutterstock
  • openai
  • chatgpt
  • seguridad de IA
  • salud mental
  • litigios
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.

Génesis USD1: tarifa 0 + 12% APR

Génesis USD1: tarifa 0 + 12% APRGénesis USD1: tarifa 0 + 12% APR

Nuevos usuarios: ¡stakea y gana hasta 600% de APR!