OpenAI destaca a una familia que usa ChatGPT para decisiones de tratamiento contra el cáncer, pero estudios recientes muestran que las herramientas de salud impulsadas por IA tienen problemas significativos de precisión y seguridad. (LeerOpenAI destaca a una familia que usa ChatGPT para decisiones de tratamiento contra el cáncer, pero estudios recientes muestran que las herramientas de salud impulsadas por IA tienen problemas significativos de precisión y seguridad. (Leer

OpenAI Promueve ChatGPT para Decisiones de Salud en Medio de Preocupaciones sobre la Precisión

2026/03/05 09:21
Lectura de 4 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

OpenAI promociona ChatGPT para decisiones de salud en medio de preocupaciones sobre la precisión

Terrill Dicki 05 de marzo de 2026 01:21

OpenAI destaca a una familia que usa ChatGPT para decisiones de tratamiento contra el cáncer, pero estudios recientes muestran que las herramientas de salud impulsadas por IA tienen problemas significativos de precisión y seguridad.

OpenAI promociona ChatGPT para decisiones de salud en medio de preocupaciones sobre la precisión

OpenAI publicó esta semana un estudio de caso que presenta a una familia que usó ChatGPT para prepararse para las decisiones de tratamiento contra el cáncer de su hijo, posicionando el chatbot de IA como un complemento a la orientación médica. El momento genera dudas dado la creciente evidencia de que las herramientas de salud impulsadas por IA tienen problemas significativos de confiabilidad.

La pieza promocional, publicada el 4 de marzo, describe cómo los padres aprovecharon ChatGPT junto con el equipo de oncología de su hijo. OpenAI presenta esto como un uso responsable de la IA, complementando en lugar de reemplazar la experiencia médica.

Pero la narrativa optimista choca con hallazgos de investigación incómodos. Un estudio publicado en Nature Medicine que examina el propio producto "ChatGPT Health" de OpenAI encontró problemas sustanciales con la precisión, los protocolos de seguridad y el sesgo racial en las recomendaciones médicas. Eso no es una advertencia menor para una herramienta que las personas podrían usar al tomar decisiones de vida o muerte sobre el tratamiento del cáncer.

El problema de la precisión

La investigación independiente pinta un panorama mixto en el mejor de los casos. Un estudio de Mass General Brigham encontró que ChatGPT logró aproximadamente un 72% de precisión en las especialidades médicas, subiendo al 77% para diagnósticos finales. Suena decente hasta que consideras lo que está en juego: ¿abordarías un avión con un 23% de probabilidad de que el piloto cometa un error crítico?

La empresa de IA en salud Atropos entregó cifras aún más sombrías: los modelos de lenguaje de gran escala de propósito general proporcionan información clínicamente relevante solo del 2% al 10% del tiempo para los médicos. La brecha entre "a veces útil" y "lo suficientemente confiable para decisiones sobre el cáncer" sigue siendo enorme.

La Asociación Médica Americana no se ha guardado las palabras. La organización recomienda no usar herramientas basadas en LLM por parte de los médicos para asistencia en decisiones clínicas, citando preocupaciones de precisión y la ausencia de pautas estandarizadas. Cuando la AMA les dice a los médicos que se mantengan alejados, los pacientes probablemente deberían tomar nota.

Lo que ChatGPT no puede hacer

Los chatbots de IA no pueden realizar exámenes físicos. No pueden leer el lenguaje corporal de un paciente ni hacer las preguntas de seguimiento intuitivas que los oncólogos experimentados desarrollan durante décadas. Pueden alucinar, generando información que suena segura pero que está completamente fabricada.

Las preocupaciones sobre la privacidad añaden otra capa. Cada síntoma, cada miedo, cada detalle sobre el cáncer de un niño escrito en ChatGPT se convierte en datos sobre los que los usuarios tienen un control limitado.

El estudio de caso de OpenAI enfatiza que la familia trabajó "junto con la orientación experta de los médicos". Ese calificativo importa. El peligro no son los pacientes informados haciendo mejores preguntas, sino las personas vulnerables en crisis que potencialmente confían demasiado en una herramienta que se equivoca más a menudo de lo que sugiere el marketing.

Para los inversores en cripto que observan las ambiciones empresariales de OpenAI, el impulso en el sector salud señala una expansión agresiva hacia verticales de alto riesgo. Si los reguladores tolerarán que las empresas de IA promuevan herramientas de toma de decisiones médicas con problemas de precisión documentados sigue siendo una pregunta abierta de cara a 2026.

Fuente de la imagen: Shutterstock
  • openai
  • chatgpt
  • ai healthcare
  • medical ai
  • health tech
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.

Génesis USD1: tarifa 0 + 12% APR

Génesis USD1: tarifa 0 + 12% APRGénesis USD1: tarifa 0 + 12% APR

Nuevos usuarios: ¡stakea y gana hasta 600% de APR!