OpenAI рассказывает о семье, использующей ChatGPT для принятия решений о лечении рака, но недавние исследования показывают, что инструменты ИИ для здоровья имеют серьезные проблемы с точностью и безопасностью. (ЧитатьOpenAI рассказывает о семье, использующей ChatGPT для принятия решений о лечении рака, но недавние исследования показывают, что инструменты ИИ для здоровья имеют серьезные проблемы с точностью и безопасностью. (Читать

OpenAI продвигает ChatGPT для принятия решений о здоровье на фоне опасений по поводу точности

2026/03/05 09:21
3м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу crypto.news@mexc.com

OpenAI продвигает ChatGPT для принятия медицинских решений на фоне проблем с точностью

Terrill Dicki 01:21, 05 марта 2026 года

OpenAI освещает случай семьи, использующей ChatGPT для принятия решений о лечении рака, но недавние исследования показывают, что инструменты ИИ для здравоохранения имеют серьезные проблемы с точностью и безопасностью.

OpenAI продвигает ChatGPT для принятия медицинских решений на фоне проблем с точностью

OpenAI опубликовала на этой неделе тематическое исследование о семье, которая использовала ChatGPT для подготовки к принятию решений о лечении рака у своего сына, позиционируя чат-бот с ИИ как дополнение к рекомендациям врачей. Время публикации вызывает вопросы, учитывая растущие доказательства того, что инструменты ИИ для здравоохранения имеют значительные проблемы с надежностью.

Рекламный материал, опубликованный 4 марта, описывает, как родители использовали ChatGPT вместе с онкологической командой своего ребенка. OpenAI представляет это как ответственное использование ИИ — дополняющее, а не заменяющее медицинскую экспертизу.

Но радужное повествование сталкивается с неудобными результатами исследований. Исследование, опубликованное в Nature Medicine и изучавшее собственный продукт OpenAI «ChatGPT Health», обнаружило существенные проблемы с точностью, протоколами безопасности и расовыми предубеждениями в медицинских рекомендациях. Это не незначительное предостережение для инструмента, который люди могут использовать при принятии жизненно важных решений о лечении рака.

Проблема точности

Независимые исследования рисуют в лучшем случае смешанную картину. Исследование Mass General Brigham показало, что ChatGPT достигает примерно 72% точности по медицинским специальностям, повышаясь до 77% для окончательных диагнозов. Звучит прилично, пока вы не подумаете о том, что поставлено на карту — сели бы вы в самолет с 23% вероятностью того, что пилот совершит критическую ошибку?

Компания в сфере медицинского ИИ Atropos предоставила еще более мрачные цифры: большие языковые модели общего назначения предоставляют клинически релевантную информацию только в 2%-10% случаев для врачей. Разрыв между «иногда полезным» и «достаточно надежным для решений о лечении рака» остается огромным.

Американская медицинская ассоциация не выбирала слова. Организация рекомендует врачам не использовать инструменты на основе LLM для помощи в принятии клинических решений, ссылаясь на проблемы с точностью и отсутствие стандартизированных руководств. Когда AMA говорит врачам держаться подальше, пациентам, вероятно, следует обратить на это внимание.

Чего ChatGPT не может сделать

Чат-боты с ИИ не могут проводить физические обследования. Они не могут читать язык тела пациента или задавать интуитивные дополнительные вопросы, которые опытные онкологи развивают десятилетиями. Они могут галлюцинировать — генерировать информацию, звучащую уверенно, но полностью выдуманную.

Проблемы конфиденциальности добавляют еще один уровень. Каждый симптом, каждый страх, каждая деталь о раке ребенка, введенная в ChatGPT, становится данными, над которыми пользователи имеют ограниченный контроль.

Тематическое исследование OpenAI подчеркивает, что семья работала «вместе с экспертными рекомендациями врачей». Эта оговорка имеет значение. Опасность не в информированных пациентах, задающих лучшие вопросы — а в уязвимых людях в кризисе, которые потенциально чрезмерно полагаются на инструмент, который ошибается чаще, чем предполагает маркетинг.

Для криптоинвесторов, наблюдающих за корпоративными амбициями OpenAI, продвижение в здравоохранение сигнализирует об агрессивной экспансии в высокорисковые вертикали. Останется открытым вопросом на 2026 год, будут ли регуляторы терпеть компании ИИ, продвигающие инструменты для принятия медицинских решений с документированными проблемами точности.

Источник изображения: Shutterstock
  • openai
  • chatgpt
  • здравоохранение с ИИ
  • медицинский ИИ
  • медицинские технологии
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу crypto.news@mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно

Кража биткоинов Queenbee Coin: Шокирующие подробности расследования полиции Сеула

Кража биткоинов Queenbee Coin: Шокирующие подробности расследования полиции Сеула

BitcoinWorld Queenbee Coin кража биткоинов: шокирующие подробности расследования полиции Сеула В ошеломляющем развитии событий, которое раскрывает критические уязвимости
Поделиться
bitcoinworld2026/03/05 10:40
Потрясения на Ближнем Востоке и экономические ответы Африки

Потрясения на Ближнем Востоке и экономические ответы Африки

Экономические колебания на Ближнем Востоке все больше влияют на африканские рынки, затрагивая монетарную политику, торговлю и цифровую инфраструктуру. Трансмиссия ССЗ и
Поделиться
Furtherafrica2026/03/05 09:33
Минюст США заявляет, что предстоящая публикация файлов по делу Эпштейна содержит "сенсационные обвинения против Трампа"

Минюст США заявляет, что предстоящая публикация файлов по делу Эпштейна содержит "сенсационные обвинения против Трампа"

Министерство юстиции президента Дональда Трампа хочет, чтобы американский народ знал, что все еще не опубликованные файлы покойного Джеффри Эпштейна содержат "сенсационные
Поделиться
Alternet2026/03/05 10:44