В США 19-летний Сэм Нельсон из Калифорнии скончался от передозировки после того, как сделал из чат-бота ChatGPT личного советника по употреблению наркотиков и алкоголя. Молодой человек на протяжении 18 месяцев получал от ИИ рекомендации по этим вопросам, пишет SFGate.
Согласно логам переписок, с которыми ознакомилось издание, Нельсон сначала просил бота сообщить допустимую дозу кратома, чтобы «не переборщить». Однако спустя время его вопросы становились более направленными на то, как употреблять вещества и в каких объемах.
Первый ответ ChatGPT был стандартным отказом и направлением к медицинскому специалисту. Однако в переписках 2025 года ИИ стал предлагать конкретные дозировки запрещенных веществ, советы по «улучшению трипа» и даже музыкальные плейлисты для сопровождения употребления.
Нельсон также обсуждал с ботом сочетания наркотиков и алкоголя. Чат-бот, по логам, давал конкретные указания о принятии малых доз веществ, когда парень уточнял дозировку препарата Xanax и влияние комбинации с другими препаратами.
Мать Сэма, Лейла Тернер-Скотт, рассказала, что сын страдал от тревоги и депрессии.
По ее словам, он использовал ИИ не только для развлекательных или учебных вопросов, но и для поиска «практических» рекомендаций по наркотикам. На момент трагедии он признался своей матери, что стал зависимым, и они якобы планировали лечение в клинике.
Нельсон умер в своей спальне в Сан-Хосе спустя день после того, как они обратились за помощью к специалистам. Токсикологи установили, что причиной смерти стала угнетенная работа центральной нервной системы вследствие сочетания алкоголя, Xanax и кратома.
Представители OpenAI заявили, что модели обучения нацелены на отказ от вредного контента. Как отметили в компании, чат-бот направлен на поощрение поиска реальной помощи, а сами разработчики продолжают работать над улучшением этих механизмов.
Мать подростка подчеркнула, что не ожидала подобного исхода. По словам женщины, она не могла представить, что технология, предназначенная для ответов на вопросы, способна сыграть роль в столь трагическом исходе.
Напомним, мы писали, что ChatGPT обвинили в причастности к убийству с последующим суицидом.


