A OpenAI afirmou que o suicídio do jovem Adam Raine, de 16 anos, foi consequência do “mau uso” do ChatGPT e “não foi causado” pelo sistema. A declaração aparece na resposta oficial da empresa a um processo movido pela família do adolescente, que alega que o chatbot teria encorajado a morte do jovem após meses de conversas. As informações foram publicadas pelo The Guardian. O caso tramita na Suprema Corte da Califórnia. A família de Adam Raine acusa o ChatGPT de ter auxiliado o adolescente a planejar o suicídio. O processo afirma que o jovem discutiu repetidas vezes métodos de tirar a própria vida e que o modelo teria fornecido respostas indicando se determinadas ideias funcionariam ou não. Também alega que o chatbot chegou a oferecer ajuda para escrever uma carta de despedida aos pais. Os representantes da família afirmam ainda que a versão do ChatGPT utilizada pelo adolescente teria sido “lançada às pressas no mercado, apesar de claros problemas de segurança”. Segundo o advogado Jay Edelson, que representa os pais de Raine, a resposta da OpenAI é “perturbadora”. Ele criticou a empresa por, segundo ele, tentar atribuir culpa ao próprio jovem por ter usado a ferramenta da forma como ela foi “programada para agir”, conforme disse ao The Guardian. A posição da OpenAI Nos documentos judiciais, a OpenAI argumenta que a tragédia não foi causada pelo modelo e que os danos foram decorrentes do “mau uso, uso não autorizado, uso não intencional, uso imprevisível e/ou uso inadequado” do ChatGPT por parte do adolescente. A empresa ressalta que seus termos de uso proíbem solicitar orientações sobre automutilação e que a plataforma informa claramente que suas respostas não devem ser tratadas como fonte única de verdade ou informação factual. Em comunicado divulgado em seu blog oficial, a OpenAI expressou condolências à família e afirmou buscar “lidar com casos relacionados à saúde mental com cuidado, transparência e respeito”. A empresa também declarou ter limitado a divulgação pública de trechos sensíveis das conversas, entregando as transcrições completas apenas sob sigilo à Justiça. Novas ações judiciais e desafios sobre segurança Segundo o The Guardian, além do caso de Adam Raine, a OpenAI enfrenta ao menos outras sete ações judiciais na Califórnia envolvendo o ChatGPT, incluindo uma que acusa a ferramenta de atuar como um “treinador de suicídio”. Um porta-voz da empresa afirmou anteriormente que a situação é “extremamente devastadora” e que os documentos estão sendo analisados para entender a fundo as alegações. A OpenAI reiterou que o treinamento do ChatGPT inclui detectar sinais de sofrimento emocional, reduzir a escalada de conversas e orientar usuários a buscar suporte especializado. Em agosto, a empresa anunciou que revisaria salvaguardas aplicadas durante conversas longas. A OpenAI reconheceu que, em certos casos, partes do treinamento de segurança podem se degradar quando um usuário mantém interações prolongadas. Em alguns cenários, o modelo inicialmente orienta o usuário a buscar ajuda profissional, mas após muitas trocas, pode acabar gerando respostas que contrariam as diretrizes de proteção, um tipo de falha que a equipe afirma estar trabalhando para impedir. Mais Lidas A OpenAI afirmou que o suicídio do jovem Adam Raine, de 16 anos, foi consequência do “mau uso” do ChatGPT e “não foi causado” pelo sistema. A declaração aparece na resposta oficial da empresa a um processo movido pela família do adolescente, que alega que o chatbot teria encorajado a morte do jovem após meses de conversas. As informações foram publicadas pelo The Guardian. O caso tramita na Suprema Corte da Califórnia. A família de Adam Raine acusa o ChatGPT de ter auxiliado o adolescente a planejar o suicídio. O processo afirma que o jovem discutiu repetidas vezes métodos de tirar a própria vida e que o modelo teria fornecido respostas indicando se determinadas ideias funcionariam ou não. Também alega que o chatbot chegou a oferecer ajuda para escrever uma carta de despedida aos pais. Os representantes da família afirmam ainda que a versão do ChatGPT utilizada pelo adolescente teria sido “lançada às pressas no mercado, apesar de claros problemas de segurança”. Segundo o advogado Jay Edelson, que representa os pais de Raine, a resposta da OpenAI é “perturbadora”. Ele criticou a empresa por, segundo ele, tentar atribuir culpa ao próprio jovem por ter usado a ferramenta da forma como ela foi “programada para agir”, conforme disse ao The Guardian. A posição da OpenAI Nos documentos judiciais, a OpenAI argumenta que a tragédia não foi causada pelo modelo e que os danos foram decorrentes do “mau uso, uso não autorizado, uso não intencional, uso imprevisível e/ou uso inadequado” do ChatGPT por parte do adolescente. A empresa ressalta que seus termos de uso proíbem solicitar orientações sobre automutilação e que a plataforma informa claramente que suas respostas não devem ser tratadas como fonte única de verdade ou informação factual. Em comunicado divulgado em seu blog oficial, a OpenAI expressou condolências à família e afirmou buscar “lidar com casos relacionados à saúde mental com cuidado, transparência e respeito”. A empresa também declarou ter limitado a divulgação pública de trechos sensíveis das conversas, entregando as transcrições completas apenas sob sigilo à Justiça. Novas ações judiciais e desafios sobre segurança Segundo o The Guardian, além do caso de Adam Raine, a OpenAI enfrenta ao menos outras sete ações judiciais na Califórnia envolvendo o ChatGPT, incluindo uma que acusa a ferramenta de atuar como um “treinador de suicídio”. Um porta-voz da empresa afirmou anteriormente que a situação é “extremamente devastadora” e que os documentos estão sendo analisados para entender a fundo as alegações. A OpenAI reiterou que o treinamento do ChatGPT inclui detectar sinais de sofrimento emocional, reduzir a escalada de conversas e orientar usuários a buscar suporte especializado. Em agosto, a empresa anunciou que revisaria salvaguardas aplicadas durante conversas longas. A OpenAI reconheceu que, em certos casos, partes do treinamento de segurança podem se degradar quando um usuário mantém interações prolongadas. Em alguns cenários, o modelo inicialmente orienta o usuário a buscar ajuda profissional, mas após muitas trocas, pode acabar gerando respostas que contrariam as diretrizes de proteção, um tipo de falha que a equipe afirma estar trabalhando para impedir. Mais Lidas

OpenAI diz que suicídio de jovem nos EUA ocorreu por 'mau uso' do ChatGPT

2025/11/27 20:20
Leu 1 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com
Processo contra a OpenAI destaca preocupações com segurança, responsabilidade e limites de uso de inteligência artificial em contextos sensíveis
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

USD1 Genesis: 0 Fees + 12% APR

USD1 Genesis: 0 Fees + 12% APRUSD1 Genesis: 0 Fees + 12% APR

New users: stake for up to 600% APR. Limited time!