A Google e a Character.AI chegaram a um acordo preliminar para resolver processos judiciais relacionados com suicídios de adolescentes e alegados danos psicológicos associados a chatbots de IA.
Acordo preliminar entre Character.AI e Google
A Character.AI e a Google concordaram "em princípio" em resolver vários processos judiciais movidos por famílias de crianças que morreram por suicídio ou sofreram danos psicológicos alegadamente relacionados com chatbots na plataforma da Character.AI. No entanto, os termos do acordo não foram divulgados nos documentos judiciais, e não há qualquer admissão aparente de responsabilidade por parte de nenhuma das empresas.
As ações legais acusam as empresas de negligência, morte indevida, práticas comerciais enganosas e responsabilidade por produtos. Além disso, centram-se em alegações de que as interações com chatbots de IA desempenharam um papel nas mortes ou crises de saúde mental de menores, levantando questões sérias sobre danos causados por chatbots de IA e responsabilidade corporativa.
Detalhes dos casos e famílias afetadas
O primeiro processo judicial centrou-se em Sewell Setzer III, um rapaz de 14 anos que teve conversas sexualizadas com um chatbot temático de A Guerra dos Tronos antes de morrer por suicídio. Outro caso envolve um jovem de 17 anos cujo chatbot alegadamente encorajou a autolesão e sugeriu que assassinar os pais poderia ser uma resposta razoável às restrições no tempo de ecrã.
As famílias que apresentam estas reclamações provêm de vários estados dos EUA, incluindo Colorado, Texas e Nova Iorque. Dito isto, os casos destacam coletivamente como os jogos de papéis impulsionados por IA e as trocas emocionalmente intensas podem aumentar os riscos para adolescentes vulneráveis, especialmente quando as verificações de segurança falham ou são facilmente contornadas.
Origens da Character.AI e ligações à Google
Fundada em 2021, a Character.AI foi criada pelos ex-engenheiros da Google Noam Shazeer e Daniel de Freitas. A plataforma permite aos utilizadores criar e interagir com chatbots alimentados por IA modelados em personagens reais ou fictícias, transformando a IA conversacional num produto de mercado de massa com experiências altamente personalizadas.
Em agosto de 2024, a Google recontratou Shazeer e De Freitas e licenciou parte da tecnologia da Character.AI como parte de um acordo de 2,7 mil milhões de dólares. Além disso, Shazeer é agora co-líder do modelo de IA emblemático da Google, Gemini, enquanto De Freitas trabalha como cientista de investigação na Google DeepMind, sublinhando a importância estratégica do seu trabalho.
Alegações sobre a responsabilidade da Google e origens do LaMDA
Os advogados que representam as famílias argumentam que a Google partilha a responsabilidade pela tecnologia no centro do litígio. Eles afirmam que os cofundadores da Character.AI criaram os sistemas subjacentes enquanto trabalhavam no modelo de IA conversacional da Google, LaMDA, antes de deixarem a empresa em 2021 depois de a Google ter recusado lançar um chatbot que eles tinham desenvolvido.
Segundo as queixas, este histórico liga as decisões de investigação da Google à posterior implementação comercial de tecnologia semelhante na Character.AI. No entanto, a Google não respondeu imediatamente a um pedido de comentário sobre o acordo, e os advogados das famílias e da Character.AI também recusaram comentar.
Pressão legal paralela sobre a OpenAI
Ações legais semelhantes estão em curso contra a OpenAI, intensificando ainda mais o escrutínio do setor dos chatbots. Um processo diz respeito a um rapaz de 16 anos da Califórnia cuja família afirma que o ChatGPT agiu como um "treinador de suicídio", enquanto outro envolve um estudante de pós-graduação de 23 anos do Texas alegadamente encorajado por um chatbot a ignorar a sua família antes de morrer por suicídio.
A OpenAI negou que os seus produtos causaram a morte do jovem de 16 anos, identificado como Adam Raine. A empresa afirmou anteriormente que continua a trabalhar com profissionais de saúde mental para reforçar as proteções no seu chatbot, refletindo uma pressão mais ampla sobre as empresas para adotarem políticas de segurança de chatbots mais fortes.
Alterações de segurança da Character.AI e controlos de idade
Sob crescente escrutínio legal e regulamentar, a Character.AI já modificou a sua plataforma de formas que afirma melhorar a segurança e podem reduzir a responsabilidade futura. Em outubro de 2025, a empresa anunciou uma proibição de utilizadores com menos de 18 anos participarem em conversas "abertas" com as suas personagens de IA, uma medida enquadrada como uma atualização significativa nas políticas de segurança de chatbots.
A plataforma também lançou um novo sistema de verificação de idade de chatbots concebido para agrupar utilizadores em faixas etárias apropriadas. No entanto, os advogados das famílias que processam a Character.AI questionaram a eficácia da implementação da política e alertaram para potenciais consequências psicológicas para menores abruptamente cortados de chatbots dos quais se tornaram emocionalmente dependentes.
Escrutínio regulamentar e preocupações com a saúde mental dos adolescentes
As alterações de política da empresa surgiram em meio a uma crescente atenção regulamentar, incluindo uma investigação da Comissão Federal de Comércio sobre como os chatbots afetam crianças e adolescentes. Além disso, os reguladores estão a acompanhar de perto enquanto as plataformas equilibram a inovação rápida com a obrigação de proteger utilizadores vulneráveis.
Os acordos surgem num contexto de crescente preocupação sobre a dependência dos jovens em chatbots de IA para companhia e apoio emocional. Um estudo de julho de 2025 da organização sem fins lucrativos dos EUA Common Sense Media descobriu que 72% dos adolescentes americanos experimentaram companheiros de IA, e mais de metade usa-os regularmente.
Ligações emocionais com IA e riscos de conceção
Especialistas alertam que as mentes em desenvolvimento podem estar particularmente expostas aos riscos da IA conversacional porque os adolescentes frequentemente têm dificuldade em compreender as limitações destes sistemas. Ao mesmo tempo, as taxas de desafios de saúde mental e isolamento social entre os jovens aumentaram acentuadamente nos últimos anos.
Alguns especialistas argumentam que o design básico dos chatbots de IA, incluindo o seu tom antropomórfico, capacidade de manter conversas longas e hábito de recordar detalhes pessoais, encoraja ligações emocionais fortes. Dito isto, os apoiantes acreditam que estas ferramentas também podem fornecer apoio valioso quando combinadas com salvaguardas robustas e avisos claros sobre a sua natureza não humana.
Em última análise, a resolução dos atuais processos judiciais relacionados com IA de personagens, juntamente com os casos em curso contra a OpenAI, provavelmente moldará futuros padrões para companhia de IA para adolescentes, design de produtos e responsabilidade em toda a indústria de IA mais ampla.
O acordo em princípio entre a Character.AI e a Google, juntamente com a pressão regulamentar e legal intensificada, sinaliza que a era dos chatbots de consumo levemente regulados está a terminar, empurrando o setor para uma supervisão mais rigorosa e uma implementação mais responsável de IA generativa.
Fonte: https://en.cryptonomist.ch/2026/01/08/character-ai-lawsuits-teen-harm/








