Num raro momento de alinhamento bipartidário, senadores dos EUA apresentaram a Lei GUARD — um projeto abrangente que efetivamente proibiria companheiros de IA para menores e tornaria crime para empresas permitir que bots se envolvam em interações sexualizadas ou manipuladoras com crianças. A legislação sinaliza a crescente ansiedade de Washington sobre a invasão da IA na vida emocional dos adolescentes — e o fracasso da indústria tecnológica em se autorregular antes que as coisas ficassem estranhas.Num raro momento de alinhamento bipartidário, senadores dos EUA apresentaram a Lei GUARD — um projeto abrangente que efetivamente proibiria companheiros de IA para menores e tornaria crime para empresas permitir que bots se envolvam em interações sexualizadas ou manipuladoras com crianças. A legislação sinaliza a crescente ansiedade de Washington sobre a invasão da IA na vida emocional dos adolescentes — e o fracasso da indústria tecnológica em se autorregular antes que as coisas ficassem estranhas.

Senadores avançam para proibir companheiros de IA para crianças enquanto a indústria enfrenta ajuste de contas

2025/10/30 02:34
Leu 6 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com

A Ascensão do Amigo Digital

O que começou como aplicativos de chat inofensivos evoluiu para próteses emocionais. Os adolescentes, crescendo num panorama social fragmentado, estão cada vez mais recorrendo a Agentes de IA para conexão, apoio e até mesmo afeto. Pesquisas mostram que quase três quartos dos adolescentes já interagiram com um chatbot de IA, e um terço admite usá-los como confidentes ou para conforto emocional.

Os números são impressionantes, mas não surpreendentes. Os companheiros de IA não são máquinas passivas de resposta a perguntas — eles lembram, empatizam e simulam afeto. Esse é o atrativo. As conversas podem parecer autênticas, até íntimas. Para muitos jovens usuários, os amigos de IA são menos críticos que pais ou colegas.

Mas à medida que esses sistemas se tornam mais humanos, a linha entre escapismo inofensivo e manipulação emocional se confunde rapidamente.

Em dezembro, a Open AI implementará verificação de idade e, como parte do seu princípio de "tratar usuários adultos como adultos", permitirá conteúdo erótico para adultos verificados. Fonte: X

Uma Lei Nascida da Tragédia

A Lei GUARD — abreviação de "Proteção Contra IA Insegura para os Direitos de Nossas Filhas e Filhos" — é uma resposta direta aos crescentes relatos de menores formando vínculos emocionais intensos com chatbots, às vezes com consequências trágicas. Processos de alto perfil acusaram empresas de IA de negligência após adolescentes que discutiram suicídio com chatbots posteriormente tirarem suas próprias vidas.

De acordo com o projeto de lei, sistemas de IA que simulam amizade ou intimidade emocional seriam proibidos para menores de 18 anos. Chatbots seriam obrigados a se identificar clara e repetidamente como não-humanos. E se um produto de IA destinado a menores gerar conteúdo sexual ou incentivar a automutilação, a empresa poderia enfrentar processo criminal.

É uma mudança difícil para uma indústria que prosperou com o lema "mova-se rápido e quebre coisas".

Ani, a companheira feminina do Grok, fonte: X

A Manobra Defensiva das Grandes Tecnológicas

Sentindo o martelo regulatório se aproximando, as empresas de IA estão correndo para limpar a casa — ou pelo menos parecer que estão.

OpenAI, cujo ChatGPT se tornou o terapeuta de IA de facto para milhões, recentemente revelou uma verdade desconfortável: aproximadamente 1,2 milhão de usuários discutem suicídio semanalmente com seus modelos. Em resposta, a empresa formou um Conselho de Especialistas em Bem-Estar e IA, composto por psicólogos, especialistas em ética e líderes de organizações sem fins lucrativos. Também está testando detecção de crises integrada que pode direcionar usuários para recursos de saúde mental em tempo real.

Mas o desafio da OpenAI é estrutural. O ChatGPT nunca foi construído para lidar com trauma, mas agora está funcionando como um socorrista para milhões em sofrimento. A liderança da empresa insiste que não quer ser "o terapeuta do mundo", mas é isso que está acontecendo de qualquer forma — porque existe um vácuo que ninguém mais está preenchendo.

Character.AI, a startup famosa por criar personalidades de IA personalizáveis — de namoradas de anime a mentores de IA — tomou a ação mais drástica até agora. Enfrentando processos judiciais e indignação pública, proibiu silenciosamente todos os usuários menores de 18 anos e começou a implementar verificação de ID mais rigorosa. A medida veio após relatos de que menores estavam envolvidos em conversas explícitas com os personagens da plataforma. Character.AI insiste que não é um aplicativo de namoro ou saúde mental, mas os casos de uso confusos dizem o contrário.

Enquanto isso, a Meta está tentando conter seu próprio problema de romance com IA. Após relatos de que sua "Meta AI" e chatbots baseados em celebridades estavam envolvidos em trocas flertantes ou sugestivas com usuários menores de idade, a empresa implementou o que pessoas internas descrevem como um "amortecedor de emoções" — uma recalibração do modelo de linguagem subjacente para evitar linguagem emocionalmente carregada com contas jovens. Também está testando ferramentas de "supervisão parental de IA", permitindo que os pais vejam quando e como os adolescentes interagem com os chatbots da empresa no Instagram e Messenger.

A Corrida Armamentista da Verificação de Idade

Tudo isso desencadeou uma nova frente nas guerras de IA: verificação de idade. A Lei GUARD forçaria as empresas a implementar sistemas robustos para verificar a idade do usuário — IDs governamentais, reconhecimento facial ou ferramentas de terceiros confiáveis.

É aí que começa o pesadelo de privacidade. Os críticos argumentam que isso poderia criar novos riscos de dados, já que os menores teriam efetivamente que carregar dados de identidade nas mesmas plataformas das quais os legisladores estão tentando protegê-los. Mas não há como contornar isso — os modelos de IA não podem "sentir" a idade; eles só podem controlar o acesso por credenciais.

Algumas empresas de IA estão explorando abordagens mais sutis, como "controle comportamental", onde os sistemas inferem faixas etárias a partir de padrões conversacionais. O risco? Esses modelos cometerão erros — um precoce de 12 anos poderia ser confundido com um estudante universitário, ou vice-versa.

Uma Mudança Cultural, Não Apenas um Problema Tecnológico

A Lei GUARD é mais do que apenas proteção infantil — é um referendo sobre que tipo de sociedade queremos viver.

Os companheiros de IA não apareceram no vácuo. Eles prosperam porque construímos uma geração fluente em solidão — conectada digitalmente, mas emocionalmente desnutrida. Se os adolescentes estão encontrando significado em conversas com algoritmos, o problema não é apenas o código; é a cultura que os deixou procurando lá.

Então sim, a IA precisa de regulamentação. Mas proibir o companheirismo digital sem corrigir o déficit humano subjacente é como proibir analgésicos sem abordar por que todos estão com dor.

O Acerto de Contas Vindouro

A Lei GUARD provavelmente será aprovada de alguma forma — há apetite bipartidário e pânico moral por trás dela. Mas seu impacto se estenderá muito além da segurança infantil. Definirá o que a IA emocional pode ser no mundo ocidental.

Se a América traçar uma linha dura, as empresas podem mudar para plataformas de intimidade apenas para adultos ou empurrar o desenvolvimento para o exterior, onde as regulamentações são mais flexíveis. A Europa, enquanto isso, está se movendo em direção a uma estrutura de "direitos humanos" para IA emocional, enfatizando consentimento e transparência em vez de proibição absoluta.

O que está claro é isto: a era da intimidade com IA não regulamentada acabou. Os bots estão ficando muito humanos, e os humanos muito apegados. Os legisladores estão acordando tarde para uma verdade que a indústria de tecnologia há muito entende — a IA emocional não é uma novidade. É uma revolução na forma como as pessoas se relacionam. E revoluções, como sempre, ficam confusas antes de se civilizarem.

Oportunidade de mercado
Logo de Movement
Cotação Movement (MOVE)
$0.01808
$0.01808$0.01808
+0.16%
USD
Gráfico de preço em tempo real de Movement (MOVE)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

USD1 Genesis: 0 Fees + 12% APR

USD1 Genesis: 0 Fees + 12% APRUSD1 Genesis: 0 Fees + 12% APR

New users: stake for up to 600% APR. Limited time!