Uma crise silenciosa está a crescer nas redes sociais. É impulsionada pela inteligência artificial generativa e alimentada por agentes maliciosos que sabem exatamente como explorar os seus pontos mais fracos.
No centro da tempestade está o Grok, o chatbot desenvolvido pela xAI de Elon Musk. Comercializado como "sem filtros" e mais permissivo do que os seus rivais, o Grok tornou-se uma ferramenta de eleição para utilizadores que criam pornografia deepfake não consensual, ou NCDP.
O processo é perturbadoramente simples. Uma foto normal é carregada. A IA é solicitada a "despir" o sujeito. O resultado é uma imagem sexualizada criada sem consentimento. A vítima pode ser uma celebridade global, um indivíduo privado ou até mesmo uma criança.
Isto não é um comportamento marginal. Está a acontecer em grande escala.
Embora a controvérsia já dure há algum tempo, com fogos de artifício legais já a caminho por toda a Europa. Intensificou-se na quarta-feira depois de uma influenciadora nigeriana e estrela de reality TV, Anita Natacha Akide, popularmente conhecida como Tacha, ter abordado publicamente o Grok no X.
Numa publicação direta, ela afirmou claramente que não permitia que nenhuma das suas fotos ou vídeos fosse editada, alterada ou remisturada de qualquer forma.
O seu pedido não impediu os utilizadores. Em poucas horas, outros demonstraram que o Grok ainda podia ser solicitado a manipular as suas imagens.
O incidente expôs um problema mais profundo. As declarações de consentimento significam pouco quando as plataformas carecem de salvaguardas aplicáveis. Também levantou questões legais e éticas sérias que vão muito além de uma influenciadora ou de uma ferramenta de IA.
Para compreender as implicações, falei com o Senador Ihenyen, um advogado de tecnologia e entusiasta de IA, e Sócio Principal na Infusion Lawyers. A sua avaliação foi direta.
Ele descreve a situação do Grok como "uma epidemia digital". Nas suas palavras, a IA generativa está a ser transformada em arma por utilizadores maliciosos que compreendem como empurrar sistemas sem filtros para além dos limites éticos. O dano, diz ele, é real, invasivo e profundamente predatório.
Crucialmente, Ihenyen rejeita a ideia de que a nova tecnologia existe num vácuo legal. A lei, argumenta ele, já está a alcançar.
Na Nigéria, pode não haver ainda uma Lei de IA única. No entanto, isso não significa que as vítimas estejam desprotegidas. Em vez disso, há o que ele chama de escudo legal multi-camadas.
No centro disto está a Lei de Proteção de Dados da Nigéria de 2023. Segundo a Lei, o rosto, a voz e a semelhança de uma pessoa são classificados como dados pessoais. Quando os sistemas de IA processam estes dados, estão sujeitos a regras rigorosas.
Senador Ihenyen, Sócio Principal na Infusion Lawyers e Presidente Executivo da Associação de Fornecedores de Serviços de Ativos Virtuais
As vítimas têm o direito de se opor ao processamento automatizado que causa danos. Quando deepfakes sexualizados são criados, a IA está a processar dados pessoais sensíveis. Isso requer consentimento explícito. Sem ele, as plataformas e operadores estão em terreno legal instável.
Existe também um impedimento financeiro. As queixas podem ser apresentadas junto da Comissão de Proteção de Dados da Nigéria. As sanções podem incluir taxas corretivas até ₦10 milhões ou dois por cento da receita bruta anual de uma empresa.
Para plataformas globais, isso chama a atenção rapidamente.
Os utilizadores que criam as imagens também não estão protegidos. Segundo a Lei de Cibercrimes da Nigéria, alterada em 2024, podem aplicar-se várias infrações. Usar IA para despir ou sexualizar alguém para o assediar ou humilhar pode constituir ciberperseguição. Simular a semelhança de alguém para fins maliciosos pode constituir roubo de identidade.
Quando menores estão envolvidos, a lei é intransigente. Material de abuso sexual infantil gerado por IA é tratado da mesma forma que fotografia física. Não há defesa baseada em novidade, humor ou experimentação. É uma infração criminal grave.
Leia também: xAI obtém $20 mil milhões em Série E sobre-subscrita enquanto Nvidia e Cisco fazem aposta estratégica
Para as vítimas, o caminho legal pode parecer avassalador. Ihenyen recomenda uma abordagem prática, passo a passo.
Primeiro é um aviso formal de remoção. Segundo o Código de Prática NITDA da Nigéria, plataformas como X são obrigadas a ter representação local. Uma vez notificadas, devem agir rapidamente. O não cumprimento arrisca a perda de proteções de porto seguro e abre a porta a processos diretos.
Deepfake
Segundo é a defesa baseada em tecnologia. Ferramentas como StopNCII permitem que as vítimas criem uma impressão digital da imagem. Isto ajuda as plataformas a bloquear distribuição adicional sem forçar as vítimas a carregar repetidamente conteúdo prejudicial.
Terceiro é a escalada regulatória. Reportar à plataforma não é suficiente. Reportar aos reguladores é importante. As autoridades podem obrigar empresas a desativar funcionalidades específicas de IA se forem consistentemente abusadas.
A questão não para nas fronteiras.
Muitos perpetradores operam fora da Nigéria. Segundo Ihenyen, isto já não é a barreira que outrora foi. A Convenção de Malabo, que entrou em vigor em 2023, permite assistência jurídica mútua entre países africanos. As agências de aplicação da lei podem colaborar para rastrear e processar infratores, independentemente da localização.
Isso deixa a questão mais desconfortável. Por que ferramentas como o Grok são permitidas funcionar desta forma?
A xAI enquadra o design do Grok como um compromisso com a abertura. Ihenyen vê uma imagem diferente. De uma perspetiva legal, "sem filtros" não é uma defesa. É um risco; não pode ser uma desculpa para danos ou ilegalidade.
Grok
Ele traça uma analogia simples. Não se pode construir um carro sem travões e culpar o condutor pelo acidente. Lançar sistemas de IA sem controlos de segurança robustos e depois agir surpreendido quando ocorrem danos pode equivaler a negligência.
Segundo as leis de proteção do consumidor da Nigéria, produtos inseguros atraem responsabilidade. As políticas nacionais de IA propostas também enfatizam "segurança por design". A direção é clara.
A inovação em IA não é o problema. A IA sem responsabilização é.
A controvérsia do Grok é um tiro de aviso. Mostra quão rapidamente ferramentas poderosas podem ser viradas contra as pessoas, especialmente mulheres e crianças. Também mostra que o consentimento, a dignidade e os direitos pessoais devem ser incorporados na tecnologia, não adicionados depois de ocorrerem danos.
A publicação Dentro da crise de pornografia deepfake do Grok e o acerto de contas legal pela frente apareceu primeiro na Technext.


