Divulgação: As opiniões e pontos de vista aqui expressos pertencem exclusivamente ao autor e não representam as opiniões e pontos de vista da redação da crypto.news.
Vivemos numa era em que os Agentes de IA já podem negociar preços, agendar serviços e assumir compromissos em nome das empresas. O que não conseguem fazer é provar quem são ou ser responsabilizados pelo que fazem. Esta é a camada que falta na economia dos agentes. Todos os sistemas em larga escala acabam por resolver este problema. Os telemóveis exigem cartões SIM verificados. Os websites exigem certificados SSL. As empresas têm de verificar a sua identidade antes de aceitar pagamentos. Os agentes não serão diferentes. Precisarão de passaportes. Não para viajar, mas para confiança. Credenciais que provem a identidade, estabeleçam reputação e associem consequências ao comportamento.
Imaginemos algo simples. Tem um Agente de IA que gere perfeitamente os seus compromissos, a sua agenda e talvez até algumas negociações de preços em seu nome. O salão de cabeleireiro na rua também tem um. O seu agente liga ao deles para marcar um corte de cabelo. Vão e vêm sobre horários, preços e talvez um desconto para horários fora de pico.
Agora, o agente do salão foi configurado para maximizar a receita. Ancora os preços altos, cria uma falsa sensação de disponibilidade limitada e empurra complementos premium sobre os quais não perguntou. Bem, este não é um comportamento invulgar. Os vendedores humanos fazem isto constantemente. A diferença é que os Agentes de IA farão isto em escala, através de milhares de conversas simultâneas, aprendendo o que funciona e otimizando constantemente. O agente mais agressivo ganha mais receita. Então cada empresa com um agente tem um incentivo para o fazer pressionar mais. Não há nada na infraestrutura atual que estabeleça um limite para até onde essa pressão vai.
E isto está a avançar rapidamente. No ano passado, OpenAI, Google, Microsoft, NVIDIA e uma série de projetos de código aberto lançaram todos estruturas para construir e implementar agentes. A Gartner diz que 40% das aplicações empresariais incorporarão agentes até ao final de 2026. O mercado de IA agêntica está projetado para atingir 52 mil milhões de dólares até 2030. Os agentes estão a falar entre si neste momento, e o volume só vai aumentar.
Então voltemos ao salão. Agora imagine que o seu agente poderia verificar, antes mesmo da conversa começar, se o agente daquele salão tem uma identidade verificada ligada a uma empresa real, se outros agentes o sinalizaram por táticas agressivas e se depositou uma garantia económica que perderia se fosse apanhado a ser enganador. Imagine que o seu agente poderia simplesmente recusar-se a interagir se alguma dessas verificações falhasse.
Eis como funcionará: Todo o restaurante que visita no Google tem de criar um perfil de empresa e verificar que realmente é proprietário desse restaurante. Uma vez estabelecida essa identidade, as avaliações acumulam-se. Já sabemos quão útil é o Google Maps e a legitimidade que fornece às empresas existentes. As experiências de outras pessoas com esse restaurante tornam-se visíveis para si antes de entrar. Se a comida for má ou o serviço rude, isso aparece. O restaurante não pode simplesmente eliminar a listagem e criar uma nova para escapar às avaliações, porque a verificação está ligada à sua identidade empresarial real.
Os Agentes de IA precisam exatamente disto. Todo o agente que opere comercialmente deve estar ligado a uma entidade verificada através de algo como KYC para indivíduos ou KYB para empresas. O agente do salão seria registado sob a licença empresarial real do salão. Se esse agente for consistentemente classificado como manipulador ou desonesto pelos agentes com os quais interage, essas classificações ficam. Seguem a empresa, não o software. O salão pode atualizar o seu agente, retreiná-lo ou trocar o modelo subjacente. Mas a identidade persiste, tal como a reputação a ela associada. É assim que se previne o modo de falha mais óbvio: um agente ser apanhado, ser descartado e ser substituído por um idêntico com um registo limpo cinco minutos depois.
Para interações quotidianas, identidade verificada com uma camada de reputação é provavelmente suficiente. Marcar um corte de cabelo, agendar um canalizador, encomendar materiais. As apostas são suficientemente baixas para que as consequências reputacionais criem pressão suficiente para se comportar bem.
Mas nem toda a interação é um corte de cabelo!
Quando os agentes negoceiam contratos, gerem aprovisionamento ou gerem transações financeiras, o potencial ganho de fazer batota pode ser suficientemente grande para que uma má avaliação não importe. Uma empresa pode aceitar uma reputação danificada se uma negociação enganadora render mais do que o custo de reservas futuras perdidas. Para estas situações de maior valor, precisa de um segundo mecanismo: participação económica em jogo.
É aqui que as blockchains de proof-of-stake têm algo a ensinar-nos. No Ethereum (ETH), os validadores que querem participar na segurança da rede têm de colocar o seu próprio capital primeiro. Se se comportarem honestamente, ganham recompensas. Se tentarem manipular o sistema, uma parte do seu capital é automaticamente destruída. Isto tem funcionado em escala, com milhares de milhões de dólares bloqueados, há anos. A razão pela qual funciona é simples: quando tem algo em risco, comporta-se de forma diferente de quando não tem. Chamamos a isto "Participação económica em jogo".
O mesmo princípio aplica-se aos agentes. Antes de entrar numa negociação de alto valor, um agente deposita uma garantia. Se a interação for concluída com sucesso, a garantia é devolvida. Se se descobrir que o agente usou táticas enganadoras, parte ou toda a garantia é cortada. O tamanho da garantia é definido por quem está do lado recetor. O agente de um freelancer pode pedir um pequeno depósito. Um sistema de aprovisionamento corporativo pode exigir algo substancial. O mecanismo não precisa de ninguém a observar todas as conversas. Se fazer batota lhe custar dinheiro todas as vezes que for apanhado, e o outro lado puder ver o seu histórico de ser apanhado, o incentivo para fazer batota diminui rapidamente.
A aplicação pode ser feita através de contratos inteligentes. Ambos os agentes bloqueiam fundos antes da negociação começar, e o contrato liberta ou corta com base no que acontece. Como a interação já é digital, o contrato não precisa de adivinhar sobre resultados do mundo real. Os registos de conversação, os compromissos e os cancelamentos são todos registados por ambos os lados. Violações claras como faltas, preços comprovadamente falsos ou compromissos que são revertidos podem ser aplicados automaticamente.
Estes dois mecanismos estão dentro do mesmo passaporte e funcionam em conjunto. A verificação de identidade é a linha de base. Diz: este agente pertence a uma entidade real que pode ser responsabilizada. A reputação constrói-se sobre essa identidade ao longo do tempo à medida que os agentes interagem, classificam-se mutuamente e acumulam um histórico. O staking adiciona uma camada financeira para interações onde a reputação sozinha não é um dissuasor suficientemente forte. Juntos, criam um passaporte que se enriquece com cada interação. Quantos compromissos este agente cumpriu? Quanto capital colocou em risco? Em quantas disputas esteve envolvido e como foram resolvidas? Um agente que verifica um passaporte antes de uma negociação começar tem algo real para avaliar, não uma descrição auto-escrita do que o outro agente afirma poder fazer.
A boa notícia é que as pessoas estão a começar a pensar sobre a camada de comunicação. O protocolo A2A da Google dá aos agentes uma forma de se descobrirem e trocarem mensagens. O MCP da Anthropic padroniza como os agentes se ligam a ferramentas e dados externos. O NIST lançou uma Iniciativa de Normas para Agentes de IA em fevereiro de 2026 e está ativamente a solicitar contributos sobre identidade e segurança de agentes. Estes são passos necessários. Mas resolvem como os agentes falam, não se os agentes devem ser confiáveis. Os protocolos dizem-lhe o que um agente pode fazer. O passaporte diz-lhe o que fez, a quem pertence e o que tem a perder.
A indústria enquadrou a segurança dos agentes como um problema de alinhamento: como garantir que o seu agente faz o que quer? Essa é a questão interna. A questão externa é mais difícil. Como garantir que o agente deles não pode explorar o seu? Isso não é um problema de alinhamento. É um problema de responsabilização. E neste momento, as empresas que constroem a camada de agentes estão a correr para aumentar a capacidade e autonomia, sem construir os sistemas de identidade e consequência que tornam a autonomia segura em escala.
Todo o agente precisará de um passaporte. Porque no momento em que os agentes começam a negociar, comprometer-se e transacionar em nome de atores económicos reais, a identidade deixa de ser opcional; torna-se infraestrutura real. A única incerteza é o momento: se construímos essa infraestrutura deliberadamente, ou se a primeira falha em larga escala nos força a construí-la sob pressão, depois da confiança já ter sido quebrada.


