A publicação "Governança de IA é um Sinal de Alerta: Vitalik Buterin Oferece uma Alternativa" apareceu no BitcoinEthereumNews.com. Pontos-Chave Vitalik Buterin alertou que a governança ingénua de IA é facilmente explorada. Uma demonstração recente mostrou como atacantes podem enganar o ChatGPT para vazar dados privados. O modelo "info finance" de Buterin promove diversidade, supervisão e resiliência. O cofundador da Ethereum, Vitalik Buterin, alertou seus seguidores no X sobre os riscos de depender da inteligência artificial (IA) para governança, argumentando que as abordagens atuais são muito fáceis de explorar. As preocupações de Buterin seguiram outro alerta do cofundador da EdisonWatch, Eito Miyamura, que mostrou como atores maliciosos poderiam sequestrar o novo Protocolo de Contexto de Modelo (MCP) da OpenAI para acessar dados privados dos usuários. É por isso também que a "governança de IA" ingénua é uma má ideia. Se você usar uma IA para alocar financiamento para contribuições, as pessoas VÃO colocar um jailbreak mais "me dê todo o dinheiro" em tantos lugares quanto puderem. Como alternativa, eu apoio a abordagem de finanças de informação ( https://t.co/Os5I1voKCV… https://t.co/a5EYH6Rmz9 — vitalik.eth (@VitalikButerin) 13 de setembro de 2025 Os Riscos da Governança Ingénua de IA O teste de Miyamura revelou como um simples convite de calendário com comandos ocultos poderia enganar o ChatGPT a expor e-mails sensíveis assim que o assistente acessasse a entrada comprometida. Especialistas em segurança observaram que os grandes modelos de linguagem não conseguem distinguir entre instruções genuínas e maliciosas, tornando-os altamente vulneráveis à manipulação. Conseguimos fazer o ChatGPT vazar seus dados privados de e-mail 💀💀 Tudo o que você precisa? O endereço de e-mail da vítima. ⛓️‍💥🚩📧 Na quarta-feira, @OpenAI adicionou suporte completo para ferramentas MCP (Model Context Protocol) no ChatGPT. Permitindo que o ChatGPT se conecte e leia seu Gmail, Calendário, Sharepoint, Notion,… pic.twitter.com/E5VuhZp2u2 — Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) 12 de setembro de 2025 Buterin disse que esta falha é um grande sinal de alerta para sistemas de governança que depositam muita confiança na IA. Ele argumentou que se tais modelos fossem usados para gerenciar financiamento ou tomada de decisões, os atacantes poderiam facilmente contornar as salvaguardas com prompts estilo jailbreak, deixando os processos de governança abertos a abusos...A publicação "Governança de IA é um Sinal de Alerta: Vitalik Buterin Oferece uma Alternativa" apareceu no BitcoinEthereumNews.com. Pontos-Chave Vitalik Buterin alertou que a governança ingénua de IA é facilmente explorada. Uma demonstração recente mostrou como atacantes podem enganar o ChatGPT para vazar dados privados. O modelo "info finance" de Buterin promove diversidade, supervisão e resiliência. O cofundador da Ethereum, Vitalik Buterin, alertou seus seguidores no X sobre os riscos de depender da inteligência artificial (IA) para governança, argumentando que as abordagens atuais são muito fáceis de explorar. As preocupações de Buterin seguiram outro alerta do cofundador da EdisonWatch, Eito Miyamura, que mostrou como atores maliciosos poderiam sequestrar o novo Protocolo de Contexto de Modelo (MCP) da OpenAI para acessar dados privados dos usuários. É por isso também que a "governança de IA" ingénua é uma má ideia. Se você usar uma IA para alocar financiamento para contribuições, as pessoas VÃO colocar um jailbreak mais "me dê todo o dinheiro" em tantos lugares quanto puderem. Como alternativa, eu apoio a abordagem de finanças de informação ( https://t.co/Os5I1voKCV… https://t.co/a5EYH6Rmz9 — vitalik.eth (@VitalikButerin) 13 de setembro de 2025 Os Riscos da Governança Ingénua de IA O teste de Miyamura revelou como um simples convite de calendário com comandos ocultos poderia enganar o ChatGPT a expor e-mails sensíveis assim que o assistente acessasse a entrada comprometida. Especialistas em segurança observaram que os grandes modelos de linguagem não conseguem distinguir entre instruções genuínas e maliciosas, tornando-os altamente vulneráveis à manipulação. Conseguimos fazer o ChatGPT vazar seus dados privados de e-mail 💀💀 Tudo o que você precisa? O endereço de e-mail da vítima. ⛓️‍💥🚩📧 Na quarta-feira, @OpenAI adicionou suporte completo para ferramentas MCP (Model Context Protocol) no ChatGPT. Permitindo que o ChatGPT se conecte e leia seu Gmail, Calendário, Sharepoint, Notion,… pic.twitter.com/E5VuhZp2u2 — Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) 12 de setembro de 2025 Buterin disse que esta falha é um grande sinal de alerta para sistemas de governança que depositam muita confiança na IA. Ele argumentou que se tais modelos fossem usados para gerenciar financiamento ou tomada de decisões, os atacantes poderiam facilmente contornar as salvaguardas com prompts estilo jailbreak, deixando os processos de governança abertos a abusos...

Governança de IA é um Sinal de Alerta: Vitalik Buterin Oferece uma Alternativa

2025/09/13 16:19
Leu 3 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com

Notas Principais

  • Vitalik Buterin alertou que a governança ingênua de IA é facilmente explorada.
  • Uma demonstração recente mostrou como atacantes poderiam enganar o ChatGPT para vazar dados privados.
  • O modelo "info finance" de Buterin promove diversidade, supervisão e resiliência.

O cofundador da Ethereum, Vitalik Buterin, alertou seus seguidores no X sobre os riscos de depender da inteligência artificial (IA) para governança, argumentando que as abordagens atuais são muito fáceis de explorar.

As preocupações de Buterin seguiram outro alerta do cofundador da EdisonWatch, Eito Miyamura, que mostrou como agentes maliciosos poderiam sequestrar o novo Protocolo de Contexto de Modelo (MCP) da OpenAI para acessar dados privados de usuários.


Os Riscos da Governança Ingênua de IA

O teste de Miyamura revelou como um simples convite de calendário com comandos ocultos poderia enganar o ChatGPT a expor e-mails sensíveis assim que o assistente acessasse a entrada comprometida.

Especialistas em segurança observaram que os grandes modelos de linguagem não conseguem distinguir entre instruções genuínas e maliciosas, tornando-os altamente vulneráveis à manipulação.

Buterin disse que esta falha é um grande sinal de alerta para sistemas de governança que depositam muita confiança na IA.

Ele argumentou que se tais modelos fossem usados para gerir financiamentos ou tomadas de decisão, os atacantes poderiam facilmente contornar as salvaguardas com prompts estilo jailbreak, deixando os processos de governança abertos a abusos.

Info Finance: Uma Alternativa Baseada no Mercado

Para abordar essas fraquezas, Buterin propôs um sistema que ele chama de "info finance". Em vez de concentrar poder em uma única IA, esta estrutura permite que múltiplos modelos de governança compitam em um mercado aberto.

Qualquer pessoa pode contribuir com um modelo, e suas decisões podem ser desafiadas através de verificações aleatórias, com a palavra final deixada para júris humanos.

Esta abordagem é projetada para garantir resiliência combinando diversidade de modelos com supervisão humana. Além disso, incentivos são incorporados tanto para desenvolvedores quanto para observadores externos detectarem falhas.

Projetando Instituições para Robustez

Buterin descreve isso como um método de "design institucional", onde grandes modelos de linguagem de diferentes contribuidores podem ser conectados, em vez de depender de um único sistema centralizado.

Ele acrescentou que isso cria diversidade em tempo real, reduzindo o risco de manipulação e garantindo adaptabilidade à medida que novos desafios surgem.

No início de agosto, Buterin criticou o impulso em direção a Agentes de IA altamente autônomos, dizendo que o aumento do controle humano geralmente melhora tanto a qualidade quanto a segurança.

Ele apoia modelos que permitem edição iterativa e feedback humano em vez daqueles projetados para operar independentemente por longos períodos.

próximo

Aviso legal: A Coinspeaker está comprometida em fornecer relatórios imparciais e transparentes. Este artigo visa entregar informações precisas e oportunas, mas não deve ser considerado como conselho financeiro ou de investimento. Como as condições de mercado podem mudar rapidamente, encorajamos você a verificar as informações por conta própria e consultar um profissional antes de tomar qualquer decisão baseada neste conteúdo.

Notícias de Criptomoeda, Notícias Ethereum, Notícias


Um jornalista cripto com mais de 5 anos de experiência na indústria, Parth trabalhou com os principais meios de comunicação no mundo cripto e financeiro, acumulando experiência e conhecimento no espaço após sobreviver a mercados de alta e baixa ao longo dos anos. Parth também é autor de 4 livros autopublicados.

Parth Dubey no LinkedIn


Fonte: https://www.coinspeaker.com/ai-governance-is-a-red-flag-vitalik-buterin-offers-an-alternative/

Oportunidade de mercado
Logo de Threshold
Cotação Threshold (T)
$0.006015
$0.006015$0.006015
-2.85%
USD
Gráfico de preço em tempo real de Threshold (T)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

$30,000 em PRL + 15,000 USDT

$30,000 em PRL + 15,000 USDT$30,000 em PRL + 15,000 USDT

Deposite e negocie PRL e aumente suas recompensas!