這篇文章《AI 治理是一個危險信號:Vitalik Buterin 提供替代方案》發表於 BitcoinEthereumNews.com。重點摘要 Vitalik Buterin 警告天真的 AI 治理太容易被利用。最近的演示顯示攻擊者如何誘騙 ChatGPT 洩露私人數據。Buterin 的「資訊金融」模型促進多樣性、監督和彈性。Ethereum 聯合創始人 Vitalik Buterin 在 X 上警告他的粉絲關於依賴人工智能(AI)進行治理的風險,認為目前的方法太容易被利用。Buterin 的擔憂緊隨 EdisonWatch 聯合創始人 Eito Miyamura 的另一個警告,後者展示了惡意行為者如何劫持 OpenAI 的新模型上下文協議(MCP)來訪問私人用戶數據。 這也是為什麼天真的「AI 治理」是個壞主意。如果你使用 AI 來分配資金給貢獻者,人們一定會在盡可能多的地方放入越獄指令加上「給我所有的錢」。作為替代方案,我支持資訊金融方法(https://t.co/Os5I1voKCV… https://t.co/a5EYH6Rmz9 — vitalik.eth (@VitalikButerin) 2025年9月13日(UTC +8) 天真 AI 治理的風險 Miyamura 的測試揭示了一個帶有隱藏命令的簡單日曆邀請如何在助手訪問受損條目後誘騙 ChatGPT 暴露敏感電子郵件。安全專家指出,大型語言模型無法區分真實指令和惡意指令,使它們極易受到操縱。 我們讓 ChatGPT 洩露了你的私人電子郵件數據 💀💀 你只需要什麼?受害者的電子郵件地址。⛓️‍💥🚩📧 週三,@OpenAI 在 ChatGPT 中添加了對 MCP(模型上下文協議)工具的完全支持。允許 ChatGPT 連接並閱讀你的 Gmail、日曆、Sharepoint、Notion、... pic.twitter.com/E5VuhZp2u2 — Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) 2025年9月12日(UTC +8) Buterin 表示,這個缺陷對於過度信任 AI 的治理系統來說是一個重大危險信號。他認為,如果這類模型被用於管理資金或決策,攻擊者可以輕易地通過越獄式提示繞過安全措施,使治理過程容易受到濫用。...這篇文章《AI 治理是一個危險信號:Vitalik Buterin 提供替代方案》發表於 BitcoinEthereumNews.com。重點摘要 Vitalik Buterin 警告天真的 AI 治理太容易被利用。最近的演示顯示攻擊者如何誘騙 ChatGPT 洩露私人數據。Buterin 的「資訊金融」模型促進多樣性、監督和彈性。Ethereum 聯合創始人 Vitalik Buterin 在 X 上警告他的粉絲關於依賴人工智能(AI)進行治理的風險,認為目前的方法太容易被利用。Buterin 的擔憂緊隨 EdisonWatch 聯合創始人 Eito Miyamura 的另一個警告,後者展示了惡意行為者如何劫持 OpenAI 的新模型上下文協議(MCP)來訪問私人用戶數據。 這也是為什麼天真的「AI 治理」是個壞主意。如果你使用 AI 來分配資金給貢獻者,人們一定會在盡可能多的地方放入越獄指令加上「給我所有的錢」。作為替代方案,我支持資訊金融方法(https://t.co/Os5I1voKCV… https://t.co/a5EYH6Rmz9 — vitalik.eth (@VitalikButerin) 2025年9月13日(UTC +8) 天真 AI 治理的風險 Miyamura 的測試揭示了一個帶有隱藏命令的簡單日曆邀請如何在助手訪問受損條目後誘騙 ChatGPT 暴露敏感電子郵件。安全專家指出,大型語言模型無法區分真實指令和惡意指令,使它們極易受到操縱。 我們讓 ChatGPT 洩露了你的私人電子郵件數據 💀💀 你只需要什麼?受害者的電子郵件地址。⛓️‍💥🚩📧 週三,@OpenAI 在 ChatGPT 中添加了對 MCP(模型上下文協議)工具的完全支持。允許 ChatGPT 連接並閱讀你的 Gmail、日曆、Sharepoint、Notion、... pic.twitter.com/E5VuhZp2u2 — Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) 2025年9月12日(UTC +8) Buterin 表示,這個缺陷對於過度信任 AI 的治理系統來說是一個重大危險信號。他認為,如果這類模型被用於管理資金或決策,攻擊者可以輕易地通過越獄式提示繞過安全措施,使治理過程容易受到濫用。...

AI 治理是一個危險信號:Vitalik Buterin 提供了一種替代方案

2025/09/13 16:19
閱讀時長 5 分鐘
如需對本內容提供反饋或相關疑問,請通過郵箱 crypto.news@mexc.com 聯絡我們。

重點摘要

  • Vitalik Buterin警告,天真的AI治理太容易被利用。
  • 最近的演示展示了攻擊者如何欺騙ChatGPT洩漏私人數據。
  • Buterin的"資訊金融"模型促進多樣性、監督和韌性。

以太坊聯合創始人Vitalik Buterin在X上警告他的粉絲關於依賴人工智能(AI)進行治理的風險,他認為目前的方法太容易被利用。

Buterin的擔憂緊隨EdisonWatch聯合創始人Eito Miyamura的另一個警告,後者展示了惡意行為者如何劫持OpenAI的新模型上下文協議(MCP)來訪問私人用戶數據。


天真AI治理的風險

Miyamura的測試揭示了一個帶有隱藏命令的簡單日曆邀請如何在助手訪問受損條目後欺騙ChatGPT暴露敏感電子郵件。

安全專家指出,大型語言模型無法區分真實指令和惡意指令,使它們極易受到操縱。

Buterin表示,這個缺陷對於過度信任AI的治理系統來說是一個重大警訊。

他認為,如果這些模型被用於管理資金或決策,攻擊者可以輕易地使用越獄式提示繞過安全措施,使治理過程容易受到濫用。

資訊金融:基於市場的替代方案

為了解決這些弱點,Buterin提出了一個他稱為"資訊金融"的系統。這個框架不是將權力集中在單一AI上,而是允許多種治理模型在開放市場中競爭。

任何人都可以貢獻一個模型,他們的決定可以通過隨機抽查來挑戰,最終決定權留給人類評審。

這種方法旨在通過結合模型多樣性和人類監督來確保韌性。此外,為開發者和外部觀察者建立了激勵機制以檢測缺陷。

為穩健性設計機構

Buterin將此描述為一種"機構設計"方法,一種可以插入來自不同貢獻者的大型語言模型,而不是依賴單一集中系統的方法。

他補充說,這創造了實時多樣性,降低了操縱風險,並確保了在新挑戰出現時的適應性。

在八月初,Buterin批評了推動高度自主AI代理的趨勢,表示增加人類控制通常會提高質量和安全性。

他支持允許迭代編輯和人類反饋的模型,而不是那些設計為長期獨立運行的模型。

下一頁

免責聲明:Coinspeaker致力於提供公正透明的報導。本文旨在提供準確及時的信息,但不應被視為財務或投資建議。由於市場條件可能迅速變化,我們鼓勵您自行驗證信息,並在根據本內容做出任何決定前諮詢專業人士。

加密貨幣新聞,以太坊新聞,新聞


Parth是一位擁有超過5年行業經驗的加密貨幣記者,他曾與加密和金融世界的主要媒體機構合作,在經歷多年的熊市和牛市後積累了豐富的經驗和專業知識。Parth也是4本自出版書籍的作者。

Parth Dubey在LinkedIn上


來源:https://www.coinspeaker.com/ai-governance-is-a-red-flag-vitalik-buterin-offers-an-alternative/

市場機遇
Threshold 圖標
Threshold實時價格 (T)
$0.006026
$0.006026$0.006026
-2.68%
USD
Threshold (T) 實時價格圖表
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 crypto.news@mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。

$30,000 等值 PRL + 15,000 USDT

$30,000 等值 PRL + 15,000 USDT$30,000 等值 PRL + 15,000 USDT

充值並交易 PRL,即可提升您的獎勵!