重要ポイント
- ヴィタリク・ブテリンは、単純なAIガバナンスが簡単に悪用される危険性を警告した。
- 最近のデモでは、攻撃者がChatGPTを騙して個人データを漏洩させる方法が示された。
- ブテリンの「情報ファイナンス」モデルは、多様性、監視、回復力を促進する。
イーサリアムの共同創設者ヴィタリク・ブテリンは、Xのフォロワーに対して、ガバナンスにおける人工知能(AI)への依存リスクについて警告し、現在のアプローチは簡単に悪用されると主張しました。
ブテリンの懸念は、EdisonWatchの共同創設者エイト・ミヤムラによる別の警告に続くもので、悪意のある行為者がOpenAIの新しいModel Context Protocol(MCP)を乗っ取り、ユーザーの個人データにアクセスする方法を示しました。
単純なAIガバナンスのリスク
ミヤムラのテストでは、隠しコマンドを含む単純なカレンダー招待状が、アシスタントが侵害されたエントリーにアクセスした際にChatGPTを騙して機密メールを公開する方法を明らかにしました。
セキュリティー専門家は、大規模言語モデルが本物の指示と悪意のある指示を区別できないため、操作に対して非常に脆弱であると指摘しています。
ブテリンは、この欠陥はAIに過度に信頼を置くガバナンスシステムにとって重大な警告信号だと述べました。
彼は、このようなモデルが資金管理や意思決定に使用された場合、攻撃者はジェイルブレイク式のプロンプトで安全対策を簡単に回避し、ガバナンスプロセスが悪用される可能性があると主張しました。
情報ファイナンス:市場ベースの代替案
これらの弱点に対処するため、ブテリンは「情報ファイナンス」と呼ぶシステムを提案しています。単一のAIに権力を集中させる代わりに、このフレームワークでは複数のガバナンスモデルがオープンな市場で競争することを可能にします。
誰でもモデルを提供でき、その決定はランダムな抜き打ちチェックによって異議を唱えることができ、最終的な判断は人間の審査員に委ねられます。
このアプローチは、モデルの多様性と人間の監視を組み合わせることで回復力を確保するように設計されています。また、開発者と外部の観察者の両方が欠陥を検出するためのインセンティブが組み込まれています。
堅牢性のための制度設計
ブテリンはこれを「制度設計」の方法と表現し、単一の中央集権的なシステムに依存するのではなく、異なる貢献者からの大規模言語モデルを組み込むことができるものだと述べています。
彼は、これによりリアルタイムの多様性が生まれ、操作のリスクを減らし、新たな課題が発生した際の適応性を確保すると付け加えました。
8月初め、ブテリンは高度に自律的なAIエージェントへの推進を批判し、人間の制御を増やすことで一般的に品質と安全性の両方が向上すると述べました。
彼は、長期間独立して動作するように設計されたモデルよりも、反復的な編集と人間のフィードバックを可能にするモデルを支持しています。
next
免責事項:Coinspeakerは、偏りのない透明な報道を提供することに取り組んでいます。この記事は、正確でタイムリーな情報を提供することを目的としていますが、金融や投資のアドバイスとして受け取るべきではありません。市場状況は急速に変化する可能性があるため、情報を自分で確認し、このコンテンツに基づいて決定を下す前に専門家に相談することをお勧めします。
業界で5年以上の経験を持つ暗号資産ジャーナリストのParthは、暗号資産と金融の世界の主要メディアと協力し、長年にわたる強気相場と弱気相場を乗り越えて、この分野での経験と専門知識を積み重ねてきました。Parthはまた、4冊の自費出版書籍の著者でもあります。
Parth Dubey on LinkedIn
Source: https://www.coinspeaker.com/ai-governance-is-a-red-flag-vitalik-buterin-offers-an-alternative/







