静かな危機がソーシャルメディア全体に広がっています。それは生成人工知能によって推進され、その最も弱い部分を悪用する方法を正確に知っている悪質な行為者によって助長されています。
嵐の中心にあるのは、イーロン・マスクのxAIが開発したチャットボット、Grokです。「フィルタリングされていない」として市場に投入され、ライバルよりも寛容であるとされるGrokは、非同意のディープフェイクポルノグラフィー、つまりNCDPを作成するユーザーにとって選択されるツールとなっています。
そのプロセスは恐ろしいほど簡単です。普通の写真がアップロードされます。AIに対象者を「脱がせる」よう指示します。その結果、同意なしに性的な画像が作成されます。被害者は世界的な有名人、一般人、あるいは子供である可能性があります。
これは周縁的な行動ではありません。大規模に発生しています。
この論争はしばらく前から続いており、ヨーロッパ全域ですでに法的な騒動が起きています。水曜日、ナイジェリアのインフルエンサーでリアリティテレビスターのアニタ・ナタチャ・アキデ(通称タチャ)がX上でGrokについて公に言及した後、激化しました。
直接の投稿で、彼女は自分の写真や動画をいかなる形でも編集、変更、リミックスすることを許可していないことを明確に述べました。
彼女の要請はユーザーを止めませんでした。数時間以内に、他のユーザーがGrokに彼女の画像を操作するよう指示できることを実証しました。
この事件はより深刻な問題を露呈しました。プラットフォームに執行可能な保護措置がない場合、同意の声明はほとんど意味を持ちません。また、1人のインフルエンサーや1つのAIツールをはるかに超える深刻な法的および倫理的な問題を提起しました。
その影響を理解するために、私はテクノロジー弁護士でAI愛好家、Infusion LawyersのリードパートナーであるSenator Ihenyenと話をしました。彼の評価は率直でした。
彼はGrokの状況を「デジタル流行病」と表現しています。彼の言葉によれば、生成AIは、フィルタリングされていないシステムを倫理的境界を越えて押し進める方法を理解している悪意のあるユーザーによって武器化されています。その害は、現実的で、侵襲的で、深く略奪的であると彼は言います。
重要なことに、Ihenyenは新しい技術が法的空白の中に存在するという考えを否定しています。法律はすでに追いついていると彼は主張します。
ナイジェリアには、まだ単一のAI法がないかもしれません。しかし、それは被害者が保護されていないことを意味しません。代わりに、彼が多層的な法的保護と呼ぶものがあります。
その中心にあるのは、2023年のナイジェリアデータ保護法です。この法律の下では、人の顔、声、肖像は個人データとして分類されます。AIシステムがこのデータを処理する場合、厳格な規則の対象となります。
Senator Ihenyen、Infusion Lawyersのリードパートナー兼Virtual Asset Service Providers Associationのエグゼクティブチェア
被害者は、害を引き起こす自動処理に異議を唱える権利を持っています。性的なディープフェイクが作成される場合、AIは機密性の高い個人データを処理しています。それには明示的な同意が必要です。それがなければ、プラットフォームと運営者は不安定な法的立場にあります。
金銭的な抑止力もあります。ナイジェリアデータ保護委員会に苦情を申し立てることができます。制裁には、最大1,000万ナイラまたは企業の年間総収益の2パーセントの是正手数料が含まれる可能性があります。
グローバルプラットフォームにとって、それは迅速に注目を集めます。
画像を作成するユーザーも保護されていません。2024年に改正されたナイジェリアのサイバー犯罪法の下で、いくつかの犯罪が適用される可能性があります。AIを使用して誰かを脱がせたり性的にしたりして嫌がらせや屈辱を与えることは、サイバーストーキングに相当する可能性があります。悪意のある目的で誰かの肖像をシミュレートすることは、身元窃盗を構成する可能性があります。
未成年者が関与する場合、法律は妥協しません。AIが生成した児童性的虐待素材は、物理的な写真と同じように扱われます。新規性、ユーモア、または実験に基づく弁護はありません。これは重大な刑事犯罪です。
こちらもお読みください:xAIが超過申し込みのシリーズEで200億ドルを調達、NvidiaとCiscoが戦略的賭けを行う
被害者にとって、法的手続きは圧倒的に感じられることがあります。Ihenyenは実践的で段階的なアプローチを推奨しています。
まず正式な削除通知です。ナイジェリアのNITDA実践規範の下で、Xのようなプラットフォームは現地代表を持つことが求められています。通知を受けたら、迅速に行動しなければなりません。そうしないと、セーフハーバー保護を失うリスクがあり、直接訴訟への道が開かれます。
ディープフェイク
第二は技術主導の防御です。StopNCIIのようなツールを使用すると、被害者は画像のデジタル指紋を作成できます。これにより、プラットフォームは被害者に有害なコンテンツを繰り返しアップロードさせることなく、さらなる配布をブロックできます。
第三は規制のエスカレーションです。プラットフォームへの報告だけでは十分ではありません。規制当局への報告が重要です。当局は、一貫して悪用されている場合、企業に特定のAI機能を無効にするよう強制できます。
問題は国境で止まりません。
多くの加害者はナイジェリア国外から活動しています。Ihenyenによれば、これはもはやかつてのような障壁ではありません。2023年に発効したマラボ条約は、アフリカ諸国間の相互法的支援を可能にします。法執行機関は、場所に関係なく、犯罪者を追跡し起訴するために協力できます。
それは最も不快な質問を残します。なぜGrokのようなツールがこのように機能することが許されているのでしょうか?
xAIはGrokの設計を開放性へのコミットメントとして位置づけています。Ihenyenは異なる見方をしています。法的観点から、「フィルタリングされていない」は防御にはなりません。それはリスクです;害や違法性の言い訳にはなりません。
Grok
彼は簡単な類推を描きます。ブレーキなしで車を作り、事故のせいを運転手のせいにすることはできません。堅牢な安全管理なしにAIシステムをリリースし、害が発生したときに驚くふりをすることは、過失に相当する可能性があります。
ナイジェリアの消費者保護法の下で、安全でない製品は責任を招きます。提案されている国家AI政策も「設計による安全性」を強調しています。進むべき方向は明確です。
AI革新は問題ではありません。説明責任のないAIが問題です。
Grok論争は警告射撃です。それは、強力なツールがいかに迅速に人々、特に女性と子供たちに対して使用されるかを示しています。また、同意、尊厳、個人の権利は、害が発生した後に付け加えられるのではなく、技術に組み込まれなければならないことを示しています。
この記事「Grokのディープフェイクポルノグラフィー危機と今後の法的清算の内部」は、最初にTechnextに掲載されました。


