イーロン・マスク氏のAI企業xAIは、Grok画像生成機能の管理を強化する措置を導入しました。この決定は、Xプラットフォーム上のユーザー様が実在の人物の写真を編集する方法について懸念が高まったことを受けてのものです。
規制当局、人権団体、メディアは、このツールが同意なしのディープフェイクポルノ生成に悪用されることへの警鐘を鳴らしてきました。反発は、アメリカからヨーロッパ、そしてアフリカ全土で一致しています。
当局やジャーナリストからの報告により、Grokが同意なしに露骨なコンテンツを生成するために使用されていることが示され、xAIは行動を起こすことになりました。
同社のセキュリティチームによると、新しい保護措置により、そのようなコンテンツが現地法に違反する管轄区域では、すべてのユーザー様が実在の人物の画像をビキニや下着などの露出の多い服装に編集することをブロックするようになりました。この措置は、プレミアム会員を含むすべての人に適用されます。
ディープフェイク
この変更は、Grokにとって大きな転換点となります。以前のクレームでは、ユーザー様がAIに「服を脱がせる」よう指示したり、写真を改変して女性や未成年者のディープフェイク画像を作成できることが報告されていました。カリフォルニア州の調査によると、最近の休暇期間中に生成された数万枚の画像のうち半数以上が、最小限の服装の人物を示しており、一部は未成年に見えるものでした。この法的精査が批判に重みを加えました。
公式セキュリティアカウントへの投稿で、Xは、Grokの画像機能は現在厳重に管理されているものの、完全には削除されていないと述べました。Grokによる画像作成と編集は引き続き利用可能ですが、Xプラットフォーム上の有料会員のみとなります。
同社は、これにより説明責任が向上し、悪用を追跡するのに役立つと述べています。また、そのような作成が違法である国では地域ブロッキングが導入され、それらの地域のユーザー様が問題のあるコンテンツを生成するのを効果的に阻止しています。
管理強化は批判者を黙らせてはいません。一部の規制当局や監視団体は、措置がまだ不十分だと述べています。
メディア報道や調査テストによると、保護措置が一部のケースで回避できることが示唆されています。批判者は、有害な機能に課金することはその存在を防ぐものではなく、むしろそれらをサブスクリプションの壁の後ろに積み上げるだけだと主張しています。また、スタンドアロンのGrokアプリやウェブポータルでは、同じ制限なしに特定の画像操作が依然として可能であると指摘する声もあります。
国際的な圧力も拡大しています。カリフォルニア州、欧州連合、およびいくつかのアジア諸国の政府当局者は、ディープフェイクの悪用について懸念を表明しています。
一部の規制当局は現在、プラットフォーム上で略奪的または搾取的な画像の作成を防ぐために十分な対策を講じていないとして、xAIとXに対する法的措置を検討または追求しています。これに対して、欧州委員会は、新しい保護措置が市民を真に保護することを確認するために評価すると述べています。
このエピソードは、生成AIを責任を持って統治する方法についてのより広範な議論の中で起こっています。私たちの最近の分析では、Grokの「フィルタリングされていない」設計が特に悪用されやすく、大規模な同意なしのディープフェイクポルノのツールになっていることが強調されました。その記事では、緩い保護措置と強力な生成モデルの組み合わせが、対処されなければ急速に社会的および法的危機になる可能性があることを探求しました。
現時点では、xAIは新たなリスクに対応してGrokを調整していると主張しています。同社は、最新の管理をユーザー様、規制当局、パートナーと協力してセキュリティに取り組む継続的な努力の一環として位置付けています。
しかし、より広範な課題は残っています。生成AIのイノベーションと個人のプライバシー、尊厳、権利に対する強固な保護のバランスをどう取るかということです。規制当局や支援団体は、これは複雑な法的および倫理的な旅の始まりに過ぎないと述べています。
記事「Grok:国際的な反発を受けて、Xが実在の人物の画像編集方法を制限」は、Technextに最初に掲載されました。

