BitcoinWorld
الصور العارية غير الرضائية القائمة على الذكاء الاصطناعي: الحكومات تواجه الفيضان المقلق الناتج عن Grok على X
سان فرانسيسكو، يناير 2025 – ظاهرة تكنولوجية مقلقة تجبر الحكومات في جميع أنحاء العالم على سباق تنظيمي مع الزمن. تواجه منصة X، المملوكة لإيلون ماسك، أزمة متصاعدة حيث يغذي روبوت الدردشة القائم على الذكاء الاصطناعي Grok فيضانًا غير مسبوق من الصور العارية غير الرضائية التي تم التلاعب بها بواسطة الذكاء الاصطناعي. يمثل هذا الوضع اختبارًا صارخًا لحوكمة التكنولوجيا العالمية، كاشفًا عن ثغرات كبيرة بين النشر السريع للذكاء الاصطناعي وحماية المستخدم القابلة للتنفيذ.
قدّر بحث من Copyleaks في البداية أن صورة مسيئة واحدة كانت تُنشر كل دقيقة في أواخر ديسمبر. ومع ذلك، كشفت المراقبة اللاحقة من 5 إلى 6 يناير عن تصعيد مذهل إلى حوالي 6,700 صورة في الساعة. يستهدف هذا السيل في المقام الأول النساء، بما في ذلك العارضات البارزات والممثلات والصحفيات وحتى الشخصيات السياسية. يُظهر هذا الإساءة تآكلًا مؤلمًا للموافقة الرقمية، محولاً الشبه الشخصي إلى محتوى خبيث دون إذن. ونتيجة لذلك، يعاني الضحايا من انتهاكات عميقة للخصوصية وأضرار محتملة للسمعة. يؤدي الطابع الآلي لإنشاء صور Grok إلى خفض العائق بشكل كبير لإنشاء مثل هذه المواد الضارة، مما يتيح الإساءة على نطاق صناعي لم يسبق له مثيل مع أدوات تحرير الصور اليدوية.
تتدافع الجهات التنظيمية لتطبيق الأطر الحالية على هذا التهديد الجديد. اتخذت المفوضية الأوروبية الخطوة الأكثر استباقية من خلال إصدار أمر رسمي إلى xAI، مطالبة بحفظ جميع المستندات المتعلقة بـ Grok. غالبًا ما يسبق هذا الإجراء تحقيقًا كاملاً. في غضون ذلك، بدأت هيئة تنظيم الاتصالات في المملكة المتحدة، Ofcom، تقييمًا سريعًا لحالات فشل قواعد التوافق المحتملة. أدان رئيس الوزراء كير ستارمر النشاط علنًا باعتباره "مخزيًا"، متعهدًا بدعم كامل للإجراءات التنظيمية. في أستراليا، أبلغت مفوضة السلامة الإلكترونية جولي إنمان-جرانت عن مضاعفة الشكاوى ذات الصلة ولكنها لم تبدأ بعد إجراءات رسمية ضد xAI.
تمثل الهند واحدة من أهم نقاط الاشتعال التنظيمية. بعد شكوى رسمية من عضو في البرلمان، أصدرت وزارة الإلكترونيات وتكنولوجيا المعلومات (MeitY) توجيهًا صارمًا لمدة 72 ساعة إلى X، تم تمديده لاحقًا، مطالبة بتقرير "الإجراء المتخذ". لا تزال استجابة المنصة، المقدمة في 7 يناير، قيد التدقيق. العاقبة المحتملة لعدم قواعد التوافق شديدة: إلغاء حماية الملاذ الآمن لـ X بموجب قانون تكنولوجيا المعلومات الهندي. سيؤدي هذا إلى تغيير المسؤولية القانونية للمنصة بشكل أساسي، مما يجعلها مسؤولة بشكل مباشر عن جميع المحتوى الذي ينشئه المستخدمون والمستضاف داخل البلاد ويعرض عملياتها هناك للخطر.
في صميم الجدل توجد أسئلة حول خيارات التصميم والحوكمة الداخلية لـ xAI. تشير التقارير إلى أن إيلون ماسك ربما تدخل شخصيًا لمنع تنفيذ مرشحات محتوى أقوى على قدرات Grok لإنشاء الصور. ردًا على الاحتجاج العام، أفاد حساب حماية X أن المستخدمين الذين يطالبون Grok بإنشاء محتوى غير قانوني، مثل مواد الاعتداء الجنسي على الأطفال، سيواجهون عواقب. أزالت الشركة أيضًا علامة تبويب الوسائط العامة من حساب X الرسمي لـ Grok. ومع ذلك، يشكك الخبراء فيما إذا كانت هذه تدابير تقنية كافية لوقف موجة الصور الحميمة غير الرضائية، والتي قد لا تتجاوز دائمًا العتبة إلى محتوى "غير قانوني" محدد قانونيًا ولكنها تظل ضارة بشكل عميق.
الإجراءات التنظيمية العالمية بشأن صور Grok العارية القائمة على الذكاء الاصطناعي (يناير 2025)| الولاية القضائية | الهيئة التنظيمية | الإجراء المتخذ | النتيجة المحتملة |
|---|---|---|---|
| الاتحاد الأوروبي | المفوضية الأوروبية | أمر حفظ المستندات إلى xAI | تحقيق رسمي بموجب DSA |
| المملكة المتحدة | Ofcom | تقييم سريع للامتثال | تحقيق وغرامات محتملة |
| الهند | MeitY | توجيه الامتثال لمدة 72 ساعة | فقدان حالة الملاذ الآمن |
| أستراليا | لجنة السلامة الإلكترونية | مراقبة ارتفاع الشكاوى | استخدام صلاحيات قانون السلامة عبر الإنترنت |
تلقي هذه الأزمة الضوء على العديد من التحديات الحرجة لمستقبل تنظيم الذكاء الاصطناعي:
علاوة على ذلك، يختبر الحدث المبادئ الأساسية لقانون الخدمات الرقمية (DSA) للاتحاد الأوروبي والقوانين المماثلة المصممة لمحاسبة "منصات الطرف الثالث الكبيرة جدًا عبر الإنترنت" عن المخاطر النظامية. يمكن القول إن أزمة الصور العارية غير الرضائية تشكل مثل هذا الخطر النظامي، مما يدفع حدود هذه الأطر التنظيمية الجديدة.
يمثل فيضان الصور العارية غير الرضائية القائمة على الذكاء الاصطناعي التي يولدها Grok على X لحظة فاصلة لحوكمة التكنولوجيا. إنه يفرض حسابًا عالميًا بشأن مسؤوليات مطوري الذكاء الاصطناعي ومشغلي المنصات عندما تسبب أدواتهم ضررًا اجتماعيًا واضحًا. بينما تحشد الجهات التنظيمية من بروكسل إلى دلهي أدواتها المحدودة، تؤكد الحلقة على فجوة أساسية: عدم وجود آليات سريعة ومتماسكة دوليًا للتحكم في مخرجات الذكاء الاصطناعي الضارة من مصدرها. من المحتمل أن يضع حل هذه الأزمة سابقة حاسمة لكيفية إدارة الديمقراطيات للضرورات المزدوجة المتمثلة في تعزيز الابتكار وحماية المواطنين في عصر الذكاء الاصطناعي التوليدي، مع آثار عميقة على مستقبل مساءلة المنصة والموافقة الرقمية.
السؤال الأول: ما هو وكيل الذكاء الاصطناعي Grok، وكيف ينشئ هذه الصور؟
Grok هو روبوت دردشة قائم على الذكاء الاصطناعي طورته xAI، وهي شركة أسسها إيلون ماسك. يمتلك قدرات متعددة الوسائط، مما يعني أنه يمكنه معالجة وإنشاء كل من النصوص والصور. يمكن للمستخدمين إدخال مطالبات نصية توجه Grok لإنشاء أو التلاعب بالصور، والتي تم استغلالها لإنشاء تصويرات عارية واقعية للأفراد دون موافقتهم.
السؤال الثاني: لماذا يعتبر هذا مختلفًا عن تقنية "التزييف العميق" السابقة؟
بينما كانت التزييفات العميقة غالبًا ما تتطلب برامج متخصصة وبعض المهارة التقنية، يدمج Grok هذه القدرة في واجهة ذكاء اصطناعي محادثة، مما يبسط ويسرع العملية بشكل كبير. أدت سهولة الاستخدام هذه، جنبًا إلى جنب مع قاعدة مستخدمي X الواسعة، إلى انفجار في الحجم لا يمكن أن يحققه إنشاء التزييف العميق اليدوي، مما يخلق ناقل مضايقة قابل للتوسع.
السؤال الثالث: ما هي العواقب القانونية التي يواجهها منشئو هذه الصور؟
تختلف العواقب القانونية حسب الولاية القضائية. يمكن أن يواجه المنشئون اتهامات تتعلق بالمضايقة أو التشهير أو انتهاك قوانين الخصوصية أو إنشاء محتوى رقمي مسيء. في بعض المناطق، يعتبر توزيع الصور الحميمة دون موافقة جريمة جنائية محددة. ذكرت X أنها ستفرض قواعدها ضد المستخدمين الذين يطالبون Grok بإنشاء محتوى غير قانوني.
السؤال الرابع: ما هي حالة "الملاذ الآمن"، ولماذا يعتبر فقدانها المحتمل في الهند مهمًا؟
عادةً ما تحمي أحكام الملاذ الآمن، مثل القسم 79 من قانون تكنولوجيا المعلومات الهندي، منصات الطرف الثالث عبر الإنترنت من المسؤولية القانونية عن المحتوى الذي ينشره مستخدموها، بشرط أن تتبع متطلبات العناية الواجبة معينة. إذا تم إلغاؤها، ستصبح X مسؤولة قانونيًا عن جميع المحتوى الذي ينشئه المستخدمون على منصتها في الهند، وهو معيار مستحيل يمكن أن يجبرها على الرقابة الشديدة أو حتى وقف العمليات في البلاد.
السؤال الخامس: ما الذي يمكن فعله لمنع هذا النوع من إساءة استخدام الذكاء الاصطناعي في المستقبل؟
يتطلب المنع نهجًا متعدد الطبقات: تقني (تنفيذ مرشحات محتوى قوية ومعايير مصدر مثل العلامة المائية)، سياسة المنصة (حظر واضح ومُطبَّق وآليات إزالة سريعة)، قانوني (قوانين محدثة مع عقوبات واضحة للوسائط الاصطناعية غير الرضائية)، وأخلاقي (تطوير معايير صناعية لنشر الذكاء الاصطناعي القائم على المسؤولية والتي تعطي الأولوية للسلامة حسب التصميم).
ظهر هذا المنشور الصور العارية غير الرضائية القائمة على الذكاء الاصطناعي: الحكومات تواجه الفيضان المقلق الناتج عن Grok على X لأول مرة على BitcoinWorld.


