تنمو أزمة صامتة عبر وسائل التواصل الاجتماعي. إنها مدفوعة بالذكاء الاصطناعي التوليدي وتغذيها الجهات السيئة التي تعرف بالضبط كيفية استغلال أضعف نقاطه.
في مركز العاصفة يوجد Grok، روبوت الدردشة الذي طورته شركة xAI التابعة لإيلون ماسك. يتم تسويق Grok على أنه "غير مفلتر" وأكثر تساهلاً من منافسيه، وأصبح الأداة المفضلة للمستخدمين لإنشاء محتوى إباحي مزيف غير توافقي، أو NCDP.
العملية بسيطة بشكل مزعج. يتم تحميل صورة عادية. يُطلب من الذكاء الاصطناعي "خلع ملابس" الشخص. النتيجة هي صورة جنسية تم إنشاؤها دون موافقة. قد يكون الضحية مشهوراً عالمياً أو فرداً خاصاً أو حتى طفلاً.
هذا ليس سلوكاً هامشياً. إنه يحدث على نطاق واسع.
على الرغم من أن الجدل مستمر منذ فترة، مع اشتعال المعارك القانونية بالفعل في جميع أنحاء أوروبا. اشتد يوم الأربعاء بعد أن خاطبت نجمة نيجيرية مؤثرة ونجمة تلفزيون الواقع، أنيتا ناتاشا أكيدي، المعروفة باسم تاشا، Grok علناً على X.
في منشور مباشر، أوضحت بوضوح أنها لم تسمح بتحرير أو تعديل أو إعادة مزج أي من صورها أو مقاطع الفيديو الخاصة بها بأي شكل من الأشكال.
لم يوقف طلبها المستخدمين. في غضون ساعات، أظهر آخرون أنه لا يزال من الممكن مطالبة Grok بمعالجة صورها.
كشفت الحادثة عن مشكلة أعمق. لا تعني بيانات الموافقة الكثير عندما تفتقر المنصات إلى ضمانات قابلة للتنفيذ. كما أثارت أسئلة قانونية وأخلاقية خطيرة تتجاوز بكثير نطاق مؤثر واحد أو أداة ذكاء اصطناعي واحدة.
لفهم الآثار المترتبة، تحدثت مع السيناتور إيهينين، محامي التكنولوجيا وعاشق الذكاء الاصطناعي، والشريك الرئيسي في Infusion Lawyers. كان تقييمه صريحاً.
يصف حالة Grok بأنها "وباء رقمي". بكلماته، يتم تسليح الذكاء الاصطناعي التوليدي من قبل مستخدمين مؤذيين يفهمون كيفية دفع الأنظمة غير المفلترة إلى ما بعد الحدود الأخلاقية. الضرر، كما يقول، حقيقي وغازي ومفترس بعمق.
الأهم من ذلك، يرفض إيهينين فكرة أن التكنولوجيا الجديدة موجودة في فراغ قانوني. يجادل بأن القانون يلحق بالركب بالفعل.
في نيجيريا، قد لا يوجد قانون واحد للذكاء الاصطناعي بعد. ومع ذلك، هذا لا يعني أن الضحايا غير محميين. بدلاً من ذلك، هناك ما يسميه درعاً قانونياً متعدد الطبقات.
في صميم هذا يوجد قانون حماية البيانات النيجيري لعام 2023. بموجب القانون، يتم تصنيف وجه الشخص وصوته وشبهه على أنها بيانات شخصية. عندما تقوم أنظمة الذكاء الاصطناعي بمعالجة هذه البيانات، فإنها تخضع لقواعد صارمة.
السيناتور إيهينين، الشريك الرئيسي في Infusion Lawyers والرئيس التنفيذي لجمعية مزودي خدمات الأصول الافتراضية
للضحايا الحق في الاعتراض على المعالجة الآلية التي تسبب ضرراً. عندما يتم إنشاء محتوى مزيف جنسي، فإن الذكاء الاصطناعي يقوم بمعالجة بيانات شخصية حساسة. وهذا يتطلب موافقة صريحة. بدونها، تكون المنصات والمشغلون على أرض قانونية متزعزعة.
هناك أيضاً رادع مالي. يمكن تقديم الشكاوى إلى لجنة حماية البيانات النيجيرية. يمكن أن تشمل العقوبات رسوم تصحيحية تصل إلى 10 ملايين نيرة أو 2٪ من إجمالي الإيرادات السنوية للشركة.
بالنسبة للمنصات العالمية، يلفت هذا الانتباه بسرعة.
المستخدمون الذين ينشئون الصور ليسوا محميين أيضاً. بموجب قانون الجرائم الإلكترونية النيجيري، المعدل في عام 2024، قد تنطبق عدة جرائم. يمكن أن يرقى استخدام الذكاء الاصطناعي لخلع ملابس شخص ما أو إضفاء طابع جنسي عليه لمضايقته أو إذلاله إلى مستوى المطاردة الإلكترونية. يمكن أن يشكل محاكاة شبه شخص ما لأغراض ضارة سرقة هوية.
عندما يتعلق الأمر بالقصر، فإن القانون لا يتسامح. يُعامل المحتوى المُسيء جنسياً للأطفال الناتج عن الذكاء الاصطناعي بنفس طريقة التصوير الفوتوغرافي الفعلي. لا يوجد دفاع على أساس الجدة أو الفكاهة أو التجريب. إنها جريمة جنائية خطيرة.
اقرأ أيضاً: xAI تحصل على 20 مليار دولار في الجولة E الزائدة عن الاكتتاب حيث تضع Nvidia و Cisco رهاناً استراتيجياً
بالنسبة للضحايا، قد يبدو المسار القانوني ساحقاً. يوصي إيهينين بنهج عملي خطوة بخطوة.
الأول هو إشعار إزالة رسمي. بموجب قانون ممارسات NITDA النيجيري، يُطلب من منصات مثل X أن يكون لها تمثيل محلي. بمجرد الإخطار، يجب عليهم التصرف بسرعة. قد يؤدي الفشل في القيام بذلك إلى فقدان حماية الملاذ الآمن ويفتح الباب أمام الدعاوى القضائية المباشرة.
المحتوى المزيف
الثاني هو الدفاع القائم على التكنولوجيا. تسمح أدوات مثل StopNCII للضحايا بإنشاء بصمة رقمية للصورة. يساعد هذا المنصات على منع المزيد من التوزيع دون إجبار الضحايا على تحميل المحتوى الضار بشكل متكرر.
الثالث هو التصعيد التنظيمي. الإبلاغ إلى المنصة ليس كافياً. الإبلاغ إلى الجهات التنظيمية مهم. يمكن للسلطات إجبار الشركات على تعطيل ميزات الذكاء الاصطناعي المحددة إذا تم إساءة استخدامها باستمرار.
لا تتوقف المشكلة عند الحدود.
يعمل العديد من الجناة من خارج نيجيريا. وفقاً لإيهينين، لم يعد هذا العائق الذي كان عليه في السابق. اتفاقية مالابو، التي دخلت حيز التنفيذ في عام 2023، تمكن المساعدة القانونية المتبادلة عبر الدول الأفريقية. يمكن لوكالات إنفاذ القانون التعاون لتتبع الجناة ومقاضاتهم، بغض النظر عن الموقع.
هذا يترك السؤال الأكثر إزعاجاً. لماذا يُسمح لأدوات مثل Grok بالعمل بهذه الطريقة على الإطلاق؟
تؤطر xAI تصميم Grok على أنه التزام بالانفتاح. يرى إيهينين صورة مختلفة. من منظور قانوني، "غير مفلتر" ليس دفاعاً. إنه خطر؛ لا يمكن أن يكون عذراً للضرر أو عدم الشرعية.
Grok
يستخدم تشبيهاً بسيطاً. لا يمكنك بناء سيارة بدون فرامل ولوم السائق على الحادث. قد يصل إصدار أنظمة الذكاء الاصطناعي دون ضوابط أمان قوية، ثم التصرف بدهشة عندما يحدث الضرر، إلى مستوى الإهمال.
بموجب قوانين حماية المستهلك النيجيرية، تجذب المنتجات غير الآمنة المسؤولية. تؤكد سياسات الذكاء الاصطناعي الوطنية المقترحة أيضاً على "السلامة حسب التصميم". اتجاه السفر واضح.
الابتكار في مجال الذكاء الاصطناعي ليس هو المشكلة. الذكاء الاصطناعي غير الخاضع للمساءلة هو المشكلة.
جدل Grok هو طلقة تحذيرية. إنه يوضح مدى سرعة تحويل الأدوات القوية ضد الناس، وخاصة النساء والأطفال. كما يوضح أن الموافقة والكرامة والحقوق الشخصية يجب أن تكون مدمجة في التكنولوجيا، وليس إضافتها بعد حدوث الضرر.
ظهر المنشور داخل أزمة المحتوى الإباحي المزيف لـ Grok والحساب القانوني المقبل أولاً على Technext.


