قد يبدو المكتب الهادئ غير ضار. رفوف من الشاشات مغمورة بالضوء، وسماعات الرأس تغطي المحادثات، وضجيج العمل يستمر دون أي علامة على وجود شيء خبيث تحته. ولكن بشكل متزايد، هناك تقنيات عرضية وغير مصرح بها — مجلد سحابي شخصي هنا وروبوت دردشة ذكاء اصطناعي غير مصرح به هناك. قريبًا، ستحتاج المؤسسة إلى إدارة كل هذه المخاطر الجديدة غير المتوقعة. لكن تكنولوجيا المعلومات الخفية كانت مجرد الدفعة الأولى من التهديدات المخفية. لقد رفع الذكاء الاصطناعي الخفي الرهان.
امتدادًا لتكنولوجيا المعلومات الخفية، يتضمن الذكاء الاصطناعي الخفي استخدام الموظفين للتكنولوجيا غير المعتمدة. تشير تكنولوجيا المعلومات الخفية عادةً إلى تكنولوجيا المستهلك، مثل تطبيقات مشاركة الملفات أو الأجهزة الشخصية. عادة ما يتضمن الذكاء الاصطناعي الخفي أنظمة سريعة الحركة وجائعة للبيانات يمكن أن يكون سلوكها غير منتظم.
\ وفقًا للأبحاث التي أجرتها جارتنر، تعاني 80% من المؤسسات من فجوات في حوكمة البيانات. تجعل هذه الفجوات من السهل على الناس تفويت السلوك الذي ينتجه الذكاء الاصطناعي. تفشل العديد من الفرق في تقييمات الاستعداد للأمن السيبراني. تزداد المخاطر المرتبطة بالذكاء الاصطناعي بسبب تبني الموظفين لأدوات جديدة بشكل أسرع مما يمكن لفرقهم مراجعتها بشكل كافٍ. نظرًا لأن 30% من خروقات البيانات تنشأ من البائعين أو الموردين، فإن معرفة الأدوات التي يستخدمها الفريق هي عنصر حاسم في تأمين الأصول الرقمية للشركة.
\ اكتسب الذكاء الاصطناعي الخفي جاذبية لأن الموظفين يرون المحتوى الذي ينتجه الذكاء الاصطناعي كطريقة أسرع لإنشاء المحتوى، وتلخيص المعلومات المعقدة، واستكشاف المشكلات التقنية وإصلاحها. يقلل من الاحتكاك في العمل اليومي ولكنه يقدم مخاطر لم تكن موجودة سابقًا مع مخاوف تكنولوجيا المعلومات الخفية، بما في ذلك التعرض للبيانات، ومخاطر الامتثال، والمخاطر على مستوى النموذج.
لطالما تم إلقاء اللوم على تكنولوجيا المعلومات الخفية بسبب نقاط الضعف غير المعروفة. كانت نسبة عالية من الخروقات السابقة بسبب أدوات SaaS غير موقعة أو التخزين الشخصي. تغير أدوات الذكاء الاصطناعي المعادلة تمامًا. يخلق النطاق والسرعة التي يعملون بها، إلى جانب عدم شفافيتها، مخاطر يصعب اكتشافها واحتوائها.
\ مع استخدام 78% من المؤسسات للذكاء الاصطناعي في الإنتاج، فإن بعض الخروقات تحدث الآن بسبب التعرض للتكنولوجيا غير المدارة. لا يزال نموذج تكنولوجيا المعلومات الأكبر مهمًا، لكن الذكاء الاصطناعي يقدم بُعدًا جديدًا لتوسيع سطح الهجوم.
يشبه الذكاء الاصطناعي الخفي تكنولوجيا المعلومات الخفية في أن كليهما ينبعان من رغبة الموظف في أن يكون أكثر إنتاجية، لكنهما يختلفان في مكان وجود المخاطر.
\ ينشأ الذكاء الاصطناعي الخفي أيضًا في سياق اللوائح القادمة، مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي قد يزيد من التدقيق التنظيمي.
يمكن أن يؤدي الذكاء الاصطناعي الخفي إلى مشاكل في الهندسة والتسويق والتمويل. مع اتخاذ القرارات بناءً على مخرجات الذكاء الاصطناعي، يمكن تسريب البيانات الملكية، ويمكن التلاعب بعمليات الأعمال الداخلية دون أن يلاحظها أحد.
\
\ يزداد القلق مع ظهور الذكاء الاصطناعي التوليدي. قد يبدو روبوت الدردشة الذي يجيب على سؤال البائع أو ملخص الذكاء الاصطناعي التوليدي غير ضار، لكنه يخاطر بالكشف عن بيانات استخدام حساسة أو ملكية فكرية قيمة. وجدت جامعة كارنيجي ميلون أن نماذج اللغة الكبيرة أكثر عرضة للمطالبات المعادية من الأنظمة القائمة على القواعد. تزداد المشكلة عندما يتمكن الموظفون من استخدام الأدوات دون إشراف.
\ يمكن أن تكون شجرة القرار المدعومة بالذكاء الاصطناعي أكثر تحيزًا من شجرة القرار التقليدية. غالبًا ما يتلقى الذكاء الاصطناعي الخفي معلومات تدريب غير مكتملة يتم إدخالها في أدوات الطرف الثالث. من شأن الإشراف المنظم على أنظمة الذكاء الاصطناعي أن يضمن سلامة التحديثات. عندما تغفل الفرق عن هذا، تنحرف بيانات النموذج وسلوكه.
على الرغم من أن الذكاء الاصطناعي الخفي يشكل مخاطر عديدة، يمكن للمؤسسات التخفيف من العديد منها من خلال الجمع بين الرؤية والسياسة والضوابط التقنية، وتحقيق التوازن الذي يحمي إنتاجية الموظفين دون إثقال كاهلهم بعمليات تسجيل الدخول المستهلكة للوقت أو المواقع المحظورة. تستفيد فرق الأمان من التعامل مع الذكاء الاصطناعي الخفي كمشكلة حوكمة وليس كمشكلة عقاب. ستحتاج استراتيجيات التخفيف حتمًا إلى التطور مع استخدام الموظفين لأدوات الذكاء الاصطناعي لتحسين الإنتاجية.
يجب أن تحدد خطة الحوكمة أدوات الذكاء الاصطناعي التي يجب الموافقة عليها، وأنواع البيانات التي يمكن للموظفين استخدامها، وكيفية مراجعة مخرجات النموذج قبل اتخاذ قرارات عالية المخاطر، وما يجب فعله عند حدوث سلوك نموذج غير متوقع. يتضمن العنصر الأخير من يراجع السلوك، ومن يحقق في أسبابه، وما هي العواقب.
\ مع وجود الإشراف، يمكن للمؤسسات التعامل مع الذكاء الاصطناعي مثل أي أصل مؤسسي آخر، يخضع لنفس مسؤوليات التتبع والتدقيق والأمان والامتثال مثل أنظمة المؤسسات الأخرى القديمة.
من غير المرجح أن تلجأ الفرق التي لديها إمكانية الوصول إلى أدوات الذكاء الاصطناعي المركزية والمدققة إلى الذكاء الاصطناعي العام غير المعتمد لتجاوز العوائق. مع أتمتة الوظائف بشكل أكبر، سيبذل الموظفون المزيد من الجهد في نماذج مختلفة. يقضي العمال بالفعل حوالي 4.6 ساعة أسبوعيًا في استخدام الذكاء الاصطناعي في العمل، متجاوزين متوسط وقت الاستخدام الشخصي البالغ 3.6 ساعة في الأسبوع. قد يكون الذكاء الاصطناعي من أطراف ثالثة، دون مراقبة مناسبة، أكثر شيوعًا بالفعل من أدوات المؤسسة التي تم التحقق منها والموافقة عليها. يجب على الشركات اتخاذ خطوات فورية لتنفيذ سياساتها.
\ مع بيئة مدارة، يمكن للمؤسسات مراقبة الاستخدام من خلال الأدوات، وتعيين الأذونات داخل قواعد البيانات، وفرض حوكمة البيانات عبر الإدارات. هذا يحسن إنتاجية الموظفين مع حماية سلامة بيانات الأعمال والامتثال.
قد تساعد أدوات الرؤية التي تشير إلى السلوك غير الطبيعي — مثل الزيادات المفاجئة في استخدام الذكاء الاصطناعي، أو تحميل البيانات إلى نقاط نهاية غير عادية، أو الوصول إلى النموذج في إطار زمني قصير مع بيانات حساسة — فرق الأمان في تحديد سوء الاستخدام وتسريبات البيانات. تشير التقارير إلى أنه على مدار العام الماضي، استخدم ما يصل إلى 60% من الموظفين أدوات الذكاء الاصطناعي غير المعتمدة، واعترف 93% بإدخال بيانات الشركة دون تصريح.
\ قد يمكّن اكتشاف هذه الأنماط مبكرًا من المعالجة، وإعادة التعليم، وإعادة تكوين الأذونات، أو إنهاء العملية قبل أن تؤدي إلى تسرب البيانات أو خروقات الامتثال.
التدريب على الأمن السيبراني بشكل عام ليس كافيًا. يمكن للذكاء الاصطناعي أن يهلوس من خلال إساءة تفسير النية وراء المطالبات وإنشاء محتوى يبدو موثوقًا، أو خاطئًا، أو متحيزًا. بالإضافة إلى ذلك، يجب أن يفهم العمال أن استخدام الذكاء الاصطناعي يختلف عن استخدام البرامج أو الخدمات. يتطلب الاستخدام الآمن تغيير النماذج العقلية، وفهم مخاطر المطالبة، والتعامل مع البيانات الشخصية.
\ سيقوم المستخدمون ذوو المعرفة الأساسية بالآلة بالتحقق من صحة المخرجات ويكونون أقل عرضة للمشاركة المفرطة للبيانات الشخصية. سيتعاملون مع الأدوات كطيارين مساعدين قيمين، ولكن يجب استخدامها تحت إشراف بشري.
ينمو الذكاء الاصطناعي الخفي بشكل أسرع ويصعب تحديده أكثر من تكنولوجيا المعلومات الخفية. على الرغم من اختلاف حجم وتعقيد المخاطر، فإن الاستعانة بمساعدة الموظفين يمكن أن تحدد كليهما بشكل أكثر فعالية. يمكن أن تساعد سياسات الحوكمة الشركات في تحقيق التوازن الصحيح. يجب على فرق الأمان إعادة تقييم تعرضها، والبقاء يقظة للتهديدات الناشئة، والتصرف على الفور قبل أن تتخذ أدوات الذكاء الاصطناعي غير المرئية قرارات محورية في تطبيقات الأعمال.


