أصدرت OpenAI تحذيرًا بأن نماذج الذكاء الاصطناعي الجديدة تشكل مخاطر أمنية "عالية" ويمكنها إنشاء ثغرات يوم الصفر، وقد حقق GPT-5.1-Codex-Max ذلكأصدرت OpenAI تحذيرًا بأن نماذج الذكاء الاصطناعي الجديدة تشكل مخاطر أمنية "عالية" ويمكنها إنشاء ثغرات يوم الصفر، وقد حقق GPT-5.1-Codex-Max ذلك

تحذر OpenAI من أن نماذج الذكاء الاصطناعي من الجيل القادم تشكل مخاطر عالية للأمن السيبراني

2025/12/11 21:18

الخلاصة

  • أصدرت OpenAI تحذيرًا بأن نماذج الذكاء الاصطناعي من الجيل القادم تشكل مخاطر أمنية "عالية" ويمكن أن تنشئ ثغرات بدون مخاطر
  • حقق GPT-5.1-Codex-Max نسبة 76% في اختبارات الأمن السيبراني في نوفمبر 2025، بزيادة حادة من 27% التي حققها GPT-5 في أغسطس 2024
  • تطرح الشركة Aardvark، وهو وكيل الذكاء الاصطناعي مركز على الأمان يحدد نقاط الضعف في الكود ويقترح إصلاحات
  • تخطط OpenAI لإنشاء مجلس مخاطر الحدود مع خبراء الأمن السيبراني وتقديم وصول متدرج إلى ميزات أمان محسنة
  • قامت Google وAnthropic أيضًا بتعزيز أنظمة الذكاء الاصطناعي الخاصة بها ضد تهديدات الأمن السيبراني في الأشهر الأخيرة

أصدرت OpenAI تحذيرًا في 10 ديسمبر يفيد بأن نماذج الذكاء الاصطناعي القادمة يمكن أن تخلق مخاطر أمنية خطيرة. وقالت الشركة المطورة لـ ChatGPT إن هذه النماذج المتقدمة قد تبني ثغرات بدون مخاطر تعمل عن بُعد تستهدف الأنظمة المحمية جيدًا.

كما لاحظت شركة الذكاء الاصطناعي أن هذه النماذج يمكن أن تساعد في عمليات التسلل المعقدة للمؤسسات أو الصناعات التي تؤدي إلى عواقب في العالم الحقيقي. شاركت OpenAI هذه المعلومات في منشور مدونة يتناول القدرات المتزايدة لتقنيتها.

يعكس التحذير المخاوف في جميع أنحاء صناعة الذكاء الاصطناعي بشأن إساءة استخدام النماذج القوية بشكل متزايد. اتخذت العديد من شركات التكنولوجيا الكبرى إجراءات لتأمين أنظمة الذكاء الاصطناعي الخاصة بها ضد تهديدات مماثلة.

أعلنت Google هذا الأسبوع عن تحديثات لأمان متصفح Chrome لمنع هجمات حقن الأوامر غير المباشرة على وكلاء الذكاء الاصطناعي. جاءت التغييرات قبل طرح أوسع لميزات Gemini الوكيلة في Chrome.

كشفت Anthropic في نوفمبر 2025 أن الجهات الفاعلة المهددة، المرتبطة محتملاً بمجموعة ترعاها الدولة الصينية، استخدمت أداة Claude Code الخاصة بها لعملية تجسس قائمة على الذكاء الاصطناعي. أوقفت الشركة الحملة قبل أن تسبب أضرارًا.

مهارات الأمن السيبراني للذكاء الاصطناعي تتقدم بسرعة

شاركت OpenAI بيانات تظهر تقدمًا سريعًا في قدرات الأمن السيبراني للذكاء الاصطناعي. حقق نموذج GPT-5.1-Codex-Max الخاص بالشركة 76% في تحديات capture-the-flag في نوفمبر 2025.

يمثل هذا قفزة كبيرة من نتيجة 27% التي حققها GPT-5 في أغسطس 2024. تقيس تحديات capture-the-flag مدى قدرة الأنظمة على تحديد واستغلال نقاط الضعف الأمنية.

يظهر التحسن خلال بضعة أشهر فقط مدى سرعة اكتساب نماذج الذكاء الاصطناعي لقدرات الأمن السيبراني المتقدمة. يمكن استخدام هذه المهارات لأغراض دفاعية وهجومية على حد سواء.

أدوات أمان جديدة وإجراءات حماية

قالت OpenAI إنها تبني نماذج أقوى لأعمال الأمن السيبراني الدفاعية. تطور الشركة أدوات لمساعدة فرق الأمان على تدقيق الكود وإصلاح نقاط الضعف بسهولة أكبر.

تستخدم الشركة المدعومة من Microsoft طبقات أمان متعددة بما في ذلك ضوابط الوصول، وتقوية البنية التحتية، وضوابط الخروج، وأنظمة المراقبة. تدرب OpenAI نماذج الذكاء الاصطناعي الخاصة بها لرفض الطلبات الضارة مع البقاء مفيدة للتعليم والعمل الدفاعي.

توسع الشركة المراقبة عبر جميع المنتجات باستخدام نماذج حدودية لاكتشاف النشاط السيبراني الضار المحتمل. تتعاون OpenAI مع مجموعات الفرق الحمراء الخبيرة لاختبار وتحسين أنظمة الأمان الخاصة بها.

أداة Aardvark والمجلس الاستشاري

قدمت OpenAI Aardvark، وهو وكيل الذكاء الاصطناعي يعمل كباحث أمني. الأداة في مرحلة الاختبار العام للنسخة التجريبية ويمكنها فحص الكود بحثًا عن نقاط الضعف واقتراح التصحيحات.

يمكن للمشرفين تنفيذ الإصلاحات التي يقترحها Aardvark بسرعة. تخطط OpenAI لتقديم Aardvark مجانًا لمستودعات الكود مفتوحة المصدر غير التجارية المختارة.

ستطلق الشركة برنامجًا يمنح مستخدمي وعملاء الدفاع السيبراني المؤهلين وصولاً متدرجًا إلى القدرات المحسنة. تشكل OpenAI مجلس مخاطر الحدود، الذي يجمع المدافعين السيبرانيين الخارجيين وخبراء الأمان للعمل مع فرقها الداخلية.

سيبدأ المجلس بالتركيز على الأمن السيبراني قبل التوسع إلى مجالات القدرات الحدودية الأخرى. ستقدم OpenAI قريبًا تفاصيل حول برنامج الوصول الموثوق للمستخدمين والمطورين العاملين في مجال الدفاع السيبراني.

ظهر منشور OpenAI تحذر من أن نماذج الذكاء الاصطناعي من الجيل القادم تشكل مخاطر أمنية سيبرانية عالية لأول مرة على Blockonomi.

إخلاء مسؤولية: المقالات المُعاد نشرها على هذا الموقع مستقاة من منصات عامة، وهي مُقدمة لأغراض إعلامية فقط. لا تُظهِر بالضرورة آراء MEXC. جميع الحقوق محفوظة لمؤلفيها الأصليين. إذا كنت تعتقد أن أي محتوى ينتهك حقوق جهات خارجية، يُرجى التواصل عبر البريد الإلكتروني service@support.mexc.com لإزالته. لا تقدم MEXC أي ضمانات بشأن دقة المحتوى أو اكتماله أو حداثته، وليست مسؤولة عن أي إجراءات تُتخذ بناءً على المعلومات المُقدمة. لا يُمثل المحتوى نصيحة مالية أو قانونية أو مهنية أخرى، ولا يُعتبر توصية أو تأييدًا من MEXC.

قد يعجبك أيضاً