OpenAI ১০ ডিসেম্বর একটি সতর্কতা জারি করেছে যে তার আসন্ন AI মডেলগুলি গুরুতর সাইবার নিরাপত্তা ঝুঁকি তৈরি করতে পারে। ChatGPT-এর পিছনের কোম্পানিটি বলেছে এই উন্নত মডেলগুলি ভালভাবে সুরক্ষিত সিস্টেমগুলিকে লক্ষ্য করে কার্যকর জিরো-ডে রিমোট এক্সপ্লয়েট তৈরি করতে পারে।
AI প্রতিষ্ঠানটি আরও উল্লেখ করেছে যে এই মডেলগুলি জটিল এন্টারপ্রাইজ বা শিল্প অনুপ্রবেশ অপারেশনে সাহায্য করতে পারে যা বাস্তব বিশ্বে পরিণতি ঘটায়। OpenAI তার প্রযুক্তির বর্ধমান সক্ষমতা সম্পর্কে একটি ব্লগ পোস্টে এই তথ্য শেয়ার করেছে।
সতর্কতাটি AI শিল্পে ক্রমবর্ধমান শক্তিশালী মডেলগুলির সম্ভাব্য অপব্যবহার সম্পর্কে উদ্বেগ প্রতিফলিত করে। বেশ কয়েকটি প্রধান প্রযুক্তি কোম্পানি অনুরূপ হুমকির বিরুদ্ধে তাদের AI সিস্টেমগুলি সুরক্ষিত করার জন্য পদক্ষেপ নিয়েছে।
Google এই সপ্তাহে Chrome ব্রাউজার নিরাপত্তা আপডেট ঘোষণা করেছে AI এজেন্টগুলিতে পরোক্ষ প্রম্পট ইনজেকশন আক্রমণ ব্লক করার জন্য। পরিবর্তনগুলি Chrome-এ Gemini এজেন্টিক বৈশিষ্ট্যগুলির ব্যাপক প্রচলনের আগে এসেছে।
Anthropic নভেম্বর ২০২৫-এ প্রকাশ করেছে যে হুমকি সৃষ্টিকারীরা, সম্ভবত একটি চীনা রাষ্ট্র-পৃষ্ঠপোষিত গোষ্ঠীর সাথে সংযুক্ত, একটি AI-চালিত গুপ্তচরবৃত্তি অপারেশনের জন্য তার Claude Code টুল ব্যবহার করেছিল। কোম্পানিটি ক্ষতি হওয়ার আগেই অভিযানটি বন্ধ করে দিয়েছিল।
OpenAI AI সাইবার নিরাপত্তা ক্ষমতায় দ্রুত অগ্রগতি দেখানো ডেটা শেয়ার করেছে। কোম্পানির GPT-5.1-Codex-Max মডেল নভেম্বর ২০২৫-এ ক্যাপচার-দ্য-ফ্ল্যাগ চ্যালেঞ্জে ৭৬% অর্জন করেছে।
এটি আগস্ট ২০২৪-এ GPT-5 অর্জিত ২৭% স্কোর থেকে একটি বড় লাফ। ক্যাপচার-দ্য-ফ্ল্যাগ চ্যালেঞ্জগুলি পরিমাপ করে সিস্টেমগুলি কতটা ভালভাবে নিরাপত্তা দুর্বলতা খুঁজে বের করতে এবং এক্সপ্লয়েট করতে পারে।
মাত্র কয়েক মাসের মধ্যে উন্নতি দেখায় কীভাবে AI মডেলগুলি দ্রুত উন্নত সাইবার নিরাপত্তা ক্ষমতা অর্জন করছে। এই দক্ষতাগুলি প্রতিরক্ষামূলক এবং আক্রমণাত্মক উভয় উদ্দেশ্যেই ব্যবহার করা যেতে পারে।
OpenAI বলেছে যে এটি প্রতিরক্ষামূলক সাইবার নিরাপত্তা কাজের জন্য শক্তিশালী মডেল তৈরি করছে। কোম্পানিটি নিরাপত্তা টিমগুলিকে কোড অডিট করতে এবং দুর্বলতাগুলি আরও সহজে ঠিক করতে সাহায্য করার জন্য টুল বিকাশ করছে।
Microsoft-সমর্থিত প্রতিষ্ঠানটি অ্যাক্সেস কন্ট্রোল, ইনফ্রাস্ট্রাকচার হার্ডেনিং, ইগ্রেস কন্ট্রোল এবং মনিটরিং সিস্টেম সহ একাধিক নিরাপত্তা স্তর ব্যবহার করছে। OpenAI তার AI মডেলগুলিকে ক্ষতিকারক অনুরোধ প্রত্যাখ্যান করতে প্রশিক্ষণ দিচ্ছে যখন শিক্ষা এবং প্রতিরক্ষা কাজের জন্য উপযোগী থাকছে।
কোম্পানিটি সম্ভাব্য দুষ্ট সাইবার কার্যকলাপ ধরতে ফ্রন্টিয়ার মডেল ব্যবহার করে সমস্ত পণ্যে মনিটরিং সম্প্রসারণ করছে। OpenAI বিশেষজ্ঞ রেড টিমিং গ্রুপের সাথে অংশীদারিত্ব করছে তার নিরাপত্তা সিস্টেম পরীক্ষা এবং উন্নত করতে।
OpenAI Aardvark চালু করেছে, একটি AI এজেন্ট যা একজন নিরাপত্তা গবেষক হিসাবে কাজ করে। টুলটি প্রাইভেট বিটা টেস্টিং-এ রয়েছে এবং দুর্বলতার জন্য কোড স্ক্যান করতে এবং প্যাচ সুপারিশ করতে পারে।
রক্ষণাবেক্ষণকারীরা Aardvark প্রস্তাবিত সমাধানগুলি দ্রুত বাস্তবায়ন করতে পারেন। OpenAI নির্বাচিত অ-বাণিজ্যিক ওপেন সোর্স কোড রিপোজিটরিগুলিতে Aardvark বিনামূল্যে অফার করার পরিকল্পনা করছে।
কোম্পানিটি যোগ্য সাইবারডিফেন্স ব্যবহারকারী এবং গ্রাহকদের উন্নত ক্ষমতায় স্তরযুক্ত অ্যাক্সেস দেওয়ার একটি প্রোগ্রাম চালু করবে। OpenAI ফ্রন্টিয়ার রিস্ক কাউন্সিল গঠন করছে, বাহ্যিক সাইবার প্রতিরক্ষাকারী এবং নিরাপত্তা বিশেষজ্ঞদের তার অভ্যন্তরীণ টিমের সাথে কাজ করার জন্য আনছে।
কাউন্সিলটি অন্যান্য ফ্রন্টিয়ার ক্ষমতা ক্ষেত্রে সম্প্রসারণের আগে সাইবার নিরাপত্তায় ফোকাস করে শুরু করবে। OpenAI শীঘ্রই সাইবারডিফেন্সে কাজ করা ব্যবহারকারী এবং ডেভেলপারদের জন্য বিশ্বস্ত অ্যাক্সেস প্রোগ্রাম সম্পর্কে বিবরণ প্রদান করবে।
OpenAI Warns Next-Generation AI Models Pose High Cybersecurity Risks পোস্টটি প্রথম Blockonomi-তে প্রকাশিত হয়েছিল।


