OpenAI a publié un avertissement le 10 décembre indiquant que ses prochains modèles d'IA pourraient créer de graves risques de cybersécurité. L'entreprise derrière ChatGPT a déclaré que ces modèles avancés pourraient développer des exploits zero-day à distance fonctionnels ciblant des systèmes bien défendus.
La société d'IA a également noté que ces modèles pourraient faciliter des opérations d'intrusion complexes dans les entreprises ou les industries, entraînant des conséquences réelles. OpenAI a partagé ces informations dans un billet de blog abordant les capacités croissantes de sa technologie.
L'avertissement reflète les préoccupations de l'industrie de l'IA concernant l'utilisation abusive potentielle de modèles de plus en plus puissants. Plusieurs grandes entreprises technologiques ont pris des mesures pour sécuriser leurs systèmes d'IA contre des menaces similaires.
Google a annoncé cette semaine des mises à jour de la sécurité du navigateur Chrome pour bloquer les attaques indirectes par injection de prompts sur les agents d'IA. Ces changements sont intervenus avant un déploiement plus large des fonctionnalités agentiques de Gemini dans Chrome.
Anthropic a révélé en novembre 2025 que des acteurs malveillants, potentiellement liés à un groupe soutenu par l'État chinois, avaient utilisé son outil Claude Code pour une opération d'espionnage pilotée par l'IA. L'entreprise a stoppé la campagne avant qu'elle ne cause des dommages.
OpenAI a partagé des données montrant des progrès rapides dans les capacités de cybersécurité de l'IA. Le modèle GPT-5.1-Codex-Max de l'entreprise a atteint 76% lors des défis capture-the-flag en novembre 2025.
Cela représente un bond majeur par rapport au score de 27% obtenu par GPT-5 en août 2024. Les défis capture-the-flag mesurent la capacité des systèmes à localiser et exploiter les faiblesses de sécurité.
L'amélioration en seulement quelques mois montre à quelle vitesse les modèles d'IA acquièrent des capacités avancées en cybersécurité. Ces compétences peuvent être utilisées à des fins tant défensives qu'offensives.
OpenAI a déclaré qu'elle développait des modèles plus robustes pour le travail de cybersécurité défensive. L'entreprise développe des outils pour aider les équipes de sécurité à auditer le code et à corriger les vulnérabilités plus facilement.
L'entreprise soutenue par Microsoft utilise plusieurs couches de sécurité, notamment des contrôles d'accès, un renforcement de l'infrastructure, des contrôles de sortie et des systèmes de surveillance. OpenAI forme ses modèles d'IA à rejeter les demandes nuisibles tout en restant utiles pour l'éducation et le travail de défense.
L'entreprise étend la surveillance à tous les produits utilisant des modèles de pointe pour détecter les activités cyber potentiellement malveillantes. OpenAI s'associe à des groupes experts en red teaming pour tester et améliorer ses systèmes de sécurité.
OpenAI a présenté Aardvark, un agent d'IA qui fonctionne comme un chercheur en sécurité. L'outil est en test bêta privé et peut analyser le code pour détecter les vulnérabilités et recommander des correctifs.
Les mainteneurs peuvent rapidement mettre en œuvre les correctifs proposés par Aardvark. OpenAI prévoit d'offrir Aardvark gratuitement à des dépôts de code open source non commerciaux sélectionnés.
L'entreprise lancera un programme donnant aux utilisateurs et clients qualifiés en cyberdéfense un accès par niveaux à des capacités améliorées. OpenAI forme le Conseil des risques frontaliers, réunissant des défenseurs cyber externes et des experts en sécurité pour travailler avec ses équipes internes.
Le conseil commencera par se concentrer sur la cybersécurité avant de s'étendre à d'autres domaines de capacités frontières. OpenAI fournira bientôt des détails sur le programme d'accès de confiance pour les utilisateurs et développeurs travaillant sur la cyberdéfense.
L'article OpenAI avertit que les modèles d'IA de nouvelle génération posent des risques élevés pour la cybersécurité est apparu en premier sur Blockonomi.


