TLDR OpenAI a émis un avertissement selon lequel ses modèles d'IA de nouvelle génération présentent des risques de cybersécurité "élevés" et pourraient créer des exploits zero-day GPT-5.1-Codex-Max a réussiTLDR OpenAI a émis un avertissement selon lequel ses modèles d'IA de nouvelle génération présentent des risques de cybersécurité "élevés" et pourraient créer des exploits zero-day GPT-5.1-Codex-Max a réussi

OpenAI avertit que les modèles d'IA de nouvelle génération présentent des risques élevés pour la cybersécurité

2025/12/11 21:18

TLDR

  • OpenAI a émis un avertissement indiquant que ses modèles d'IA de nouvelle génération présentent des risques "élevés" en matière de cybersécurité et pourraient créer des exploits zero-day
  • GPT-5.1-Codex-Max a atteint 76% aux tests de cybersécurité en novembre 2025, une forte augmentation par rapport aux 27% de GPT-5 en août 2024
  • L'entreprise déploie Aardvark, un agent d'IA axé sur la sécurité qui identifie les vulnérabilités du code et suggère des correctifs
  • OpenAI prévoit de créer un Conseil des risques frontaliers avec des experts en cybersécurité et d'offrir un accès par niveaux à des fonctionnalités de sécurité améliorées
  • Google et Anthropic ont également renforcé leurs systèmes d'IA contre les menaces de cybersécurité ces derniers mois

OpenAI a publié un avertissement le 10 décembre indiquant que ses prochains modèles d'IA pourraient créer de graves risques de cybersécurité. L'entreprise derrière ChatGPT a déclaré que ces modèles avancés pourraient développer des exploits zero-day à distance fonctionnels ciblant des systèmes bien défendus.

La société d'IA a également noté que ces modèles pourraient faciliter des opérations d'intrusion complexes dans les entreprises ou les industries, entraînant des conséquences réelles. OpenAI a partagé ces informations dans un billet de blog abordant les capacités croissantes de sa technologie.

L'avertissement reflète les préoccupations de l'industrie de l'IA concernant l'utilisation abusive potentielle de modèles de plus en plus puissants. Plusieurs grandes entreprises technologiques ont pris des mesures pour sécuriser leurs systèmes d'IA contre des menaces similaires.

Google a annoncé cette semaine des mises à jour de la sécurité du navigateur Chrome pour bloquer les attaques indirectes par injection de prompts sur les agents d'IA. Ces changements sont intervenus avant un déploiement plus large des fonctionnalités agentiques de Gemini dans Chrome.

Anthropic a révélé en novembre 2025 que des acteurs malveillants, potentiellement liés à un groupe soutenu par l'État chinois, avaient utilisé son outil Claude Code pour une opération d'espionnage pilotée par l'IA. L'entreprise a stoppé la campagne avant qu'elle ne cause des dommages.

Les compétences en cybersécurité de l'IA progressent rapidement

OpenAI a partagé des données montrant des progrès rapides dans les capacités de cybersécurité de l'IA. Le modèle GPT-5.1-Codex-Max de l'entreprise a atteint 76% lors des défis capture-the-flag en novembre 2025.

Cela représente un bond majeur par rapport au score de 27% obtenu par GPT-5 en août 2024. Les défis capture-the-flag mesurent la capacité des systèmes à localiser et exploiter les faiblesses de sécurité.

L'amélioration en seulement quelques mois montre à quelle vitesse les modèles d'IA acquièrent des capacités avancées en cybersécurité. Ces compétences peuvent être utilisées à des fins tant défensives qu'offensives.

Nouveaux outils de sécurité et mesures de protection

OpenAI a déclaré qu'elle développait des modèles plus robustes pour le travail de cybersécurité défensive. L'entreprise développe des outils pour aider les équipes de sécurité à auditer le code et à corriger les vulnérabilités plus facilement.

L'entreprise soutenue par Microsoft utilise plusieurs couches de sécurité, notamment des contrôles d'accès, un renforcement de l'infrastructure, des contrôles de sortie et des systèmes de surveillance. OpenAI forme ses modèles d'IA à rejeter les demandes nuisibles tout en restant utiles pour l'éducation et le travail de défense.

L'entreprise étend la surveillance à tous les produits utilisant des modèles de pointe pour détecter les activités cyber potentiellement malveillantes. OpenAI s'associe à des groupes experts en red teaming pour tester et améliorer ses systèmes de sécurité.

Outil Aardvark et Conseil consultatif

OpenAI a présenté Aardvark, un agent d'IA qui fonctionne comme un chercheur en sécurité. L'outil est en test bêta privé et peut analyser le code pour détecter les vulnérabilités et recommander des correctifs.

Les mainteneurs peuvent rapidement mettre en œuvre les correctifs proposés par Aardvark. OpenAI prévoit d'offrir Aardvark gratuitement à des dépôts de code open source non commerciaux sélectionnés.

L'entreprise lancera un programme donnant aux utilisateurs et clients qualifiés en cyberdéfense un accès par niveaux à des capacités améliorées. OpenAI forme le Conseil des risques frontaliers, réunissant des défenseurs cyber externes et des experts en sécurité pour travailler avec ses équipes internes.

Le conseil commencera par se concentrer sur la cybersécurité avant de s'étendre à d'autres domaines de capacités frontières. OpenAI fournira bientôt des détails sur le programme d'accès de confiance pour les utilisateurs et développeurs travaillant sur la cyberdéfense.

L'article OpenAI avertit que les modèles d'IA de nouvelle génération posent des risques élevés pour la cybersécurité est apparu en premier sur Blockonomi.

Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.