TLDR OpenAI a emis un avertisment că modelele sale AI de nouă generație prezintă riscuri de securitate cibernetică „ridicate" și ar putea crea exploatări de tip zero-day GPT-5.1-Codex-Max a realizatTLDR OpenAI a emis un avertisment că modelele sale AI de nouă generație prezintă riscuri de securitate cibernetică „ridicate" și ar putea crea exploatări de tip zero-day GPT-5.1-Codex-Max a realizat

OpenAI avertizează că modelele AI de nouă generație prezintă riscuri ridicate de securitate cibernetică

2025/12/11 21:18

TLDR

  • OpenAI a emis un avertisment că modelele sale AI de următoare generație prezintă riscuri "ridicate" de securitate cibernetică și ar putea crea exploatări zero-day
  • GPT-5.1-Codex-Max a obținut 76% la testele de securitate cibernetică în noiembrie 2025, o creștere semnificativă față de 27% obținut de GPT-5 în august 2024
  • Compania lansează Aardvark, un agent AI axat pe securitate care identifică vulnerabilitățile codului și sugerează remedieri
  • OpenAI planifică să creeze un Consiliu pentru Riscuri de Frontieră cu experți în securitate cibernetică și să ofere acces stratificat la funcții de securitate îmbunătățite
  • Google și Anthropic și-au consolidat, de asemenea, sistemele AI împotriva amenințărilor de securitate cibernetică în ultimele luni

OpenAI a emis un avertisment pe 10 decembrie, afirmând că viitoarele sale modele AI ar putea crea riscuri serioase de securitate cibernetică. Compania din spatele ChatGPT a declarat că aceste modele avansate ar putea construi exploatări zero-day funcționale la distanță, vizând sisteme bine apărate.

Firma de AI a remarcat, de asemenea, că aceste modele ar putea ajuta la operațiuni complexe de intruziune în întreprinderi sau industrii, care duc la consecințe în lumea reală. OpenAI a împărtășit aceste informații într-o postare pe blog care abordează capacitățile în creștere ale tehnologiei sale.

Avertismentul reflectă preocupările din întreaga industrie AI cu privire la potențialul abuz al modelelor din ce în ce mai puternice. Mai multe companii tehnologice majore au luat măsuri pentru a-și securiza sistemele AI împotriva unor amenințări similare.

Google a anunțat actualizări ale securității browserului Chrome în această săptămână pentru a bloca atacurile indirecte de injecție de prompt asupra agenților AI. Modificările au venit înainte de o implementare mai largă a funcțiilor agentice Gemini în Chrome.

Anthropic a dezvăluit în noiembrie 2025 că actorii amenințători, potențial legați de un grup sponsorizat de statul chinez, au folosit instrumentul său Claude Code pentru o operațiune de spionaj bazată pe AI. Compania a oprit campania înainte de a provoca daune.

Abilitățile de Securitate Cibernetică AI Avansează Rapid

OpenAI a împărtășit date care arată progresul rapid în abilitățile de securitate cibernetică AI. Modelul GPT-5.1-Codex-Max al companiei a atins 76% la provocările capture-the-flag în noiembrie 2025.

Aceasta reprezintă un salt major față de scorul de 27% obținut de GPT-5 în august 2024. Provocările capture-the-flag măsoară cât de bine pot sistemele să localizeze și să exploateze slăbiciunile de securitate.

Îmbunătățirea în doar câteva luni arată cât de repede modelele AI dobândesc capacități avansate de securitate cibernetică. Aceste abilități pot fi utilizate atât în scopuri defensive, cât și ofensive.

Noi Instrumente de Securitate și Măsuri de Protecție

OpenAI a declarat că construiește modele mai puternice pentru activități defensive de securitate cibernetică. Compania dezvoltă instrumente pentru a ajuta echipele de securitate să auditeze codul și să remedieze vulnerabilitățile mai ușor.

Firma susținută de Microsoft utilizează mai multe straturi de securitate, inclusiv controale de acces, întărirea infrastructurii, controale de ieșire și sisteme de monitorizare. OpenAI își antrenează modelele AI să respingă solicitările dăunătoare, rămânând în același timp utile pentru educație și activități de apărare.

Compania extinde monitorizarea în toate produsele folosind modele de frontieră pentru a detecta activități cibernetice potențial malițioase. OpenAI colaborează cu grupuri experte de red teaming pentru a testa și îmbunătăți sistemele sale de siguranță.

Instrumentul Aardvark și Consiliul Consultativ

OpenAI a introdus Aardvark, un agent AI care funcționează ca un cercetător de securitate. Instrumentul se află în testare beta privată și poate scana codul pentru vulnerabilități și recomanda patch-uri.

Administratorii pot implementa rapid remedierile propuse de Aardvark. OpenAI planifică să ofere Aardvark gratuit pentru depozitele de cod open source non-comerciale selectate.

Compania va lansa un program care oferă utilizatorilor și clienților calificați în apărarea cibernetică acces stratificat la capacități îmbunătățite. OpenAI formează Consiliul pentru Riscuri de Frontieră, aducând apărători cibernetici externi și experți în securitate pentru a lucra cu echipele sale interne.

Consiliul va începe prin a se concentra pe securitatea cibernetică înainte de a se extinde la alte domenii de capacități de frontieră. OpenAI va furniza în curând detalii despre programul de acces de încredere pentru utilizatorii și dezvoltatorii care lucrează în apărarea cibernetică.

Postarea OpenAI Avertizează că Modelele AI de Următoare Generație Prezintă Riscuri Ridicate de Securitate Cibernetică a apărut prima dată pe Blockonomi.

Declinarea responsabilității: Articolele publicate pe această platformă provin de pe platforme publice și sunt furnizate doar în scop informativ. Acestea nu reflectă în mod necesar punctele de vedere ale MEXC. Toate drepturile rămân la autorii originali. Dacă consideri că orice conținut încalcă drepturile terților, contactează service@support.mexc.com pentru eliminare. MEXC nu oferă nicio garanție cu privire la acuratețea, exhaustivitatea sau actualitatea conținutului și nu răspunde pentru nicio acțiune întreprinsă pe baza informațiilor furnizate. Conținutul nu constituie consiliere financiară, juridică sau profesională și nici nu trebuie considerat o recomandare sau o aprobare din partea MEXC.