Inteligența artificială agentică (IA) promite să transforme modul în care funcționează organizațiile. Spre deosebire de instrumentele IA anterioare concepute pentru a rezuma documente sau pentru a genera conținutInteligența artificială agentică (IA) promite să transforme modul în care funcționează organizațiile. Spre deosebire de instrumentele IA anterioare concepute pentru a rezuma documente sau pentru a genera conținut

Laura I. Harder: Cum să pregătiți consiliile de administrație pentru riscurile de securitate ale AI agentic

2026/03/19 13:28
6 min de lectură
Pentru opinii sau preocupări cu privire la acest conținut, contactează-ne la crypto.news@mexc.com

Inteligența artificială agentică (AI) promite să transforme modul în care operează organizațiile. Spre deosebire de instrumentele AI anterioare concepute pentru a rezuma documente sau a genera conținut, aceste sisteme pot acționa autonom, executa sarcini și interacționa cu sistemele enterprise. Pentru consiliile care supraveghează riscul tehnologic, această schimbare introduce o categorie fundamental diferită de preocupare în materie de securitate. Laura I. Harder, Vicepreședinte al Information Systems Security Association (ISSA) International și ofițer cyber ofensiv în Rezervele Forțelor Aeriene ale SUA, crede că mulți lideri subestimează cât de repede pot apărea aceste riscuri. "Riscul pentru organizații se rezumă de fapt la faptul că au prea multă autonomie," spune Harder. "Agenții pot schimba permisiuni, pot schimba funcționalitatea și pot crea acțiuni la care poate nu te așteptai." Pe măsură ce organizațiile trec de la experimentarea cu AI la operaționalizarea agenților autonomi, consiliile trebuie să se miște la fel de repede pentru a stabili structuri de guvernanță, garduri de protecție și mecanisme de supraveghere capabile să gestioneze sisteme care pot lua decizii și acționa fără intervenție umană.

AI Agentică Schimbă Ecuația Securității

În ultimii câțiva ani, majoritatea implementărilor AI corporative s-au concentrat pe instrumente care analizează informații sau generează rezultate. Acele capacități au introdus preocupări legate de confidențialitate și integritatea datelor, dar sistemele în sine rareori au executat acțiuni în cadrul mediilor enterprise. AI agentică schimbă această dinamică. În loc să ofere pur și simplu recomandări sau să filtreze CV-uri, agenții pot declanșa fluxuri de lucru, pot accesa baze de date și pot interacționa cu sisteme software din întreaga organizație. "Acum nu ne mai oferă doar sfaturi. Ia măsuri și acționează de la sine," spune Harder.

Laura I. Harder: Cum să Pregătiți Consiliile pentru Riscurile de Securitate ale AI Agentice

Acea autonomie creează noi provocări de securitate deoarece sistemele pot fi manipulate. Așa cum oamenii pot cădea victime ingineriei sociale, agenții AI pot fi păcăliți să execute sarcini neintenționate prin tehnici precum injecția de prompt. Harder indică exemple din lumea reală în care instrucțiuni ascunse încorporate în intrări modifică modul în care se comportă AI. "AI se va comporta pe baza instrucțiunilor pe care le primește," spune ea. Aceste amenințări sunt amplificate de natura opacă a multor modele AI. Organizațiile se bazează adesea pe instrumente terțe fără vizibilitate completă asupra modului în care sunt luate deciziile. Rezultatul este un sistem capabil să execute acțiuni în timp ce operează în moduri care sunt greu de prezis.

Riscul Ascuns pe Care Consiliile Îl Trec Adesea cu Vederea

Când consiliile încep să evalueze AI agentică, Harder spune că vulnerabilitatea cea mai subestimată este reprezentată de permisiuni. Fiecare agent AI operează într-o rețea de sisteme, surse de date și aplicații. Nivelul de acces acordat acelor sisteme determină potențialul prejudiciu dacă ceva merge greșit. Harder descrie acest lucru ca "raza de explozie" a sistemului. Un agent căruia i se acordă permisiuni ample poate fi capabil să interacționeze cu mult mai multe date și infrastructură decât își dau seama liderii.

Un exemplu comun apare atunci când sistemele AI sunt conectate la instrumente interne de colaborare sau depozite de documente. Dacă un folder partajat pe scară largă conține informații sensibile, un agent care operează în acel mediu va putea accesa și utiliza acele date în cadrul permisiunilor acordate utilizatorului, contului de serviciu sau integrării sub care rulează. În practică, aceasta înseamnă că agentul poate aduce la suprafață sau poate acționa pe baza informațiilor care pot fi fost accesibile pe scară largă, dar nu au fost monitorizate activ.

Serviciile AI terțe introduc un nivel suplimentar de risc. "Dacă utilizezi un model, la ce informații are acces acel model și pot fi informațiile tale folosite pentru a antrena acel model?" întreabă Harder. Fără controale clare, informații proprietare, proprietate intelectuală sau date sensibile ale clienților ar putea părăsi neintenționat organizația prin interacțiuni AI.

Construirea unei Guvernanțe Care Poate Ține Pasul cu AI

Guvernanța AI trebuie tratată ca un program structurat, mai degrabă decât ca un supliment tehnologic. Organizațiile ar trebui să înceapă prin stabilirea unui consiliu dedicat de guvernanță AI, adesea modelat după comitetele existente de guvernanță a confidențialității sau riscului. Acel grup ar trebui să adopte cadre stabilite, cum ar fi NIST AI Risk Management Framework sau standarde internaționale precum ISO 42001. "A avea guvernanță AI și protecții AI nu este doar un produs pe care îl poți cumpăra," spune ea.

Aceste cadre oferă îndrumare privind politicile, evaluările de risc și controalele operaționale. Dar ele încă necesită ca organizațiile să definească modul în care va funcționa AI în cadrul mediului lor și la ce date va avea voie să acceseze. "Ai nevoie de politici, proceduri și inventare," spune Harder. "Aceste piese vor ajuta la construirea infrastructurii de la care echipele tale pot lucra." O practică emergentă este crearea unei "liste de materiale AI" care inventariază fiecare instrument AI utilizat în cadrul organizației, la ce sisteme se conectează și la ce date poate accesa. Fără acea vizibilitate, organizațiile nu pot înțelege pe deplin expunerea creată de sistemele autonome care interacționează cu infrastructura enterprise.

Garduri de Protecție Care Împiedică AI să Devină Nechibzuit

Chiar și cu structuri de guvernanță la locul lor, sistemele agentice necesită măsuri de protecție tehnice care limitează modul în care operează. Strategia cea mai eficientă este de a proiecta controale de securitate de la început. Sistemele ar trebui dezvoltate inițial în interiorul mediilor sandbox închise, controlate, folosind date de testare (nu date de producție) și privilegii limitate. "Pe măsură ce construiești sistemul tău agentic, ar trebui să faci asta într-un sandbox," spune ea. "Este un mediu controlat în care sistemele sintetice pot opera cu risc redus și fără privilegii."

Testarea trebuie să includă și red teaming, unde profesioniștii în securitate încearcă să spargă sistemul sau să manipuleze comportamentul său. Aceste exerciții expun vulnerabilități înainte ca sistemele să fie implementate în medii de producție. "A avea un om în circuit asigură că dacă și când instrumentul tău AI decide să ia o decizie pe care poate nu ai dorit-o, există un fel de restricție," spune Harder. Tehnicile de izolare pot limita și ele riscul. În unele arhitecturi, agenții sunt conținuți în interiorul mașinilor virtuale unde politicile restricționează ce comenzi pot executa și la ce sisteme pot accesa.

Supravegherea Consiliului Contează în Cele din Urmă

Pentru consilii, ascensiunea AI agentice este o provocare de guvernanță și responsabilitate, iar Harder subliniază că organizațiile rămân responsabile pentru acțiunile pe care le întreprind sistemele lor AI. "Nu poți să revii și să spui: 'Nu știam că poate face asta,'" spune ea. "Trebuie să îți faci datoria cu dilligență." Acea responsabilitate comportă implicații atât legale, cât și fiduciare. Consiliile trebuie să se asigure că tehnologiile autonome sunt implementate cu supraveghere clară, autoritate limitată și monitorizare continuă. "Nu conectați agenți la instrumente privilegiate până când puteți dovedi că are autoritate limitată, puncte de control umane și monitorizare," spune Harder. Pe măsură ce AI agentică continuă să treacă de la experimentare la operațiuni de bază, organizațiile care vor reuși vor fi cele care tratează guvernanța și securitatea ca cerințe fundamentale, mai degrabă decât ca idei ulterioare.

Urmăriți-o pe Laura I. Harder pe LinkedIn pentru mai multe perspective.

Comentarii
Oportunitate de piață
Logo The AI Prophecy
Pret The AI Prophecy (ACT)
$0,01363
$0,01363$0,01363
+%0,96
USD
The AI Prophecy (ACT) graficul prețurilor în timp real
Declinarea responsabilității: Articolele publicate pe această platformă provin de pe platforme publice și sunt furnizate doar în scop informativ. Acestea nu reflectă în mod necesar punctele de vedere ale MEXC. Toate drepturile rămân la autorii originali. Dacă consideri că orice conținut încalcă drepturile terților, contactează crypto.news@mexc.com pentru eliminare. MEXC nu oferă nicio garanție cu privire la acuratețea, exhaustivitatea sau actualitatea conținutului și nu răspunde pentru nicio acțiune întreprinsă pe baza informațiilor furnizate. Conținutul nu constituie consiliere financiară, juridică sau profesională și nici nu trebuie considerat o recomandare sau o aprobare din partea MEXC.