Google’i AI-vestlusbot Gemini on muutunud ulatusliku infokraami sihtmärgiks, kui ründajad püüavad süsteemi küsimustega üle koormata, et teada saada, kuidas see töötab. Üksnes üks operatsioon saatis vestlusbotile rohkem kui 100 000 päringut, püüdes välja selgitada salajasi mustrid, mis selle tehisintellekti nutikaks muudavad.
Ettevõte teatas neljapäeval, et nii-öelda „distilleerimisründed“ muutuvad järjest tõsisemaks. Pahatahtlikud tegelased saadavad laine haaval küsimusi, et mõista, milline loogika Gemini vastuste taga peitub. Nende eesmärk on lihtne: varastada Google’i tehnoloogiat, et luua või täiustada oma AI-süsteeme, kulutamata miljardeid arenduskuludele.
Google usub, et enamik ründajaid on eraettevõtted või teadlased, kes soovivad edumaad saada, ilma et peaksid raske tööga vaeva nägema. Ettevõtte aruande kohaselt tulid rünnakud üle maailma. John Hultquist, kes juhib Google’i ohukorraldusgruppi, ütles, et väiksemad ettevõtted, kes kasutavad kohandatud AI-tööriistu, võivad peagi sarnaste rünnakute ohvriks langeda.
Tehnoloogiafirmad on investeerinud miljarditesse dollareid oma AI-vestlusbotide loomisse. Nende süsteemide sisemisi toimimismehhanisme hoidetakse kui kroonijuveele. Kuigi rünnakute avastamiseks ja tõkestamiseks on rakendatud mitmeid kaitsemeetmeid, jäävad suured AI-süsteemid endiselt kergeks sihtmärgiks, sest igaüks, kel on internetiühendus, saab nendega suhelda.
Eelmisel aastal osutas OpenAI süüdistust Hiina ettevõttele DeepSeek, väites, et see kasutas distilleerimist oma mudelite parendamiseks. Cryptopolitan teatas 30. jaanuaril, et Itaalia ja Iirimaa keelasid DeepSeek’i pärast seda, kui OpenAI süüdistas Hiina firmat oma AI-mudelite varguses. See tehnika võimaldab ettevõtetel kallist tehnoloogiat kopeerida vaid murdosa kuludega.
Majanduslik pool on äärmiselt karm. Tänapäevase AI-mudeli loomine maksab sadu miljoneid või isegi miljardeid dollareid. DeepSeek ehitaski oma R1-mudeli umbes kuue miljoni dollari eest distilleerimise abil, samas kui ChatGPT-5 arendamine ületas tööstuse aruannete kohaselt kahe miljardi dollari piiri. Mudeli loogika vargus vähendab seda hiiglaslikku investeeringut pea olematuks.
Google’i teatel olid paljud Gemini vastu suunatud rünnakud algoritmidele, mis aitavad tal „arutleda“ või infot töödelda. Ettevõtted, kes treenivad oma AI-süsteeme tundlikel andmetel – näiteks 100 aasta kaubandusstrateegiate või klientide teabe põhjal – seisavad nüüd sama ohus.
„Oletame, et teie LLM on treenitud 100 aasta saladuslikule kaubandusviisile. Teoreetiliselt võib teid mõnda seda teavet distilleerida,“ selgitas Hultquist.
Probleem ei piirdu ainult rahast hõivatud ettevõtetega. APT31, Hiina valitsuse häkkimisrühmitus, millele USA kehtestas 2024. aasta märtsis sanktsioonid, kasutas hiljuti Geminit, et planeerida reaalseid küberrünnakuid Ameerika organisatsioonide vastu.
Rühmitus ühendas Geminit Hexstrike’iga, avatud lähtekoodiga häkkimisvahendiga, mis suudab käivitada üle 150 turvaprogrammi. Nad analüüsisid kaugkoodi käivitamise vigu, veebiturvalisuse ületamise viise ja SQL-injektsioonirünnakuid – kõik suunatud konkreetsete USA sihtmärkidele, selgus Google’i aruandest.
Cryptopolitan on varem kajastanud sarnaseid AI-turvariske, hoiatades, et häkkerid kasutavad ära AI-nõrkusi. APT31 juhtum näitab, et need hoiatused olid igati õiged.
Hultquist tõi esile kaks suurt murekohta: vastased, kes teostavad kogu rünnet tsükli vältel minimaalse inimabi abil, ning rünnakuvahendite arendamise automatiseerimine. „Need on kaks viisi, kuidas vastased saavad suuri eeliseid ja liiguvad rünnakutsükli läbi minimaalse inimsekkumisega,“ ütles ta.
Programmi vahel, millega tarkvara nõrkus avastatakse ja parandus paigale pandakse – nn patch gap – võib laieneda drastiliselt. Organisatsioonid kulutavad tihtipeale nädalaid enne kui kaitsemeetmed paigaldatud saavad. Kui AI-agentid leiavad ja testivad nõrkusi automaatselt, võivad ründajad liikuda palju kiiremini.
„Peame kasutama AI eeliseid ja järjest rohkem eemaldama inimesi ringist, et saaksime reageerida masinatega võrreldava kiirusega,“ ütles Hultquist The Register’ile.
Finantsilised panused on tohutud. IBM-i 2024. aasta andmelekkearuandes leiti, et intellektuaalse omandi vargus maksab organisatsioonidele nüüd 173 dollarit ühe rekordi kohta, kusjuures IP-le keskenduvad rikkumised kasvasid aastaga 27%. AI-mudelite kaalud on selle musta turu kõige väärtuslikumad sihtmärgid – üksainus varastatud piiriala-mudel võib mustal turul tuua sadu miljoneid.
Google on sulgenud nendega seotud kontod, kuid rünnakud jätkuvad „üle kogu maailma“, ütles Hultquist. Kuna AI muutub järjest võimsamaks ja üha rohkem ettevõtteid sõltub sellest, võib oodata, et see digitaalne kullapalavik intensiivistub. Küsimus pole mitte, kas tuleb veel rünnakuid, vaid kas kaitsejõud suudavad tempos järgi jõuda.
Suurge strateegia mentorluse ja igapäevaste ideede abil – 30 päeva tasuta juurdepääs meie kauplemisprogrammile


