Häkkerid ja muud kurjategijad võivad hõlpsasti üle võtta arvuteid, mis töötavad avatud lähtekoodiga suurte keeltemudelitega, jättes need peamiste tehisintellekti platvormide turvalisuse piirangutest ja kontrollist välja ning loomaks turvariske ja haavatavusi,
ütlesid teadlased neljapäeval, 29. jaanuaril.
Teadlased ütlesid, et häkkerid võivad sihtida LLM-e käitavaid arvuteid ja suunata neid spämmitegevuste, õngitsussisu loomise või valeinformatsiooni kampaaniate tegemiseks, vältides platvormide turvaprotokolle.
Selle uuringu, mille viisid läbi küberturbeettevõtted SentinelOne ja Censys 293 päeva jooksul ja mis jagati eksklusiivselt Reutersile, pakub uut vaatenurka tuhandete avatud lähtekoodiga LLM-de kasutamise potentsiaalsete ebaseaduslike juhtumite ulatusele. Nende hulgas on häkkimine, vihakõne ja ahistamine, vägivaldne või verine sisu, isikuandmete varastamine, pettused või kelmused ning mõnel juhul ka lapsi seksuaalselt ära kasutav materjal, ütlesid teadlased.
Kuigi avatud lähtekoodiga LLM-i variante on tuhandeid, on internetis ligipääsetavatel hostidel oluline osa Meta Llama, Google DeepMind Gemma ja teiste variante, selgitasid teadlased. Kuigi mõned avatud lähtekoodiga mudelid sisaldavad turvalisuse piiranguid, leidsid teadlased sadu juhtumeid, kus turvalisuse piirangud olid selgesõnaliselt eemaldatud.
AI-tööstuses toimuvad turvakontrollide kohta käivad vestlused „ignoreerivad seda liigset võimsust, mida on ilmselgelt kasutatud mitmesugusteks erinevateks otstarveteks, mõned neist seaduslikud, mõned aga ilmselgelt kuritegelikud,” ütles Juan Andres Guerrero-Saade, SentinelOne'i luure- ja turvauuringute tegevdirektor. Guerrero-Saade võrdles seda olukorda „jäämäega”, mida ei arvestata korralikult nii tööstuses kui ka avatud lähtekoodi kogukonnas.
Uuring analüüsis avatud lähtekoodiga LLM-de avalikult ligipääsetavaid rakendusi, mis on juurde pandud Ollama abil – see on tööriist, mis võimaldab inimestel ja organisatsioonidel käitada oma versioone erinevatest suurtest keeltemudelitest.
Teadlased said näha süsteemseid juhiseid, mis on juhised, mis määravad mudeli käitumist, umbes veerandis neist LLM-idest, mida nad jälgisid. Neist määratlesid nad, et 7,5% võivad potentsiaalselt võimaldada kahjulikku tegevust.
Rachel Adams, Global Center on AI Governance'i tegevjuht ja asutaja, ütles e‑postis, et kui avatud mudelid on välja antud, muutub järgnevate sündmuste vastutus jagatud kogu ökosüsteemi, sealhulgas algsete laborite poolt.
„Laborid ei vastuta igasuguse allapoole suunduva väärkasutuse eest (mida on raske ette näha), kuid neil on endiselt oluline hoolitsuskohustus ennustada ootuspäraseid kahjusid, dokumenteerida riske ning pakkuda leevendusvahendeid ja juhiseid, eriti arvestades ebavõrdselt jaotunud globaalset jõustamisvõimet,” ütles Adams.
Meta pressiesindaja keeldus vastamast küsimustele arendajate vastutuse kohta avatud lähtekoodiga mudelite allapoole suunduva väärkasutusega seotud murede lahendamisel ja selle kohta, kuidas muresid saab teatada, kuid märkis ettevõtte Llama Protection tööriistu Llama arendajatele ning ettevõtte Meta Llama Vastutustundlik Kasutamise Juhendit.
Microsoft AI Red Team'i juht Ram Shankar Siva Kumar ütles e‑postis, et Microsoft usub, et avatud lähtekoodiga mudelid „mängivad olulist rolli” mitmesugustes valdkondades, kuid „samal ajal oleme selgelt teadlikud, et avatud mudelid, nagu kõik transformeerivad tehnoloogiad, võivad vastaste poolt väärkasutada, kui neid väljastatakse ilma sobivate kaitsemeetmeteta.”
Microsoft viib läbi enne väljaandmist hindamisi, sealhulgas protsesse, millega hinnatakse „riske internetis avatud, isehostitud ja tööriistu kutsuvate stsenaariumide puhul, kus väärkasutus võib olla suur,” ütles ta. Ettevõte jälgib ka uusi ohte ja väärkasutuse mustreid. „Lõppkokkuvõttes nõuab vastutustundlik avatud innovatsioon ühist pühendumist nii loojate, kasutajate, teadlaste kui ka turvameeskondade poolt.”
Ollama ei vastanud kommentaariküsimusele. Alphabeti Google ja Anthropic ei vastanud küsimustele. – Rappler.com
/
