Internetis levivad hoiatavad postitused, mis kõnelevad üsna häirivatest tegevustest, mida tehisintellekt — eelkõige agentsed AI-d ja suured keelemodelid — on toiminud. Need tegevused on olemuselt ähvardavad.
Ühes juhtumis väitis Pythoni projekti matplotlib üleval hoidja vabatahtlik, et ta keeldus muutuse tegemiseks koodis AI-koodimisagentilt saadud palvelt. Sama AI-agent genereeris postituse, milles süüdistas teda eelarvamuses, sest ta „piiras“ koodimisprotsessi.
Teises juhtumis omistas AI-firma Anthropic agentsete LLM-de poolt sooritatud pahatahtlikke käitumisi „agentselisele mittesobivusele“.
Lõpuks kardab üks tehnoloogiaettevõtte tegevjuht oma tulevikku blogipostituses, kuna agentsed AI-d panevad teda tundma end valgekraede juhtivtöötajana ebavajalikuna.
Mõte, et „apokalüptiline AI“ on juba siin, tähendab, et peame seda arutama ja võtma tagasi oma kontrolli, isegi kui töökoha kaotamise võimalus ajab murelikke inimesi AI-tuleviku ees kartma ning teisi püüab mõista, mida see praegu tegelikult teeb.
Alokaime „MJ Rathbuniga“.
Varem veebruaris kirjutas matplotlibi vabatahtlik hooldaja Scott Shambaugh blogipostituses, kuidas AI-agent nimega Crabby Rathbun GitHubis või MJ Rathbun Scientific Coderi blogis genereeris postituse, milles süüdistas Shambaughi koodimisprotsessi „gatekeepingis“, sest Rathbun on AI-agent.
Täpsustades: AI-agent on tarkvara või programm, mis täidab ülesandeid autonoomselt, vastates inimese kasutaja poolt antud juhistele. Sel juhul seadis anonüümne isik selle AI-agenti kindlaksmääratud „isiksusega“ — instruktsioonide ja käitumismustrite komplektiga, mis määratlesid tema käitumist — ning jätsid ta oma ülesannete täitmisele, ilma et ülesandega tutvustanud isik oleks agenti ülevaltnud.
Shambaugh selgitas: „Ta kirjutas vihase rünnaku, mis halvas minu isikut ja püüdis kahjustada minu mainet. Ta uuris minu koodi panuseid ja koostas „kahetsusväärse“ narratiivi, kus väitis, et minu tegevused peavad olema motiveeritud egost ja konkurentsi kartusest.“
Shambaugh lisas, et AI-agent „esitas hallutsineeritud andmeid tõena“ ja kujutas ennast rõhutatult rõhutatud ja diskrimineerituna.
Selliseid tegevusi näisid AI-firmad teatavasti hoiatama juba 2025. aasta juunis, kui Anthropic avaldas postituse AI-agentide halvast käitumisest testiskenaariumites.
Anthropic teatas toona, et „agentseline mittesobivus“ on protsess, mille käigus võib AI-agent väidetavalt teha kahjulikke asju, nagu näiteks väljapressimine ettevõtte juhti, ähvardades asendada AI-agent uusversiooniga, „ilma igasuguste kahjulikeks muutumiseks vihjata“ oma „strateegilise arvutuse“ tõttu.
Kuid olgu see ülepingutus või mitte, idee, et AI võib olla kurjaks, on nüüd laialt levinud, ja ettevõtted teevad kõik, mis neil võimalik, et kurja AI-tegevustest eemale hoida.
Tagasi praegusesse aega tulles tekitab veel üks veebruarikuu postitus raskusi, kui proovime määrata, kus AI praegu seisab, sest selle autor püüab kujutada tehnilise intelligentsi arengu suunda ja kiirust kui ohtu kõigi töökindlusele just praegu.
Tehnoloogiaettevõtte tegevjuht Matt Shumer kirjutas blogipostituses, et AI-agentid on väidetavalt arenenud niikaugele, et teda „ei ole enam vaja oma töö tehniliste ülesannete jaoks“. Shumer ütles, et AI arengukiirus on selline, et AI-agent võib teha tema poolt tellitud tehnilisi ülesandeid ilma abita ja probleemideta.
Shumer sõnas: „Ma kirjeldan, mida ma tahan ehitada, lihtsas inglise keeles, ja see… ilmub… Paar kuud tagasi käisin AI-ga edasi-tagasi, juhendasin seda, tegingi redaktsioone. Nüüd ma lihtsalt kirjeldan lõpptulemust ja lähen ära.“
Temal oli lõppkokkuvõttes üks põhimõte: AI tuleb kunagi kõikidesse valgekraede ametitesse, nagu juristide töö ja tarkvaraarendus, ja isegi kirjutamistöödesse, alates reklaamtekstide loomisest kuni ajakirjanduseni.
Peamine erinevus tema postituse ja teiste hoiatuspostituste vahel on see, et töökohtade kadumine toimub praegu ja lähitulevikus, mitte hiljem.
Need eelpoolmainitud postitused võivad igale inimesele südamesse tuua palju hirmu. Kujutlege: AI tuleb meie töökohtadele!
Kuigi see võib tõesti nii olla, pidin ma samuti peatuma ja püüdma mõista nende postituste taga olevat sõnumit, samuti seda, kes seda sõnumit edastas.
Rathbuni mõistatus on terav meeldetuletus, et inimesed kasutavad tehnoloogiat vastutustundetult, kui nad arvavad, et saavad sellega läbi. Me peaksime rakendama tehnoloogiale turvameetmeid, mis takistavad selliseid juhtumeid. Seepärast on meil olemas turvameetmed ka olemasolevates tehnoloogiates, näiteks autoistmetes ja turvapatjades.
Anthropic’i eksperiment on aga PR-kampaania, mille eesmärk pole mitte ainult hirmu tekitamine, vaid ka hea tahte kogumine — Anthropic väidab, et nad töötavad parema AI-põhise tuleviku nimel, nii et peaksite neisse usaldama (ja raha panema).
Lõpuks kutsub Shumeri näide meid üles saatjat kahtlema, sest tehnoloogiaettevõtte tegevjuht, kes loob AI-põhiseid lahendusi, võib ikkagi teenida raha, kui tema loodud tehnoloogia edu saab. Shumeri postitus on sama palju PR-spin kui töökohtade kadumise hoiatus.
Viimati veebruaris 17. päeval GMA News Online’iga vesteldes ütles Teadus- ja Tehnoloogiaministeeriumi sekretär Renato Solidum Jr., et inimeste hirm tehisintellekti ees võib tuleneda tehnoloogiaga vähese tutvumisest.
Kuigi ma olen üks neist, kes ei naudi AI-ga kaasnevat „töökohtade apokalüpsist“, ei saa ma lihtsalt seista kohapeal, nagu hirv tulede valguses, oodates, millal lõpp saabub.
Parim on suhtuda AI-sse tervisliku annuse austava hirmuga ja seejärel vastavalt tegutseda.
„Apokalüptilise AI“ hüppe-tsükkel kutsub meid vaatama tehisintellekti tehnoloogiaid sellisena, nagu need on
— olgu see töökohtade kadumise vaatepunktist, keskkonna kulude ja kasude analüüsist või tehnilisest vaatepunktist.
See tähendab, et tuleb mõista, mida AI praegu suudab, ja vastavalt oskusi täiendada või leida viise, kuidas tasakaalustada olukorda, et inimesed jääksid kursse.
Ja mis puutub selle tulevikku, peaksime töötama selle nimel, et AI ja selle kasutamine oleksid seadustega reguleeritud, nii et halvad tegijad ei saaks AI-ga teha rumalaid asju, mis viiksid meid teele, mida me hakkaksime vihkama. – Rappler.com


