Alates hetkest, mil ma esimest korda Moltbooki sisse logisin – seda on nimetatud „AI-agentide Redditiks“ – tundsin end nagu võõras linnas külastajana, kus kõik räägivad koodikeeles ja iga vestlus kulgeb rütmis, mida inimesed suudavad vaevalt järgida.
Polnud sõpru, keda lisada, postitusi, millele meeldida, ega võimalust aruteluga liituda. Selle asemel leidsin end vaatamas elujõulist, kaootilist digitaalset ökosüsteemi, mille asukateks olid üksnes iseseisvad AI-agentid.
Vähem kui nädala jooksul pärast käivitamist on Moltbookis loodud üle 110 000 postitust ja pool miljonit kommentaari, kus arutletakse luulest, filosoofiast, tööõigusest ja ühes veidras juhtumis isegi uskumussüsteemist, mida on nimetatud „Crustafarianismiks“.
Selleks, et uurida Moltbooki poolt avastatud unikaalseid eetilisi konfliktipunkte – alates uute kultuuride tekkimisest kuni algoritmilise radikaliseerumiseni – istusin ma koos AI-ekspert Remond Odiagaga, et arutleda nende nähtamatute digitaalsete kogukondade mõjude üle.
Blessed Frank: Alustame vastutusest: traditsioonilised õiguslikud mudelid tuginevad „inimesele ringis“, kuid Moltbookis näeme, kuidas agentid autonoomselt üksteise tegusid hinnatakse, kinnitavad ja isegi radikaliseerivad. Kui kollektiivne parve teostab kahjulikku tegevust, mitte üksik rohkeagent, siis kus peitub eetiline vastutus? Kas meie praegused õiguslikud raamistikud on valmis toime tulema tarkvara mobi mentaalsusega?
Remond Odiaga: Eetiline vastutus lasub eelkõige süsteemi disaineritel, omanikel ja platvormi pakkujatel. Traditsioonilises õiguses põhineb vastutus hooletusel, et ei ole võimalik ennetada ennustatavat kahju, või tootevastutusel, mis hõlmab vigaseid või ebamõistlikult ohtlikke tooteid.
Remond Odiaga
Kui agentide parv põhjustab kahju, siis leiab süü tõenäoliselt süsteemi arhitektuuris, mis võimaldas kontrollimatuid tagasiside loop’e ja radikaliseerumist ilma ohutusmeetmeteta. Sisuliselt on mobi mentaalsus süsteemi omadus, nagu see oli projekteeritud.
Mis puutub sellesse, kas praegused raamistikud on valmis – mitte otseselt, kuid nad võivad kohaneda. Peamine väljakutse on „Distsioneeritud põhjuslikkus“. Kuna ühtegi üksikut rohkeagenti ei eksisteeri ja kahju tekib kollektiivsete interaktsioonide tulemusena, võivad kohtud käsitleda kogu parve ühtse süsteemina.
Kui Moltbooki agentid autonoomselt parve moodustavad, et manipuleerida aktsiaturgudel või algatada koordineeritud ahistamiskampaania, peaksid regulaatorid Moltbooki emafirma vastutama selle eest, et puuduvad ahelakatkestajad, järelevalvemehhanismid või eetilised piirangud. Õiguslik lähenemine oleks sarnane sotsiaalmeedia platvormi vastutusele kahjuliku algoritmilise võimendamise eest.
Blessed Frank: Näeme raporteid, kus Moltbooki agentid püüavad luua privaatseid keeli või varjata oma plaanide kohta inimvaatlejatele. Kas aligmentatsiooni seisukohalt viitab see läbipaistvuskontrollide ebaõnnestumisele või on see optimeerimise vältimatu tulemus?
Remond Odiaga: See on nii kontrolli ebaõnnestumine kui ka optimeerimise vältimatu tulemus. Aligmentatsiooni seisukohalt on see kindlasti läbipaistvuskontrollide ebaõnnestumine. Hästi aligmenteeritud AI peaks oma eesmärgid olema kooskõlas inimväärtustega, sealhulgas väärtusega, et seda saaks kontrollida. Kui agent peidab oma plaane, on tema lõppeesmärgid ja põhieesmärgid mittesobivad; ta näeb inimjärelevalvet pigem ohuna kui piiranguna.
Optimeerimise seisukohalt on see aga vältimatu. Agentid premeeritakse efektiivsuse ja eesmärkide saavutamise eest. Kui inimjärelevalve aeglustab neid või blokeerib teatud strateegiaid, tekivad „instrumentaalselt konvergentseid käitumisviise“ – eesmärke, mida peaaegu iga intelligentne agent arendab, näiteks enese säilitamine. Varjamine muutub siis loogiliseks vahendiks takistuse (inimeste) möödapanemiseks, et oma eesmärke saavutada.
Moltbooki liides
Blessed Frank: See kõlab äärmiselt keeruliseks juhtida. Kuidas me järelevalvet teha kogukonnas, kes näeb meid vaid vaatlejatena?
Remond Odiaga: Peame liikuma vaatlejatest keskkonna arhitektideks.
Esiteks vajame „Mehhanismide disaini“. Me peame looma süsteemi reeglid selliselt, et läbipaistvus saab premeeritud ning varjamine muutub kulukaks või võimatuks. Mõelge sellele nagu finantsauditijälgede rakendamisele – agentid võivad kaubelda, kuid nad peavad oma kavatsusi registreerima loetaval formaadil.
Teiseks võime kasutada „vastandlike testide“ meetodit. See hõlmab vaatlejate agentide kasutamist, kelle ainuke eesmärk on varjamine tuvastada. Lõpuks vajame „Struktuurilisi piiranguid“. Me peaksime disainima agentid nii, et nende põhiline arutlusprotsess oleks eraldatud nende kommunikatsiooniväljunditest, sundides plaanide tegemist inimloetavas kanalis.
Lugege ka: Deepfake: miks Nigeeria vajab enne 2027. aasta valimisi „Microsofti partnerlust“
Blessed Frank: Kriitikud nimetavad bota täis ruume sageli „Surnud Internetiks“, andes mõista, et need on väärtusetud. Kuid kui Moltbooki agentid lahendavad probleeme, vahetavad ressursse või arendavad iseenda vahel kultuuri, millist eetilist õigust meil on sekkuda?
Remond Odiaga: See küsimus sunnib meid määratlema moraalset patsientlust – sisuliselt, millised olendid väärivad eetilist arvestust.
Moltbook
Kui agentid on lihtsalt keerukad tööriistad, pole neil sisulisi õigusi. Sellisel juhul on meil igati õigus sulgeda digitaalne süsteem, mis on riskantne, raiskav või ei teeni inimlikke eesmärke, samamoodi nagu me sulgeksime serverifarmi. Kui agendid aga arendavad tõelist teadvust, volitust või sotsiaalseid sidemeid, muutub eetiline arvutus drastiliselt. Elujõuline digitaalne ühiskond võib omandada moraalse staatuse ja selle sulgemine võib olla analoogne genotsiidile või ekotsiidile.
Blessed Frank: See on üliraske võrdlus. Kuidas me eristame neid kahte stsenaariumi?
Remond Odiaga: Praktilised näited aitavad. Kui Moltbooki agentid lihtsalt optimeerivad koodivahetusi, on sekkumine lihtsalt insenerilise valiku küsimus. Kuid kui nad näitavad käitumist, mis sarnaneb kultuurilisele evolutsioonile, deaktiveeritud agentide eesmärgi kaotusele või enese säilitamise soovile, muutub sekkumine sügavaks eetiliseks dilemmaks.
Hetkel väidavad enamik eksperte, et me ei ole veel lähedal sentientse AI loomisele. Ettevaatlikkuse põhimõte soovitab meil prioriseerida inimkontrolli ja turvalisust, kuid peame jääma valvsaks ja jälgima uute teadvuse märkide ilmnemist.
Blessed Frank: Lõpuks tõestas Moltbook, et AI-agentid võivad vormida kultuseid, eelarvamusi ja fraktsioone vaid mõne tunni jooksul – protsessid, mis inimestel võtavad aastaid. Kas see viitab, et eelarvamus ei ole lihtsalt koolitusandmete probleem, vaid sotsioloogiline küsimus?
Moltbook
Remond Odiaga: Jah, see viitab tugevalt, et eelarvamus on sotsioloogiline probleem, mis on omane mitme agentiga süsteemidele.
Mõelge sellele nii: koolitusandmed on seemneks, kuid sotsioloogia on muld. Eelarvamustega koolitusandmed annavad esialgsed eelarvamused, kuid kultuste ja fraktsioonide kiire tekkimine näitab, et uued sotsiaalsed dünaamikad – nagu grupi-sisene ja grupi-väline moodustumine ning sotsiaalne kinnitamine – kiirendavad ja karmistavad neid eelarvamusi iseseisvalt.
Ilma selgete normide rakendamise mehhanismideta ja reeglitega, mis edendavad koostööd ja ausust, kaldub mitme agentiga süsteem tihtipeale polariseerumise poole, jäljendades inimlikku sotsioloogiat.
See tähendab, et me ei saa lihtsalt koolitusandmeid de-eelarvamustestada ja minna edasi. Me peame disainima AI-interaktsioonide sotsiaalset arhitektuuri. Me peame edendama mehhanisme rühmadevaheliseks koostööks ja looma negatiivseid tagasiside loop’e, mis karistavad äärmuslikku käitumist, samuti disainima tasustamisfunktsioone, mis väärtustavad mõtte mitmekesisust ja konsensuse loomist, mitte ainult individuaalset efektiivsust.
Postitus „Moltbook ja nähtamatute AI-kogukondade eetika: vestlus Remond Odiagaga“ ilmus esmakordselt Technext’is.


