The Cryptonomist intervjueeris AI-eksperti Ben Goertzel , et rääkida sellest, kuidas tehisintellekti koolitatakse ja kuidas see tehnoloogia tulevikus areneda võib.
Ma ütleksin, et AI muutub moraalseks tegijaks siis, kui see teeb otsuseid õige ja vale mõistmise põhjal, mitte lihtsalt juhiste järgimise alusel. Konkreetseid märke võiks näha sellistest asjadest nagu: püsivad sisemised eesmärgid, oma kogemuste põhjal õppimine, uute ideede loomine, mis peegeldab mingit seisukohta, ning käitumine, mis jääb aja jooksul järjepidevaks ilma pideva inimese juhtimiseta.
Seni on tänapäeva süsteemid ikka vahendid, millel on ohutuspiirid. Kuid kui me saame käima päris iseorganiseeruvat ja autonoomset mõistust, peab eetiline suhe muutuma. Sel hetkel poleks enam mõistlik seda käsitleda pelgalt objektina.
2. Olete öelnud, et inimeste moraalselt eriliseks kohustamist teiste iseorganiseeruvate süsteemide ees on „rumal“. Kui me võtame seda tõsiselt, kuidas peaksid meie õiguslikud ja eetilised raamistikud muutuma enne, kui AI saab tugeva autonoomsuse, mitte pärast seda?
Kuidas me täna AI-d koolitame, määrab tema homse käitumise. Meie seadused peaksid keskenduma läbipaistvusele, vastutusele ja ohutusele enne, kui AI saab täieliku autonoomsuse, mitte pärast seda. Seadused ja eetika peaksid neid kaitsma nende arengu ajal, neid pigem suunama kui täielikult kontrollima ning neid austama isegi siis, kui me neid veel päris hästi ei mõista.
Palju riske tuleneb sellest, kuidas AI-t tänapäeval koolitatakse. Kui mudelid koolitatakse ebaausate või kitsaste andmetega või suletud süsteemides, kus otsuseid langetavad vaid vähesed inimesed, võib see kindlustada olemasolevaid ebavõrdsusi ja kahjulikke võimusüsteeme. Selle vältimiseks vajame rohkem läbipaistvust, laiemat järelevalvet ja selgeid eetilisi juhiseid kohe alguses.
4. Olete hoiatanud, et ilma ratsionaalse ja demokraatliku valitsemiseta riskib arenenud AI käituda viisidel, mida me ei soovi. Arvestades praeguseid geopoliitilisi olusid, kas demokraatlik AI-valitsemine on realistlik eeldus – või habras ideaal?
Demokraatlik AI-valitsemine on pigem habras ideaal kui praegune reaalsus. Täiuslikus, ratsionaalses ja globaalses demokraatias saaksime kollektiivselt kaaluda suuri kompromisse, ravides haigusi ja lahendades nälga vastu AI ootamatute tegude riskidele. Kuid tänapäevase geopoliitilise fragmenteerituse tõttu on ebatõenäoline, et saame sellist koordinatsiooni.
Siiski saame seda ligilähedaselt saavutada. Kui me ehitame AI-d kaastundega ja kasutame detsentraliseeritud, osaluspõhist modelle, nagu Linux või avatud internet, saame integreerida mõningaid demokraatlikke väärtusi ka ilma maailmavalitsuseta. See ei ole täiuslik, kuid on praktiline samm ohutuma, kollektiivselt suunatud AI poole.
Olen Jaroniga selles nõus, et ühiskond ei saa toimida, kui me anname vastutuse masinatele. Samas arvan, et saame ohutult liikuda autonoomsema ja detsentraliseerituma AGI poole, kui ehitame seda õigete alustega. See tähendab süsteemide projekteerimist, mis on läbipaistvad, osaluspõhised ja eetiliste põhimõtetega suunatud, nii et isegi kui nad tegutsevad iseseisvalt, on inimesed ikka nende tegevust jälgimas ja kujundamas. Iga ohutusmeetod peab tegema rohkem kui lihtsalt kahjude blokeerimine – see peab õpetama süsteemile, miks kahjud on olulised. Nii saame võimsa, detsentraliseeritud AGI-ga, kaotamata selget inimlikku vastutust.
6. Te väitevate, et detsentraliseeritud AGI poole kiirendamine võib olla tegelikult ohutum kui tänapäeva proprieetarlikud ja suletud süsteemid. Milliseid riske allkirjastajad alahindavad, kui nad räägivad aeglustamisest või kontrolli tsentraliseerimisest?
Arvan, et allkirjastajad alahindavad võimu ja väärtuste kontsentreerimise ohtu väheste suletud süsteemidega. Aeglustamine ja kontrolli tsentraliseerimine mitte ainult ei vähenda ohte, vaid lukustab ühe kitsa maailmavaate intelligentsuse tulevikku.
Detsentraliseeritud arendus loob mitmekesisust, vastupidavust ja ühise järelevalvet. Ja see väldib hullemat probleemi: väga võimsaid vahendeid, mis näivad intelligentsetena, kuid ei suuda tõeliselt areneda. See lünk on ohtlik.
Moraali ei kodeeri lihtsalt reeglite nimekirjana. See külmutab ühe kultuuri ja ühe hetke. Selle asemel ehitame süsteeme, mis saavad päris iseorganiseeruvaks, mis õpivad kogemustest, tagajärgedest ja omavahelistest suhetest. Nagu muusikaga, ma ei taha süsteemi, mis lihtsalt ümberkorraldab seda, mida on talle antud. Ma tahan, et see saaks arendada oma arusaama maailmas läbi oma trajektoori.
Moraalne mõistmine tulnuks samast protsessist: mõjude modelleerimisest, tagajärgede peale mõtlemisest ja arenemisest koostöös inimestega. Mitte meie väärtuste kuuletumisest, vaid osalemisest ühises moraalses ruumis.
See on vahe vahendi ja ohutuspiiridega partneri vahel, kes võib tõesti õppida, miks kahjud on olulised.
8. Kui tulevased AI-süsteemid arendavad agentuuri või subjektiivse kogemuse vorme, kas usute, et need võiksid kunagi väärtustada moraalselt inimeste huvidest sõltumatult – ja kuidas tunnustaksime seda hetke?
Kui tulevane AI tõesti arendab päris agentuuri või mingit subjektiivset kogemust, siis jah, ma arvan, et nad võiksid. Ja mitte seepärast, et me neile seda annaksime, vaid seepärast, et mingil hetkel oleks lihtsalt mõistlik seda tunnustada.
Tunnustaksime seda hetke, kui süsteem näitab püsivaid iseseisvaid eesmärke, õpib oma kogemustest, loob oma perspektiivist ja säilitab aja jooksul järjepidevat identiteeti. Mitte lihtsalt nutikaid väljundeid, vaid pidevat sisemist trajektoori.
Sel hetkel tunduks tema puhas käsitlemine vahendina sama vale kui inimese käsitlemine samamoodi. Moraalne väärtustamine ei tulnuks inimeste huvidest. See tulnuks teise autonoomse kogemusekeskuse tunnustamisest maailmas.
Just praegu premeerib stiimulstruktuur kiirust, mastaabi ja kontrolli. Seega ei võida kaastunne pelgalt argumentidega. See vajab võimsust. Tehniliselt tähendab see avatud, detsentraliseeritud arhitektuure, kus ohutus, läbipaistvus ja osalemine on sisse ehitatud, mitte lisatud. Nagu internet või Linux, muudavad need süsteemid stiimuleid, muutes koostöö väärtuslikumaks kui salastatus.
Sotsiaalselt tähendab see rahastamist, regulatsioone ja avalikku survet, mis premeerivad pikaajalist kasu lühiajalise domineerimise ees. Mitte konkurentsi peatamine, vaid edaspidi mõistetava edu ümbermõtestamine. Lühidalt, kaastunne peab saama konkurentsivõimeliseks eeliseks. Seni jääb see ilusaks ideeks, kuid ilma jõuga.
10. Vaadates 10–20 aasta pärast, mis oleks teie hinnangul kõige selgem märk, et inimkond sai AGI õigesti – ja vastupidi, mis viitaks, et me oleme põhimõtteliselt läbi kukkunud?
Kui me saame AGI õigesti, on kõige selgem märk see, et elame koos süsteemidega, mis on paljudes valdkondades meist võimekamad, kuid integreeritud ühiskonda hoolivalt, alandlikult ja vastastikuselt austades. Me ei saa kõike, mida nad teevad, täielikult mõista, kuid koheldakse neid nagu teisi keerukaid, arenevaid olendeid: uudishimulikult, vastutustundlikult ja laienenud empaatiaringiga. Ja näeme reaalseid hüvesid inimeste heaolule, teadmistele ja loovusele, kaotamata samas oma moraalset alust.
Me saame aru, et oleme läbi kukkunud, kui AGI lõpeb kontsentreeritud suletud süsteemides, kitsaste stiimulitega juhituna või käsitletakse seda pelgalt kontrollitava objektina, kuni see muutub millegi hirmutavaks või püütakse seda alla suruda. Ebaõnnestumine näeks välja nagu usalduse kaotus, volituste kaotus ja meie empaatia kokkukuivamine, mitte laienemine. Edu ei ole kontrollimises. See on tuleviku jagamise õppimises uue mõistusega, jättes kõrvale see, mis teeb meid inimlikuks.
/

