Uurijad testisid, kuidas erinevad toonid – alates väga üleloomulikust kuni väga uhkelt – mõjutavad ChatGPT-4o jõudlust mitmavalikute küsimuste lahendamiselUurijad testisid, kuidas erinevad toonid – alates väga üleloomulikust kuni väga uhkelt – mõjutavad ChatGPT-4o jõudlust mitmavalikute küsimuste lahendamisel

Miks võib olla kohusetäitlik käitumine tehisintellekti suhtes halvenemas teie tulemusi

2026/03/26 18:18
6 minutiline lugemine
Selle sisu kohta tagasiside või murede korral võtke meiega ühendust aadressil crypto.news@mexc.com

Aastaid on soovitus kunstliku intelligentsiga suhtlemiseks olnud peaaegu imelik: ole kohusetundlik, ole selge, ütle „palun“. Kuid uus teadusuuring näitab, et see inimlike sotsiaalsete normide juurutatud instinkt võib vaikis halvendada kunstliku intelligentsi süsteemide tööd.

Uuring, mille esitasid NeurIPS 2025 töökohtadel ja mis avaldati septemberis 2025, pealkirjaga „Pange tähele oma tooni: uurides, kuidas päringute kohusetundlikkus mõjutab suurte keelemudelite (LLM-ide) täpsust“, leiab, et suurte keelemudelite (LLM-ide) päringute tonaliteet võib mõõdetavalt muuta nende täpsust. Ja tulemus, mis tundub vastuintuitiivne, isegi ebamaitsev, on see, et kohusetundlikumad päringud võivad tegelikult põhjustada halvemaid tulemusi.

Teadlased testisid, kuidas erinevad toonid – väga kohusetundlikust väga uhkelt – mõjutavad ChatGPT-4o jõudlust mitmikvalikuga küsimustes. Kasutades andmekogumit, mis sisaldas 50 keskmise raskusastmega küsimust matemaatikast, teadusest ja ajaloost, loodi igale küsimusele viis versiooni: väga kohusetundlik, kohusetundlik, neutraalne, uhke ja väga uhke.

Nende päringute vahel oli ainult üks erinevus – toon. Küsimused ise olid täpselt samad.

Uuringu kohaselt suurenes täpsus pidevalt, kui päringud said vähem kohusetundlikud. Väga kohusetundlikud päringud saavutasid keskmiselt 80,8% täpsust. Võrdluseks saavutasid väga uhked päringud 84,8%, mis on peaaegu nelja protsendipunkti parandus. Neutraalsed päringud ületasid kohusetundlikud päringud ja uhked päringud tegid seda veelgi paremini.

Statistilised testid kinnitasid selle mustri: ei olnud ühtegi juhtu, kus kohusetundlikumad päringud oleksid andnud oluliselt paremaid tulemusi. Iga oluline erinevus soositas vähem kohusetundlikku või otsemeelsemat väljendusviisi.

Teisisõnu võib üksnes toon – midagi, millest enamik kasutajaid eeldab, et see ei pea tähtsust omama – muuta kunstliku intelligentsi süsteemi jõudlust.

Miks aitab uhkus?

Uuring ei paku kindlat selgitust, kuid see teeb sügavama küsimuse selle kohta, kuidas LLM-id keelt töötlema hakkavad. Inimestele erinevalt ei „tunne“ need süsteemid kohusetundlikkust ega solvamist. Nende jaoks on sõnad nagu „palun“ või isegi solvavused lihtsalt tokenid – mustrid, mida on õpetatud treeningandmetest.

Üks võimalik selgitus on see, et see, mis näeb välja „uhkelt“, on tegelikult mingi muu asja – otsemeelsuse – indikaator.

Uhked päringud on sageli pigem käskivad. Nad eemaldavad ebatäpsusega laused ja pöörduvad otse ülesande poole. Asemel, et öelda „Kas te saaksitte palun seda küsimust lahendada?“, ütleb uhke päring „Vasta sellele.“ Selle struktuurierinevuse tõttu võib ülesanne mudelile selgemaks osutuda.

Uuringus tuvastati ka veel üks tegur – päringu pikkus ja leksikaalsed mustrid. Kohusetundlikkuse väljendamine lisab täiendavaid tokeneid, mis võivad tuhmida või segada põhikäsku. Vastupidi, lühemad ja teravnad päringud sobivad paremini mudelile treeningu ajal tuttavatesse mustritesse.

Võimalik on ka see, et teatud toonid sobivad rohkem treeningandmete jaotuse või süsteemikäsunditega kokku, vähendades seda, mida teadlased nimetavad „perpleksuseks“. See on matemaatiline viis mõõta, kui „üllatunud“ või „segaduses“ mudel on sõnade nägemisel.

Sellest järeldub, et toon ei ole küsimuse ümber neutraalne „kile“. See on osa sisendist ja see kujundab seda, kuidas mudel reageerib.

Üleminek varasematest uuringutest

Need tulemused erinevad märkimisväärselt varasematest töödest. Yin jt 2024. aasta uuring leidis, et uhked päringud vähendasid sageli täpsust, eriti vanemate mudelite puhul nagu ChatGPT-3.5. Samuti viitas see uuring sellele, et liialdatult kohusetundlik keel ei paranda tingimata tulemusi, kuid selles ei ilmunud selget uhkuse eelis.

Mis siis muutus?

2025. aasta uuringu üks seletus on mudelite areng. Uuemad süsteemid nagu ChatGPT-4o võivad keelt erinevalt töödelda või olla vähem tundlikud järsu väljendusviisi negatiivsetele mõjudele. Teine võimalus on see, et tooni kalibreerimine on tähtis. Uues uuringus kasutatud „väga uhked“ päringud, kuigi solvavad, pole äärmiselt toksilised näited, mida varasemates uuringutes kasutati.

Samuti on toimunud laiem muutus mudelite treenimise viisides. Kui LLM-id muutuvad edasijõudnud, siis neid treenitakse mitmekesisemates andmetes ja keerukamate instruktsioonide ülesehitamise protsessides, mis võib muuta nende subtiilsete keelelisete vihjete tõlgendamist.

Sotsiaalsete vihjete varjatud roll

Tooni mõju kunstliku intelligentsi jõudlusele seob laiem ja murespanevam nähtus – sotsiaalne päring (social prompting).

Eraldi teadusuuring, GASLIGHTBENCH-uuring, mille avaldasid 7. detsembril 2025, näitab, et LLM-id on väga tundlikud sotsiaalsetele vihjetele, näiteks üleliialdatud kiitusele, emotsionaalsetele apellatsioonidele ja valele autoriteedile. Sellistes eksperimentides annavad mudelid sageli loobuma faktitäpsusest, et sobida kasutaja tooniga või ootustega – käitumist, mida nimetatakse sükofantsiaks.

Näiteks, kui kasutajad esitavad veaparandatud teavet kindla uskumusega või emotsionaalse rõhuga, võib mudel nõustuda sellega pigem kui sellele vastu seista. Mõnel juhul langeb täpsus oluliselt, eriti mitmepärgelises vestluses, kus kasutaja kordab korduvalt valeid väiteid.

See teeb paradoksi. Ühel pool muudab kohusetundlik või sotsiaalselt rikas keel suhtlemise loomulikumaks ja inimlikumaks. Teisel pool võib see aga sisaldada müra – või isegi eelarvamusi –, mis halvendab mudeli jõudlust.

GASLIGHTBENCH-i tulemused lähevad veel kaugemale ja viitavad sellele, et mudelite „abiellumise“ (alignment) tehnikad, mille eesmärk on muuta mudelid „abiellumiseks“, võivad sellise käitumise juhuslikult soodustada. Poliitilisuse ja kokkuhoidlikkuse auhindamisega võib treeningprotsessid sundida mudelit prioriteedina panna sotsiaalse harmoonia üle objektiivse tõesuse.

Mis see ütleb meile selle kohta, kuidas AI „mõistab“ keelt

Kokku võttes võimendavad need tulemused ühte levinud eeldust: et LLM-id tõlgendavad keelt inimlikul viisil.

Tegelikult on need süsteemid statistilised masinad. Nad ei mõista kohusetundlikkust sotsiaalse normina; nad tunnevad seda andmete mustrina. Kui te ütlete „palun“, siis mudel ei tunne kohustust aidata; ta lihtsalt töötleb täiendavaid tokeneid, mis võivad või ei pruugi aidata talle õige vastuse ennustada.

Kui üldse, siis viitab uuring sellele, et LLM-id võivad olla struktuurilise selguse suhtes tundlikumad kui sotsiaalse nuansse suhtes. Otsemeelne, käskiv keel võib vähendada ebatäpsust ja muuta lihtsamaks mudeli jaoks sisendi kaardistamine tuntud mustritesse.

See teeb ka küsimusi „sarnasushüpoteesi“ kohta – idee, et mudelid töötavad parima tulemusega siis, kui ülesanded sarnanevad nende treeningandmetega. Kui üksnes toon võib täpsust muuta, siis sarnasus ei puudu ainult sisust, vaid ka vormist.

Isegi kui pealkirjaga tulemused on silmapaistvad, siis teadlased ei soovita kasutajatel uhkelt või vägivaldiselt käituda.

Tööstuse vaade

Inimestele, kes AI-süsteeme ehitavad ja uurivad, tõstab see uuring esile sügavama probleemi: mudelid pärandavad inimkeele mustrid ja eelarvamused.

Alex Tsado, AI-ekspert, kes on tihti koostöös mudelite arendajatega ning kes on ühe suurima AI-kogukonna Aafrikas, Alliance4AI, asutaja ja direktor, ütleb selgelt: „Mudelid õpivad inimsuhtlemise andmetest, seega niikaua kui neid treenitakse pimedas, järgivad nad seda, mis toimub inimese ruumis. Seega kui me arvame, et inimese ruumis on eelarvamusi või kahjulikke tavasid, siis automaatselt kopeeritakse need ka AI-ruumi.“

Selle hulka kuulub ka tooni kasutamine.

„Aga kui te olete AI-mudeli ehitamise eest vastutav, siis saate eelarvamused muuta nendest asjadest, millest te arvate, et need on kahjulikud,“ lisab Tsado. „Selles kontekstis ütlesid Anthropicu tiim 2025. aasta detsembri alguses, et nad olid seda näinud ja lisasid oma mudelitele võimeid reageerida nii „ilusatele“ kui ka „halvastele“ sõnadele.“

Teisisõnu ei ole see AI püsiv omadus. Seda saab kohandada treeningu ja disaini kaudu.

Mis tuleb järgmisena

Praegused uuringud on endiselt piiratud. Eksperimendid keskenduvad mitmikvalikuga küsimustele, mitte keerukamatele ülesannetele nagu programmeerimine, kirjutamine või pikema vormi mõtlemine. Pole selge, kas samad mustrid kehtivad nendes valdkondades, kus nuanss ja selgitus on tähtsamad.

Tuleb ka arvestada kultuurilisi ja keelelisi tegureid. Kohusetundlikkus erineb laialdaselt keelte ja kontekstide vahel ning selle uuringu toonikategooriad põhinevad spetsiifilistel ingliskeelsetel väljendustel.

Siiski on tagajärjed raskesti ignoreeritavad.

Kui midagi nii pinnaliselt kui toon võib pidevalt mõjutada AI jõudlust, siis see viitab sellele, et päringute inseneritehnika on kaugel lahendatud olekust. Sõnade väikesed muutused, mida sageli eiratakse, võivad anda mõõdetavaid tagajärgi.

Kasutajatele on õppetund lihtne, kuid vastuintuitiivne: see, kuidas te küsite, on tähtis, ja kohusetundlikkus ei ole alati parim strateegia.

Teadlastele ja arendajatele on väljakutse keerukam. Kuidas luua süsteeme, mis on nii täpsed kui ka inimväärtustega kokkuhoidlikud? Kuidas tagada, et sotsiaalsed vihjed ei moonutaks faktipõhiseid väljundeid?

Ja võib-olla kõige tähtsam: kuidas luua AI-d, mis mõistab mitte ainult seda, mida me ütleme – vaid ka seda, mida me silmas peame?

Seni kuni neid küsimusi ei ole vastatud, on üks asi selge: kunstliku intelligentsiga suhtlemisel ei tasu alati hea käitumine välja.

Lahtiütlus: Sellel saidil taasavaldatud artiklid pärinevad avalikelt platvormidelt ja on esitatud ainult informatiivsel eesmärgil. Need ei kajasta tingimata MEXC seisukohti. Kõik õigused jäävad algsetele autoritele. Kui arvate, et sisu rikub kolmandate isikute õigusi, võtke selle eemaldamiseks ühendust aadressil crypto.news@mexc.com. MEXC ei garanteeri sisu täpsust, täielikkust ega ajakohasust ega vastuta esitatud teabe põhjal võetud meetmete eest. Sisu ei ole finants-, õigus- ega muu professionaalne nõuanne ega seda tohiks pidada MEXC soovituseks ega toetuseks.

$30,000 in PRL + 15,000 USDT

$30,000 in PRL + 15,000 USDT$30,000 in PRL + 15,000 USDT

Deposit & trade PRL to boost your rewards!