AI-kindlustuse praktikad on tähelepanu all pärast OpenAI koolirünnakut, milles osales Kanada kahtlusalune, kelle veebikäitumine oli rünnaku eel juba mitu kuud enne tõrjutud.
ChatGPT looja OpenAI teatas, et avastas 2025. aasta juunis Jesse Van Rootselaari kontot oma väärkohtlemise tuvastamise süsteemides, mis olid suunatud „vägivaldsete tegevuste edendamisele“. Siiski järeldas San Franciscos asuv tehnoloogiaettevõte toona, et antud tegevus ei ületanud nende sisestandardit, mis oleks õigustanud seaduse eesmärgil politseisse teavitamist.
Ettevõte rõhutas, et eriti hinnati, kas teavita Kanada Kuninglikku Ratsapolitsei (RCMP) antud kontost. Lisaks otsustati mitte edasi liikuda, kuna signaalid ei viidanud kohest ja usaldusväärset plaani põhjustada tõsist füüsilist kahju.
OpenAI blokeeris hiljem 2025. aasta juunis antud konto, kuna see rikkus ettevõtte kasutustingimusi. See otsus tuli kuud enne tragöödiat, mis hiljem toimus British Columbias kaugel piirkonnas.
18-aastane kahtlusalune korraldas hiljem koolirünnaku väikeses linnas Tumbler Ridge, surmates kaheksa inimest ja surmades iseennast tulirelvast tekitatud haavaga. Eelmisel nädalal teatatud juhtum on üks Kanada ajaloo rängimaid koolirünnakuid ning on teravdanud debatti selle üle, kuidas tehnoloogiaettevõtted käsitlevad kõrge riskiga kasutajate käitumist.
RCMP andmetel tappis Van Rootselaar esmalt oma ema ja kasuisa perekonna kodukodus, enne kui siirdus lähedalasuvasse kooli. Lisaks teatas politsei, et ründaja oli varasemalt seotud vaimse tervise probleemidega ja politsiiga, kuigi konkreetselt neid kokkupuuteid ei täpsustatud.
Politsei teatel hukkusid 39-aastane õpetajaassistend ja viis õpilast vanuses 12–13 aastat. Linn, kus elab umbes 2700 inimest Kanada Karstialadel, asub enam kui 1000 km (600 miili) Põhja-Kanadas Vancouverist, Alberta piiri lähedal.
Selgitades oma otsust mitte varasemalt võimuesindajatega ühendust võtta, ütles OpenAI, et nende standard politseisse pöördumiseks keskendub sellele, kas juhtumis on oht, et teised võivad saada tõsise füüsilise kahju, ja seda kohe ja usaldusväärsetena. Ettevõte märkis, et toona ei tuvastatud konkreetset ega kohest planeerimist, mis oleks sellist referaati tinginud.
Ettevõte rõhutas, et see referaadi külg on mõeldud kasutajaprivaatsuse ja ohutuskohustuste tasakaalustamiseks. Siiski on uudis äratundnud uued küsimused selle üle, kas praegused eskaleerimiskriteeriumid on piisavad, kui varajased hoiatusmärgid ilmnevad kasutajate suhtluses AI-tööriistadega nagu ChatGPT.
Pärast koolirünnaku uudiste levikut võtsid OpenAI töötajad RCMPga ühendust, jagades Van Rootselaari kohta ja tema kontoga seotud varasemat tegevust. Wall Street Journal oli esimene, kes teatas ettevõtte sisemistest aruteludest ja hilisemast kontaktist politseiga.
Avalikus avalduses ütles OpenAI pressiesindaja: „Meie mõtted on kõigi Tumbler Ridge tragöödia kannatanutega. Me pöördusime proaktiivselt Kanada Kuningliku Ratsapolitsei poole, jagades infot isiku ja tema ChatGPT-i kasutamise kohta, ning jätkame nende uurimise toetamist.“ Lisaks rõhutas ettevõte oma jätkuvat koostööd Kanada võimudega.
Seda öeldes jääb rünnaku motiiv endiselt selgusetuks ning uurijad pole veel avaldanud, kas ja milline otsene seos on kahtlusaluse interaktsioonidel ChatGPT-ga ja lõpuks toimunud rünnakuga. Juhtum on siiski tõstnud globaalselt tähelepanu sellele, kuidas AI-platvormid tuvastavad, hindavad ja reageerivad potentsiaalsetele ohtudele.
Võimud kirjeldasid Tumbler Ridge rünnakut Kanada surmavaimaks massirünnakuks alates 2020. aastast, mil Nova Scotias asuv relvastatud mees tappis 13 inimest ja süütas tulekahjusid, mis põhjustasid veel üheksa surma. Viimase juhtumi puhul on aga lisandunud uus dimensioon, sest see puutub kokku AI-pakkujate muutuvate vastutustega.
Kui poliitikud ja õiguskaitseorganid vaatavad juhtunu üle, on OpenAI koolirünnaku episood tõenäoliselt hoogustamas debatti selle üle, millal ja kuidas peaksid AI-ettevõtted kasutajate käitumist võimuesindajatele edastama ning kas praegused referaadi standardid käsitlevad piisavalt uusi digitaalseid riske.
Kokkuvõttes rõhutab tragöödia British Columbias keerulist tasakaalu privaatsuse, riskihindamise ja avaliku ohutuse vahel, kui AI-platvormid muutuvad igapäevaelu sügavalt integreeritud, sundides nii regulaatoreid kui tehnoloogiaettevõtteid ümber hindama oma protokolle potentsiaalsete ohtude käsitsemiseks.


