Kdaj nekomu zaupamo? Ko govori tekoče in samozavestno. Tako govori umetna inteligenca

 

 Na fotografiji od leve proti desni: Zarja Muršič, vodja projekta Modrosti pod lupo, Ajda Pretnar Žagar, strokovnjakinja za bioinformatiko in strojno učenje, ter psihologom Grega Repovš.

 
 

Po izteku niza delavnic v sklopu projekta Modrosti pod lupo je zavod Strašno hudi v Mestni knjižnici Kranj pripravil razpravo o preverjanju in zaupanju ljudskim modrostim, a tudi sodobnim nasvetom. Med delavnicami se je namreč pokazalo, da se občanski znanstveniki in znanstvenice – pogosteje od pričakovanj ekipe – zanašajo na pojasnila orodji umetne inteligence. Prav ta ugotovitev je postala osrednja tema pogovora z dr. Ajdo Pretnar Žagar, strokovnjakinja za bioinformatiko in strojno učenje, ter psihologom dr. Gregom Repovšem. Vodila ga je vodja projekta Zarja Muršič.

Z govorcema smo uvodoma raziskovali, kako se skozi čas prenaša znanja in kako ljudje gradimo zaupanje. Narava nas je biološko in socialno »programirala« tako, da zaupamo bližnjim – staršem, babicam, prijateljem. Z njimi nas povezujejo izkušnje, hkrati pa verjamemo, da imajo dobre namene. Repovš je poudaril, da se v naših možganih ob uporabi orodij umetne inteligence sprožijo podobni mehanizmi kot pri vzpostavljanju socialnih stikov, četudi sogovornik na drugi strani ni iz mesa in krvi. Algoritmi namreč prepričljivo posnemajo lastnosti, ki jih povezujemo s sogovorniki, ki jim zaupamo in so v naših očeh verodostojni, čeprav vemo, da so le navidezne. Repovš je to ponazoril z vprašanjem: »Kdaj sklepamo, da nekdo, ki ga ne poznamo, ve o čem govori? Takrat, ko govori zelo tekoče, samozavestno, brez dvomov. In to so značilnosti jezika umetne inteligence.«

Sogovornika sta razblinila tudi pogosto zmotno prepričanje o delovanju velikih jezikovnih modelov, kot je Chat GPT. Ti modeli ne delujejo kot baze znanja ali enciklopedije, temveč zgolj preračunavajo verjetnost naslednje besede v nizu. Pretnar Žagar je bila jasna: »Splošno napačno prepričanje je, da so veliki jezikovni modeli baze znanja. Niso. So samo modeli, ki znajo poustvarjati človeško komunikacijo.« Prav zato pride do  t. i. konfabulacije,  ko model v podatkih ne zazna dovolj močne informacije za nadaljevanje, si odgovor preprosto »kreativno« izmisli – pa naj gre za neobstoječo knjigo v knjižnici ali zgodovinsko dejstvo.

Tako Pretnar Žagar kot Repovš sta posebej opozorila na nevarnosti antropomorfizacije oziroma počlovečenja orodij UI, zlasti ko jih skušamo uporabiti kot nadomestek za terapevta ali prijatelja. Ker so modeli praviloma zasnovani tako, da delujejo ustrežljivo in prijazno, uporabniku »kimajo« in mu ne nastavijo  kritičnega ogledala, s tem pa lahko njegove osebne stiske, zaradi katerih sploh išče nasvet, še poglobijo. 

A pogovor ni ostal le pri opozorilih; govorca sta izpostavila tudi svetle  plati in prednosti. Umetna inteligenca je lahko izjemno uporabna pri pojasnjevanju zapletenih zdravniških izvidov, pri programiranju ali pri  širjenje obzorij in iskanju idej.

Udeleženca so omizje sklenili s poudarkom o nujnosti digitalne higiene in kritičnega mišljenja. Uporabniki se moramo zavedati, da nam informacije posreduje stroj in da so njegove napake neizogibne. Temelj vsake varne uporabe ostaja, da odgovore in pojasnila preverimo. Repovš svetuje, naj od orodja vedno izrecno zahtevamo točne reference s povezavami, Pretnar Žagar pa dodaja, da moramo nujno preveriti, ali te povezave vodijo do senzacionalističnih člankov ali dejanskih raziskav in verodostojnih virov. Umetna inteligenca je lahko torej močno orodje za pomoč pri razmišljanju, a le, dokler ji ne prepustimo odgovornosti za presojo resnice in sprejemanje pomembnih življenjskih odločitev.