»Več znaš, več veljaš«
Okrogla miza Od babic do botov v Knjižnici Šiška. Fotografije: Matej Povše
Ko smo se na zavodu Strašno hudi lotili projekta Modrosti pod lupo, v okviru katerega smo zbirali ljudske modrosti in sodobne spletne nasvete ter na delavnicah občanske znanosti preverjali verodostojnost izbranih modrosti, smo pričakovali, da bodo udeleženci njihovo veljavnost preverjali večinoma v knjižnicah ali pri starejših sorodnikih.
A ni bilo povsem tako. Starejša udeleženka se je po pojasnilo obrnila na orodje umetne inteligence. Ni bila edina. Dogodek je tako odprl pomembno razpravo o tem, kako se v sodobnem času vse bolj opiramo na takšna orodja, ko iščemo odgovore na raznolika vprašanja in v kolikšni meri jim pri tem tudi zaupamo.
O tem so na okrogli mizi Modrosti pod lupo: od babic do botov v Mestni knjižnici Ljubljana, Knjižnica Šiška, spregovorili strokovnjaki z različnih področij. Etnologinja izred. prof. dr. Mateja Habinc z Oddelka za etnologijo in kulturno antropologijo Filozofske fakultete, jezikoslovec dr. Jaka Čibej z Oddelka za slovenistiko Filozofske fakultete, sociolog Filip Dobranić z inštituta Danes je nov dan in pravnica dr. Maja Bogataj Jančič z Inštituta za odprte podatke in intelektualno lastnino ODIPI so v pogovoru, ki ga je vodila ambasadorka občanske znanosti in vodja projekta Modrosti pod lupo Zarja Muršič, razmišljali o spremembah v naši družbi.
Sprememba zaupanja: od soseda do zaslona
Nekoč se je znanje prenašalo znotraj skupnosti. Ljudje so se zanašali na izkušnje prednikov in lokalnih avtoritet. Učitelji in duhovniki so delovali kot posredniki, ki so novosti preverili, preden so jih predali naprej. Zaupanje pa je, kot je pojasnila Mateja Habinc, temeljilo na gradnji dolgotrajnih osebnih odnosov.
Danes je drugače. Jaka Čibej opaža, da sodobna tehnološka orodja ustvarjajo vtis nekakšne osebne obravnave. Spletni iskalnik ponudi seznam zadetkov, jezikovni model pa spiše odgovor, ki je videti, kot da je prilagojen točno nam. To ustvarja lažen občutek bližine in razumevanja, saj uporabnik dobi vtis, da se stroj posveča samo njemu.
Filip Dobranić opozarja, da je ta prijaznost le tržna strategija. Besedila na zaslonu ni zapisal človek, stroj pa nima namena in ne prevzema odgovornosti za zapisano. S tem rušimo osnovno družbeno pogodbo, na kateri temelji pisana beseda. Skozi tisočletja smo se navadili, da za vsakim zapisom stoji oseba z določenim namenom. Veliki jezikovni modeli zgolj statistično predvidevajo naslednjo besedo in nimajo stika z resničnostjo.
Kdo si lasti naše znanje?
Maja Bogataj Jančič je izpostavila avtorsko pravno in etično plat novih tehnologij. Velika podjetja gradijo svoje modele na avtorskih delih, ki so jih ustvarili ljudje. Pisatelji, novinarji, znanstveniki in drugi ustvarjalci ustvarjajo vsebine, na katerih se modeli učijo, za uporabo teh modelov pa podjetja zaračunavajo dostop: podjetja torej kujejo dobiček, avtorji pa ne dobijo ničesar.
Ključno je, da EU zakonodaja in slovenski avtorskopravni zakon razlikujeta treniranje mašin za raziskovalne namene od tistega za komercialne namene: raziskovalci lahko mašine na avtorskih delih trenirajo na podlagi izjeme v zakonu in brezplačno.
Težava nastane pri komercialni rabi, saj trenutno vsaj v Sloveniji avtorji oziroma imetniki pravic ne morejo dobiti poplačila, kar pomeni, da velika podjetja, med njimi največji tehnološki velikani, trenirajo mašine na avtorskih delih slovenskih avtorjev zastonj. To ni pravično.
Maja Bogataj Jančič tudi sicer meni, da bi tehnološki velikani oziroma vsi tisti, ki na tak način služijo, morali del dobička vrniti družbi. V družbi pa bi morali skleniti novo družbeno pogodbo, kam vlagati tako zbrana sredstva – v sklad za univerzalni dohodek, superračunalnike, znanost in kulturo, varstvo okolja … in del zaradi izkoriščanja avtorskih del pri treniranju mašin tudi za nadomestila avtorjem. Če ne bomo o tem razmislili, tvegamo, med drugim, da bomo ljudje, naše stvaritve in drugi podatki postali le surovina za stroje.
Nevarnost onesnaženja informacij
Strokovnjaki so opozorili tudi na dolgoročne posledice. Trenutni računalniški modeli delujejo presenetljivo dobro, ker so se učili na besedilih, ki so jih napisali ljudje. Jaka Čibej svari pred prihodnostjo, v kateri se bodo novi modeli učili na besedilih, ki jih je ustvarila umetna inteligenca. To bo povzročilo padec kakovosti informacij. In še dodatna posledica: izgubili bomo stik s človeško izkušnjo in resničnim svetom.
Sodobne modrosti za preživetje
Sogovorniki so pogovor zaključili z uporabnimi nasveti za življenje v digitalni dobi.
Filip Dobranić: Umetna inteligenca ni ne umetna ne inteligentna. To lahko vsakdo ugotovi sam. Pa še to: če bi bil moj cilj čim več dvigniti, bi šel v fitnes z viličarjem.
Jaka Čibej: Ljudska misel pravi: ni vsak dan praznik. To načelo je smiselno upoštevati tudi pri novih orodjih. Če naletiš na ChatGPT in se ti zdi nekaj izjemnega, ker bo rešilo vse probleme – ne, ni vsak dan na gorah sejem. Včasih pride prav, pogosto pa je treba ostati previden. Če se zdi nekaj predobro, potem verjetno res ni tako dobro, kot se sprva zdi.
Mateja Habinc: Ko sem nekaj časa živela ob hrvaški meji, sem domačina slišala praviti: »Uzdaj se u se i u svoje kljuse.« To bi pri nas lahko prevedli kot: pomagaj si sam in Bog ti bo pomagal. Zakaj to pravim? Prav zaradi zaupanja, o katerem smo toliko govorili. Morda je to del nekakšne retradicionalizacije – preveriti stvari sam, biti prisoten, spoznati bistvo. Šele potem lahko zares veš.
Maja Bogataj Jančič: Človeštvo bi lahko bilo dobro, vendar mu nagajata dve slabi lastnosti. Prva je pohlep. V zmerni obliki je podjetnost seveda pozitivna in nujna za napredek, lahko pa vodi do tega, da si nekdo vedno želi več in več. Ni dovolj milijon, ni dovolj milijarda, ni dovolj niti nekaj, česar sploh ne znamo poimenovati. Pohlep se na tehnološkem področju zelo jasno kaže prav v zadnjem času, ko so nekateri postali superbogati tehnološki lordi, ki imajo v rokah vso moč sveta. Zdi se, da se UI gradi predvsem za doseganje dobička. Torej ne rešujemo največjih problemov človeštva in planeta, ampak gradimo vse, kar je mogoče, ker obstajajo podatki in kar bi se to slej ko prej lahko prodalo na trgu. A pohlep se lahko izraža tudi drugače, v tem, da posameznik, zato da bo na boljšem, sprejme odločitve, ki prinašajo slabe posledice drugim in dolgoročno lahko celo celotni skupnosti.
Druga lastnost pa je naivno razmišljanje: »Res je, vse gre k vragu, a jaz bom že nekako v redu.« Ta občutek imajo gotovo največji tehnolordi, ki načrtujejo umik pod zemljo ali osebne »izhodne strategije«. A imamo ga lahko tudi vsi drugi, ko si rečemo: »Ja, grozno je, ampak jaz se bom že nekako znašel.« Zaradi tega mišljenja ne ukrepamo, čeprav bi morali.
Ti dve lastnosti sta lahko pogubni za človeštvo. Če bi obstajale tablete, ki bi jih vsi lahko vzeli in bi nas osvobodile pohlepa, bi bilo idealno. Morda bi takrat začeli velike probleme reševati takoj, ne pa jih odrivati z mislijo, da se dogajajo drugje, nas pa se ne tičejo. Ključno je zavedanje. In seveda ukrepanje. Vsak lahko naredi nekaj.
In za konec še ljudska modrost, ki vodi mene vsak dan »Več znaš, več veljaš.« Po mojem mnenju to tukaj še posebej drži.