Umetna inteligenca vse bolj oblikuje naše odločitve, delovno okolje in odnose, zato mora etika postati njen neločljivi del, ne zgolj regulativni dodatek. V torek, 16. maja, je na Brdu pri Kranju potekal strokovni posvet o nacionalnem programu spodbujanja razvoja in uporabe umetne inteligence v Republiki Sloveniji do leta 2030. Zvrstilo se je deset tematskih omizji, od znanosti, zdravstva in gospodarstva do etike, javne uprave in podatkovne infrastrukture. Cilj? »Da skupaj z raziskovalci, podjetji, civilno družbo in uporabniki izostrimo cilje do leta 2030 in predlagamo ukrepe,« pojasni dr. Polona Pičman Štefančič, ki deluje na ministrstvu za digitalno preobrazbo, kjer med drugim sodeluje pri pripravi nacionalne strategije za umetno inteligenco do leta 2030.

Kdo plačuje ceno za uporabo chatGPT?

Polona Pičman Štefančič

Polona Pičman Štefančič: »Pravo skrbi, da ne zapeljemo čez rob, etika pa, da vozimo v pravo smer. Ko se pravo in etika srečata v konkretnih sistemih UI, vključevanju ljudi in standardiziranem upravljanju, etika ni ovira, ampak prednost – za državljane, za organizacije in za demokracijo.«

Po podatkih Umarja, raziskave o kakovosti življenja, so v Sloveniji najbolj zaželene lastnosti otrok lepo vedenje, samostojnost in odgovornost, med najmanj zaželenimi pa domišljija. Dr. Polona Pičman Štefančič, doktorica prava in Fulbrightova alumna, meni, da 21. stoletje nagrajuje kombinacijo – odgovornost (delavnost) + ustvarjalnost (domišljija). »Če od otrok kar naprej zahtevamo pridnost in poslušnost, jih oropamo izkušnje delanja napak. Kot pravi John Cleese, ki ni le legendarni angleški komik, pač pa tudi avtor več uspešnic na temo psihologije: »Ko si ustvarjalen, nič ni napaka.« In obrnjeno: strah pred delanjem napak je največji zaviralec domišljije. Če torej otroke učimo spoštovanja pravil, jih moramo hkrati naučiti tudi, kdaj jih je treba preudarno prelomiti, da nastane nekaj novega. Jim tudi pri tem (že) pomaga chatGPT?

MIT (Massachusetts Institute of Technology) je pred kratkim objavil težko pričakovane rezultate raziskave na temo umetne inteligence in tako imenovanega kognitivnega dolga, teze, da naši možgani potihem plačujejo ceno za uporabo chatGPT. »Ideja je sledeča: če umetno inteligenco vključimo prehitro, vzamemo kredit pri lastnem miselnem naporu. Prav to je bistvo kognitivnega dolga: ponavljajoča raba LLM lahko vodi v plitvejše mišljenje in manj angažirano delo, razen če UI vključimo šele po začetnem samostojnem razmisleku,« pojasni dr. Polona Pičman Štefančič. »Kot najoptimalnejša se je izkazala kombinacija samostojnega dela in UI, ki sledi izmeničnemu ritmu samostojnega dela (10–15 minut: ideje, hipoteze, struktura), nadgradnje z UI (za razširitev, protiargumente in primerjave) in samostojnega zaključka. Tako UI ne nadomešča mišljenja, ampak ga ojača in zmanjša tveganje kognitivnega dolga. Gre za svežo, recenzijsko nevalidirirano raziskavo, zato bodimo trezni pri posploševanju, a smernica 'najprej misli, potem UI' je skladna z dosedanjimi izsledki,« še opozori dr. Pičman-Štefančičeva.

Kaj je najbolj “umetno”, kar UI vnaša v naše življenje?

Na zadnjem Unescovem globalnem forumu o etiki UI je Jaron Lanier, eden od pionirjev virtualne resničnosti, umetni inteligenci očital zavajanje, češ da se UI pretvarja, da je nekaj, kar v resnici ni. Da so uporabniški vmesniki oblikovani na način, da algoritmi »učinkujejo« človeško, da posnemajo našo retoriko, naša čustva, skratka, da v interakciji delujejo »kot človek«. Po Lanierjevem mnenju je prav to zavajanje upravičen razlog za skrb in upor.

Podoben očitek bi lahko usmerili tudi v vsebino, razmišlja dr. Polona Pičman Štefančič. Občutek objektivnosti, kjer je te manj, kot se zdi. Algoritmi delujejo samozavestno – številke, grafi, verjetnosti – a to so le destilati naših podatkov, podedovanih pristranskosti in ciljev, ki jih nastavimo ljudje.

Najbolj »umetna« je prav iluzija nevtralnosti: brez preglednosti, razlage in človeške odgovornosti lahko hitro zamenjamo eleganco izhoda za resnico. Prav zato med prioritetna tveganja uvrščamo manipulacijo, erozijo odgovornosti in invazivni nadzor – vse to so zelo človeški problemi, jih pa lahko UI eksponentno poveča.

Je kadrovska funkcija prva obrambna linija?

»To je jedro mojega predavanja na Jesenskem stičišču dobre prakse: HR lahko in mora prevzeti tri vloge – postati mora etični varuh UI, strateški svetovalec in zagovornik pravičnosti ter s tem postaviti standard odgovorne rabe UI na delu,« pojasni dr. Pičman-Štefančičeva, ki bo novembra predavala na dogodku Slovenske kadrovske zveze. Zakaj ravno HR?

Iz dveh razlogov. »Prvič, ker UI do ljudi najprej pride skozi postopke zaposlovanja, ocenjevanja in organizacije dela. Tu se oblikuje kultura zaupanja namesto kulture nadzora. In drugič, ker je spremenljivost bistven del narave UI. Če smo do zdaj večino sistemov zaradi relativne stabilnosti (in posledične predvidljivosti) lahko zamejili s pravnimi pravili, je UI zaradi svoje fluidnosti za čvrste pravne norme preveč – spolzka. Kot bi lovil žele s cedilom, ob rigidnih pravnih normah se fluidna UI preprosto izmuzne. In tu nastopi etika UI.« Usposobljen HR spremlja implikacije, ki jih prinaša vpeljava UI-sistemov tako v celem ekosistemu kot tudi vsem življenjskem ciklu posameznih aplikacij. »Del je zamejen že z obstoječimi pravnimi pravili: ne le akt o UI, tudi druga zakonodaja že ponuja vrsto varovalk, tako s področja varstva zasebnosti kot tudi upravljanja podatkov. Akt o UI, navajam zgolj primeroma, izrecno prepoveduje sisteme za prepoznavanje oziroma ugibanje čustev v delovnem okolju in socialno točkovanje. Tudi realnočasovna biometrična identifikacija je v javnih prostorih prepovedana. To so 'red lines', normativne prepovedi, ki jih mora HR poznati in uveljavljati,« pojasni Pičman-Štefančičeva.

Bolj delikaten je zlasti drug del, to so nehotene, nenačrtovane, nepredvidene posledice uporabe algoritmov. Ker sistemi UI nosijo v sebi precejšnjo mero nepojasnljivosti (sindrom črne škatle), lahko tudi odločitve, ki jih sprejemamo na njihovi podlagi, prinašajo 'podedovane' nepravičnosti.« Iz prakse so poznani primeri, kjer je uporaba sistemov, treniranih na zgodovinskih podatkih, v prediktivne modele nehote prinesla vrsto pristranskosti in diskriminacij. Težava je zlasti v tem, da se tovrstne nepravilnosti lahko odkrijejo šele sčasoma, kar pomeni, da se škoda perpetuira, še preden smo jo sploh sposobni zaznati,« dodaja dr. Pičman-Štefančičeva.

Praktično to pomeni tri stvari: presojo dopustnosti in tveganj še pred nabavo (»ali je to sploh dovoljeno?«), skrb za skladnost in varstvo pravic zaposlenih ter gojenje kulture zaupanja, ne nadzora. Prav tu lahko HR odigra izjemno vlogo. S posluhom za človeka in vpogledom v celoten ekosistem je HR v unikatni poziciji, da postane etični varuh UI. To terja visoko usposobljen strokovni kader.

Kako vpeljati etične standarde pri uvajanju UI-orodij

»Če si sposodim pri avtomobilističnih metaforah,« doda dr. Polona Pičman Štefančič, »etika ni zavora, je volan. Mednarodna skupnost namenja znatne resurse za pripravo metodologije, ki bi odgovorila na vprašanja, kaj storiti, ko se guma dotakne asfalta (when the rubber hits the road), torej kako zagotoviti, da se bo UI razvijala in uporabljala na etičen, zaupanja vreden način, kjer bo človek ostal v središču.«

Če želimo, da UI v praksi služi ljudem, moramo združiti dve plati iste medalje: pravno zavezujoče varovalke in kulturo etične rabe. Akt o UI naslavlja prvi del vprašanja prek zahteve po oceni učinka na temeljne pravice, ki jo je treba opraviti pred uvedbo visoko tveganih sistemov (člen 27). Njegova posebnost je zlasti v tem, da odstopa od check-list pristopov in vpeljuje 'živo' obveznost – posodablja se, ko se spremeni sistem ali okoliščine uporabe. Gre za zavezujoč mehanizem, ki vpeljuje razlago odločitev, smiselni človeški nadzor in sorazmerne omilitvene ukrepe še pred uvedbo sistema.

»Vzporedno Svet Evrope razvija model Huderia, praktično metodologijo ocene vpliva konkretne uporabe UI na človekove pravice, demokracijo in pravno državo. Metodologija je še v razvoju, prva testna akademija za države članice je bila izvedena junija, a je, vsaj s pravnega vidika, prelomna – v rigidnost pravnih norm na interaktiven način ukaluplja sociotehnični koncept, kar bistveno bolj ustreza fluidni naravi UI. V tem smislu gre Huderia tudi korak dlje in presega golo normativno skladnost: predvideva kontekstno ocenjevanje tveganj, vključevanje prizadetih deležnikov in iterativno vrednotenje obsega, dosega, povratnosti in verjetnosti škode ter načrt ukrepov,« pojasni dr. Pičman-Štefančičeva. Slovenija te usmeritve že vpisuje v strateške dokumente za javni sektor: od večdeležniškega oblikovanja storitev in sistematičnega usposabljanja javnih uslužbencev do neodvisnih presoj vplivov na pravice in sklicevanje na mednarodne standarde. Cilj je preprost in zahteven hkrati: umetna inteligenca, ki je učinkovita, razložljiva in zaupanja vredna, torej res v službi ljudi.

Odgovor zagotovo ni enostaven, bi pa utegnil biti odločilen za pozitivno prognozo naše prihodnosti. 

Najbolj pozitivna stvar, ki jo prinaša UI

Na kratko: pospešek razvoja na področjih, ki nam pomagajo živeti bolje, bolj kakovostno. Pospešek v znanosti, produktivnosti pa tudi izobraževanju: od avtonomnih laboratorijev, ki odkrivajo nove materiale, do osebnih učnih pomočnikov, ki pomagajo otrokom in odraslim pri učenju po meri. Vodilne svetovne organizacije med deset prioritetnih koristi praviloma uvrščajo prav pospešene znanstvene preboje, boljše odločitve in boljše storitve v zdravstvu in izobraževanju; to je zelo otipljivo v gospodarstvu in javnem sektorju.

Obsežna študija je leta 2023, torej še pred svetovnim bumom UI, ki ga je prinesel chatGPT, pokazala, da lahko z uporabo UI v radiologiji pravočasno odkrijemo 20 odstotkov več raka na dojkah. Pa niso vse zgodbe le o življenju in smrti, vsak dan nam lahko uporaba UI olajša življenje: prediktivni algoritmi nas usmerijo, po kateri poti lahko najbolj varno pridemo do službe, transkripcije govora v tekst skrajšajo ure mukotrpnega prepisovanja, kolegi pravniki, čeprav pregovorno med najbolj žlahtno konservativnimi, so bili celo med prvimi, ki so z odprtimi rokami sprejeli uporabo UI v iskanju sodne prakse. Preprosto zato, ker je tako lažje, bolj lagodno in – tega praviloma nočemo slišati – tudi korektneje. Ko namreč ocenjujemo UI, jo podzavestno primerjamo s kalkulatorjem: tam je izračun vedno pravilen. Algoritmi delujejo drugače, in čeprav vemo, da na več področjih že presegajo človeški um (najbolj znan je morda prav šah), jim preprosto ne odpuščamo, če rezultat ni popoln.

Opomba: Izražena stališča avtorice dr. Polone Pičman Štefančič niso nujno stališča ministrstva za digitalno preobrazbo.

Priporočamo