Umetna inteligenca vse bolj oblikuje naše odločitve, delovno okolje in odnose, zato mora etika postati njen neločljivi del, ne zgolj regulativni dodatek. V torek, 16. maja, je na Brdu pri Kranju potekal strokovni posvet o nacionalnem programu spodbujanja razvoja in uporabe umetne inteligence v Republiki Sloveniji do leta 2030. Zvrstilo se je deset tematskih omizji, od znanosti, zdravstva in gospodarstva do etike, javne uprave in podatkovne infrastrukture. Cilj? »Da skupaj z raziskovalci, podjetji, civilno družbo in uporabniki izostrimo cilje do leta 2030 in predlagamo ukrepe,« pojasni dr. Polona Pičman Štefančič, ki deluje na ministrstvu za digitalno preobrazbo, kjer med drugim sodeluje pri pripravi nacionalne strategije za umetno inteligenco do leta 2030.
Kdo plačuje ceno za uporabo chatGPT?
MIT (Massachusetts Institute of Technology) je pred kratkim objavil težko pričakovane rezultate raziskave na temo umetne inteligence in tako imenovanega kognitivnega dolga, teze, da naši možgani potihem plačujejo ceno za uporabo chatGPT. »Ideja je sledeča: če umetno inteligenco vključimo prehitro, vzamemo kredit pri lastnem miselnem naporu. Prav to je bistvo kognitivnega dolga: ponavljajoča raba LLM lahko vodi v plitvejše mišljenje in manj angažirano delo, razen če UI vključimo šele po začetnem samostojnem razmisleku,« pojasni dr. Polona Pičman Štefančič. »Kot najoptimalnejša se je izkazala kombinacija samostojnega dela in UI, ki sledi izmeničnemu ritmu samostojnega dela (10–15 minut: ideje, hipoteze, struktura), nadgradnje z UI (za razširitev, protiargumente in primerjave) in samostojnega zaključka. Tako UI ne nadomešča mišljenja, ampak ga ojača in zmanjša tveganje kognitivnega dolga. Gre za svežo, recenzijsko nevalidirirano raziskavo, zato bodimo trezni pri posploševanju, a smernica 'najprej misli, potem UI' je skladna z dosedanjimi izsledki,« še opozori dr. Pičman-Štefančičeva.
Je kadrovska funkcija prva obrambna linija?
»To je jedro mojega predavanja na Jesenskem stičišču dobre prakse: HR lahko in mora prevzeti tri vloge – postati mora etični varuh UI, strateški svetovalec in zagovornik pravičnosti ter s tem postaviti standard odgovorne rabe UI na delu,« pojasni dr. Pičman-Štefančičeva, ki bo novembra predavala na dogodku Slovenske kadrovske zveze. Zakaj ravno HR?
Iz dveh razlogov. »Prvič, ker UI do ljudi najprej pride skozi postopke zaposlovanja, ocenjevanja in organizacije dela. Tu se oblikuje kultura zaupanja namesto kulture nadzora. In drugič, ker je spremenljivost bistven del narave UI. Če smo do zdaj večino sistemov zaradi relativne stabilnosti (in posledične predvidljivosti) lahko zamejili s pravnimi pravili, je UI zaradi svoje fluidnosti za čvrste pravne norme preveč – spolzka. Kot bi lovil žele s cedilom, ob rigidnih pravnih normah se fluidna UI preprosto izmuzne. In tu nastopi etika UI.« Usposobljen HR spremlja implikacije, ki jih prinaša vpeljava UI-sistemov tako v celem ekosistemu kot tudi vsem življenjskem ciklu posameznih aplikacij. »Del je zamejen že z obstoječimi pravnimi pravili: ne le akt o UI, tudi druga zakonodaja že ponuja vrsto varovalk, tako s področja varstva zasebnosti kot tudi upravljanja podatkov. Akt o UI, navajam zgolj primeroma, izrecno prepoveduje sisteme za prepoznavanje oziroma ugibanje čustev v delovnem okolju in socialno točkovanje. Tudi realnočasovna biometrična identifikacija je v javnih prostorih prepovedana. To so 'red lines', normativne prepovedi, ki jih mora HR poznati in uveljavljati,« pojasni Pičman-Štefančičeva.
Bolj delikaten je zlasti drug del, to so nehotene, nenačrtovane, nepredvidene posledice uporabe algoritmov. Ker sistemi UI nosijo v sebi precejšnjo mero nepojasnljivosti (sindrom črne škatle), lahko tudi odločitve, ki jih sprejemamo na njihovi podlagi, prinašajo 'podedovane' nepravičnosti.« Iz prakse so poznani primeri, kjer je uporaba sistemov, treniranih na zgodovinskih podatkih, v prediktivne modele nehote prinesla vrsto pristranskosti in diskriminacij. Težava je zlasti v tem, da se tovrstne nepravilnosti lahko odkrijejo šele sčasoma, kar pomeni, da se škoda perpetuira, še preden smo jo sploh sposobni zaznati,« dodaja dr. Pičman-Štefančičeva.
Praktično to pomeni tri stvari: presojo dopustnosti in tveganj še pred nabavo (»ali je to sploh dovoljeno?«), skrb za skladnost in varstvo pravic zaposlenih ter gojenje kulture zaupanja, ne nadzora. Prav tu lahko HR odigra izjemno vlogo. S posluhom za človeka in vpogledom v celoten ekosistem je HR v unikatni poziciji, da postane etični varuh UI. To terja visoko usposobljen strokovni kader.
Kako vpeljati etične standarde pri uvajanju UI-orodij
»Če si sposodim pri avtomobilističnih metaforah,« doda dr. Polona Pičman Štefančič, »etika ni zavora, je volan. Mednarodna skupnost namenja znatne resurse za pripravo metodologije, ki bi odgovorila na vprašanja, kaj storiti, ko se guma dotakne asfalta (when the rubber hits the road), torej kako zagotoviti, da se bo UI razvijala in uporabljala na etičen, zaupanja vreden način, kjer bo človek ostal v središču.«
Če želimo, da UI v praksi služi ljudem, moramo združiti dve plati iste medalje: pravno zavezujoče varovalke in kulturo etične rabe. Akt o UI naslavlja prvi del vprašanja prek zahteve po oceni učinka na temeljne pravice, ki jo je treba opraviti pred uvedbo visoko tveganih sistemov (člen 27). Njegova posebnost je zlasti v tem, da odstopa od check-list pristopov in vpeljuje 'živo' obveznost – posodablja se, ko se spremeni sistem ali okoliščine uporabe. Gre za zavezujoč mehanizem, ki vpeljuje razlago odločitev, smiselni človeški nadzor in sorazmerne omilitvene ukrepe še pred uvedbo sistema.
»Vzporedno Svet Evrope razvija model Huderia, praktično metodologijo ocene vpliva konkretne uporabe UI na človekove pravice, demokracijo in pravno državo. Metodologija je še v razvoju, prva testna akademija za države članice je bila izvedena junija, a je, vsaj s pravnega vidika, prelomna – v rigidnost pravnih norm na interaktiven način ukaluplja sociotehnični koncept, kar bistveno bolj ustreza fluidni naravi UI. V tem smislu gre Huderia tudi korak dlje in presega golo normativno skladnost: predvideva kontekstno ocenjevanje tveganj, vključevanje prizadetih deležnikov in iterativno vrednotenje obsega, dosega, povratnosti in verjetnosti škode ter načrt ukrepov,« pojasni dr. Pičman-Štefančičeva. Slovenija te usmeritve že vpisuje v strateške dokumente za javni sektor: od večdeležniškega oblikovanja storitev in sistematičnega usposabljanja javnih uslužbencev do neodvisnih presoj vplivov na pravice in sklicevanje na mednarodne standarde. Cilj je preprost in zahteven hkrati: umetna inteligenca, ki je učinkovita, razložljiva in zaupanja vredna, torej res v službi ljudi.
Odgovor zagotovo ni enostaven, bi pa utegnil biti odločilen za pozitivno prognozo naše prihodnosti.