Čeprav gre pri umetni inteligenci za zelo specifične oblike matematičnih tehnik, rezultati pa so močno odvisni od vhodnih podatkov in razvrščanja njihove pomembnosti, v velikem delu javnosti še naprej vztraja zmotna in škodljiva predstava, da gre za magično tehnologijo, ki ponuja povsem objektivne rezultate. Strokovnjaki ob tem opozarjajo, da so vsi primerki umetne inteligence pristranski in občutljivi za interese, predsodke in prepričanja snovalcev. Primerov slabe in škodljive umetne inteligence, ki ima lahko zelo neposredne učinke na življenje posameznika, je veliko. Z izbruhom pandemije novega koronavirusa so se želje po reševanju določenih nalog z umetno inteligenco še povečale, s tem pa je zrasla tudi izpostavljenost škodljivi umetni inteligenci. Zelo nazoren primer tega se je zgodil lani v Veliki Britaniji, kjer so zaradi pandemije odpovedali tamkajšnjo različico mature in jo nadomestili z izračunom uspešnosti na podlagi umetne inteligence. Kmalu se je izkazalo, da je bila »čarobna rešitev« pristranska in je ugodneje ocenjevala učence iz premožnejših družin, ki obiskujejo elitne zasebne šole, kot revnejše učence, ki hodijo v javne šole. Po pritisku javnosti so rezultate algoritma zavrgli.

Smeti noter, smeti ven

Catelijne Muller, strokovnjakinja in svetovalka za umetno inteligenco in družbo ter članica EESC in skupine EU na visoki ravni za umetno inteligenco, pravi, da lahko v primeru uporabe umetne inteligence v času korone vidimo veliko načinov uporabe umetne inteligence, o katerih v drugih okoliščinah ne bi niti razpravljali. »Sedaj pa se jih poriva po hitrem postopku,« je bila kritična na nedavni okrogli mizi IBM na temo pravičnosti umetne inteligence. Med področji, kjer je takšne napore mogoče opaziti, je naštela nadzor delavcev in nadziranje obnašanja, prepoznavanje uporabe obraznih mask in algoritme, ki pregledujejo ocene učencev.

Mullerjeva je opozorila, da ne gre zgolj za problem vhodnih podatkov. »Čeprav je koncept 'smeti noter, smeti ven' zelo dobro poznan, je treba gledati onkraj zgolj tega – podatkov, algoritmov in modelov. Pozorni moramo biti tudi na to, kdo umetno inteligenco izdeluje in jo uporablja. Tudi na tiste, ki so se odločili, ali se jo uporabi. To je pomembno zato, ker vse te osebe in strukture, v katerih delujejo, odločajo o tem, kako bo sistem deloval. Kateri vhodni podatki se bodo uporabili, kateri cilji bodo naddoločali optimizacijo – ali sistem optimizira za čisto učinkovitost ali pri tem upošteva učinke na delavce ali okolje.«

Z njeno oceno se je strinjala Gry Hasselbalch, raziskovalka in neodvisna svetovalka za etiko podatkov iz danskega politično neodvisnega možganskega trusta DataEthics.eu. »Pristranskosti umetne inteligence ni mogoče rešiti s pomočjo podatkov. Vedno bo pristranski in to moramo razumeti. Šele tedaj bomo razumeli tudi, da družbenih težav, kot je pristranskost, ni mogoče rešiti z umetno inteligenco,« je opozorila. »Tudi če bi umetni inteligenci pomagali z ročnimi vnosi podatkov, ki naj bi služili manjši pristranskosti, bi se pristranskost vedno znova vzpostavila. Preprosto zato, ker pristranskost prihaja iz splošnih dinamik moči družbe. Gre za sistemski problem družbe. Misliti moramo na to, kdo nadzira izdelavo UI, kdo predlaga UI in kakšni so njihovi interesi in kakšna je njihova kulturna realnost.« Ob tem dodaja, da do diskriminatornega delovanja umetne inteligence najpogosteje pride, ker so modeli nekritično sprejeti, nato pa se jim pripiše večja vrednost kot človeški presoji. »Umetni inteligenci je vseeno za poštenost. Gre za podatkovni sistem, ki se obnaša, kot bi imel popolne podatke. Zato moramo ohraniti človeško kritično mišljenje, da bi lahko izpodbijali pristranske odločitve,« je še izpostavila Hasselbalchova.

Predsodki umetne inteligence

Virginia Dignum, profesorica na Oddelku za računalništvo na švedski Univerzi Umeå, kjer vodi raziskovalno skupino Socialna in etična umetna inteligenca, ter članica Evropskega združenja za umetno inteligenco (EurAI) in strokovne skupine Evropske unije za umetno inteligenco, pravi, da pristranskosti iz umetne inteligence ni mogoče izločiti, kot je ni mogoče izločiti niti iz človeške družbe. »Pristranskost je del nas in ni vselej problem. Pomaga nam izbirati. Problem je, ko nas sledenje pristranskosti vodi v predsodke,« je pojasnila. »Ko gre za predsodke umetne inteligence, se moramo torej odločiti, kje potegniti črto in kako bi merili pristranskost sistema. Treba je biti pozoren, ali umetna inteligenca izboljšuje situacijo ali jo slabša.« Opozarja pa, da razprava o tem, kje postaviti ta prag, ne bi smela biti prepuščena tistim, ki izdelujejo algoritme, ampak bi morala biti bistveno bolj obsežna. »Povsem odpraviti pomanjkljivosti umetne inteligence, da bi dobili popoln sistem, pa ni realno. Moramo imeti torej razpravo o nevarnostih, mejah in meritvah,« je še dodala.

Francesca Rossi, raziskovalna sodelavka IBM in vodja AI Ethics Global, članica Sveta Svetovnega gospodarskega foruma za umetno inteligenco in robotiko, sodelavka svetovnega združenja AI (AAAI) in evropskega združenja za umetno inteligenco (EurAI), pravi: »Če pristranskosti ni mogoče odpraviti, se je je treba vsaj zavedati. Pri tem je transparentnost umetne inteligence in postopka njene izdelave oziroma pristranskosti, ki so jo vanjo vnesli izdelovalci, izrednega pomena.« Dodaja, da je treba izdelovalce in uporabnike umetne inteligence izobraziti o tej problematiki. »V ekipah izdelovalcev mora vladati tudi dovolj velika raznolikost, da lahko zaznajo pristranskosti drugih sodelujočih in kako se odražajo v umetni inteligenci. Nič manj pomembna ni izobrazba uporabnikov, ki bodo sprejemali odločitve na podlagi umetne inteligence,« je prepričana.

Samoregulacija ne deluje

Hkrati Mullerjeva svari, da pristranskost ni edini problem umetne inteligence. »Tudi če bi povsem odpravili pristranskost, se je treba zavedati, da so na delu še druge stvari. Recimo prepoznava obraza, ki bo sposobna prepoznati osebe vseh starosti, vseh barv polti in v vseh okoliščinah. Si želimo, da je ta tehnologija, tudi če ni pristranska, povsod? Zavedati se moramo tudi drugih vplivov na naše življenje.« Ob tem je skeptična do tega, koliko je na področju umetne inteligence možno doseči s samoregulacijo njenih izdelovalcev. »Kar se tiče regulacije, se zdi, da samoregulacija industrije, ki izdeluje umetno inteligenco, ne deluje. Ponekod deluje, zelo pogosto pa ne,« opozarja. Pravi, da se je treba tudi zavedati, da delovanje umetne inteligence že sicer ni zakonsko povsem neurejeno. Naštela je GDPR, človekove pravice in delovnopravno zakonodajo. Za 21. april pa je evropska komisija tudi napovedala objavo predloga o regulaciji umetne inteligence v EU.

Mullerjeva je sicer kritična do očitkov, da regulacije zavirajo inovacije. »Če kaj, regulacije zavirajo škodljive inovacije.« Kot primer dobre prakse regulacije, ki je izboljšala industrijo, navaja zakonodajo iz leta 1964, s katero je evropski svet sprejel uradni standard in znanstveno podlago za nadzor kakovosti farmacevtskih izdelkov. »Pred tem se ni vedelo, kako so farmacevtski izdelki narejeni, kaj so njihove sestavine in ali so sploh varni. Regulacije torej pripomorejo k varnosti izdelkov, podjetjem pa pomagajo k boljšim inovacijam,« dodaja. Hkrati zavrača očitke, da bo EU z uvedbo regulacije na tem področju zaostala za ZDA in Kitajsko. Kot primer Mullerjeva navaja GDPR, ki po njeni oceni dobiva vse več podpore zunaj EU. Izpostavlja, da je v Evropi 500 milijonov potencialnih uporabnikov. Če bo EU postavila pravilne omejitve, jih bo preostanek sveta upošteval, če bo želel imeti dostop do vseh teh 500 milijonov uporabnikov.

Pred prevelikim polaganjem upov v predlog o regulaciji pa sta posvarili Dignumova in Hasselbalchova. Prva pravi, da se o umetni inteligenci tudi na zakonodajni ravni pogosto govori kot o čarobni tehnologiji, o kateri nihče niti ne ve, kaj je. Tudi sicer pa si želi, da bi se obširneje lotili vprašanja vpliva programske opreme oziroma aplikacij in digitalne tehnologije na naše življenje in družbo, ne glede na to, ali tej tehnologiji rečemo umetna inteligenca.

Hasselbalchova medtem meni, da lahko zakon zaleže zgolj do neke mere. »Hkrati pa gre za simptom, da si želi EU povrniti neko mero avtoritete na področju digitalne infrastrukture, ki so jo okupirale zunanje sile,« je kritična do pretekle nedejavnosti na tem področju. »Kar bo izšlo aprila, je zgolj predlog. Sledila bodo pogajanja, soočeni bodo interesi institucij EU, držav članic EU… Oblikovanju zavezništev smo na tem področju že priča. Ali se bodo spremenila pravila igre in v korist katerih interesov, je odvisno od teh dinamik moči.«

Priporočamo