In tudi razume, kajti kdor je malce pobližje spremljal lanski dvoboj, so mu najbrž v spominu ostali komentarji v slogu: Nenavadna poteza, kakršne ne bi pričakoval. – Noben človek ne bi igral tako. – Ne razumem, kakšen je namen teh zadnjih nekaj potez. Nerazumevanje potez umetne inteligence je bilo splošno, Li Se Dol pa je po koncu izjavil, da je dvoboj postavil »na preizkušnjo nekatere njegove predstave o goju«.

Nemara nič nenavadnega na prvi pogled. Tudi dobri šahisti so svojčas šele iz poznejših analiz razumeli, recimo, genialnega Bobbyja Fischerja. In kdo ve, morda je tudi ob spremljanju Fischerja kdo dejal ali vsaj pomislil, da tako ne bi igral noben človek. No, noben drugi gotovo, a medtem ko je bil Fischer človek, AlphaGo to res ni. Še več, pravzaprav. S tem, kar AlphaGo zmore v goju, ima človek opraviti samo »posredno«. Goja je namreč ni naučil, temveč je dal umetni inteligenci na voljo samo dovolj podatkov, da se ga je naučila sama. Drugače rečeno, če se je človek lahko »naučil«, kar je vedel Fischer – seveda so bili tega sposobni samo najboljši šahisti naslednjih generacij – se tega, kar »ve« AlphaGo, ne more naučiti nihče. Bolj ali manj pa tega tudi ne more razumeti, vsaj ne v celoti, čeprav so Li Se Dol, Ke Jie in drugi vrhunski igralci goja na zadnjih turnirjih – Ke Jie pa ta teden tudi proti AlphaGo – že uporabili nekatere domislice umetne inteligence iz lanskega dvoboja.

Brez(za)vestni stvor

Zato, ker človek ne razume umetne inteligence, ki ga je premagala v goju, se kaj posebej usodnega verjetno ne more zgoditi. Še poklicni igralci verjetno ne bodo ob kruh, kajti v spopadu dveh umetnih inteligenc med seboj ni nikakršne človeške drame, ki dela zanimive dvoboje med ljudmi. Na marsikaterem drugem področju pa nerazumljivost odločitev, ki jih sprejemajo umetne nevralne mreže, sposobne samoučenja »z ničle«, postaja čedalje večji problem. Z naglo rastjo računalniške moči, ki omogoča vse bolj zapletene in večplastne mreže, je postalo človeku preprosto nedoumljivo, zakaj umetna inteligenca »misli«, kakor »misli«.

Morda bo tudi ob tem kdo pomislil, da to ni nič posebnega, saj ljudje še drug drugega (pre)pogosto ne razumemo. Oziroma ne znamo zadovoljivo pojasniti, zakaj smo se odločili tako, kakor smo se. A čeprav svojih odločitev ne znamo zadovoljivo pojasniti, družbene norme, morala in pravo od nas praviloma zahtevajo, da jih. Če jih ne ali če nismo prepričljivi, se moramo soočiti z različnimi posledicami: družbenimi, pravnimi, ekonomskimi, vse tja do, denimo, zdravstvenih.

A kdo – in na kakšen način – lahko obrazložitev zahteva oziroma dobi od umetne inteligence, ki je v nekaj mesecih »posrkala«, koliko že, deset tisoč let evolucije goja, pet tisoč in še malo več let evolucije prava, kdo ve koliko let evolucije medicinske etike? Če je treba znova poudariti: tu ne gre za vprašanje algoritmov, ki jih je programiral človek, vendar jih (Google, Facebook & Co.) iz, na primer, konkurenčnih razlogov skriva pred javnostjo. Gre za vprašanje, ali in kako lahko človek razvozla, česa se je »stroj« naučil sam in kako »sklepa«, da bi tako razumel in predvidel, kako se bo ta »brez(za)vestni stvor« v določenem položaju odzval ali odločil.

V poplavi novic o samovozečih avtomobilih ste morda spregledali tisto o avtopilotu Nvidie, proizvajalca čipov in še bolj znanega po grafičnih karticah za računalnike. Te kartice temeljijo na procesorjih, ki so s tehnologijo verižnega knjiženja (blockchain) in umetno inteligenco dobili dodatne funkcije. No, in ker ima tovrstne procesorje, je Nvidia, med drugim dobavitelj (pol)samodejnega avtopilota za avtomobile Tesle, lani na ceste poslala še lasten samovozeči avtomobil. Točneje, avtomobile švedskega proizvajalca Volvo, opremljene z Nvidijino umetno inteligenco. A drugače kot drugi, ki so začeli s programiranimi algoritmi, s katerimi so obvladali osnovna pravila vožnje, je Nvidia svojo avtomobilsko inteligenco v celoti prepustila strojnemu učenju. Programerji ji niso dali nobenih pravil, vsega se je naučila iz »opazovanja« človeških voznikov. Če bi se »učila« v Sloveniji, mimogrede, bi gotovo obvladala vožnjo s 100 kilometri na uro skozi cestninske postaje, prehitevanje po desni ali celo odstavnem pasu ali vožnjo pol metra za prehitevajočim vozilom pred sabo pri 130 kilometrih na uro ter še veliko drugih spretnosti, ki drugod ne bi bile prav uporabne. Na cestah v New Jerseyju se je po poročilih lahko naučila veliko manj napadalne vožnje, zato so smeli letos sistem preverjati še na izbranih cestah na Švedskem. Toda dovoljenja za »splošno« testiranje Nvidia še ni dobila – morda zato, ker ne zna razložiti, kako njen avtopilot v bistvu deluje.

Pravica do pojasnila

Ko je evropski parlament lani aprila sprejel uredbo o varstvu posameznikov pri obdelavi osebnih podatkov (z angleško kratico GDPR), ki bo začela veljati 25. maja prihodnje leto, sta ob zadovoljstvu zaradi omejitve podatkovne »invazivnosti« ameriških tehnoloških korporacij v glavnem ostali spregledani dve skorajda obrobni določbi iz 13. in 22. člena. Očitno se tudi med štiriletno pripravo in razpravo o uredbi, torej neposredno v nacionalnih zakonodajah veljavnem pravnem aktu, z njima niso veliko ukvarjali, zato utegne biti v praksi z njima še veliko veselja, pravi smisel pa bosta dobili šele na sodišču.

V Evropski uniji – je mogoče razumeti GDPR – bo čez leto dni začela veljati »pravica do pojasnila«. To pomeni, da bo na zahtevo posameznika vse »procesirane« oziroma »strojne« odločitve o njem na njegovo zahtevo treba razložiti, poleg tega pa bo povsem »samodejno« odločitev, ki ima zanj pravne posledice, prizadeti lahko v določenih pogojih zavrnil. Kaj to pomeni? To, da vam iskalnik na vaše vprašanje ponudi te, in ne katere druge zadetke, družbeno omrežje pa predlaga te, in ne one prijatelje ali oglase, najbrž nima pravnih posledic. Umetne inteligence za temi odločitvami verjetno ne bo treba pojasnjevati. Ko gre za medicinske ali policijske odločitve, socialne transferje, zavarovalniške premije, kreditno sposobnost ali primernost biti starš, je kajpak bistveno drugače. Zakaj se je umetna inteligenca odločila za to, in ne katero drugo terapijo? Zakaj je umetna inteligenca ocenila, da ste osumljenec? Itd.

Res je, da nekaterih izmed teh odločitev tudi človeku – dokler jih še sprejemajo ljudje – ni treba razložiti. Banka, denimo, vam lahko zavrne posojilo ali izdajo kreditne kartice brez obrazložitve, zavarovalnica pa v določenih primerih poviša premijo. Zdravnik, na primer, pa svojo odločitev mora razložiti, čeprav ima na drugi strani popolnega medicinskega laika; še več, kdor ni zadovoljen, ima pravico zahtevati drugo mnenje. Ali to pomeni, da bo v ne tako oddaljeni prihodnosti za postavitev diagnoze in terapije pacient lahko poleg pojasnila zahteval še mnenje druge umetne inteligence?

Tukaj ne gre za »tehnične napake« in (odškodninsko) odgovornost zanje. Ne gre za to, denimo, da samovozeči avtomobil zaradi nizkega sonca ali česa drugega »spregleda« oviro na cesti in se zaleti vanjo. Niti ne gre za realno nevarnost »podivjane«, »zlorabljene« ali »shekane« umetne inteligence. Govorimo, še enkrat, o odločitvah umetne inteligence »kar tako« (brez sodelovanja človeka), lahko povsem »pravilnih« (in »dobronamernih«), katerih logike pa ne razumemo, ker je ne preprosto moremo. Vsaj za zdaj ne. Noben človek ne more preveriti, kako je umetna inteligenca na podlagi milijonov podobnih primerov, na katerih se je »učila«, prišla do sklepa, da je treba določenemu pacientu predpisati prav to terapijo. Če bi se tako odločil zdravnik, bi se lahko skliceval na presojo po »najboljšem védenju in vesti«. Šele če bi mu dokazali nasprotno, bi njegovo ravnanje obveljalo za napačno (in morda kaznivo). Umetna inteligenca pa se ne sklicuje na védenje in še manj na vest ter odloči, kakor morebiti ne bi noben človek. In četudi nemara pravilno ali »pravilneje«, kot bi se človek, se sme človeštvo na to zanašati?

Dokler ne bo padla prva sodba, ne bomo vedeli, ali bo GDPR s pravico do pojasnila res zavrla razvoj umetne inteligence, kakor trdijo predvsem lobisti ameriških korporacij. Je pa to, da EU »obrambo« pred umetno inteligenco pravzaprav prepušča posamezniku, videti kot svojevrstno sprenevedanje. Če za vse naprave in, recimo, zdravila veljajo standardi in pravila, katerih spoštovanje zagotavlja država s svojimi agencijami in uradi, ni razloga, da tega ne bi počela tudi v primeru umetne inteligence. Navsezadnje je korporacijam že tako prepustila preveč prostora.