Tehnologije za prepoznavanje obrazov, ki se jih v Združenih državah Amerike redno poslužuje policija, so bile že pred množičnimi protesti po državi večkrat postavljene pod etični vprašaj. Algoritmi, ki jih upravljajo, namreč zlahka reproducirajo rasne neenakosti, ki so prisotne v družbi.

Microsoft je z odločitvijo, da svojih tehnologij ne bo prodajal policiji, dokler ne bo sprejeta ustrezna zakonodaja, sledil zgledu korporacij Amazon in IBM, ki sta podobno odločitev sporočila že pred dnevi. Sicer je predsednik Microsofta Brad Smith že pred tem dejal, da njihovo podjetje svoje tehnologije policiji ni nikoli prodajalo, za nacionalno zakonsko ureditev pa so zaprosili že pred dvema letoma, ko so opozarjali, da bo tovrstna tehnologija sicer le poglabljala že obstoječe družbene neenakosti, poroča BBC. Kot so poudarili, želijo, da zakonodaja temelji na »temeljnih človekovih pravicah.«

Amazon svoje tehnologije še do nedavnega zagovarjal

IBM je odločitev, da bo prenehal s prodajo svojih tehnologij za »množični nadzor in rasno profiliranje,« sporočil že v torek, ko so v pismu ameriškemu kongresu priznali tudi, da njihove tehnologije potrebujejo izdatno testiranje, ki bo preprečilo (predvsem) rasno pristranskost. Izvršni direktor IBM Arvind Krishna je ob tem dejal, da je danes boj proti rasizmu »bolj nujen kot kdajkoli prej« ter pripomnil, da so pripravljeni sodelovati s kongresom pri reformi policije ter pripravi zakonodaje, ki bo določala odgovorno uporabo tovrstne tehnologije.

Po drugi strani je Amazon policiji prepovedal uporabo svojih tehnologij za prepoznavanje obrazov za leto dni. S prepovedjo uporabe programske opreme Rekognition želijo dati zakonodajalcem čas, da sprejmejo ustrezno zakonodajo o rabi tovrstne tehnologije, so sporočili iz korporacije. »Zagovarjali smo sprejem strožjih predpisov za etično uporabo tehnologije za prepoznavanje obrazov in v zadnjih dneh se zdi, da se je kongres teh sprememb pripravljen lotiti,« so zapisali v izjavi. Amazon je svojo tehnologijo v preteklosti sicer zagovarjal, rekoč, da deluje nepristransko, uporabo tehnologije pa bodo izjemoma še vedno dovolili organizacijam, ki se ukvarjajo s preprečevanjem trgovine z ljudmi.

Ne pustimo se preslepiti

Predstavnica neprofitne organizacije Privacy InternationalEva Blum-Dumontet je ob odločitvah vidnejših tehnoloških korporacij sporočila, naj se javnost »ne pusti preslepiti«. Kot je dejala, je družba IBM skovala termin »pametno mesto,« sedaj pa želi ustrezati aktualnim družbenim spremembam. »Po celotnem svetu so vzpodbujali urbanizacijo, ki je slonela na nadzornih kamerah (CCTV) in senzorjih, ki jih je policija obdelovala s pomočjo IBM-ove tehnologije. Zelo je cinično, da se sedaj obračajo in zahtevajo nacionalni dialog o uporabi tovrstnih tehnologij,« je poudarila za BBC. »Poskušajo se le odkupiti za to, da so pomembno prispevali k razvoju tovrstnih tehnologij. Ne pustimo se preslepiti njihovi zadnji potezi,« je dodala.

V Ameriški zvezi za državljanske svoboščine, kjer že leta opozarjajo na vgrajene pristranskosti tehnologij za prepoznavanje obrazov, so odločitve korporacij pozdravili. »Še vedno pa je pred nami dolga pot, preden se prekomeren policijski nadzor temnopoltih skupnosti ne konča za vedno,« so dodali in pozvali zakonodajalce, naj nemudoma ustavijo policijsko uporabo tovrstnih tehnologij. Po drugi strani nekatere deležnike skrbi, da bo močna nacionalna zakonodaja spodnesla določene že ustrezne zvezne in lokalne ureditve - na primer, v mestu San Francisco so rabo tehnologij za prepoznavanje obrazov že prepovedali javnim agencijam in policiji.

Dokazano več zmot pri temnopoltih kot pri svetlopoltih obrazih

Tehnologije za prepoznavanje obrazov slonijo na algoritmih umetne inteligence, ki hitro prepoznajo in primerjajo fotografije - na primer fotografijo, ki jo je policist posnel na prenosnem telefonu s fotografijo iz policijske baze. Prvi, ki so opozorili na rasne pristranskosti v bazah podatkov, ki jih tovrstne tehnologije uporabljajo, so bili člani aktivistične skupine Algorithmic Justice League. Lansko leto je Massachusetts Institute of Technology v študiji dokazal, da tehnologije niso stoodstotno zanesljive, ko prepoznavajo obraze temnopoltih posameznikov. Podobno je pokazala tudi študija ameriškega Nacionalnega inštituta za standarde in tehnologijo, ki je potrdila, da so algoritmi veliko manj natančni, ko prepoznavajo afroameriške in azijske obraze v primerjavi z svetlopoltimi obrazi.