Delničarji bodo na današnji skupščini Amazona, ki se bo pričela ob 18.00 uri po našem času, o tehnologiji za prepoznavanje obrazov glasovali dvakrat. Najprej o vprašanju, ali naj Amazon preneha s prodajanjem svojega Rekognition sistema za prepoznavanje obrazov vladnim agencijam in o vprašanju, ali naj Amazon naroči neodvisno študijo o tem, če je tehnologija prepoznavanja obrazov v nasprotju s pravicami državljanov. Glasovi sicer niso zavezujoči, kar pomeni, da odgovornim v Amazonu izida današnjega glasovanja pri nadaljnjem poslovanju ni treba upoštevati.

O tem, kam želi Amazon svoje poslovanje usmeriti, ni prevelikih dilem. Zgovorno je dejstvo, da so odgovorni kljub nezavezujoči naravi glasovanja le-to kljub temu želeli blokirati. Ustavila jih je Ameriška Komisija za vrednostne papirje in borzo s svarilom, da nimajo pravice, da bi to storili. Kasneje so delničarje pozvali k glasovanju proti predlogom. Kot pravijo v Amazonu, do sedaj niso prejeli nobenega poročilo, ki bi pričal o uporabi sistema v škodljive namene. »[Rekognition] je močno orodje … za organe pregona in vladne agencije, da ujamejo storilce kaznivih dejanj, preprečijo kriminal in najdejo pogrešane ljudi,« so zapisali v najavi današnjega srečanja. »Novih tehnologij ne bi smeli prepovedati ali obsoditi le zaradi potenciala za zlouporabo,« so dodali.

Prodaji se upirajo tudi Amazonovi delavci

Rekognition, o katerem je govora, je spletno orodje, ki omogoča uporabnikom, da povežejo obraze z že skeniranimi profili v bazi, ki vključuje skoraj dvajset milijonov oseb. Orodje lahko uporabljamo na fotografijah in videjih, med funkcijami pa je tudi zaznavanje tako imenovanih »nevarnih vsebin«, ki vključujejo goloto, določanje, ali je subjekt na fotografiji moškega ali ženskega spola, določanje počutja osebe ter zaznavanje besedila na fotografiji in transkripcija tega besedila za prihodnjo analizo, kot poroča BBC. Nasprotujoče prodaji tovrstne tehnologije vladnim agencijam – predvsem policiji – moti predvsem to, da se Amazon ne zavezuje k preprečevanju in odpravljanju tveganj za zlouporabo in zmote svojega orodja. Prodaji se je do sedaj uprlo že več neodvisnih skupin v boju za civilne pravice, pa tudi na stotine delavcev Amazona – zapis enega izmed njih lahko preberete na tej povezavi.

Kot je pojasnila Mary Beth Gallagher iz Tridržavne koalicije za odgovorne naložbe (Tri-State Coalition for Responsible Investment), nesmotrna uporaba tehnologije za prepoznavanje obrazov zlahka pripelje do masovnega nadzora, »četudi bi bila tehnologija 100-odstotno natančna, kar seveda vemo, da ni. Ne želimo, da policija uporablja tovrstno tehnologijo zaradi vpliva, ki ga bo to imelo na družbo – lahko omeji pripravljenost ljudi do zadrževanja na javnih mestih, saj bodo mislili, da jim lahko sledijo,« je pojasnila.

Amazon sicer priporoča, da policija orodje uporablja le, kadar jim to pokaže vsaj 99-odstotno stopnjo zaupanja v podano ujemanje, obenem narekuje transparentno uporabo orodja, kar pa so zaenkrat le priporočila brez zakonskih vzvodov. Amazon prav tako ni izdal, koliko javnih služb je sistem že uporabilo. Zaenkrat je znano, da sta sistem preizkusili policijski enoti v Orlandu, Floridi in Hillsboru v Oregonu. Kot je poročal Washington Post so v Oregonu sistem uporabljali brez, da bi vzpostavili mejo minimalne stopnje zaupanja, kar lahko pripelje do napak pri povezovanju obrazov z osebami.

Pristranski algoritmi

Orodje Rekognition je za različne vladne agencije privlačno predvsem, ker je cenovno ugodnejše od konkurenčnih tehnologij za prepoznavanje obrazov. Je pa študija, ki so jo januarja objavili raziskovalci na Inštitutu za tehnologijo v Massachusettsu in raziskovalci na Univerzi v Torontu, pokazala, da so Amazonovi algoritmi spolno in rasno bolj pristranski od štirih konkurenčnih izdelkov, ki so jih takrat preverjali, poroča BBC.

V študiji so zapisali, da je imel Rekognition nič-odstotno stopnjo napake pri prepoznavanju svetlopoltih moških za svetlopolte moške, medtem ko je bila stopnja napake pri prepoznavanju temnopoltih moških kar 31,4-odstotna. Amazon je ugotovitvam oporekal s pojasnilom, da so raziskovalci uporabili »zastarelo verzijo« njihovega orodja, medtem ko njihovi lastni pregledi niso zaznali »nobene razlike« pri razvrščanju med različnimi etničnimi skupinami.