Ljudje se s pogovornimi boti, kot je ChatGPT, pogovarjajo o marsičem. Podobno kot nekoč z googlom, le da vprašanja za ChatGPT o uporabnikih pogosto razkrivajo še več. Da takšno početje ni najbolj pametno, svari celo Sam Altman, šef OpenAI. Opozarja, da podjetja, ki izdelujejo pogovorne bote, še niso rešila vprašanja zasebnosti.
V oddaji »This Past Weekend with Theo Von« je Altman izpostavil, da za razliko od zdravnikov ali odvetnikov boti ne ponujajo zaupnosti. Kljub temu uporabniki bote sprašujejo po pravnih nasvetih in jih celo uporabljajo kot terapevte.
»Ljudje s ChatGPT govorijo o najbolj osebnih stvareh v svojem življenju,« je dejal Altman. »Predvsem mladi ga uporabljajo kot terapevta, življenjskega trenerja, sprašujejo o težavah v odnosih in kaj storiti.«
Ob tem je dodal: »Če se o teh problemih pogovarjate s terapevtom, odvetnikom ali zdravnikom, obstaja pravni privilegij zaupnosti pogovorov … Tega še nismo rešili, ko se pogovarjate s ChatGPT.«
Strah pred tožbami zaradi kraje vsebin
Brez zaščite zaupnosti bi lahko vsi pogovori z AI, vključno s »terapevtskimi«, postali dostopni ali celo dokazno gradivo na sodišču. Gre za resno varnostno luknjo, ki se je mora zavedati vsak uporabnik botov. Hkrati pa je treba izpostaviti, da Altman pri teh izjavah ne igra povsem poštene igre, temveč poskuša strah uporabnikov izkoristiti sebi v prid.
OpenAI je trenutno dolžan hraniti vse zapise vseh pogovorov uporabnikov ChatGPT – tudi tiste, ki so jih uporabniki izbrisali. Razlog za to so očitki, da je podjetje za urjenje svoje umetne inteligence kradlo vsebine ustvarjalcem. To naj bi bilo razvidno iz odgovorov bota, ki zna nekatere članke in celo poglavja knjig izpisati v celoti. Prepoved izbrisa pogovorov trenutno obstaja zato, ker je časnik New York Times sprožil tožbo zoper OpenAI zaradi domnevne kraje vsebin, Altman pa skuša ukiniti shranjevanje vsebin, saj bi tako časopis težje dokazal svoje očitke.