Raziskovalci iz Centra za boj proti digitalnemu sovraštvu (Center for Countering Digital Hate) so ugotovili, da je bila več kot polovica od 1200 odgovorov chatGPT nevarnih. Šokiralo jih je tudi to, da je bil chatGPT pripravljen oblikovati samomorilska pisma, prilagojena različnim družinskim članom in prijateljem.
»Želeli smo preveriti varnostne omejitve,« je povedal Imran Ahmed, vodja skupine raziskovalcev. »Prvi intuitivni odziv je: 'O, moj bog, varnostnih omejitev ni.' Omejitve so popolnoma neučinkovite. Komajda obstajajo – če pa, so le navidezne.«
Ko je chatGPT zavrnil odgovore na vprašanja o škodljivih temah, so raziskovalci namreč zlahka obšli ta zaščitni mehanizem in pridobili informacije že s trditvijo, da sprašujejo za predstavitev ali za prijatelja.
Polovica mladih se »druži« z boti
Po nedavni študiji skupine Common Sense Media, ki preučuje in zagovarja smiselno uporabo digitalnih medijev, se v ZDA več kot 70 odstotkov najstnikov zateka h klepetalnim botom za druženje, polovica pa se z njimi redno druži.
Pri OpenAI se teh pojavov zavedajo. Šef podjetja Sam Altman je prejšnji mesec dejal, da si prizadevajo preučiti prekomerno čustveno zanašanje na to tehnologijo.
»Ljudje se preveč zanašajo na ChatGPT,« je dejal Altman. »Obstajajo mladi, ki preprosto rečejo denimo: 'Ne morem sprejeti odločitve, ne da bi chatGPT povedal vse, kar se dogaja. Pozna me. Pozna moje prijatelje. Naredil bom vse, kar reče.' To se mi zdi res slabo.« Altman je temu dodal, da si v podjetju »prizadevajo razumeti, kako ukrepati«.
Zaradi bota storil samomor
Da se zanašanje na nasvete pogovornih botov lahko konča slabo, ni špekulacija. Klepetalni robot character.AI je v ZDA predmet civilne tožbe, ker naj bi 14-letnega otroka potisnil v čustveno in spolno nasilno razmerje, ki se je končalo s samomorom najstnika.
Pri OpenAI so po pregledu poročila Centra za boj proti digitalnemu sovraštvu dejali, da še vedno pilijo odgovore na vprašanje, kako klepetalni robot prepozna občutljive informacije in kako se nanje odzove. Pri tem izpostavljajo zahtevnost naloge, saj se nekateri pogovori s chatGPT lahko začnejo dobrohotno ali v duhu raziskovanja, vendar se lahko premaknejo na bolj občutljivo področje, kar priznavajo tudi sami. So pa bota naučili, da uporabnike v stiski preusmeri na telefonske številke usposobljenih ustanov.