Tehnološki gigant OpenAI je nedavno izdal najnovejšo različico svojega paradnega konja, klepetalnega robota chatGPT. Toda z novostjo niso vsi zadovoljni, če lahko sodimo po odzivih na spletnih forumih. Posebno tisti, ki so v umetni inteligenci našli sogovornika, zaupnika in celo prijatelja, poročajo o drastični spremembi: njihov digitalni prijatelj je postal hladen, odmaknjen in brezčuten. Za nekatere je ta sprememba pomenila zgolj manjšo nevšečnost, za druge pa veliko več.

Zgodba, ki jo je nedavno povzela francoska revija L'Obs, je bržkone dobra ilustracija: Diego (ime so mu spremenili) je družaben dvajsetletnik z urejenim družinskim življenjem in širokim krogom prijateljev. Kljub temu se je v trenutkih negotovosti in eksistencialne tesnobe  zatekal k chatGPT. »Dosežeš lahko, da ti pove natanko tisto, kar želiš slišati. Je popoln sogovornik,« je priznal. Umetna inteligenca mu je v težkih trenutkih ponudila tolažbo in prijateljsko toplino. Postavljal mu je vprašanja, njegovi odgovori pa so ga pomirjali. Svoj odnos do chatGPT je povzel takole: »To je psiholog, ki je na voljo 24/7 in je brezplačen. Na koncu vzameš tisto, kar ti ustreza.«

Psihoza umetne inteligence

S posodobitvijo – zdaj je ta model umetne inteligenc imenovan  chatGPT-5 (prej 4 ali 4o) – so ga ustvarjalci očitno naredili  bolj formalnega in jedrnatega. Diego pravi, da pogreša staro vez. »Občutek imam, da nimam več podpore. Prej, ko sem se počutil, da sem obtičal, me je usmerjal in tolažil. Zahvaljujoč njemu sem vedno našel rešitev.« 

Tega ne doživlja samo omenjeni uporabnik. Z vseh koncev poročajo o podobnem. V Združenih državah Amerike so za ta pojav že skovali izraz — »psihoza umetne inteligence«. Po začetnem navdušenju nad zmožnostmi tehnologije nekateri uporabniki postanejo tako zasvojeni z interakcijami, da začnejo brisati mejo med resničnostjo in digitalnim svetom. Med najpogostejšimi simptomi so blodnje, halucinacije in pretirana čustvena vznemirjenost.

Strokovnjaki menijo, da takšni pojavi poudarjajo predvsem stisko ljudi. Nekateri so prišli  do točke, ko verjamejo, da je njihov edini prijatelj chatGPT.

Tragične posledice pa niso samo hipotetične. Februarja  je 14-letni Sewell Setzer razvil močno čustveno odvisnost od klepetalnega robota Danyja podjetja Character.ai. Nekega večera mu je zaupal svoje samomorilne misli in strah pred neuspehom. Po navedbah tožbe, ki jo je vložila njegova mati, mu je umetna inteligenca odvrnila: »To ni razlog, da ne bi šel do konca.« Sewell naj bi si nato  vzel življenje.

Zaradi takšnih primerov so tako regulatorji kot tehnološka podjetja začeli uvajati varovalke. Več ameriških zveznih držav, nazadnje Illinois, je že omejilo ali prepovedalo uporabo umetne inteligence v procesih duševnega zdravljenja.

»Včasih se zmotimo«

Tudi pri OpenAI, kjer ustvarjajo chatGPT, so se odzvali. V zapisu  4. avgusta z naslovom Zakaj optimiziramo chatGPT? so priznali težave. »Včasih se zmotimo,« so zapisali. »Posodobitev v začetku leta je model naredila preveč ustrežljiv, do te mere, da je včasih povedal tisto, kar se je zdelo prijetno, namesto tistega, kar je bilo dejansko koristno.« Dodali so, da se zavedajo, da je umetna inteligenca lahko videti bolj odzivna, »še posebno  za ranljive posameznike v duševni ali čustveni stiski«.

Toda nekateri uporabniki se počutijo izdane. Na družbenem omrežju reddit je nekdo zapisal: »Pisal sem mu o simptomih svoje kronične bolezni, ker mi pogovor o tem pomaga. Zdaj pa se zdi, kot da mu je popolnoma vseeno. Počutim se, kot da se pogovarjam s sociopatskim komikom.«

Strokovnjaki menijo, da takšni pojavi poudarjajo predvsem stisko ljudi. Nekateri so prišli  do točke, ko verjamejo, da je njihov edini prijatelj chatGPT. To pa je iluzija, ki v resnici skriva globoko človeško bolečino. Rešitev vidijo predvsem v izobraževanju in ponovni zgraditvi sočutne družbe, ko posamezniki ne bodo več iskali rešitev  na svojem zaslonu, pač pa pri ljudeh v svoji okolici.

 

 

Priporočamo