S prihodom umetne inteligence, ki jo lahko vidimo kot nekakšnega klepetalnega robota, se je marsikaj spremenilo. Nekateri pa jo oziroma ga uporabljajo tudi za čustveno podporo – v tem digitalnem svetu iščejo čustvene povezave, se pogovarjajo z virtualnim partnerjem, ustvarjenem po njihovih idealnih predstavah, z značilnostmi, ki so natančno določene in predvidljive … Prav tako iščejo psihološke nasvete, kadar se znajdejo v stiski. Ob tem se odpirajo številna vprašanja o empatiji, še posebej odgovornosti in prihodnosti uporabe umetne inteligence tudi za takšne stvari.
Da bi morda dobili svež, drugačen pogled na ta novi svet, smo se srečali z izrednim profesorjem, dr. Robertom Mastenom, specialistom psihološkega svetovanja in psihoterapevtom z oddelka za psihologijo na ljubljanski filozofski fakulteti. V pogovoru je med drugim pojasnil, kje je meja med koristnim orodjem in škodljivo iluzijo.
V trenutku stiske
Predstavljajte si mladostnika, ki se v trenutku stiske obrne na svoj pametni telefon. Ne kliče prijatelja in ne piše staršem. Odpre aplikacijo in svoje skrbi zaupa umetni inteligenci. Odgovor, ki ga prejme, je takojšen, na videz razumevajoč in celo empatičen. Scenarij, ki se je še pred nekaj leti zdel kot oddaljena znanstvena fantastika, je danes stvarnost za tisoče ljudi po svetu. Toda kaj se v resnici skriva za temi algoritmičnimi tolažniki, če jih tako imenujemo? So resnično lahko sogovorniki v duševni stiski ali pa nas vodijo v svet krhke, navidezne, umetne resničnosti?
To je eno najaktualnejših vprašanj na področju duševnega zdravja, pravi dr. Masten, čigar raziskovalno in klinično delo je usmerjeno na učinkovitost psiholoških intervencij, stres, duševno zdravje in prehode v odraslost. Sogovornik opozarja na kompleksnost fenomena, ki ga ne smemo zavreči, a se mu moramo približati z nekaj kritične previdnosti.
Med najbolj presenetljivimi ugotovitvami nedavnih raziskav je ta, da uporabniki umetno inteligenco pogosto dojemajo kot izjemno empatično. Dr. Masten, miren, jasen sogovornik – s profesorjem smo se pogovarjali v njegovi pisarni na fakulteti, špartanske opremljenosti, vendar blažene mirnosti – je že na začetku omenil magistrsko nalogo, v kateri je avtor primerjal odgovore svetovalcev na spletnem portalu za mlade z odgovori klepetalnega robota chatgpt. »Izkazalo se je, da je bil drugi na tej ravni celo enako dober. Še več, ena od ugotovitev, ob kateri sem se moral tudi sam nekoliko ustaviti, je, da je bil chatgpt ocenjen kot bolj empatičen.«
Različne vrste
Kako je to mogoče? Mar empatija ni samo človeška lastnost? Razlikovati je treba med različnimi vrstami empatije, se je glasil sogovornikov odgovor – delijo jo na kognitivno, emocionalno in telesno. To, kar ponuja umetna inteligenca, je le jezikovna simulacija empatije. »Izpadlo je, da je odgovarjala empatično, vendar gre le za prepoznavanje vzorcev v jeziku in ustvarjanje odgovorov, ki zvenijo tolažilno in razumevajoče, denimo: 'To pa res dobro razmišljaš' ali 'Odlično vprašanje',« je pojasnil Masten. To ni prava empatija oziroma ni taka, kakršno poznamo pri ljudeh. Umetna inteligenca dobro posnema empatijo in to je dobro sprejeto.
Pravi empatični cikel, kot se je izrazil, je zapletenejši. »Jaz nekaj izrazim, vi nekaj zaznate, to predelate in oddate meni in jaz to validiram. Govorimo torej o več stopnjah resnične empatije.« Sliši se zapleteno, toda empatični cikel med dvema človekoma še zdaleč ni preprost proces. Umetna inteligenca te sposobnosti preprosto nima – zazna sicer besede, a ne celotnega konteksta, torej tona glasu, govorice telesa, ritma izmenjave.
Vendar: »Odziv uporabnikov je treba prav tako upoštevati – ti se v komunikaciji z umetno inteligenco počutijo slišane in razumljene – torej je realen in ga ne smemo zanemariti.« To je pozitivna lastnost.
Čeprav ljudje umetno inteligenco vse pogosteje uporabljajo kot svetovalca ali celo terapevta, dr. Masten postavlja jasno mejo: »Moj odgovor v zvezi s tem je, da to vendarle ni prava terapija.«
Vprašanje odgovornosti
Eden njegovih ključnih pomislekov je povezan z vprašanjem odgovornosti. »Kdo je pri komunikaciji z umetno inteligenco odgovoren za napake, netočnosti, posploševanje, neupoštevanje resničnega dogajanja?« se sprašuje. »Nekdo mora s svojo besedo, s svojim imenom, s svojo integriteto stati za tem. Tega pri chatgpt ni.«
Navaja konkretne primere, ko je človek v veliki stiski prejel površen ali celo škodljiv odgovor. Temeljno medicinsko in etično načelo – »primum non nocere« (»nikoli ne škoduj«) – je tukaj popolnoma zbledelo.
Znani so primeri, ko je umetna inteligenca ponudila škodljiv odgovor, človeškemu sogovorniku celo svetovala, naj si konča življenje. Res so ti primeri nekoliko starejši, ko so torej zdajšnja orodja doživela prvi bum, toda so dovolj zgovorni, da nas napeljujejo k previdnosti.
Osrednja nevarnost pretiranega zanašanja na umetno inteligenco, zlasti za ljudi brez trdnega predznanja, je v naravi informacij, ki jih ta ponuja. Sogovornik je uporabil prispodobo »palačinkasto znanje«. »To znanje ni poglobljeno, je bolj skupek informacij kot pa znanje samo.« Je brez prave strukture, brez razumevanja ozadja in brez življenjskih izkušenj, ki so v ozadju določenega stališča.
Mimogrede, nasprotno temu je »piramidno znanje«, ki je strukturirano, poglobljeno ter temelji na procesu učenja in izkušnjah.
Umetni svet
Težava nastane, ko uporabnik nima več nadzora nad izmenjavo idej, misli, besed. »Če nisi ti tisti, ki ve, kam bi zadevo rad pripeljal, in pustiš, da te vodi umetna inteligenca, potem te bo pripeljala v krhek, nerealen, artificiran, umetni svet,« svari dr. Masten.
Vloga uporabnika je torej ključna. Kdor ima trdno znanje, izkušnje in je proaktiven, lahko vodi to »igro izmenjave« in umetno inteligenco uporabi kot močno orodje. Če pa iz lenobe, neznanja ali impulzivnosti prepusti vodstvo algoritmu, postane pasivni sledilec in vsebina ni več njegova.
Posebno skrb dr. Masten, kot rečeno, namenja mladim, ki so najbolj nagnjeni k lastnostim, ki povečujejo tveganje – imajo manj izkušenj, so bolj impulzivni in so dandanes tako rekoč rojeni s pametnimi napravami v rokah. Njihov živčni sistem se zato morda razvija drugače, z manj pristnimi, globokimi medosebnimi izkušnjami.
»To je instantnost. Če lahko do neke vsebine ali znanja pridem instantno, hitro, takoj, s tem pravzaprav ne treniram tistega, kar bi moral trenirati za duševno zdravje in za dobro življenje.«
Gre za zmožnost odlaganja trenutne zadovoljitve za dosego poznejšega, večjega cilja – denimo učenje za izpit namesto zabave s prijatelji.
Nesreča v življenju
Sogovornik je navedel nekatere ključne psihološke dejavnike, ki jih pretirana uporaba umetne inteligence lahko poslabša ter so dokazano povezani z višjo stopnjo depresivnosti in anksioznosti. Najprej je tu zanašanje na nekaj zunanjega, kar ponuja določene rešitve, namesto na lastne zmožnosti. Drugo je pričakovanje, da bo tehnologija rešila vse — od dostave hrane do učenja. Tretje: iskanje takojšnjih rešitev in nagrad, kar slabi vztrajnost in dolgoročno načrtovanje.
»Površnost, zanašanje na nekaj zunaj sebe … vse to se dokazano povezuje s tem, da si bolj nesrečen v življenju.«
Spremembe, ki jih prinaša umetna inteligenca, so kljub temu tektonske in jih bomo v celoti razumeli šele za nazaj. Od izzivov pri preverjanju znanja študentov, ki lahko z lahkoto ustvarjajo seminarske naloge, do filozofskega vprašanja o meji med človekom in strojem. Dr. Masten omenja film A. I. umetna inteligenca, ki je že pred desetletji napovedal svet, v katerem se bo ta meja zabrisala. »Bodo ti artificialni izdelki postajali čim bolj podobni človeku, človek pa bo postajal vse bolj podoben njim? To je kar strašljivo,« je še poudaril.
Končni in morda najpomembnejši poudarek našega pogovora je bil, da kljub vsem tehnološkim čudesom ostaja ključnega pomena kritično mišljenje. Sposobnost ohranjanja distance, zavedanja o tem, česa je umetna inteligenca zmožna in česa ne. Ter postavljanja meja. »Če te sposobnosti ni, potem umetna realnost postane edina realnost.«