Nekoč sloviti spletni portal za tehnološke novice CNET se je nedavno znašel v nerodnem položaju, ko se je ta mesec razvedelo, da si pri ustvarjanju člankov pomagajo s programom za avtomatizirano pisanje besedil oziroma umetno inteligenco. Tako ustvarjene članke so podpisovali »CNET Money Staff« oziroma redakcija finančnega portala CNET, včasih tudi s polnim imenom resničnih človeških novinarjev. Portal je od razkritja začasno prekinil uporabo umetne inteligence pri pisanju člankov, revizija besedil pa je tudi pokazala, da je več kot polovica prispevkov vsebovala napačne podatke. Slog člankov je bil medtem dovolj prepričljiv, da niti novinarji portala niso vselej vedeli, kateri članki so nastali avtomatizirano in katere so spisali ljudje.

Odkar je podjetje OpenAI javnosti omogočilo uporabo svojih storitev z umetno inteligenco Dall-E2 in ChatGPT, je to področje sodobnih tehnologij pritegnilo izjemno zanimanje javnosti in postalo tarča tudi številnih kritik. Ponudnikov podobnih storitev je na trgu mnogo več in svoje storitve ponujajo že nekaj časa. Škandal v primeru portala CNET pravzaprav niti ni v uporabi umetne inteligence za pisanje člankov. Da to preizkušajo, je portal sicer že pred časom najavil. Bi pa lahko bil bolj transparenten o tem, kateri članki so dejansko spisani z njo. Nekaj podobnega že počne tudi priznana ameriška novinarska agencija AP. Od leta 2014 umetno inteligenco uporablja za pisanje suhoparnih novic o poslovnih rezultatih podjetij, od leta 2016 tudi za pisanje preprostih poročil športnih tekmovanj. Ob člankih izpostavi, da so bili napisani avtomatizirano. Gre za besedila, ki ne zahtevajo veliko ustvarjalnosti. So tudi primer pametnega izkoriščanja sredstev, saj se človeški novinarji lahko ukvarjajo z delom, ki ga človek opravlja raje in bolje. Denimo z iskanjem podatkov in zgodb, ki še niso javno dostopni, a je v interesu javnosti, da to postanejo.

Sme pisati znanstvene članke, ni pa avtor

Podobno stališče glede uporabe umetne inteligence pri pisanju znanstvenih člankov je pred kratkim zavzela največja znanstvena založniška hiša Springer Nature. Pravijo, da nimajo nobenih težav, če si znanstveniki pri pisanju znanstvenih člankov pomagajo s programi za avtomatizirano pisanje. Takšna pomoč ima lahko veliko oblik. Med drugim lahko močno koristi avtorjem, ki niso tekoči v angleščini ali pa imajo že sicer težave s pisanjem. V teh scenarijih je težko kritizirati uporabo umetne inteligence, saj znanstvenikom, ki so že opravili pravo znanstveno delo z eksperimenti in analizami, olajša zapis svojih dognanj na jasen in razločen način. Predstavljajte si podčrtavanje napačno zapisanih besed ali ponesrečenih stavčnih struktur v wordu, a v večjem obsegu. So pa tudi pri Springer Nature izpostavili pomembnost transparentnosti, kaj je k znanstveni objavi prispevala umetna inteligenca. Konec koncev gre za vprašanje metode znanstvenega dela, ki jo je že sicer treba navesti. Hkrati vztrajajo, da umetni inteligenci ne nameravajo priznati avtorstva objav. Pravijo, da je za avtorstvo potrebno mnogo več od tega, da si nekaj spisal, in se veliko bolj tiče prevzemanja odgovornosti in vsega ostalega, kar sodi zraven. Odziv sledi pojavu manjšega števila znanstvenih člankov, pri katerih se med avtorji navaja ChatGPT.

Če odmislimo vprašanje transparentnosti, pri CNET-ovi zgodbi sama uporaba avtomatiziranega pisanja torej niti ni tako hud problem. Hujše je, da je večina člankov vsebovala napačne podatke in tega nihče dolgo ni opazil. Napake sicer počnejo tudi pravi novinarji in pričakovati gre, da se bo točnost zapisov umetne inteligence s časom in z boljšimi načini črpanja podatkov iz virov izboljšala. Je pa treba opozoriti, da se trenutne aplikacije umetne inteligence pogosto obnašajo kot patološki lažnivci. V upanju, da bi si prihranili nekaj dela s pisanjem pričujočega članka, smo prosili ChatGPT, naj nam ga kar sam napiše v Slovenščini. To mu je po svoje uspelo. Do znaka natančno in v presenetljivo pravilni in berljivi slovenščini. Problem je bil le, da so bili čisto vsi podatki v članku povsem napačni. Točnega članka niti nismo pričakovali. ChatGPT uporabnika pred uporabo jasno opozori, da ni na tekočem z dogodki po letu 2021. Škandal, ki je izbruhnil v zadnjem mescu, je programu razumljivo onkraj dosega. Zaskrbljujoče pa je, da se program navzlic nepoznavanju teme ni odločil molčati, temveč je luknje v svojem znanju s polno samozavestjo zapolnil s čistimi izmišljijami. Važno mu je bilo le, da je zvenelo smiselno iz lingvističnega vidika. Uporabnik, ki o neki temi ni že izhodiščno poučen, preprosto ne more vedeti, kdaj si ChatGPT nekaj izmišlja in kdaj ne. Sumimo, da se je zelo podobno dogajalo tudi s programom, ki ga je uporabljal CNET.

Smetenje spletnih iskanj

Zadnji vidik CNET-ovega škandala, ki ga nikakor ne gre prezreti, pa se tiče resničnega namena člankov, ki jih je pisala umetna inteligenca. Vodstvo portala s slednjimi ni želelo informirati javnosti, temveč so bili zgolj gonilo za nabiranje klikov na promocijske vsebine za finančne storitve, ki so bile povezane s članki. Šlo je torej za tovarno klikov za ustvarjanje dobičkov z oglasi, glavna naloga umetne inteligence pa je bila vstavljanje najboljših ključnih besed, ki so spodbudile gooogle in druge spletne iskalnike k prikazovanju omenjenih člankov visoko med rezultati naših spletnih iskanj.

Podobne vsebine in tudi celotne spletne strani, ki dajejo videz novic, a so v resnici prikrito oglaševanje ali pa so vsebinsko povsem prazne in le lovijo klike, so že nekaj časa močno prisotne na spletu. So naslednji korak v razvoju spama oziroma nezaželene pošte. Le da namesto poštnega nabiralnika smetijo naša spletna iskanja ali časovnice družbenih omrežij. Z vzponom umetne inteligence, ki s kirurško natančnostjo uporablja iskalnim algoritmom všečne ključne besede ter zna tudi vslovenščini v manj kot minuti spisati članke o čemerkoli, četudi s povsem lažnimi podatki, se bodo smeti v naših iskanjih samo še namnožile. Koristi od tega pa bi znali imeti tudi spletni prevaranti in drugi zlonamerni akterji, ki bi ista orodja lahko uporabili za štancanje prevarantskih spletnih strani.