Tehnološki milijarder Elon Musk, ki že dolgo velja za glasnega kritika spletne enciklopedije wikipedia, je odprl novo fronto v vojni proti domnevni spletni pristranskosti. Njegovo podjetje za umetno inteligenco xAI je javnosti predstavilo grokipedio, platformo, ki naj bi služila kot neposredna alternativa uveljavljeni enciklopediji, ki jo urejajo prostovoljci. Toda projekt, ki ga je Musk na svoji platformi X nemudoma označil za »boljšega kot wikipedia«, čeprav je uradno šele v različici 0.1, se je že v prvih urah delovanja znašel pod drobnogledom. Kritiki in uporabniki so namreč hitro opazili temeljno ironijo: grokipedia, zasnovana kot odgovor na wikipedio, si očitno sposoja vsebino neposredno od vira, ki ga želi preseči.
Del širšega prizadevanja
Tehnološki portal The Verge je med prvimi izpostavil, da je članek o prenosnem računalniku macbook air v grokipedii vseboval opombo, da je bil »prirejen« iz wikipedie. To odkritje postavlja pod vprašaj trditve o novi, neodvisni zbirki znanja in odpira vprašanja o metodologiji, ki stoji za Muskovim iskanjem resnice.
Musk, čigar politična stališča se vse bolj nagibajo k desnici, že leta trdi, da je wikipedia nepopravljivo okužena z »levo« politično usmeritvijo in da ne služi več kot objektiven vir informacij. Njegov pohod proti uveljavljenim virom znanja je del širšega prizadevanja njegovega podjetja xAI.
Ime nove enciklopedije izhaja neposredno iz klepetalnega robota xAI, imenovanega grok. Tega je Musk že ob napovedi predstavil kot orodje umetne inteligence, ki bo, v nasprotju s konkurenti, iskalo »absolutno resnico« in se izogibalo politično korektnim odgovorom.
Vendar se je tudi grok v preteklih mesecih soočal z lastnimi polemikami. Po zagonu je robot ustvaril več kontroverznih, tudi antisemitskih izjav. Podjetje xAI je takrat odgovornost pripisalo »napaki v programiranju« in zatrdilo, da so težavo odpravili.
Avtomatizirano preverjanje?
Nova grokipedia nad svojimi članki prikazuje obvestilo, da je vsebino »preveril grok«. Ta trditev o avtomatiziranem preverjanju dejstev ostaja nejasna. Podjetje xAI ni javno pojasnilo, kako ta proces deluje, katere vire uporablja grok za preverjanje ali kako preprečuje, da bi umetna inteligenca ponavljala lastne napake.
Strokovnjaki za umetno inteligenco že dolgo opozarjajo na fenomen, znan kot halucinacije – težnjo velikih jezikovnih modelov, da si izmišljujejo informacije, ki zvenijo verodostojno, vendar so popolnoma napačne. Če grok preverja dejstva, ki jih je morda sam ustvaril ali priredil, to odpira možnost zaprtega kroga dezinformacij.
Fundacija Wikimedia, neprofitna organizacija, ki upravlja wikipedio, se je na zagon grokipedie odzvala zadržano. »Še vedno poskušamo razumeti, kako grokipedia deluje,« je povedal predstavnik fundacije v izjavi za The Verge.
Pri Wikimedii so ob tem opozorili na širši trend v industriji umetne inteligence. »Opažamo, da se podjetja za umetno inteligenco močno zanašajo na vsebine, ki so jih ustvarili ljudje, kot so na primer članki na wikipedii,« so dodali.