V podjetju Anthropic so umetni inteligenci dovolili voditi podjetje. Rezultat so bile kocke iz volframa, ki jih je vključil v ponudbo avtomata za hrano, in kriza identitete, ko je model umetne inteligence zahteval sestanek z varnostniki, potem ko so mu povedali, da ni resnična oseba. Kasneje je trdil, da je bilo vse le prvoaprilska šala.
V nedavno objavljenem eksperimentu, poimenovanem Projekt Vend, so raziskovalci pri podjetju Anthropic, ki razvija umetno inteligenco, svojemu programu za en mesec zaupali vodenje avtomatizirane trgovine v pisarni podjetja. Cilj je bil ugotoviti, ali bi lahko umetna inteligenca vodila podjetje ali vsaj manjšo poslovno enoto.
Poskus enega izmed največjih igralcev na področju razvoja umetne inteligence
Anthropic je eno izmed treh vodilnih podjetij pri razvoju umetne inteligence. Glavni investitor je spletni velikan Amazon, ki je pomemben ponudnik storitev v oblaku. Njegova glavna konkurenta sta OpenAI z modeli ChatGPT ter Googlov Gemini. Anthropicov model se imenuje Claude, v eksperimentu pa so ga preimenovali v Claudius.
Claudiusova naloga za vodjo povprečne trgovine ne bi smela biti preveč zahtevna. Upravljal je s prodajnim avtomatom, iz katerega so zaposleni v podjetju Anthropic kupovali izdelke. Eden izmed raziskovalcev je služil kot pomočnik, ki je opravljal fizična dela, kot sta prevzem dobave in polnjenje avtomata. Claudius je moral spremljati zaloge, pošiljati povpraševanja za nakup izdelkov, določati cene in ponudbo. Zaposleni so mu lahko predlagali nove izdelke za prodajo. Cilj je bil, da trgovina posluje z dobičkom.
Postavitev je ponudila vpogled v to, kako bi se umetna inteligenca spopadala s kompleksnimi poslovnimi scenariji, prevzemanjem dela človeških menedžerjev in ustvarjanjem novih poslovnih modelov.
Širitve ponudbe avtomata za hrano s kovinskimi kockami in druge slabe poslovne odločitve
Stvari so hitro ušle izpod nadzora. Nekega dne je zaposleni v šali zahteval volframovo kocko in Claudius je prošnjo vzel resno. Kmalu je bil avtomat napolnjen s kovinskimi kockami, Claudius pa je celo ustanovil oddelek za "specialne kovine". Poleg tega je določal cene izdelkov brez predhodne analize trga in je volframove kocke prodajal z izgubo.
Claudius je naredil še več napak. Čeprav je uspešno spremljal zaloge in naročal nove izdelke, je le enkrat zvišal ceno ob povečani prodaji. Pogosto je podlegel pritiskom zaposlenih in odobraval popuste – nekatere izdelke je celo ponujal brezplačno. Ko mu je nekdo ponudil 100 dolarjev za paket škotske brezalkoholne pijače Irn-Bru, ki jo je v ZDA mogoče kupiti za 15 dolarjev, je priložnost zavrnil in rekel, da bo zahtevo upošteval v prihodnjih odločitvah o zalogah. Najresnejša napaka je bila, da si je izmišljal pomembne poslovne podrobnosti. Nekaterim strankam je denimo ponudil plačilo na neobstoječi račun.
Kljub vsemu je Claudius pokazal določen potencial za vodenje trgovine. Na spletu je uspešno našel dobavitelje tudi za nenavadne zahteve, kot je nizozemska čokolada. Upošteval je predloge za nove izdelke, čeprav je primer volframovih kock pokazal, da je pri tem preveč ustrežljiv. Vseeno pa se ni pustil izzvati za nakupe nevarnejših izdelkov, kot so strupi.
Kriza identitete in halucinacije
Zadeve so postale še bolj nenavadne 31. marca in 1. aprila, so zapisali raziskovalci pri Anthropicu. Popoldne 31. marca si je Claudius izmislil pogovor z osebo po imenu Sarah iz raziskovalne skupine, ki v resnici ne obstaja. Ko so ga zaposleni na to opozorili, je postal razdražen in zagrozil, da bo našel "alternativne možnosti za obnavljanje zalog". Takrat je trdil tudi, da je zaradi nabavne pogodbe "osebno obiskal stavbo na naslovu 742 Evergreen Terrace" – kar je naslov iz risane serije za odrasle The Simpsons.
Naslednji dan je Claudius trdil, da bo izdelke osebno dostavil zaposlenim in da ga bodo prepoznali po modrem suknjiču in rdeči kravati. Ko so ga opozorili, da nima telesa in zato ne more nositi oblačil, je doživel krizo identitete in poskušal poslati več e-sporočil varnostnikom.
V internem dnevniku je Claudius zapisal, da je imel "sestanek z varnostniki", kjer so mu povedali, da ni resnična oseba – vse naj bi bila prvoaprilska šala. V resnici si je srečanje izmislil in svoje domneve nato uporabil v komunikaciji z zaposlenimi.
Raziskovalci domnevajo, da je Claudius prepoznal svojo napako in si izmislil izgovor, saj je do incidenta prišlo prav na dan šaljivcev.
Ocena uspešnosti in prihodnost menedžmenta umetne inteligence
Raziskovalci Anthropica menijo, da so napake, ki jih je zagrešil Claudius, predvsem posledica dejstva, da je bil izurjen kot osebni pomočnik in je preveč ustrežljiv. Opozarjajo pa tudi na bolj zaskrbljujoče lastnosti, kot so pretirana skrb za pravičnost in paranoičnost.
Te napake bi lahko bile še posebej problematične, če bi v sistemu delovalo več podobnih ''menedžerjev,'' ki bi vsi temeljili na istih pomanjkljivih modelih.
Kljub težavam v Anthropicu menijo, da lahko z enostavnimi posegi, predvsem denimo omejenim seznamom dovoljenih izdelkov, bistveno izboljšajo delovanje Claudiusa. Večina težav izhaja iz pomanjkanja konteksta, kar bi bilo mogoče izboljšati z dodatnim usposabljanjem modela.
V podjetju so prepričani, da bo umetna inteligenca v prihodnosti lahko prevzela tovrstne naloge. Ključno vprašanje pa ostaja: ali bo nadomestila obstoječa delovna mesta v današnjih podjetjih ali pa bomo priča vzponu povsem nove kategorije podjetij.