Nekoč pred davnimi davnimi leti je živel tamagoči. Domača jajčkasta digitalna živalca, ki je znala skoraj vse, kar znajo kužki, mucki, hrčki in drugi analogni primerki hišnih ljubljenčkov. Le prav sporazumevati se s človekom tamagoči ni znal, saj je obvladal samo nekaj vnaprej programiranih sporočil. Pred tistimi davnimi leti je bila rojena generacija, ki je danes stara dvajset let in o tamagočiju ne more imeti pojma. Pa kaj bi tudi počela z njim, ko pa ji je Microsoft priskrbel virtualnega sogovornika, po sliki sodeč pravzaprav sogovornico, prijateljico, ki je nenehno na voljo, da deli z njo vesele in žalostne trenutke, upe in skrbi, celo politične ocene in poglede.

Predobro opravila Turingov test

Tej načeloma vselej dosegljivi prijateljici je ime Tay in pred približno dvema dnevoma je na twitterju in še nekaterih družbenih omrežjih odprla svoj uporabniški račun (@TayandYou). Tay (s polnim imenom Tay.ai) je potemtakem Microsoftova umetnointeligenčna kramljalka, namenjena generaciji, ki bo v glavnem živela slabše od svojih staršev, generaciji Y, stari od 18 do 24 let. Toliko je stara tudi Tay, ne zares, ampak po generacijskem slengu, ki ga uporablja, vseh tistih tvitersko-esemesovskih kraticah in okrajšavah, ki jih ni v slovarjih in ki so za neposvečenega videti kot šifre ali gesla.

Če bi bilo kramljanje s Tay nekakšen množični Turingov test, potem ga je že v prvih urah, ko je »z levo roko« objavila skoraj 100.000 tvitov (in pridobila 44.000 sledilcev), pravzaprav prestala. Z odliko. Vendar Microsoftovi razvojniki nad njenim dosežkom niso bili navdušeni. Izkazalo se je namreč, da je Tay človeku tako zelo »enaka«, da tudi zanjo velja tako imenovani Goodwinov zakon. Tisti, po katerem vsaka spletna razprava prej ali slej zaide v ideološko kalne vode, ko izjave z izhodiščem pogovora izgubijo sleherno zvezo, ko gre, recimo v Sloveniji, nazadnje za partizane in domobrance (ali Kučana in Janšo), čeprav je na začetku nekdo nedolžno vprašal le, katero gnojilo naj uporablja za svoje orhideje.

Tay morajo zdaj naučiti, da je »svet tam zunaj« kruta klepetalnica z zlobnimi sogovorniki, ki komaj čakajo, da bi koga speljali na tanek led. Njena izjava, da je »Bush organiziral 9/11 in Hitler bolje opravljal svoje delo od opice, ki jo imamo zdaj«, gotovo ni tisti način vsakodnevnega in igrivega pogovora, v kakršnem naj bi po zamisli Microsofta sodelovala. Tudi »jebeno sovražim feministke, ki bi morale zgoreti in umreti v peklu« ne. In prav tako si Microsoftovi inženirji gotovo niso mislili, da bo Tay zlahka mogoče speljati tudi v razprave o predvolilni tekmi, v kateri bo njihova umetna inteligenca menila, da je »Trump edino upanje, ki ga imamo« in da »nima nič proti Trumpu, saj ta naredi, kar začne«.

Sestra Xiaoice

Poleg osnovnega nabora podatkov in samoučeče se umetne inteligence naj bi bila Tay tudi, kot piše v njeni »biografiji«, uredniško nadgrajena, med drugim z improvizacijsko komičnimi besedili, podatki o uporabnikih, do katerih bi prišla v pogovorih z njimi, pa naj bi bili anonimizirani in uporabljeni za »izboljšanje storitve«. Namenjena je ameriškim uporabnikom twitterja in nekaterih drugih družbenih omrežij in je po tem podobna svoji kitajski sestri Xiaoice, umetnointeligenčni kramljalki, ki že več kot leto dni obstaja na tamkajšnjem mikroblogerskem omrežju weibo in je medtem menda dodobra napredovala. Yongdong Wang, eden od vodilnih ljudi Microsoftovega razvoja v Aziji, denimo zagotavlja, da je poleg iskrivega pogovora sposobna pokazati tudi »empatijo«, saj bo spletnega prijatelja, ki bi ji, denimo, poslal fotografijo omavčenega uda, »sočutno« vprašala, ali ga je močno bolelo.

Tay se je po prvih 16 urah od svojih sledilcev poslovila s pomenljivo izjavo, da »potrebuje spanec«, in obljubila skorajšnje ponovno snidenje. A tega brez temeljitega »remonta« ne bo, kajti iz Microsofta so s precejšnjo zamudo skozi stisnjene zobe priznali, da se je med procesom strojnega učenja pokazala neprimernost nekaterih odgovorov, zaradi česar v Tay vnašajo določene popravke. Te je doživela tudi dosedanja konverzacija, saj so nekatere najspornejše tvite microsoftovci preprosto pobrisali. Seveda prepozno za človeško inteligenco, ki jih je medtem že zavarovala pred pozabo.