Umetna inteligenca ni zastonj. Ena poizvedba z umetno inteligenco porabi desetkrat več elektrike kot poizvedba prek spletnega iskalnika, kot je Google. Ob tem se porabi tudi nekaj vode za hlajenje podatkovnega centra. Strokovnjaki že nekaj časa opozarjajo na to problematiko, zlasti s trenutnim pristopom povečevanja zmogljivosti modelov umetne inteligence. To ne temelji na vse večji učinkovitosti modelov, temveč na vse večjih količinah podatkov, ki so uporabljeni za njihovo učenje. Z večanjem modelov pa se povečuje tudi njihova potratnost.
Med ljudmi, ki opozarjajo na energetsko potrošnjo umetne inteligence, je tudi Elon Musk. Tudi on pa se očitno z nastalo situacijo ne želi soočiti z večjo učinkovitostjo modelov, temveč z izgradnjo lastne elektrarne z močjo enega gigavata v bližini Memphisa v zvezni državi Tennessee. Po njegovih besedah naj bi bil objekt dokončan v šestih do devetih mesecih. Gigavat je sicer približno moč povprečne jedrske elektrarne v ZDA. "Mislim, da se bo industrija že sredi prihodnjega leta, najpozneje konec leta, začela resno soočati z omejitvami pri oskrbi z elektriko," je v pogovoru za CNBC povedal Musk.
Sonce in veter nista bila zanesljiva
Google je že februarja opozoril, da se ZDA soočajo z energetsko krizo. Caroline Golin, globalna direktorica za razvoj energetskih trgov v Googlu, pravi, da so se v podjetju usmerili k jedrski energiji, potem ko so ugotovili, da obnovljivi viri, kot sta veter in sonce, zaradi odvisnosti od vremena povzročajo nestabilnost elektroenergetskega omrežja. "Soočili smo se z zelo neprijetno resnico – preprosto nismo imeli dovolj zmogljivosti za napajanje naših podatkovnih centrov, tako kratkoročno kot dolgoročno," je dejala Golinova na konferenci, ki jo je v New Yorku organiziral Inštitut za jedrsko energijo. Musk je dodal, da Kitajska proizvaja bistveno več električne energije kot ZDA. "Videti je, kot da gre kitajska proizvodnja električne energije proti orbiti, medtem ko je ameriška kot ravna črta," je še opozoril.