Nekdanji šef Googla Eric Schmidt, ki je podjetje vodil med letoma 2001 in 2011, je opozoril na nevarnost »oboroževalne tekme« umetne inteligence. Med potencialnimi nevarnostmi je izpostavil tudi grožnjo, da bi tehnologija pristala v rokah zlonamernih akterjev, ki bi jo zlorabili.

»Obstajajo dokazi, da lahko manipuliramo z odprtimi ali zaprtimi modeli in jim odstranimo varnostne zaščite. Med urjenjem se naučijo veliko stvari. Primer slabe stvari je, da se naučijo, kako koga ubiti,« je pojasnil Schmidt. »Vsa velika podjetja modelom onemogočijo, da bi odgovorili na to vprašanje. Gre za dobro odločitev. To počnejo vsi. Delajo dobro in z dobrim razlogom. Obstajajo pa dokazi, da se to lahko tudi odpravi. Poleg tega obstajajo tudi mnogi drugi primeri te vrste.«

Pogoste oblike napadov na UI

Sistemi umetne inteligence so občutljivi za napade v obliki prikritega vrivanja navodil (prompt injection) in spodbujanja, da umetna inteligenca prestopi varnostne omejitve, ki so jih postavili razvijalci (jailbreaking).

  • Prikrito vrivanje navodil (prompt injection): hekerji skrijejo zlonamerna navodila v uporabniške vnose ali zunanje podatke, kot so spletne strani ali dokumenti, da bi umetno inteligenco prelisičili in jo pripravili do tega, da stori stvari, ki jih ne bi smela —  deljenje zasebnih podatkov ali izvajanje škodljivih ukazov.
  • »Jailbreaking«: vključuje manipuliranje z odzivi umetne inteligence, da ta prezre svoja varnostna pravila in ustvari prepovedano ali nevarno vsebino.

Schmidt je ob tem še opozoril, da trenutno ni učinkovitega protokola za preprečevanje širjenja umetne inteligence v roke zlonamernih akterjev.

Priporočamo