Umetna inteligenca zmore z izjemno natančnostjo simulirati človeški obraz in glas, meja med resnico in digitalnimi ponaredki pa postaja vse bolj zabrisana. To je danes zelo mamljiv podatek tudi za tiste, ki jih na posnetkih ujamejo s prsti v marmeladi. Eden večjih vplivov umetne inteligence na našo družbo bo zato tudi vse večja izguba zaupanja v vizualne ali zvočne vsebine. Vsaj na terenu javnega mnenja oziroma v širši laični javnosti. V ozadju se medtem odvija prava tekma mačke z mišjo, ko strokovnjaki ustvarjajo orodja za odkrivanje ponaredkov, manipulatorji pa vse bolj sofisticirane metode. Pri tem eni in drugi pogosto analizirajo prakse nasprotnikov, zato forenziki o najbolj naprednih metodah neradi govorijo javno.
Na zahtevnost preučevanja pristnosti posnetkov, kakršni so v tem tednu zakrožili po Sloveniji, je opozoril tudi predsednik strokovnega sveta Inštituta za forenziko informacijskih tehnologij (iFIT) Igor Belič. Izrazil je skrb, ali je slovenska policija sploh usposobljena za tovrstne forenzične preiskave, in se zavzel za oblikovanje državnega centra, ki bi bil specializiran za preiskave takšnih posnetkov.
"To je težko delo," zahtevnost odkrivanja ponaredkov opisuje tudi ameriški strokovnjak za lovljenje globokih ponaredkov Hany Farid. "Povprečni človek, ki podrsava po družbenih omrežjih, tega ne zmore narediti zanesljivo. Že jaz to komaj počnem zanesljivo, pa to počnem poklicno."
Vodni žigi in pomoč umetne inteligence
Nepogrešljivo orodje pri lovu na ponaredke je ironično umetna inteligenca. Ta se uči zaznati že najmanjša neskladja med resnično in ponarejeno vsebino. Generatorji globokih ponaredkov imajo pogosto težave s poustvarjanjem drobnih podrobnosti obrazne mimike in mikrogibov, ki so prisotni v resničnih posnetkih. Orodja za odkrivanje analizirajo te lastnosti in iščejo nenaravne vzorce, kot so nepravilno usklajevanje ustnic z govorom, neskladno gibanje oči ali nenaravna osvetlitev. Obstaja še vrsta drugih pristopov, med katerimi so tudi takšni, ki so bolj primerni za posnetke boljše ali slabše kakovosti.
Umetna inteligenca lahko zelo prepričljivo spremeni tudi človekov glas, vendar manipuliranemu govoru pogosto primanjkujejo naravni ritem, ton in intonacije resničnega človeškega govora. Orodja za avdioanalizo primerjajo značilnosti glasu, kot so kadenca, višina tona in natančnost fonemov, da bi odkrila neskladja. Hkrati se pogosto pojavljajo neskladja ambientalnega zvoka.
Potem je tu še digitalna forenzika. Ta se osredotoča na analizo metapodatkov, artefaktov stiskanja in drugih značilnosti medijskih datotek. Videoposnetki in slike, ki so globoki ponaredki, v svojih metapodatkih pogosto vsebujejo skrite sledi, ki lahko razkrijejo, ali je bila vsebina spremenjena. Metode stiskanja, ki jih uporablja programska oprema za manipulacijo slik in videa, lahko prav tako ustvarijo artefakte, ki so v avtentičnih medijih običajno odsotni. Se pa pojavijo težave, ko se posnetki naknadno objavljajo na družbenih omrežjih, ki datoteke dodatno stisnejo.
Zaradi težav, ki jih povzroča stiskanje na družbenih omrežjih, se razvijajo naprednejše metode, kot je synthID. To je tehnologija podjetja Google DeepMind, ki v slikovne pike fotografij, videov ali v zvočne valove in celo v pisana besedila vdela neopazni digitalni žig. Tega je nato mogoče identificirati z uporabo posebne programske opreme. Vendar ta rešitev ne pomaga, ko manipulatorji uporabljajo modele, ki teh žigov ne vstavljajo.