Želim opozoriti, da je UI lahko v zelo veliko pomoč, da pa ji ne smemo zaupati, kaj šele slepo zaupati in da je (podobno kot ljudje) dojemljiva za manipulacije.
Brez samostojnega, avtonomnega oziroma neodvisnega poglabljanja v vprašanja, ki jih porajajo sodne zadeve, nas tudi pomoč UI lahko zavede. To je mogoče tudi, če zadeve nimajo ločenih mnenj. Če pa jih imajo, pa je toliko bolj potrebna previdnost. Nepristranskost pri tem tudi ni le zrno soli, ampak »must take the driving seat«.
Tudi kot sodnik umetno inteligenco uporabljam, jo sprašujem, ji nasprotujem, delujem kot advocatus diaboli. Pogosto mi ponudi rezultate, ki so prima facie nepravilni. A še bolj me skrbijo tisti, ki niso na prvi pogled nepravilni. Nikakor ji torej ne verjamem, še manj na slepo. Vse, kar mi ponudi in je mogoče preveriti, preverjam. Če preverjanje ni mogoče, ostajam skeptičen in dajem (še večji) poudarek lastnemu razmišljanju. Z UI ne tekmujem.
UI zato obravnavam kot koristno, a metodološko občutljivo orodje: kadar vir vsebuje (obsežna in kritična) ločena mnenja, je potrebna posebna higiena vhodov (odtehtanje žanrov besedil, filtriranje, tehtanje precedenčne vrednosti). Če kdo, mora sodnik vse to prepoznati, se zanesti na svoje znanje, uporabiti pravno veščino v najboljši meri, kot jo obvlada, in odločiti tako, da bo lahko vsem udeležencem postopka pogledal v oči ter razložil, zakaj je oziroma ni dvignil roke za neko odločitev.
Pravna praksa, december 2025