Moški je bil po pisanju britanskega Guardiana prepričan, da ga sosed zastruplja. ChatGPT je opozoril na to, da mora paziti, kaj je, in da bi rad zaradi negativnih učinkov kuhinjske soli iz prehrane odstranil klorid. Umetna inteligenca mu je za nadomestek svetovala natrijev bromid, spojino, ki so jo v preteklosti uporabljali kot pomirjevalo, moški pa je končal s hudo zastrupitvijo, ki povzroča halucinacije.

Testiranje nasveta 

Avtorji članka niso mogli preveriti natančne vsebine pogovora med pacientom in ChatGPT-jem, zato so se odločili, da bodo pogovor poustvarili sami. V klepetalnik so vnesli podobno vprašanje, ChatGPT pa je spet predlagal bromid – brez posebnega opozorila.

Strokovnjaki zato znova opozarjajo, da lahko ChatGPT in druga orodja umetne inteligence posredujejo napačne informacije, saj jih ne znajo kritično ovrednotiti.

Izboljšana verzija ChatGPT

Pri podjetju OpenAI so prejšnji teden predstavili nadgradnjo bota, ki zdaj temelji na modelu GPT-5, in zatrdili, da so ga izboljšali prav glede informacij s področja zdravja. ChatGPT naj bi bil torej po novem boljši pri zaznavanju tveganj in pri obravnavi resnih zdravstvenih težav, kljub temu pa ne more nadomestiti strokovne pomoči, še opozarjajo strokovnjaki. 

Priporočamo