Umjetna Inteligencija: Izvrsna, ali Nepovjerljiva
Briljantni, ali nepouzdani junaci česta su pojava u fikciji i povijesti, a slična korelacija može se primijeniti i na umjetnu inteligenciju (AI). Istraživanje koje je proveo OpenAI, a objavio New York Times, ukazuje na to da su halucinacije, izmišljene činjenice i otvorene laži prisutne u AI chatbotovima otkako su stvoreni. Ova pojava predstavlja ozbiljan izazov za korisnike, osobito kada se uzimaju odgovori od AI-a zdravo za gotovo.
Napredak i Problemi AI Modela
OpenAI-ovi najnoviji flagship modeli, GPT-3 i GPT-4-mini, osmišljeni su kako bi oponašali ljudsku logiku. Dok su se njihovi prethodnici većinom fokusirali na fluentnu generaciju teksta, nova generacija modela napravljena je da razmišlja korak po korak. OpenAI se hvalio da bi GPT-3 mogao parirati ili čak nadmašiti rezultate PhD studenata iz kemije, biologije i matematike.
Međutim, izvještaj OpenAI-a ukazuje na zabrinjavajuće rezultate za sve one koji su skloni povjerovati u ChatGPT-ove odgovore. Naime, otkriveno je da je model GPT-3 doživio halucinacije u jednoj trećini testa koji je uključivao javne ličnosti. To je dvostruko veća stopa grešaka u usporedbi s prethodnim modelom. Još manje kompaktni GPT-4-mini pokazao je čak 48% halucinacija na sličnim zadacima.
Halucinacije i Problemi Pouzdanosti
Kad su testirani na opća znanja kroz SimpleQA benchmark, halucinacije su dostigle 51% odgovora za GPT-3 i 79% za GPT-4-mini. Ovaj postotak nije samo sitna greška u sustavu; to je prava identitetska kriza. Možda bi se moglo očekivati da sustav koji se marketira kao sustav za razmišljanje barem dvaput provjeri vlastitu logiku prije izrade odgovora, ali to jednostavno nije slučaj.
Jedna teorija u AI istraživačkoj zajednici sugerira da što više razmišljanja model pokušava napraviti, to se više može skrenuti s pravog puta. Ovi modeli, umjesto da se drže sigurnih predikcija, kreću u istraživanja mogućih puteva i povezuju nepovezane činjenice, što često dovodi do izmišljanja.
Utjecaj Halucinacija na Korisnike
Iako OpenAI smatra kako povećanje halucinacija možda nije rezultat inherentne lošije kvalitete modela, već rezultat njihove sklonosti da budu verbose i avanturistički u svojim odgovorima, činjenica je da je povjerenje u AI ugroženo. U stvarima poput pravnih savjeta, gdje su nenamjerne greške mogle uzrokovati ozbiljne posljedice, korištenje AI-a bez provjere može biti rizično.
S obzirom na to da se AI sustavi sve više koriste u raznim sektorima poput školstva, poslovanja, zdravstva i državnih agencija, mogućnost da halucinacija uzrokuje problem raste. Iako napredna AI može pomoći u pisanju životopisa, rješavanju računalnih problema ili analizi proračunskih tablica, paradoks je da što je AI korisniji, ima manje prostora za pogreške.
Zaključak
Unatoč tome što modeli poput GPT-3 demonstriraju nevjerojatne vještine kodiranja i logičkog razmišljanja i mogu u nekim aspektima nadmašiti ljude, trenutni problemi s pouzdanošću ostaju. Na primjer, kada AI pogrešno izjavi da je Abraham Lincoln radio podcast ili da voda kuha na 80°F, iluzija pouzdanosti se raspada. Sve dok se ovi problemi ne riješe, važno je tretirati svaki odgovor AI modela s rezervom. Kao što to znamo iz mnogih sastanaka koje smo svi prisustvovali, AI može biti kao taj naporan kolega bez obzira na njegovu samouvjerenost u potpunim besmislicama.