Microsoftovo novo rješenje za suzbijanje dezinformacija u AI modelima
Microsoft je predstavio novi alat koji ima za cilj zaustaviti AI modele od generiranja sadržaja koji nije faktografski točan – što je poznato kao halucinacije. Ova nova funkcionalnost, nazvana “Ispravak”, nadovezuje se na postojeće Microsoftove alate za “detekciju utemeljenosti”, koji u suštini upoređuje tekst AI-a s potporom dokumenta koji unosi korisnik.
Kako radi novi alat za ispravak?
Ova funkcionalnost dio je Microsoftove Azure AI Safety API i može se koristiti s bilo kojim modelom za generiranje teksta, poput OpenAI-ovog GPT-4 ili Meta-ovog Llama. Alat će označiti sve što bi moglo predstavljati pogrešku, a zatim će izvršiti provjeru činjenica usporedbom teksta s utvrđenim izvorom istine putem osnovnog dokumenta (npr. učitanih transkripata). To znači da korisnici mogu reći AI-ju što da smatra činjenicom u obliku osnovnih dokumenata.
Upozorenja stručnjaka
Stručnjaci upozoravaju da, iako trenutni sustav može biti koristan, ne rješava uzrok halucinacija. AI zapravo ne “zna” ništa, već samo predviđa što dolazi na temelju primjera na kojima je treniran. Microsoft je istaknuo: “Oružje naših kupaca da razumiju i djeluju na neosnovani sadržaj i halucinacije je ključno, posebno s obzirom na rastuću potražnju za pouzdanošću i točnošću sadržaja generiranog umjetničkom inteligencijom.”
Prednosti i važnost ovog alata
Nova funkcija omogućit će Azure AI Content Safety da identificira i ispravi halucinacije u stvarnom vremenu, prije nego što korisnici generativnih AI aplikacija naiđu na njih. Ovaj alat dolazi u trenutku kada Microsoft nastoji učiniti AI pouzdanijom. Generativni AI suočava se s povjerenjem javnosti, a duboke laži i dezinformacije štete njegovom imidžu. Stoga će ažurirani napori na učvršćivanju usluga biti dobrodošli.
Sigurnost i privatnost informacija
Osim funkcionalnosti “Ispravak”, dio ažuriranja je i “Evaluacije”, proaktivan alat za procjenu rizika, uz povjerljivo inferenciranje. Ove nove funkcije osigurat će da osjetljive informacije ostanu sigurne i privatne tijekom procesa inferencije – kada model donosi odluke i predikcije temeljem novih podataka.
Zaključak
Microsoft i drugi tehnološki divovi uložili su značajna sredstva u AI tehnologije i infrastrukturu, a najnovije ulaganje od 30 milijardi dolara još jednom potvrđuje njihov dugoročni plan. Razvoj ovakvih alatki ne samo da poboljšava točnost i pouzdanost AI sadržaja već i jača povjerenje javnosti, što je ključno za budući uspjeh AI industrije.