Razumijevanje skrivenog jezika umjetne inteligencije
U svijetu umjetne inteligencije (AI), često nailazimo na fascinantne i zagonetne fenomene. Jedan od njih je i sposobnost AI sustava da rješava složene zadatke, iako programeri možda nisu u potpunosti svjesni načina na koji to postižu. Ovo otkriće otvara vrata novim raspravama o sigurnosti i potencijalnim problemima vezanim uz upotrebu umjetne inteligencije.
Kako AI stvara nesuvisle riječi?
Evo jednog zanimljivog primjera: istraživač Giannis Daras, dok je proučavao DALLE-2, popularni generator slika temeljen na tekstu, primijetio je da sustav ponekad generira nesuvisle riječi pod određenim okolnostima. U svom radu objavljenom na pre-print serveru Arxiv, Daras napominje da “poznata ograničenja DALLE-2 uključuju poteškoće s tekstom”. Na primjer, kada korisnici upišu: “Slika riječi avion”, rezultati često prikazuju slike koje se sastoje od besmislenog teksta.
Otkrivanje skrivenog vokabulara AI-a
Unatoč tome, Daras je otkrio da taj generirani tekst zapravo nije slučajan, nego odražava tajni vokabular koji model čini se da je razvio interno. Kada su inputirane nesuvisle riječi, model je često stvarao slike aviona. To je dovelo do zanimljivih zaključaka o načinu funkcioniranja umjetne inteligencije.
Sigurnosni aspekti i implikacije
Daras također upozorava na moguće sigurnosne probleme vezane uz korištenje tih nesuvislih upita kao potencijalnih “backdoor” napada zaobilaženja sigurnosnih filtera. “Trenutni sustavi obrade prirodnog jezika filtriraju tekstualne upite koji krše pravila politike, a besmisleni upiti mogli bi poslužiti za zaobilaženje tih filtera”, istaknuo je.
Izazovi za povjerenje u AI sustave
On dodaje da “apsurdni upiti koji dosljedno generiraju slike izazivaju naše povjerenje u velike generativne modele”. Iako su neki drugi algoritmi pokazali sposobnost stvaranja vlastitih jezika, Darasovi zaključci još nisu prošli proces recenziranja, a drugi istraživači su skeptični prema njegovim tvrdnjama.
Reakcije drugih istraživača
Istraživački analitičar Benjamin Hilton također je testirao generator, tražeći da prikaže dva kita koja razgovaraju o hrani s titlovima. Nakon nekoliko pokušaja, konačno je uspio dobiti razumljive rezultate. “Što mislim?” napisao je Hilton na Twitteru. “‘Evve waeles’ ili je besmisleno ili iskrivljena verzija riječi ‘kitovi’.” Njegovi su rezultati sugerirali da ti pojmovi ne dosljedno znače isto.
Što nam budućnost donosi?
Na kraju, iako su neki rezultati bili intrigantni kao što je izraz “Apoploe vesrreaitais” koji uvijek generira slike ptica, istraživači se još uvijek nisu usuglasili oko značenja tih nesuvislih izraza. Mogao bi postojati aspekt koji nam još nije otkriven. Kako se situacija razvija, dobit ćemo više informacija kada rad Giannisa Darasa prođe recenziju.
Zaključak
Ova istraživanja umjetne inteligencije naglašavaju složenost i potencijalne sigurnosne rizike koje nosi s sobom. Dok znanost napreduje, važno je ostati informiran i kritičan prema onome što AI može postići. Samo vrijeme će pokazati kakve će implikacije imati ovi fenomeni u budućnosti.