Ova manipulacija bojama otkriva značajne nedostatke u obradi slika pomoću AI-a

Nova Istraživanja O Vulnerabilnosti AI Sustava: AlphaDog Napad

U svijetu umjetne inteligencije, sposobnost analiziranja slika predstavlja jednu od ključnih značajki. Međutim, prema novim istraživanjima, postoje ozbiljne propuste u suvremenim platformama za prepoznavanje slika. Tim istraživača sa Sveučilišta u Teksasu u San Antoniju (UTSA) otkrio je da se alphakanal, koji kontrolira transparentnost slika, često ignorira, što može otvoriti vrata kibernetičkim napadima s potencijalno opasnim posljedicama, posebno za industrije zdravstva i autonomne vožnje.

Kreiranje AlphaDog Napada

Researh tim, predvođen asistentskom profesoricom Guenevere Chen, razvio je jedinstvenu metodu napada pod nazivom “AlphaDog”. Ova metoda iskorištava nedovoljno uočenu ranjivost u AI sustavima. Alphakanal, koji je dio RGBA (crvena, zelena, plava, alfa) podataka o slikama, ključan je za renderiranje složenih slika. Nedostatak usklađenosti između ljudske i AI percepcije istih slika može dovesti do pogrešnih zaključaka.

Kako AlphaDog Napad Funkcionira

AlphaDog napad osmišljen je kako bi ciljao i ljude i AI sustave, ali na različite načine. Za ljudske promatrače, manipulirane slike mogu izgledati relativno normalno. Međutim, kada ih procesiraju AI sustavi, rezultati su daleko od točnih, što može dovesti do pogrešnih odluka. Tim istraživača generirao je 6500 slika i testirao ih na 100 AI modela, uključujući 80 otvorenih sustava i 20 cloud-based platformi kao što je ChatGPT. Istraživanje je pokazalo da AlphaDog posebno dobro djeluje kad se cilja na grayscale (sive) regije slika.

Opasnosti za Autonomna Vozila i Medicinsku Dijagnostiku

Jedan od najalarmantnijih nalaza istraživanja je ranjivost AI sustava koji se koriste u autonomnim vozilima. Prometni znakovi, koji često sadrže sive elemente, lako se mogu manipulirati ovom tehnikom, što može dovesti do pogrešnog tumačenja znakova i potencijalno opasnih posljedica. Istraživanje također ukazuje na kritični problem u medicinskom snimanju, gdje AI igra sve važniju ulogu u dijagnostici. Rendgenske slike, MRI i CT skeniranja, koja često sadrže sive slike, mogu biti podložna manipulaciji putem AlphaDog napada. U pogrešnim rukama, ova ranjivost može rezultirati pogrešnim dijagnozama.

Problemi Sa Prepoznavanjem Lica

Još jedan sektor koji budi zabrinutost je mogućnost manipulacije sustavima prepoznavanja lica. Ovo otvara mogućnosti za zaobilaženje sigurnosnih sustava ili pogrešno identifikovanje pojedinaca, što postavlja pitanja o privatnosti i sigurnosti.

Suradnja s Tehnološkim Gigantima

Tim istraživača surađuje s velikim tehnološkim kompanijama, uključujući Google, Amazon i Microsoft, s ciljem rješavanja ove ranjivosti u AI platformama. Kako je Chen istaknula, „AI su stvorili ljudi, a oni koji su napisali kod usredotočili su se na RGB, ali su ignorirali alphakanal. To je ranjivost. Isključivanje alphakanala u ovim platformama dovodi do toksičnosti podataka. AI je važan. Mijenja naš svijet, a imamo mnoge brige.”

Zaključak

Ova istraživanja ističu potrebu za poboljšanjem sigurnosti AI sustava, posebno u područjima koja imaju direktan utjecaj na ljudske živote, poput autonomnih vozila i medicinske dijagnostike. Kako se AI nastavlja razvijati, važno je da se adresiraju ove ranjivosti kako bi se osiguralo da tehnologija ne postane prijetnja, već alat koji unapređuje naš život.

Total
0
Shares
Odgovori

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)

Previous Post

2 najbolja Lego Star Wars specijala bit će uskoro dostupna za besplatno strimanje na YouTubeu

Next Post

Protest OpenAI Sora je samo okus onoga što dolazi 2025. – evo što se mora promijeniti

Related Posts