Sustavi strojne inteligencije otvorenog koda su vrlo podložni sigurnosnim prijetnjama

Analiza sigurnosnog pejzaža okvira za strojno učenje

Nedavne analize sigurnosnog pejzaža okvira za strojno učenje (ML) pokazale su da su ML softveri podložniji sigurnosnim ranjivostima nego zrelije kategorije kao što su DevOps ili Web poslužitelji. U porastu korištenja strojnog učenja u raznim industrijama, ključno je osigurati ML sustave, jer ranjivosti mogu dovesti do neovlaštenog pristupa, curenja podataka i ugroženih operacija.

Povećanje ranjivosti u ML projektima

Prema izvještaju tvrtke JFrog, projekti poput MLflowa zabilježili su porast kritičnih ranjivosti. U posljednjih nekoliko mjeseci, JFrog je otkrio 22 ranjivosti u 15 otvorenih izvora ML projekata. Među ovim ranjivostima, dvije kategorije se posebno ističu:

  • Pretnje usmjerene na poslužiteljske komponente
  • Rizici od eskalacije privilegija u ML frameworkima

Ranjivosti koje je identificirao JFrog utječu na ključne komponente koje se često koriste u ML radnim tokovima, što omogućava napadačima da iskoriste alate kojima se često vjeruje zbog njihove fleksibilnosti i dobiju neovlašteni pristup osjetljivim datotekama ili povećaju privilegije unutar ML okruženja.

Glavne ranjivosti u popularnim alatima

Jedna od istaknutih ranjivosti odnosi se na Weave, popularni alat iz Weights & Biases (W&B), koji pomaže u praćenju i vizualizaciji metrika ML modela. Ranjivost WANDB Weave Directory Traversal (CVE-2024-7340) omogućava korisnicima s niskim privilegijama pristup proizvoljnim datotekama u datotečnom sustavu. Ovaj nedostatak proizlazi iz nepravilne validacije ulaza prilikom rukovanja putanjama datoteka, što potencijalno omogućava napadačima pregled osjetljivih datoteka poput administratorovih API ključeva ili drugih privilegiranih informacija.

Osim toga, ZenML, alat za upravljanje MLOps radnim tokovima, također ima kritičnu ranjivost koja ugrožava njegove sustave kontrole pristupa. Ova ranjivost omogućava napadačima s minimalnim pristupnim privilegijama da povećaju svoja dopuštenja unutar ZenML Clouda, čime dobivaju pristup ograničenim informacijama, uključujući povjerljive tajne ili datoteke modela.

Ugroženost Deep Lake baze podataka

Još jedna ozbiljna ranjivost, poznata kao Deep Lake Command Injection (CVE-2024-6507), otkrivena je u Deep Lake bazi podataka – rješenju za pohranu podataka optimiziranom za AI aplikacije. Ova ranjivost omogućava napadačima izvođenje proizvoljnih naredbi iskorištavanjem načina na koji Deep Lake obrađuje uvoz vanjskih skupova podataka. Nepravilna sanitizacija naredbi može napadaču omogućiti daljinsko izvršavanje koda, čime se ugrožava sigurnost baze podataka i svih poveznih aplikacija.

Ranjivosti u Vanna AI i Mage.AI

U alatu Vanna AI, koji je dizajniran za generiranje i vizualizaciju SQL upita, također je pronađena ranjivost. Vanna.AI Prompt Injection (CVE-2024-5565) omogućuje napadačima da umetnu zloćudni kod u SQL upite, što alat potom obrađuje. Ova ranjivost može dovesti do daljinskog izvršavanja koda i omogućiti napadačima manipulaciju vizualizacijama ili izvođenje SQL injekcija.

Mage.AI, alat za upravljanje podacima u MLOps, također ima više ranjivosti kao što su neovlašteni pristup školjkama, curenje proizvoljnih datoteka i slabe provjere putanja. Ovi problemi omogućuju napadačima preuzimanje kontrole nad ML radnim tokovima, izlaganje osjetljivih konfiguracija ili čak izvođenje zloćudnih naredbi.

Važnost osiguranja ML sustava

Kombinacija ovih ranjivosti predstavlja visok rizik od eskalacije privilegija i narušavanja integriteta podataka, što ugrožava sigurnost i stabilnost ML radnih tokova. Ako napadači dobiju administratorski pristup ML bazama podataka ili registrima, mogu umetnuti zloćudni kod u modele, stvarajući tako “backdoor” koji se aktivira prilikom učitavanja modela.

Pronalasci JFrog-a ukazuju na operativni razmak u sigurnosti MLOps-a. Mnoge organizacije nemaju robusnu integraciju AI/ML sigurnosnih praksi s širim strategijama cyber sigurnosti, ostavljajući tako potencijalne slijepe točke. Kako strojno učenje i umjetna inteligencija nastavljaju poticati značajan napredak u industriji, od iznimne je važnosti osigurati okvire, skupove podataka i modele koji pokreću ove inovacije.

Zaključak

U globalno umreženom svijetu, sigurnost strojnog učenja postaje sve važnija. Organizacije moraju pažljivo pristupiti integraciji sigurnosnih praksi kako bi zaštitili svoje ML sustave i održali povjerenje u tehnologije koje oblikuju budućnost.

Total
0
Shares
Odgovori

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)

Previous Post

Charlotte, kornjača s “Bubble Butt” sindromom, dobila je 3D-otisnuti prilagođeni pojas

Next Post

Lideri koji zagovaraju ulaganje u AI stječu konkurentske prednosti

Related Posts