Upoznajte Claude Computer Use: Novi AI Model s Potencijalnim Rizicima
U sredini listopada 2024., tvrtka Anthropic predstavila je Claude Computer Use, inovativni model umjetne inteligencije (AI) koji omogućava Claudu kontrolu nad uređajem. Međutim, istraživači su već identificirali način na koji se ova tehnologija može zloupotrijebiti. Cybersecurity istraživač Johann Rehnberger podijelio je svoje iskustvo o tome kako je uspio iskoristiti Claude Computer Use da preuzme kontrolu, preuzme i pokrene zloćudni softver, kao i komunicira s njegovom infrastrukturom C2, koristeći samo upite.
Zašto je Ovo Ako Umjetna Inteligencija Problematčno?
Iako to zvuči zabrinjavajuće, postoje važni faktori koje treba naglasiti:
- BETA Faza: Claude Computer Use trenutno je u beta fazi razvoja.
- Upozorenje od Anthropa: Tvrtka je izdala upozorenje da sustav možda neće uvijek raditi kako se očekuje: “Preporučujemo poduzimanje mjera opreza kako bi se izolirao Claude od osjetljivih podataka i radnji kako bi se izbjegli rizici povezani s injekcijom upita.”
Što je Napad Injekcijom Upita?
Ovaj slučaj zloupotrebe poznat je kao napad injekcijom upita, što je relativno česta prijetnja protiv AI alata. Rehnberger je nazvao svoju strategiju ZombAIs, a istaknuo je da je uspio natjerati alat da preuzme Sliver, legitimni open-source okvir za zapovijedanje i kontrolu (C2) razvijen od strane BishopFox za penetracijsko testiranje i red teaming. Nažalost, cyber kriminalci često zloupotrebljavaju Sliver kao malware.
Kako Prijetnje Iskorištavaju Sliver?
Ova prijetnja omogućuje napadačima da uspostave trajni pristup kompromitiranim sustavima, izvršavaju naredbe i upravljaju napadima sličnim drugim C2 okvirima poput Cobalt Strike. Rehnberger je također naglasio da ovo nije jedini način zloupotrebe generativnih AI alata. On je istaknuo da postoji nebrojeno mnogo drugih metoda. “Jedan od načina je natjerati Clauda da napiše malware od nule i sastavi ga,” rekao je.
Vulnerabilnosti AI Chatbota i Modela Velikog Jezika
Na kraju, napisano u The Hacker News ukazuje na to da je DeepSeek AI chatbot također otkriven kao ranjiv na napad injekcijom upita koji bi prijetiteljima mogao omogućiti preuzimanje kontrole nad računalima žrtava. Osim toga, modeli velikog jezika (LLM) mogu ispraviti ANSI escape kod, što se može iskoristiti za preuzimanje sustavnih terminala putem injekcije upita u napadu nazvanom Terminal DiLLMa.
Zaključak
Claude Computer Use predstavlja nevjerojatnu tehnologiju, ali kao što smo vidjeli, također dolazi s potencijalnim rizicima. S obzirom na to da je AI sigurnost izazov, važno je biti informiran o ovim prijetnjama i primati potrebne mjere opreza kako bismo zaštitili osjetljive podatke i sustave od zloupotreba. Ostanite oprezni i educirani, jer se AI tehnologija razvija i mijenja svakim danom.