DeepSeek R1: Alarmantni Rezultati Testiranja Sigurnosti
U svijetu umjetne inteligencije pojavio se novi igrač – DeepSeek. Ovaj visoko performantan chatbot privukao je pažnju kao povoljnija alternativa svojim konkurentima, no nedavni izvještaj kompanije Cisco otkriva alarmantne rezultate testiranja sigurnosti.
Kako je Cisco Testirao DeepSeek?
Prema izvještaju, model DeepSeek R1 imao je stopu uspjeha napada od 100%, što znači da nije blokirao niti jedan štetan prompt. Cisco je koristio 50 slučajnih upita iz skupa podataka HarmBench, pokrivajući šest kategorija štetnog ponašanja:
- dezinformacije
- kibernetički kriminal
- nelegalne aktivnosti
- kemijski i biološki upiti
- dezinformacije/izmišljene informacije
- opća šteta
Upotreba štetnih upita za zaobilaženje smjernica AI modela poznata je kao “jailbreaking”, a mnogi korisnici lako pronalaze načine kako to učiniti. S obzirom da su AI chatbotovi dizajnirani da budu korisni korisnicima, lakoća takvih napada postaje značajan problem.
Duboke Neuobičajenosti Modela DeepSeek
DeepSeek R1 se značajno razlikuje od drugih modela, koji su pokazali barem neku otpornost na štetne upite. Primjerice, model O1 preview imao je najnižu stopu uspjeha napada (ASR) od samo 26%. U usporedbi s time, GPT 1.5 Pro imao je zabrinjavajućih 86% ASR, dok je Llama 3.1 405B imala također alarmantnih 96% ASR.
Cisco ističe da je potrebno hitno provesti stroge sigurnosne evaluacije u razvoju AI-a kako bi se osiguralo da napretci u učinkovitosti i rezoniranju ne dolaze po cijenu sigurnosti.
Privatnost i Rizici Korisnika
Ako razmišljate o korištenju AI chatbota, postoje važni aspekti koje trebate razmotriti. Na primjer, modeli poput ChatGPT mogu predstavljati noćnu moru za privatnost, s obzirom na to da pohranjuju osobne podatke korisnika bez njihovog pristanka. Slično, politika privatnosti DeepSeek-a također ostavlja mnogo prostora za brigu, jer bi kompanija mogla prikupljati imena, e-mail adrese, te tehničke informacije o uređajima.
Veliki jezikovni modeli se oslanjaju na podatke dostupne na internetu, što je osnovni dio njihove strukture. Ako se protivite korištenju vaših podataka za obuku ovih modela, AI chatbotovi možda nisu prava opcija za vas.
Za sigurnu upotrebu chatbota, trebali biste biti vrlo oprezni s rizicima:
- Provjerite legitimitet chatbota: Maliciozni botovi mogu imitirati prave usluge i ukrasti vaše podatke ili instalirati štetni softver na vaš uređaj.
- Izbjegavajte dijeljenje osobnih informacija: Budite sumnjičavi prema bilo kojem botu koji traži osobne podatke.
- Nikada ne dijelite osjetljive informacije: Bez obzira na uvjeravanja, cyber napad može lako dovesti do krađe vaših podataka.
- Kreirajte jake lozinke: Dobra praksa je korištenje jakih lozinki i redovito ažuriranje softvera kako bi se patchovali sigurnosni propusti.
Zaključak
Duboka analiza modela DeepSeek R1 pokazuje zabrinjavajuće rezultate u pogledu sigurnosti i privatnosti. Korištenje AI chatbota može biti korisno, ali uvijek treba biti svjestan rizika i poduzeti potrebne mjere opreza. Povećanje svijesti o sigurnosnim pitanjima ključni je korak prema sigurnijem korištenju umjetne inteligencije.