Meta Počinje S Novim Planom Treninga AI Modela Koristeći Podatke EU Korisnika
U ponedjeljak, 14. travnja 2025., Meta je objavila da nastavlja sa svojim planom za obuku AI modela koristeći podatke korisnika iz Europske unije. Ova odluka uslijedila je nakon uspješnog lansiranja Meta AI-a u EU prošlog ožujka, gotovo godinu dana nakon što je tvrtka privremeno obustavila ovaj projekt uslijed sve većih zabrinutosti među europskim regulativama za zaštitu podataka.
Kako će Meta AI koristiti podatke korisnika?
Meta planira koristiti sve javne objave i komentare koje dijele odrasli korisnici na svojim društvenim platformama za obuku svojih AI modela. Osim toga, svi interakcije koje korisnici izravno razmjenjuju s chat-botom će također biti uključene. U službenoj objavi, Meta je istaknula važnost razvoja AI-a koji nije samo dostupan Europljanima, već je i prilagođen njihovim potrebama. “Važno je da naši generativni AI modeli budu obučavani na raznolikim podacima kako bi razumjeli nevjerojatne i raznolike nijanse koje čine europske zajednice,” naveli su.
Podaci koji se neće koristiti
Meta je jasno stavila do znanja da podaci s računa korisnika mlađih od 18 godina iz EU neće biti korišteni za obuku AI-a. Također, privatne poruke dijeljene putem iMessagea i WhatsAppa nikada neće biti korištene za svrhe obuke AI-a, što pruža dodatni sloj zaštite privatnosti korisnika.
Kako se korisnici mogu zaštititi?
S početkom ovog tjedna, svi korisnici Meta platformi u EU počinju primati obavijesti o uvjetima novog AI treninga, putem aplikacije ili e-pošte. Ove obavijesti će sadržavati link na obrazac putem kojeg korisnici mogu povući svoj pristanak za korištenje svojih podataka u obuci Meta AI. “Pripremili smo obrazac za prigovor koji je jednostavan za pronaći, pročitati i koristiti, te ćemo poštovati sve prigovore koje smo već zaprimili, kao i nove,” objašnjavaju iz Metine tvrtke.
Zabrinutost oko privatnosti
Važno je napomenuti da, jednom kada se podaci unesu u bazu podataka velikih jezičnih modela (LLM), korisnici gube potpunu kontrolu nad svojim podacima. Ovaj oblik korištenja podataka može otežati ostvarivanje prava na zaborav prema GDPR-u. Iz tog razloga, stručnjaci za privatnost, poput Proton-a, preporučuju da se korisnici iz Europe koji su zabrinuti za svoju privatnost odluče povući iz obuke Meta AI. “Preporučujemo ispunjavanje ovog obrasca kada vam stigne kako biste zaštitili svoju privatnost. Teško je predvidjeti kako će se ti podaci koristiti u budućnosti – bolje je biti siguran nego žao,” poručili su iz Proton-a putem LinkedIn objave.
Zaključak
Meta’s najnovija odluka o korištenju podataka korisnika EU za obuku AI modela otvara važne rasprave o privatnosti i kontroli podataka. Korisnici trebaju biti svjesni svojih prava i opcija koje imaju. U ovom se kontekstu preporučuje pažljivo razmatranje privatnosti kako bi se zaštitila vlastita sigurnost u digitalnom prostoru.