ChatGPT je sada stvarno dobar u falsificiranju računa – a OpenAI kaže da bi to moglo biti dobra stvar

Generativna AI Tehnologija i Problemi sa Lažnim Računima

Generativna AI tehnologija donosi rješenja za jedan od najvidljivijih problema umjetničkog stvaranja slike putem umjetne inteligencije: tekstualni sadržaj. Dok su mnogi zadovoljni ovom inovacijom koja smanjuje postotak besmislenog sadržaja, pojavljuju se i nepredviđene posljedice. Naime, sada je ChatGPT postao poprilično dobar u stvaranju lažnih računa.

Lažni Računi: Opasnost ili Uzbudljivo Otkriće?

Lažni računi koje generira ChatGPT nisu u potpunosti uvjerljivi ako znate na što obratiti pažnju. Često su previše uredni, blizu su CGI estetici, a ponekad sadrže i pogrešne zbrojeve. Ipak, lako ih je promašiti – uz malo truda, moguće je učiniti ih realističnijima dodavanjem nabora i mrlja od hrane.

Kako Stvarati Lažne Račune?

Za sada, čini se da je najučinkovitiji način za dobivanje uvjerljivih lažnih računa zatražiti od ChatGPT-a da rekreira postojeći račun, koji se potom može prilagoditi s cijenama po želji. OpenAI kaže da nije previše zabrinut zbog ovoga, no već se pokazalo da je ovo učinkovito sredstvo za digitalne prevarante i problematične pojedince. Koristite 4o za generiranje lažnih računa. Ova situacija ukazuje na kraj ere gdje su “stvarne slike” korištene kao dokazi u raznim verifikacijskim procesima.

Reakcija OpenAI

Kontaktirali smo OpenAI i spiker iz tvrtke je izjavio da prate trendove vezane za AI-generirane račune. “Pratimo generiranje slika na i izvan naše platforme, koristimo interne alate za provjeru njihove izrade i poduzimamo mjere kada identificiramo kršenje naših politika korištenja,” izjavili su. “Stalno učimo iz stvarnog korištenja i povratnih informacija te ćemo nastaviti usavršavati naše politike kako bismo uravnotežili kreativnu slobodu s prevencijom zloupotreba.” Dodali su također kako sve slike uključuju industrijske standardne C2PA metapodatke koji ukazuju na to da su AI-generirane od strane OpenAI-a.

Potencijalna Pozitivna Korištenja Lažnih Računa

Međutim, Taya Christianson, predstavnica OpenAI-a, je istaknula i pozitivnu stranu stvaranje lažnih računa: “podučavanje ljudi financijskoj pismenosti” u situacijama koje nisu prevarantske. Zamislite da se takvi računi koriste za ilustracije članaka ili stvaranje rekvizita za stvarno ili virtualno postavljanje. Ipak, lažni računi također predstavljaju opasnost za prevaru; što su uvjerljiviji, to je vjerojatnije da će olakšati zločin.

Završna Razmišljanja

Kako god da okrenemo, iako metapodatci ‘napravljen od strane ChatGPT-a’ predstavljaju neku vrstu zaštite, izvoz slike bez metapodataka lako se može napraviti klikom na gumb. Nisam siguran hoće li zaštitni mehanizmi svojim djelovanjem spriječiti korištenje lažnih slika za prevaru, baš kao što ni politike društvenih medija “budite ljubazni” nisu spriječile negativne ponašanje internauta. No, moram priznati, bilo bi prilično smiješno kad bi zaposlenici OpenAI-a počeli koristiti ovu tehnologiju za napuhavanje svojih troškovnih zahtjeva.

Total
0
Shares
Odgovori

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)

Previous Post

Prodaja sklopivih telefona ove godine će pasti – a Apple je jedini brand koji bi mogao preokrenuti situaciju

Next Post

Mullvad VPN obećava da će biti još bolja u zaštiti od AI nadzora

Related Posts