Može li AI učiniti da budete manje naivni ili je to teorija zavjere?

Kako AI Chatboti Mogu Odbaciti Teorije Zavjere

U posljednje vrijeme, istraživanja pokazuju da AI chatboti mogu biti korisni u borbi protiv nevjerodostojnih i halucinogenih ideja koje su prisutne u ljudskim umovima. Iako se često susreću s izazovima oko izmišljanja informacija, novi rad znanstvenika s MIT Sloan i Sveučilišta Cornell objavljen u časopisu Science otkrio je zanimljive rezultate. Prema njihovim nalazima, razgovor s chatbotom temeljenim na velikom jezičnom modelu (LLM) može smanjiti uvjerenje u teorije zavjere za otprilike 20%.

Metodologija Istraživanja

Kako bi istražili utjecaj AI chatbota na teorijsko razmišljanje, znanstvenici su organizirali razgovore za 2,190 sudionika o teorijama zavjere, koristeći OpenAI-ov model GPT-4 Turbo. Sudionici su bili zamoljeni da opišu teoriju zavjere koju smatraju uvjerljivom, uključujući razloge i dokaze koji je podržavaju. Chatbot je, potaknut da bude uvjerljiv, pružao odgovore prilagođene tim detaljima.

Dok su razgovarali s chatbotom, sudionici su primali prilagođene kontraargumente na temelju svojih unosa. Istraživanje je tackle-ovalo s dugotrajnom problematikom AI halucinacija uz pomoć profesionalnog provjerivača činjenica koji je evaluirao 128 tvrdnji koje je chatbot iznio tijekom studije. Zapanjujućih 99.2% tih tvrdnji bilo je točno, zahvaljujući opsežnoj online dokumentaciji o teorijama zavjere koja je korištena u podacima modela za obuku.

Zašto AI Chatboti Mogu Pomaknuti Granice

Korištenje AI alata za ispravljanje teorija zavjere oslanja se na njihovu sposobnost dubokog istraživanja informacija i prilagodljivih pristupa razgovoru koji mogu doseći ljude personaliziranim pristupom. Istraživanje je, kroz naknadne procjene proveo deset dana i dva mjeseca nakon prvog razgovora, pokazalo smanjenje uvjerenja sudionika u teorije zavjere. Ove teorije varirale su od klasičnih, poput atentata na Johna F. Kennedyja, do aktualnih kao što su COVID-19 i predsjednički izbori u SAD-u 2020.

Istraživačka Iznenađenja

Rezultati su iznenadili istraživače, koji su prvotno mislili da su ljudi u velikoj mjeri otporni na dokaze koji opovrgavaju teorije zavjere. Umjesto toga, pokazalo se da dobro dizajniran AI chatbot može učinkovito izložiti kontraargumente, dovodeći do mjerljivih promjena u uvjerenju. Znanstvenici su zaključili da AI alati mogu biti od pomoći u borbi protiv dezinformacija, no da je potrebna opreznost zbog rizika od dodatnog zavaravanja ljudi informacijama koje nisu točne.

Potencijal i Oprez u Korištenju AI Tehnologija

Ova studija podržava vrijednost projekata sličnih ciljeva. Na primjer, platforma za provjeru činjenica Snopes nedavno je izdala AI alat pod nazivom FactBot koji pomaže ljudima da utvrde je li nešto što su čuli istinito ili ne. FactBot koristi Snopesovu arhivu i generativni AI za odgovaranje na pitanja bez potrebe za pretraživanjem članaka tradicionalnim metodama.

Međutim, to nije sve. The Washington Post je također stvorio Climate Answers kako bi razjasnio konfuziju oko pitanja klimatskih promjena, oslanjajući se na svoje novinarstvo o klimi kako bi izravno odgovorio na upite. “Mnogi ljudi koji snažno vjeruju u teorije zavjere mogu promijeniti svoje mišljenje kada im se prezentiraju uvjerljivi dokazi,” zaključili su istraživači.

Završne Misli

Iz ovoga možemo zaključiti da postoje stvarne mogućnosti za AI alate da pozitivno djeluju na društvo kada se koriste odgovorno. Studija naglašava važnost minimiziranja rizika od nepravilne upotrebe ovih tehnologija, čime možemo osnažiti istinoljubivost i smanjiti širenje dezinformacija.

Pratite nas za najnovije vijesti, recenzije, mišljenja, vrhunske tehnološke ponude i više!

Total
0
Shares
Odgovori

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)

Previous Post

Otkrivene skrivene strukture ispod drevnog oceana i najveće planine na Marsu

Next Post

Izvješće tvrdi da je iznajmljivanje sporijih Nvidia AI GPU-a jeftinije u Kini nego u SAD-u

Related Posts