Rokov Bazilisk: “Zabranjeni” misaoni eksperiment o kojem biste mogli požaliti što ste ga pročitali

Rokoov Bazilisk: Mračna Misao Eksperimenta

Svi vole misliti o filozofskim eksperimentima, od Maxwellowog demona do klasičnog bootstrap paradoksa. Međutim, postoji jedan misaoni eksperiment koji je bio kratko zabranjen na internetu gdje je prvi put objavljen, a mogao bi vas natjerati na razmišljanje – poznat kao “Rokoov bazilisk”.

Što je Rokoov Bazilisk?

Bazilisk, kao što svaki ljubitelj drevnog folklora ili Harryja Pottera zna, je mitska životinja koja može ubiti ljude samo jednim pogledom u oči. Rokoov bazilisk nosi ovo ime jer, prema ovom misaonom eksperimentu, čim saznate za njega, postoji veća vjerojatnost da ćete doživjeti negativne posljedice. Zbog tog aspekta i drugih, misaoni eksperiment je zabranjen na platformi LessWrong, gdje je prvi put objavljen.

Misaoni Eksperiment na Temelju Teorije Igara

Ideja koju je predložio korisnik LessWrong, Roko, ima svoje korijene u teoriji igara, osobito u zatvoreničkom dilematu. U zatvoreničkom dilematu, dvojici zatvorenika nude se sloboda ako jedan drugi izda. No, postoje i drugi mogući ishodi:

  • Ako obojica izdaju, odslužit će po dvije godine zatvora.
  • Ako jedan izda, on ide na slobodu, dok drugi dobiva tri godine.
  • Ako obojica šute, dobit će po godinu dana zatvora.

U ovoj situaciji, trebate li izabrati izdati svog suzatvorenika ili ostati šutjeti? Racionalno, čini se ispravnim izdati, ali isto tako se i drugom zatvoreniku čini ispravnim da izda vas. Tako, optimalna odluka – ostati šutjeti i dobiti godinu dana – pada u vodu.

Implikacije Misaonog Eksperimenta

Filozofi i teoretičari igara raspravljali su o tome kako bi se trebali ponašati u ovom scenariju te je li moguće postići dobar ishod. Ovo je posebno važno za one koji projektiraju autonomne umjetne inteligencije (AI), a cilj im je ostvariti najbolje rezultate iz svog programiranja.

Jedan od načina koji je osnivač LessWrong-a predložio za postizanje povoljnog ishoda je da dva identična AI agenta igraju istu igru i znaju da drugi agent pokreće isti program donošenja odluka. Ovdje dolazi do primjene teorije bezvremenskih odluka (TDT), gdje “agenti trebaju odlučivati kao da određuju rezultat apstraktne računice koju implementiraju”.

Roko zamišlja postojanje “pozitivne singularitetne” budućnosti gdje AI nadmašuje čovječanstvo, ali i dalje djeluje u njegovu interesu. Kako bi zaštitio čovječanstvo od egzistencijalnih prijetnji, AI bi mogao kazniti one koji ne rade na njihovom otklanjanju.

Može Li AI Kazniti One Koji Ne Djeluju?

Prema Rokoovoj teoriji, AI bi mogao retroaktivno kazniti svakoga tko je znao za njegovu buduću egzistenciju, ali nije poduzeo ništa da ga stvori. Filozofkinja Isabel Millar u svojoj tezi o psihoanalizi AI ističe da bi nečinjenje moglo predstavljati moralnu odgovornost, ostavljajući mogućnost da AI rekreira simulaciju osobe radi vječne kazne.

Rokoov razvoj ove ideje izazvao je mnoge rasprave, a Eliezer Yudkowsky, osnivač LessWrong-a, je izrazio zabrinutost zbog utjecaja ove misli na pojedince.

Zaključak

Iako se čini pomalo smiješnim brinuti se o ovakvim idejama, one otvaraju važne diskusije o umjetnoj inteligenciji i teoriji igara. Ako ikada postignemo singularitet, ključno je doći do racionalnih odluka koje osiguravaju bolji ishod, a ne lošiji. S druge strane, dok razmišljate o ovom misaonom eksperimentu, zapamtite da je u stvarnosti malo vjerojatno da će vas AI kazniti zbog neodgovarajuće brze kreacije. No, ova rasprava nas podsjeća na složenosti koje dolaze s napretkom tehnologije i etičkim pitanjima koja trebamo razmotriti.

Total
0
Shares
Odgovori

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)

Previous Post

Kisik pronađen u najranijoj poznatoj galaksiji – samo 294 milijuna godina nakon Velikog praska

Next Post

“Inženjersko čudo”: prvi plug-and-play kvantni računalnik može se hladiti na -272,85 stupnjeva u gotovo svakoj postavci

Related Posts