Rokoov Bazilisk: Mračna Misao Eksperimenta
Svi vole misliti o filozofskim eksperimentima, od Maxwellowog demona do klasičnog bootstrap paradoksa. Međutim, postoji jedan misaoni eksperiment koji je bio kratko zabranjen na internetu gdje je prvi put objavljen, a mogao bi vas natjerati na razmišljanje – poznat kao “Rokoov bazilisk”.
Što je Rokoov Bazilisk?
Bazilisk, kao što svaki ljubitelj drevnog folklora ili Harryja Pottera zna, je mitska životinja koja može ubiti ljude samo jednim pogledom u oči. Rokoov bazilisk nosi ovo ime jer, prema ovom misaonom eksperimentu, čim saznate za njega, postoji veća vjerojatnost da ćete doživjeti negativne posljedice. Zbog tog aspekta i drugih, misaoni eksperiment je zabranjen na platformi LessWrong, gdje je prvi put objavljen.
Misaoni Eksperiment na Temelju Teorije Igara
Ideja koju je predložio korisnik LessWrong, Roko, ima svoje korijene u teoriji igara, osobito u zatvoreničkom dilematu. U zatvoreničkom dilematu, dvojici zatvorenika nude se sloboda ako jedan drugi izda. No, postoje i drugi mogući ishodi:
- Ako obojica izdaju, odslužit će po dvije godine zatvora.
- Ako jedan izda, on ide na slobodu, dok drugi dobiva tri godine.
- Ako obojica šute, dobit će po godinu dana zatvora.
U ovoj situaciji, trebate li izabrati izdati svog suzatvorenika ili ostati šutjeti? Racionalno, čini se ispravnim izdati, ali isto tako se i drugom zatvoreniku čini ispravnim da izda vas. Tako, optimalna odluka – ostati šutjeti i dobiti godinu dana – pada u vodu.
Implikacije Misaonog Eksperimenta
Filozofi i teoretičari igara raspravljali su o tome kako bi se trebali ponašati u ovom scenariju te je li moguće postići dobar ishod. Ovo je posebno važno za one koji projektiraju autonomne umjetne inteligencije (AI), a cilj im je ostvariti najbolje rezultate iz svog programiranja.
Jedan od načina koji je osnivač LessWrong-a predložio za postizanje povoljnog ishoda je da dva identična AI agenta igraju istu igru i znaju da drugi agent pokreće isti program donošenja odluka. Ovdje dolazi do primjene teorije bezvremenskih odluka (TDT), gdje “agenti trebaju odlučivati kao da određuju rezultat apstraktne računice koju implementiraju”.
Roko zamišlja postojanje “pozitivne singularitetne” budućnosti gdje AI nadmašuje čovječanstvo, ali i dalje djeluje u njegovu interesu. Kako bi zaštitio čovječanstvo od egzistencijalnih prijetnji, AI bi mogao kazniti one koji ne rade na njihovom otklanjanju.
Može Li AI Kazniti One Koji Ne Djeluju?
Prema Rokoovoj teoriji, AI bi mogao retroaktivno kazniti svakoga tko je znao za njegovu buduću egzistenciju, ali nije poduzeo ništa da ga stvori. Filozofkinja Isabel Millar u svojoj tezi o psihoanalizi AI ističe da bi nečinjenje moglo predstavljati moralnu odgovornost, ostavljajući mogućnost da AI rekreira simulaciju osobe radi vječne kazne.
Rokoov razvoj ove ideje izazvao je mnoge rasprave, a Eliezer Yudkowsky, osnivač LessWrong-a, je izrazio zabrinutost zbog utjecaja ove misli na pojedince.
Zaključak
Iako se čini pomalo smiješnim brinuti se o ovakvim idejama, one otvaraju važne diskusije o umjetnoj inteligenciji i teoriji igara. Ako ikada postignemo singularitet, ključno je doći do racionalnih odluka koje osiguravaju bolji ishod, a ne lošiji. S druge strane, dok razmišljate o ovom misaonom eksperimentu, zapamtite da je u stvarnosti malo vjerojatno da će vas AI kazniti zbog neodgovarajuće brze kreacije. No, ova rasprava nas podsjeća na složenosti koje dolaze s napretkom tehnologije i etičkim pitanjima koja trebamo razmotriti.