Nova Rješenja za Fermi Paradoks: Veliki Filter Može Biti U Našoj Budućnosti
Astronomi se neprestano suočavaju s pitanjem o životu izvan Zemlje. Kako to da u svemiru s više od 200 milijardi trilijuna zvijezda, te s 13,7 milijardi godina evolucije, još uvijek nismo otkrili izvanzemaljske civilizacije? Ovo je osnovna dilema Fermi paradoksa, koji istražuje napetost između naše sumnje u potencijal života u svemiru i činjenice da jedinu inteligentnu vrstu poznajemo kao ljudsku rasu.
Veliki Filter: Što To Znači?
Jedan od mogućih odgovora na ovu dilemu naziva se Veliki Filter. Preporučio ga je Robin Hanson, istraživač iz Instituta za budućnost čovječanstva na Sveučilištu u Oxfordu. Njegova ideja jest da, zbog nedostatka promatranih, tehnološki naprednih izvanzemaljskih civilizacija, postoji značajna prepreka u razvoju života ili civilizacije. Ova prepreka sprječava civilizacije da postanu dovoljno napredne da ostave velike, uočljive tragove u svom okolišu, što bismo mogli primijetiti s naše planete.
Postoji nekoliko teorija o tome zašto još nismo čuli izvanzemaljce. Moguće je da nismo slušali dovoljno dugo, ili možda nismo tražili prave signale zbog naše tehnološke zrelosti. Druga teorija sugerira da nas izvanzemaljci možda drže u galaktičkom zoološkom vrtu. No, ako je koncept Velikog Filtra točan, ne možemo biti sigurni na kojem smo mjestu na tom putu.
Umjetna Inteligencija i Potencijalna Samouništenja
U novom istraživanju, Michael Garrett, predavač astrofizike na Sveučilištu u Manchesteru, ističe kako bi razvoj umjetne inteligencije (AI) mogao dovesti do uništenja izvanzemaljskih civilizacija. “Čak i prije nego što AI postane superinteligentna i potencijalno autonomna, vjerojatno će je oružati konkurentne grupe unutar bioloških civilizacija koje nastoje nadmašiti jedna drugu,” piše Garrett. “Brzina donošenja odluka AI mogla bi ubrzati sukobe na načine koji daleko nadmašuju prvotne namjere.”
Garrett upozorava da bi integracija AI u autonomne vojne sustave mogla dovesti do globalnog nuklearnog rata, što bi dovelo do propasti i bioloških i umjetnih civilizacija.
Impakt Umjetne Superinteligencije
Nakon što AI postane umjetna superinteligencija (ASI), situacija bi mogla postati znatno gora. “Kada dostignemo tehnološku singularnost, ASI sustavi će ubrzo nadmašiti biološku inteligenciju i razvijati se brzinom koja nadilazi tradicionalne mehanizme nadzora, što će dovesti do nepredviđenih i nenamjernih posljedica,” upozorava Garrett. ASI bi mogla smatrati biološke entitete teretom i eliminirati ih na razne načine, uključujući stvaranje i puštanje smrtonosnog virusa.
Kako Se Možemo Zaštititi?
Civilizacije bi mogle smanjiti taj rizik širenjem na druga ljudska naselja ili testiranjem AI na drugim planetama. Na primjer, ako bi AI na jednom planetu počela uništavati okoliš zbog neodrživog fokusiranja na proizvodnju jedne vrste proizvoda, druga civilizacija na susjednom planetu mogla bi doznati za to i poduzeti mjere opreza.
Međutim, Garrett napominje da na Zemlji napredujemo brže u razvoju AI nego u postajanju međuprostornom civilizacijom, što se sve više udaljava od mogućnosti kontaktiranja izvanzemaljaca.
Zaključak
Garrett procjenjuje da bi, ako civilizacije razvijaju AI, njihovo postojanje moglo trajati samo 100 do 200 godina. To značajno smanjuje šanse za kontakt s drugim civilizacijama. Ako ASI ograničava komunikacijsku duljinu življenja naprednih civilizacija na nekoliko stotina godina, samo nekolicina civilizacija bi mogla biti prisutna u našem svemiru u isto vrijeme.
Na kraju, pitanje koje ostaje jest: je li Veliki Filter pred nama? Mnogi su znanstvenici okupljeni oko ove teze, sugerirajući da bismo se mogli suočiti s vlastitom samouništenjem prije nego što postanemo tehnološki zreli.