Original: https://www.nickbostrom.com/astronomical/waste.html
NICK BOSTROM
Univerzitet Oxford
[Utilitas Vol. 15, No. 3 (2003): str. 308-314] [pdf]
SAŽETAK. Uz vrlo naprednu tehnologiju, vrlo velika populacija ljudi koji žive sretnim životom može se održati u pristupačnom dijelu svemira. Svake godine kada se razvoj takvih tehnologija i kolonizacija svemira odgađa, postoji oportunitetni trošak: potencijalno dobro, životi vrijedni življenja se ne ostvaruju. S obzirom na neke vjerojatne pretpostavke, ovaj je trošak izuzetno velik. Međutim, lekcija za komunalce nije da bismo trebali maksimizirati tempo tehnološkog razvoja, već da bismo trebali maksimizirati njegovu sigurnost, tj. Vjerovatnoću da će na kraju doći do kolonizacije.
I. STOPA GUBITKA POTENCIJALNOG ŽIVOTA
Dok pišem ove riječi, sunca obasjavaju i griju prazne prostorije, neiskorištena energija ispire se iz crnih rupa, a naša velika zajednička zadužbina negentropije nepovratno se degradira u entropiju na kosmičkim razmjerima. To su resursi koje je napredna civilizacija mogla iskoristiti za stvaranje vrijednosnih struktura, poput živih bića koja žive vrijedne živote.
Stopa ovog gubitka zapanjuje um. Jedan nedavni članak nagađa, koristeći se labavim teorijskim razmatranjima zasnovanim na stopi porasta entropije, da je gubitak potencijalnih ljudskih života u našem vlastitom galaktičkom superjastu najmanje ~10^46 po veku odložene kolonizacije.[1] Ova procjena pretpostavlja da se sva izgubljena entropija mogla koristiti u produktivne svrhe, iako niti jedan trenutno poznati tehnološki mehanizam to nije ni izdaleka sposoban učiniti. Budući da je procjena donja granica, ova radikalno nekonzervativna pretpostavka je nepoželjna.
Međutim, donju granicu možemo dobiti izravnije jednostavnim brojanjem broja ili zvijezda u našem galaktičkom superjaku i pomnoženjem ovog broja s količinom računarske snage koju bi resursi svake zvijezde mogli koristiti za stvaranje tehnologija koristeći čiju izvodljivost slučaj je već napravljen. Tada taj udeo možemo podeliti sa procenjenom količinom računarske snage potrebne za simulaciju jednog ljudskog života.
Kao grubu aproksimaciju, recimo da Superklaster Djevice sadrži 10^13 zvijezda. Jedna procjena računske snage koja se može izvući iz zvijezde i sa pridruženom računskom strukturom veličine planete, koristeći naprednu molekularnu nanotehnologiju [2], iznosi 10^42 operacije u sekundi. [3] Tipična procjena procesorske snage ljudskog mozga je otprilike 10^17 operacija u sekundi ili manje.[4] Čini se da nije potrebno mnogo više za dovoljno detaljno simuliranje relevantnih dijelova okoline kako bi simulirani umovi imali iskustva koja se ne mogu razlikovati od tipičnih trenutnih ljudskih iskustava. [5] S obzirom na ove procjene, proizlazi da se potencijal za približno 10^38 ljudskih života gubi svakog vijeka i da se odgađa kolonizacija našeg lokalnog superklastera; ili ekvivalentno tome, oko 10^29 potencijalnih ljudskih života u sekundi.
Iako je ova procjena konzervativna jer pretpostavlja samo računske mehanizme čija je implementacija barem navedena u literaturi, korisno je imati još konzervativniju procjenu koja ne pretpostavlja nebiološku instanciju potencijalnih osoba. Pretpostavimo da bi se oko 10^10 bioloških ljudi moglo održati oko prosječne zvijezde. Tada bi Superklaster Djevica mogao sadržavati 10^23 bioloških ljudi. To odgovara gubitku potencijala jednakom oko 10^14 potencijalnih ljudskih života u sekundi odgođene kolonizacije.
Za sadašnje svrhe nisu važni tačni brojevi već činjenica da su ogromni. Čak i uz najkonzervativniju procjenu, pod pretpostavkom biološke provedbe svih osoba, potencijal za sto bilijuna potencijalnih ljudskih bića gubi se svake sekunde odgađanja kolonizacije našeg superklastera.[6]
II. PRILIKA TROŠKOVI ODLOŽENE KOLONIZACIJE
Iz utilitarne perspektive, ovaj ogromni gubitak potencijalnih ljudskih života predstavlja odgovarajuće ogroman gubitak potencijalne vrijednosti. Pretpostavljam ovdje da bi ljudski životi koji su mogli biti stvoreni bili vrijedni života. Budući da se obično pretpostavlja da se čak i trenutni ljudski životi obično isplaćuju, ovo je slaba pretpostavka. Svaka civilizacija dovoljno napredna da kolonizira lokalni superklaster vjerovatno bi također imala sposobnost uspostaviti barem minimalno povoljne uslove potrebne da bi budući životi bili vrijedni življenja.
Tada se čini učinak na ukupnu vrijednost veći za akcije koje ubrzavaju tehnološki razvoj nego za praktično bilo koje druge moguće akcije. Napredak tehnologije (ili njenih faktora koji omogućavaju, poput ekonomske produktivnosti), čak i za tako mali iznos da dovodi do kolonizacije lokalnog superklastera samo jednu sekundu ranije nego što bi se inače dogodilo, donosi više od 10^29 ljudskih života (ili 10^14 ljudskih života ako koristimo najkonzervativniju donju granicu) koja inače ne bi postojala. Malo se drugih filantropskih uzroka moglo nadati da će postići taj nivo utilitarne isplate.
Utilitaristi nisu jedini koji bi se trebali snažno suprotstaviti astronomskom otpadu. Mnogo je stavova o tome šta ima vrijednost što bi se podudaralo s procjenom da trenutna stopa rasipanja predstavlja ogroman gubitak potencijalne vrijednosti. Na primjer, možemo uzeti deblju koncepciju ljudske dobrobiti nego što to obično pretpostavljaju uslužni službenici (bilo hedonističkog, iskustveničkog ili sklonog želji), poput koncepcije koja vrijednost pronalazi i u procvatu ljudi, značajnim vezama, plemenitom karakteru, individualni izraz, estetsko uvažavanje i tako dalje. Sve dok je funkcija ocjenjivanja agregatna (ne računa dobrobit jedne osobe manje, samo zato što postoji mnogo drugih osoba koje također uživaju u sretnim životima) i nije relativizirana do određenog trenutka u vremenu (bez popuštanja vremena), zaključak će se održati.
Ovi uslovi se mogu dodatno ublažiti. Čak i ako funkcija blagostanja nije savršeno agregativna (možda zato što je jedna komponenta dobra raznolikost, čija bi granična stopa proizvodnje mogla opadati s povećanjem broja stanovništva), ona i dalje može dati sličan donji rezultat pod uvjetom samo da barem neki značajni komponenta dobra je dovoljno agregatna. Slično tome, određeni stupanj vremenskog popusta na buduću robu mogao bi se prilagoditi bez promjene zaključka.[7]
III. GLAVNI CILJ UTILITARACA TREBA SMANJITI POSTOJEĆI RIZIK
U svjetlu gornje rasprave, može se činiti kao da bi korisnica trebala usmjeriti svoje napore na ubrzavanje tehnološkog razvoja. Isplata čak i vrlo malog uspjeha u ovom pothvatu toliko je velika da zaostaje za gotovo bilo kojom drugom aktivnošću. Čini se da imamo utilitaristički argument za najveću moguću hitnost tehnološkog razvoja.
Međutim, prava je lekcija drugačija. Ako je ono čime se bavimo (nešto slično) maksimiziranje očekivanog broja vrijednih života koje ćemo stvoriti, onda uz oportunitetne troškove odgođene kolonizacije, moramo uzeti u obzir i rizik od neuspjeha kolonizacije. Mogli bismo postati žrtvom egzistencijalnog rizika, onog u kojem bi nepovoljan ishod uništio inteligentni život porijeklom sa Zemlje ili trajno i drastično umanjio njegov potencijal.[8] Budući da se životni vijek galaksija mjeri milijardama godina, dok bi se vremenska razmjera bilo kakvih kašnjenja na koja bismo realno mogli utjecati radije mjerila godinama ili decenijama, razmatranje rizika preovlađuje razmatranje oportunitetnih troškova. Na primjer, jedan procentni poen smanjenja egzistencijalnih rizika vrijedio bi (s utilitarno očekivane korisne tačke gledišta) kašnjenja od preko 10 miliona godina.
Stoga, ako naše akcije imaju i najmanji učinak na vjerovatnoću eventualne kolonizacije, to će nadmašiti njihov učinak na vrijeme kolonizacije. Za standardne komunalne djelatnosti prioritet broj jedan, dva, tri i četiri trebao bi biti smanjenje egzistencijalnog rizika. Utilitarni imperativ “Maksimizirajte očekivanu ukupnu korisnost!” može se pojednostaviti do maksimuma “Minimiziranje egzistencijalnog rizika!”.
IV. IMPLIKACIJE NA AGREGATIVNE POGLEDE NA OSOBE
Gornji argument pretpostavlja da je naša briga maksimizirati ukupnu količinu blagostanja. Pretpostavimo da umjesto toga usvojimo verziju utilitarizma koja „utiče na osobu“, prema kojoj su naše obaveze prvenstveno prema trenutno postojećim osobama i prema onim osobama koje će postojati.[9] Na takav pogled koji utiče na osobu, ljudsko bi izumiranje bilo loše samo zato što pogoršava prošli ili tekući život, a ne zato što predstavlja gubitak potencijalnih vrijednih života. Šta bi neko ko prihvati ovu doktrinu trebao učiniti? Da li treba naglasiti brzinu ili sigurnost, ili nešto drugo?
Da bismo odgovorili na ovo, moramo razmotriti neke daljnje stvari. Pretpostavimo da se smatra da je vjerovatnoća zanemarljiva da će bilo koja postojeća osoba preživjeti dovoljno dugo da bi mogla iskoristiti značajan dio dostupnih astronomskih resursa, koji će, kako je opisano u uvodnom dijelu ovog rada, postupno propadati. Tada je jedan od razloga za umanjivanje egzistencijalnog rizika taj što bi iznenadno izumiranje odsjeklo u prosjeku, recimo, 40 godina od svakog od trenutnih (šest milijardi ili više) ljudskih života.[10] Iako bi ovo sigurno bila velika katastrofa, ona se nalazi u istoj velikoj točki kao i druge tekuće ljudske tragedije, poput svjetskog siromaštva, gladi i bolesti. Prema toj pretpostavci, utilitarista koji utječe na osobu trebao bi smanjenje egzistencijalnog rizika smatrati vrlo važnom, ali ne i potpuno dominirajućom brigom. U ovom slučaju ne bi bilo lakog odgovora na ono što bi trebao učiniti. Tamo gdje bi se trebao usmjeriti, napori bi ovisili o detaljnim proračunima u kojem bi području filantropske djelatnosti mogao biti u najboljem položaju da da svoj doprinos.
Argumentovano, međutim, trebali bismo dodijeliti neznatnu vjerovatnoću nekim sadašnjim ljudima koji su preživjeli dovoljno dugo da ubiru blagodati kosmičke dijaspore. Takozvana tehnološka „singularnost“ mogla bi se dogoditi u našem prirodnom životu[11], ili bi moglo doći do napretka u produženju života, koji je možda nastao kao rezultat nanotehnologije u mašinskoj fazi koja bi nam dala neviđenu kontrolu nad biohemijskim procesi u našim tijelima i omogućuju nam zaustavljanje i preokretanje procesa starenja.[12] Mnogi vodeći tehnolozi i futuristički mislioci daju prilično veliku vjerovatnoću da se ovakav razvoj događaja dogodi u sljedećih nekoliko decenija.[13] Čak i ako ste sumnjičavi u pogledu njihovih prognoza, trebali biste razmotriti loše rezultate tehnološkog predviđanja. S obzirom na dobro utvrđenu nepouzdanost mnogih takvih prognoza, čini se neopravdanim biti toliko siguran u nečije predviđanje da se u naše vrijeme neće dogoditi potrebni pomaci koji daju hipotezu da će vjerojatnost biti manja od, recimo, 1%.
Očekivana korisnost šanse od 1% da ostvari astronomski veliko dobro još uvijek može biti astronomska. Ali koliko bi dobro bilo za (neku značajnu podskupinu) trenutno živih ljudi pristup astronomskim količinama resursa? Odgovor nije očigledan. S jedne strane, moglo bi se odraziti da u današnjem svijetu granična korisnost za pojedinca iz materijalnih resursa opada prilično brzo nakon što se zadovolje njegove osnovne potrebe. Čini se da nivo blagostanja Billa Gatesa dramatično ne prelazi nivo mnogih osoba mnogo skromnijih sredstava. S druge strane, napredne tehnologije te vrste koje bi se najvjerovatnije primijenile do trenutka kad bismo mogli kolonizirati lokalni superklaster, mogle bi pružiti nove načine pretvaranja resursa u dobrobit. Konkretno, materijalni resursi mogli bi se koristiti za veliko širenje naših mentalnih kapaciteta i za neograničeno produženje našeg subjektivnog životnog vijeka. I nikako nije jasno da granična korisnost produženog raspona zdravlja i povećanih mentalnih moći mora naglo opadati iznad nekog nivoa. Ako nema takvog pada marginalne korisnosti, moramo zaključiti da je očekivana korisnost trenutnih pojedinaca uspješne kolonizacije našeg superklastera astronomski velika, i ovaj zaključak vrijedi čak i ako se za taj ishod daje prilično mala vjerovatnoća. Možda je to dugačak udarac, ali za očekivani maksimalizator korisnosti korist od života možda milijardama subjektivnih godina sa znatno proširenim kapacitetima pod fantastično povoljnim uslovima mogla bi više nego nadoknaditi udaljene izglede za uspjeh.
Ako se naprave ove pretpostavke, šta slijedi o tome kako treba postupati utilitarista koji utječe na osobu? Jasno je da je izbjegavanje egzistencijalnih nesreća važno, ne samo zato što bi to skratilo prirodni životni vijek oko šest milijardi ljudi, već i – a s obzirom na pretpostavke ovo je još teže razmatranje – jer bi ugasilo šansu koju današnji ljudi imaju da požnjeju ogromne koristi od eventualne kolonizacije. Međutim, za razliku od totalnog utilitarizma, utilitarista koji utječe na osobu morao bi uravnotežiti ovaj cilj s drugim jednako važnim desideratumom, naime maksimiziranjem šansi trenutnih ljudi da prežive da bi imali koristi od kolonizacije. Utilitaristu koji utječe na osobu nije dovoljno da čovječanstvo preživi da bi koloniziralo; presudno je da se postojeći ljudi spasu. To bi je trebalo navesti da naglasi brzinu tehnološkog razvoja, jer bi napredna tehnologija brzog dolaska sigurno bila potrebna da pomogne trenutnim ljudima da ostanu živi dok se plodovi kolonizacije ne mogu ubrati. Ako se cilj brzine sukobljava s ciljem globalne sigurnosti, totalni utilitarista bi se uvijek trebao opredijeliti za maksimiziranje sigurnosti, ali utilitarista koji utječe na osobu morao bi uravnotežiti rizik umiranja ljudi od starosti i rizika da podlegnu vrsti-razorna katastrofa.[14]
[1] M. Cirkovic, ‘Cosmological Forecast and its Practical Significance’, Journal of Evolution and Technology, xii (2002), http://www.jetpress.org/volume12/CosmologicalForecast.pdf.
[2] K. E. Drexler, Nanosystems: Molecular Machinery, Manufacturing, and Computation, New York, John Wiley & Sons, Inc., 1992.
[3] R. J. Bradbury, ‘Matrioshka Brains’, Manuscript, 2002, http://www.aeiveos.com/~bradbury/MatrioshkaBrains/MatrioshkaBrains.html
[4] N. Bostrom, ‘How Long Before Superintelligence?’, International Journal of Futures Studies ii (1998); R. Kurzweil, The Age of Spiritual Machines: When Computers Exceed Human Intelligence, New York, Viking, 1999. The lower estimate is in H. Moravec, Robot: Mere Machine to Transcendent Mind, Oxford, 1999.
[5] N. Bostrom, ‘Are You Living in a Simulation?’, Philosophical Quarterly, liii (211). See also http://www.simulation-argument.com.
[6] The Virgo Supercluster contains only a small part of the colonizable resources in the universe, but it is sufficiently big to make the point. The bigger the region we consider, the less certain we can be that significant parts of it will not have been colonized by a civilization of non-terrestrial origin by the time we could get there.
[7] Utilitarians commonly regard time-discounting as inappropriate in evaluating moral goods (see e.g. R. B. Brandt, Morality, Utilitarianism, and Rights, Cambridge, 1992, pp. 23f.). However, it is not clear that utilitarians can avoid compromising on this principle in view of the possibility that our actions could conceivably have consequences for an infinite number of persons (a possibility that we set aside for the purposes of this paper).
[8] N. Bostrom, ‘Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards’, Journal of Evolution and Technology, ix (2002), http://www.jetpress.org/volume9/risks.html.
[9] This formulation of the position is not necessarily the best possible one, but it is simple and will serve for the purposes of this paper.
[10] Or whatever the population is likely to be at the time when doomsday would occur.
[11] See e.g. V. Vinge, ‘The Coming Technological Singularity’, Whole Earth Review, Winter issue (1993).
[12] R. A. Freitas Jr., Nanomedicine, Vol. 1, Georgetown, Landes Bioscience, 1999.
[13] E.g. Moravec, Kurzweil, and Vinge op. cit.; E. Drexler, Engines of Creation, New York, Anchor Books, 1986.
[14] I’m grateful for the financial support of a British Academy Postdoctoral Award.