全球災難危機
全球災難危機(英語:Global catastrophic risk)是一個假設人類於未來將遭逢全球災難性的事件,導致現代文明毀滅、倒退或衰落的概念,又稱為世界末日。[2][3] 而任何能讓人類滅絕或永久減損人類發展性的事件,都可稱為人類的生存危機。[4]
潛在的全球災難危機包括各種天災與人禍。其中,天災包括小行星撞擊、超級火山爆發、伽瑪射線暴、氣候變遷、磁暴、瘟疫發生或是全球的電子設備被摧毀等;甚至是外星生命入侵地球,這些事件都可能導致人類滅絕。 另外,隨著人類科技發展,例如:人工智慧叛變、生物技術危機、奈米科技武器等諸多新科技也都可能引發技術危機。而無能的全球治理政策則可能導致人類社會、政治、經濟等全球系統出現危機,例如:第三次世界大戰爆發,帶來核子大屠殺、生物恐怖主義、網路恐怖主義,摧毀各種維生管線(如輸電網絡),同時毀壞人類文明。全球暖化、環境退化、人口過剩等環境、氣候危機,則因全球生態環境系統崩壞而出現,帶來物種滅絕與饑荒。
可能性
一些風險是基於地球過去發生的現象並留下地質記錄所致。結合當代觀察,可以對此類事件將來發生的可能性進行估算。例如,據估計2100年之前發生一次滅絕級彗星或小行星撞擊事件的機率為百萬分之一。[5][6]超級火山是另一個例子。有幾種已知的超級火山,包括多巴山。依據多峇巨災理論,該火山在上一次噴發時幾乎消滅了人類。地質記錄表明,這種特殊的超級火山大約每50,000年爆發一次。[7][8]
2008年,在牛津大學舉行的全球巨災風險會議上,針對不同全球巨災風險的專家進行的非正式調查顯示:到2100年,人類滅絕的可能性為19%。大會報告警告說,研究結果並不意味著要承擔所有重大風險,也不包括氣候變化之類的結果,並且該結果可能反映了會議參與者的許多認知偏見。[9]
潛在的風險來源
人為因素
劍橋大學的「劍橋計劃」指出:對人類的「最大威脅」是人為的;它們是人工智慧、全球暖化、核子戰爭和有害生物技術。[11]牛津大學人類未來研究所還指出:人類滅絕更可能是由於人為原因而不是自然原因造成的。[12][13]
人工智慧
在未來,學習迅速成為超級智能的計算機可能會採取無法預料的動作,或者機器人將在人類的競爭中勝出(一種技術奇點的情況)。[14]由於其卓越的調度能力和組織能力以及可開發的新技術範圍,第一個出現的地球超級智能可能會迅速變得無與倫比:可以想像,它將能夠帶來幾乎任何可能的結果,並且能夠幾乎可以阻止任何可能阻止其實現目標的嘗試。[15]如果它選擇,它可以消除任何其他具有挑戰性的競爭對手的智慧;或者,它可能操縱或說服人們改變自己的行為以符合它自己的利益,或者可能只是阻礙他們進行干預的嘗試。[15]在Bostrom的書《超級智能:路徑、危險、策略》中,他將其定義為控制問題。物理學家史蒂芬·霍金、微軟創始人比爾·蓋茨和SpaceX創始人埃隆·馬斯克都回應了這些擔憂,霍金將這種人工智慧理論推向了現實。可能「預示著人類的滅亡」。[16]
生物技術
生物技術可能以生物工程生物(病毒、細菌、真菌、植物或動物)的形式構成全球性的災難性風險。在許多情況下,該生物體將是人類、牲畜、農作物或我們依賴的其他生物體(例如傳粉媒介或腸道菌群)的病原體。
網路攻擊
網路攻擊有可能破壞從個人數據到電網的所有事物。前瞻性研究所的聯合創始人兼前任總裁克里斯蒂娜·彼得森認為,對電網的網絡攻擊可能會帶來災難性的風險。[17]
環境災難
當前人口過剩,經濟發展和不可持續農業的趨勢可能引發環境或生態災難,例如世界作物歉收和生態系統服務崩潰。
實驗技術事故
尼克·博斯特倫認為,在追求知識時,人類可能會無意中創造出一種可以摧毀地球和太陽系的裝置。[18]核物理和高能物理的研究可能會導致異常情況,並帶來災難性後果。例如,科學家曾經擔心第一次核試驗會點燃大氣。[19][20]其他人擔心,RHIC 或大型強子對撞機可能引發包括黑洞、奇異夸克團或虛假真空狀態的連鎖反應全球災難。這些特殊的關注已被駁回,[21][22][23][24]但總體關注仍然存在。
全球暖化
人為因素造成大氣成分改變,造成的氣候變化將不同於地球的自然的氣候周期,有可能產生無法恢復的災難。
礦產資源枯竭
由於目前正在開採和使用地球上有限的礦產資源;因此,整個世界經濟正在走向不可避免的未來崩潰,導致人類文明本身的滅亡。[25] :303f生態經濟學家和穩態理論家赫爾曼·戴利(Herman Daly)認為,世界經濟整體將走向不可避免的未來崩潰,從而導致人類文明本身的消亡。通過主張「……我們所能做的就是避免浪費有限的創造能力來支持地球上現在和未來的生活」來提出同樣的論點。[26]:370
戰爭與大規模破壞
人們最常探索的場景是核戰爭和終極武器。錯誤的警報導致發動核攻擊是一種可能的情況。這幾乎發生在1983年蘇聯核警報誤報事件期間。儘管每年發生核戰爭的可能性很小,但從長遠來看,馬丁·赫爾曼教授卻認為這是不可避免的。除非可能性接近零,否則不可避免地會有一天,文明的運氣就會耗盡。[27]在古巴飛彈危機期間,美國總統約翰·甘迺迪估計,核戰爭的機率「在三分之二到二分之一之間」。[28]美國和俄羅斯總共擁有14,700枚核武器,[29]估計全世界共有15,700枚核武器。[29]除了核武器之外,對人類的其他軍事威脅包括生物戰(BW)。相比之下,化學戰雖然能夠造成多種局部災難,卻不太可能造成全球性災難。
世界人口與農業危機
由於醫學的發展和農業生產率的大幅度提高,20世紀人口迅速增加。在1950年至1984年之間,隨著綠色革命改變了全球農業,世界穀物產量增長了250%。農業的綠色革命幫助糧食生產跟上了世界人口增長的步伐,或實際上促進了人口增長。綠色革命的能源是通過化石燃料以肥料(天然氣)、農藥(石油)和碳氫化合物灌溉的形式提供的。[30]康奈爾大學生態與農業教授David Pimentel和美國國家食品與營養研究院(INRAN)的高級研究員Mario Giampietro在1994年的《食物、土地、人口和美國經濟》研究中,推算美國可持續經濟的最大人口為2億。該研究稱,為了實現可持續經濟並避免災害,美國必須至少減少三分之一的人口,而世界人口將必須減少三分之二。[31]
非人為因素
小行星撞擊
地球上曾經發生了多次重大的生物滅絕過程,特別是七千萬年前的恐龍滅絕(第二大滅絕事件,終結了中生代),被認為起因於一次嚴重的小行星撞擊;而現在占主導的地-月系起源學說也認為月球是來源於一次巨大的星體撞出的地函碎片重新凝聚而成。因此如果地球遭受類似的撞擊,輕者地球表面嚴重損毀,重者整個地球結構將重組甚至解體。
宇宙威脅
近距離的超新星爆發會產生強大的光輻射和粒子流,因而影響到地球的安全。銀河系的超新星爆發並不多,而近距離發生的概率更小。但是,據認為一顆近接地球的超新星引起的伽瑪射線暴有可能是造成奧陶紀-志留紀滅絕事件的原因。此外,超新星爆發的位置也與其毀滅範圍密切相關,只有發生在天球赤道面附近的超新星才會產生全球性照射,否則會在南極或北極附近出現一個射線轟擊的盲區(在天極附近的超新星的盲區可達半個地球)。
外太空除了明亮的恆星,還有大量看不見的游移的褐矮星或木星級別的天體,如果其中一個穿過太陽系會造成巨大的引力擾動,如果它幸運地沒引起星球撞擊,也有可能造成地球軌道的變更,無論是更接近太陽還是更遠離太陽都會引起可怕的氣候災難。由於目前對這種不發光的遊星發現困難,因此對其真實數目了解有限。按目前的知識估算,其發生概率微乎其微。[來源請求]
雖然太陽違背數十億年的規律發生異常噴發或爆炸等情況出現的機率幾乎為零(地球歷史上未曾發生),但是隨著太陽走向衰老,會逐漸變熱變大,最終吞噬內軌行星,而在這一過程中,地球將變得酷熱難當而不適宜生物生存。十多億年後就會達到毀滅性的酷熱,而吞噬行星將發生於幾十億年後。
當地球自轉的切線速率接近光速時,地球自然被轉開來。然而,地球的自轉呈現減速趨勢[32],這個災難發生的機率非常之微小。
地磁消失或翻轉將使地球表面失去磁保護層,直接暴露在太陽粒子輻射的轟擊之下。不過這是否會造成如同某些影視作品描述的世界末日仍值得懷疑,因為地球歷史上曾經發生過多次地磁翻轉,但歷史上曾出現的大小滅絕事件的時間與之並不重合。地磁驟變如果要造成毀滅性的破壞還需要與太陽爆發超級耀斑相配合,因此發生的概率極低。[來源請求]
外星人入侵
聰明的外星生命(如果存在的話)可能會入侵地球,[33]以滅絕和取代人類的生命,在殖民體系下奴役人類,竊取地球的資源,或徹底摧毀地球。
儘管從未獲得過外星生命的證據,但卡爾·薩根等科學家推測,存在外星生命的可能性很高。1969年,針對阿波羅計劃造成的生物污染可能性,將《地球外照射法》添加到了美國聯邦法規中。1991年將其刪除。[34]科學家認為這種情況在技術上是可行的,但可能性不大。[35]
全球性瘟疫
在2014年,聯合國暫緩了對於甲型流感、MERS,和SARS的研究。[36]有科學家對這種暫緩提出質疑,認為這種暫緩政策會導致人類在對抗病毒研究上的延誤並造成嚴重後果。(例如:2019-2020嚴重特殊傳染性肺炎疫情。)[37]
自然氣候變化
地質歷史上的氣候變化,曾多次導致寒冷的冰期和全球暖化,有時候還導致海水缺氧或全球乾旱,這些氣候災難被認為曾引起五大生物滅絕事件中相對較弱的三次,但比起完全改變地球生物圈的另兩次(從古生代到中生代的轉折和中生代向新生代的轉折),沒有造成全球性的毀滅,因此並不一定會造成完全意義上的世界末日。[來源請求]
超級火山爆發
超級火山爆發有可能產生遮蔽全球陽光的效果,造成連續數十年的全球寒冬,全球性糧食絕收。形成西伯利亞暗色岩的火山爆發,是過去50億年來,已知最大型的火山爆發之一,與二疊紀-三疊紀滅絕事件的時期相符合。該次滅絕事件造成90%的物種消失,是生物史上最嚴重的滅絕事件,終結了中生代。
參見
參考文獻
- ^ Schulte, P.; et al. The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary. 科學 (期刊). 5 March 2010, 327 (5970): 1214–1218. Bibcode:2010Sci...327.1214S. PMID 20203042. doi:10.1126/science.1177265 (美國英語).
- ^ [[尼克·博斯特羅姆|Nick Bostrom]]. Global Catastrophic Risks (PDF). Oxford University Press. 2008: 1 [2018-01-22]. (原始內容存檔 (PDF)於2019-12-24) (英語).
- ^ World Scientists’ Warning to Humanity: A Second Notice. BioScience. 13 November 2017 [2018-01-22]. doi:10.1093/biosci/bix125. (原始內容存檔於2017-11-16) (英語).
- ^ Bostrom, Nick. Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards. Journal of Evolution and Technology. March 2002, 9 [2018-01-22]. (原始內容存檔於2011-04-27) (美國英語).
- ^ Matheny, Jason Gaverick. Reducing the Risk of Human Extinction (PDF). Risk Analysis. 2007, 27 (5): 1335–1344 [2019-11-05]. PMID 18076500. doi:10.1111/j.1539-6924.2007.00960.x. (原始內容存檔 (PDF)於2014-08-27).
- ^ Asher, D.J.; Bailey, M.E.; Emel'yanenko, V.; Napier, W.M. Earth in the cosmic shooting gallery (PDF). The Observatory. 2005, 125: 319–322 [2019-11-05]. Bibcode:2005Obs...125..319A. (原始內容 (PDF)存檔於2015-07-25).
- ^ Ambrose 1998 ; Rampino & Ambrose 2000 , pp. 71, 80.
- ^ Rampino, M.R.; Ambrose, S.H. Super eruptions as a threat to civilizations on Earth-like planets (PDF). Icarus. 2002, 156 (2): 562–569 [2019-11-05]. Bibcode:2002Icar..156..562R. doi:10.1006/icar.2001.6808. (原始內容存檔 (PDF)於2015-09-24).
- ^ Global Catastrophic Risks Survey, Technical Report, 2008 (頁面存檔備份,存於網際網路檔案館), Future of Humanity Institute
- ^ Global Catastrophic Risks Survey, Technical Report, 2008, Future of Humanity Institute
- ^ 'Terminator center' to open at Cambridge University. Fox News. 2012-11-26 [2019-11-05]. (原始內容存檔於2013-06-16).
- ^ Bostrom, Nick. Existential Risk Prevention as Global Priority (PDF). Global Policy. 2013, 4 (1): 15–3 [2019-11-07]. doi:10.1111/1758-5899.12002. (原始內容 (PDF)存檔於2014-07-14) –透過Existential Risk.
- ^ Frequently Asked Questions. Existential Risk. Future of Humanity Institute. [26 July 2013]. (原始內容存檔於2013-08-31).
- ^ Bill Joy, Why the future doesn't need us (頁面存檔備份,存於網際網路檔案館). Wired magazine.
- ^ 15.0 15.1 Nick Bostrom 2002 "Ethical Issues in Advanced Artificial Intelligence" (頁面存檔備份,存於網際網路檔案館)
- ^ Rawlinson, Kevin. Microsoft's Bill Gates insists AI is a threat. BBC News. 2015-01-29 [30 January 2015]. (原始內容存檔於2015-01-29).
- ^ UCLA Engineering. Scholars assess threats to civilization, life on Earth. UCLA. June 28, 2017 [June 30, 2017]. (原始內容存檔於2017-07-01).
- ^ Bostrom 2002, section 4.8
- ^ Richard Hamming. Mathematics on a Distant Planet. The American Mathematical Monthly. 1998, 105 (7): 640–650. JSTOR 2589247. doi:10.1080/00029890.1998.12004938.
- ^ Report LA-602, Ignition of the Atmosphere With Nuclear Bombs (PDF). [2011-10-19]. (原始內容存檔 (PDF)於2020-03-31).
- ^ Konopinski, E. J; Marvin, C.; Teller, Edward. Ignition of the Atmosphere with Nuclear Bombs (PDF) (Declassified February 1973) (LA–602). Los Alamos National Laboratory. 1946 [23 November 2008]. (原始內容存檔 (PDF)於2020-03-31).
- ^ "Statement by the Executive Committee of the DPF on the Safety of Collisions at the Large Hadron Collider." (PDF). [2019-11-06]. (原始內容存檔 (PDF)於2009-10-24).
- ^ Safety at the LHC. [2008-06-18]. (原始內容存檔於2008-05-13).
- ^ J. Blaizot et al., "Study of Potentially Dangerous Events During Heavy-Ion Collisions at the LHC", CERN library record (頁面存檔備份,存於網際網路檔案館) CERN Yellow Reports Server (PDF)
- ^ Georgescu-Roegen, Nicholas. The Entropy Law and the Economic Process. (Full book accessible in three parts at Scribd). Cambridge, Massachusetts: Harvard University Press. 1971. ISBN 978-0674257801.
- ^ Daly, Herman E. (編). Economics, Ecology, Ethics. Essays Towards a Steady-State Economy. (PDF contains only the introductory chapter of the book) 2nd. San Francisco: W.H. Freeman and Company. 1980 [2019-11-07]. ISBN 978-0716711780. (原始內容存檔 (PDF)於2016-03-05).
- ^ Hellman, Martin. On the Probability of Nuclear War. Houston Post (Houston, Texas: MediaNews Group). April 29, 1985 [2019-11-07]. (原始內容存檔於2014-10-20).
- ^ Cohen, Avner; Lee, Steven. Nuclear Weapons and the Future of Humanity: The Fundamental Questions. Lanham, Maryland: Rowman & Littlefield. 1986: 237. ISBN 978-0847672585. gYmPp6lZqtMC.
- ^ 29.0 29.1 Federation of American Scientists. Status of World Nuclear Forces. Federation of American Scientists. 28 April 2015 [4 June 2015]. (原始內容存檔於2015-06-18).
- ^ How peak oil could lead to starvation. 2009-05-27 [2012-01-31]. (原始內容存檔於2009-05-27).
- ^ Eating Fossil Fuels. EnergyBulletin.net. 2003-10-02 [2012-01-31]. (原始內容存檔於2012-02-12).
- ^ Williams, George E. Geological constraints on the Precambrian history of Earth's rotation and the Moon's orbit. Reviews of Geophysics. 1 February 2000, 38 (1): 37–59 [2019-01-09]. Bibcode:2000RvGeo..38...37W. ISSN 1944-9208. doi:10.1029/1999RG900016. (原始內容存檔於2018-01-22) (英語).
- ^ Twenty ways the world could end suddenly (頁面存檔備份,存於網際網路檔案館), Discover Magazine
- ^ Urban Legends Reference Pages: Legal Affairs (E.T. Make Bail)
- ^ Bostrom 2002, section 7.2
- ^ Kaiser, Jocelyn; Malakoff, David. U.S. halts funding for new risky virus studies, calls for voluntary moratorium. Science. 17 October 2014 [28 July 2016]. (原始內容存檔於2019-01-09).
- ^ Kaiser, Jocelyn. Researchers rail against moratorium on risky virus experiments. Science. 22 October 2014 [28 July 2016]. (原始內容存檔於2019-01-09).