人類滅絕五大危機 世界末日離我們多遠?
2023-03-29 02:05:54
人類滅絕五大危機,世界末日離我們多遠?世界末日論在很早之前就已經開始流行,很多人也都十分在意關於世界末日的說法,從開始,全世界都進入了恐慌之中,除了瑪雅人的預言之外人類遭受滅絕危機還有其他五種,下面讓我們一起去看看人類滅絕五大危機是什麼。
人類滅絕五大危機:核戰爭
儘管迄今為止,只有兩個核武器在戰爭中使用:二戰期間,美國在廣島和長崎分別投下一顆原子彈;而且,核原料的囤積也從冷戰期間的高峰值開始下降,但並不能因此認為核戰爭不會爆發,實際上,它並非不可能發生。不過,儘管兩個超級大國之間全面的核戰爭會直接或通過其產生的後續影響導致數億人喪生,但這並不足以使其成為一個生存危機。另外,核戰爭產生的放射物的危害也常常被過度誇大,這些放射物的確有可能導致當地人死亡,但從全球來看,還是一個有限的小問題。
鈷彈被科學家們看成是一種假象中的末日毀滅武器,其放射物所到之處無人倖免,但這種武器很難製造,且製造成本極其高昂。從實際的角度而言,它們幾乎可以看成不可能出現。
真正的威脅是核冬天。核冬天理論認為:當使用大量核武器,特別是對城市這樣的易燃目標使用核武器,會讓大量的煙和煤煙進入地球的大氣層,使整個世界持續數年進入冰冷而乾燥的冬天。原因在於:當核爆炸時,巨大的能量將大量的煙塵注入大氣,有的還高達12公裡以上進入平流層。由於核爆炸所產生的煙塵微粒有相當大部分直徑小於1微米,它們能在高空停留數天乃至一年以上,對從太陽來的可見光輻射有較強吸收力,而對地面向外的紅外光輻射的吸收力較弱,導致高層大氣升溫,地表溫度下降,產生了與溫室效應相反的作用,使地表呈現出如嚴寒冬天般的景觀,稱為核冬天。
現代氣候模擬表明,這種情況會阻礙全球農業的發展,持續時間可能長達數年,如此一來,數億人可能會被餓死,最終只剩下少數倖存者,而這些倖存者可能又躲不過其他威脅,比如疾病的侵襲。主要的不確定性在於煤煙的表現:不同的煤煙產生的後果也截然不同,而且,我們目前還沒有很好的方法對此進行評估。
人類滅絕五大危機:生物工程流行病
從歷史的情況來看,自然產生的流行病殺死的人比戰爭奪去的生命還多。然而,這種自然產生的流行病不太可能成為我們的生存威脅:有很多人對病原體有抵抗能力,而且,倖存者的後代的抵抗力會變得更強。另外,進化本身也不喜歡那些讓其宿主滅絕的寄生蟲,這也是為什麼梅毒從致命的殺手變成慢性、系統性傳播疾病的原因。
但不幸之處在於,我們現在可以使疾病變得更嚴重。其中最著名的一個例子是將一種外部基因引入鼠痘(老鼠的天花病毒)內,這會使鼠痘變得更致命,而且,已經接種天花疫苗的人也會感染。最近對禽流感的研究也表明,一種疾病的接觸傳染性可以被顯著提升。就現在的情況看,有人故意散播這種災難的可能性很低,但隨著生物技術變得越來越強大而且越來越便宜,或許有人會使疾病變得更致命。
研究表明,生物武器和傳染病爆發造成的死亡數量看起來呈冪律分布:大多數攻擊造成的傷亡很少;但少量的攻擊殺死了很多人。鑑於目前的情況,出現一種由生物恐怖主義引發的全球性傳染病的風險似乎很低,但不要忘了,這是生物恐怖主義:政府殺死的人數遠遠多於恐怖主義用生物武器殺死的人數,第二次世界大戰期間,日本的生物戰可能就殺死了40多萬人。而且,隨著生物技術突飛猛進的發展,非常難對付的病原體可能更容易被設計出來。
人類滅絕五大危機:超級智能
智力是一種非常強大的工具,正是解決問題和群組協調能力的些許增加使我們讓其他猿類望塵莫及。對於人和生物體來說,聰明的確是一大優勢,因此,科學家們一直在絞盡腦汁,試圖提高個人和群體的智力,他們的研究成果從增強認知的藥物到人工智慧軟體等,不一而足。由軟體製造而成的智能系統可能很快會獲得令人害怕的能力。原因在於,它能以不同於生物智能的方式升級:它能在運行速度越來越快的計算機上使用;零件能被分配到更多的計算機之上,不同的軟體經過測試、升級並整合新算法後,其性能會獲得重大的躍升。
科學家們已經提出,當軟體變得非常善於製造更好的軟體時,可能就會出現所謂的「智能爆炸」(劍橋數學家傑克·古德和密碼破譯學家貝萊特謝力·派克曾為英國《新科學家》雜誌撰寫過一篇論文稱,人類將在不久的將來建成超智慧機器人[-0.59%資金研報],而這也是最後的發明,因為人工智慧將導致「智能爆炸」)要是這樣一種技術上的躍升成為現實,智能系統(或者人們告訴它們做什麼的系統)和其他系統的潛在能力將有天淵之別。
但問題在於,聰明的實體都非常善於實現自己的目標,一旦這個目標設置得很不好,這些超級智能系統或許會使用其智力,給人類造成災難性的後果。我們不能想當然地認為,智能系統自身就會表現得體或者遵紀守法,實際上,已經有研究結論證明,某些類型的超級智能系統如果真實存在,它們並不會遵守道德法則。
人類滅絕五大危機:納米技術
納米技術是對擁有原子或分子精度的物質的控制技術。納米技術本身並不危險,相反,它可以應用於很多領域,大力推動這些領域的發展。問題在於,納米技術與生物技術一樣,其能力不斷增強的同時,其被濫用的危險也與日俱增,而這種濫用很難防範。
問題並不在於眾所周知的「灰蠱」。「灰蠱」是科學家們假想的由納米技術製造的機器人,其能不斷地自我複製,最終失去控制,消耗掉整個地球的資源,進而造成人類的滅絕。但這種納米機器需要非常複雜而精細的設計,製造成本非常讓人望而卻步。但除此之外,在極具破壞性的科學技術的樹上,還有更多唾手可得的果實。
最顯而易見的風險是,原子精度的製造非常適合快速且廉價地製造出武器等產品。在一個任何政府都能「列印」出大量自動化或半自動化武器裝備的世界裡,軍備競賽可能會變得更快。武器也可能是極其微小且精確的事物:比如像神經毒氣一樣的「智能毒品」,或者無所不在的讓人無條件服從的監視系統等。
人類滅絕五大危機:未知的威脅
最使人不安的可能性是,還存在一些非常致命的事物,但我們對此毫不知情。比如,我們現在還未曾發現外星人的蹤跡,是因為生命或智能動物非常罕見還是因為智能生命已經被滅絕?如果未來出現一個所謂的「大篩選」,屆時,其他文明會提到我們嗎?無論威脅是什麼,它或許都是一些即使你知道它在哪兒也幾乎無法避免的事物,不管你是誰或者你做了什麼。對任何此類威脅,我們毫無頭緒,但它們的確存在。
某些事情我們還不知道,並不表示我們不能對此進行推理。在麻省理工學院的物理學家馬克斯·泰格馬克和牛津大學人類未來研究院院長、哲學教授尼克·博斯特羅姆出版的一篇著名的文章中,他們表示,根據地球的相對年齡,某些風險每年出現的機率為十億分之一。
有些人或許很奇怪,為什麼氣候變化或隕星撞擊並沒有出現在這份列表上。這是因為,氣候變化不管多麼讓人驚恐,都不可能使整個地球變成一個寸草不生的地方。隕星或許能讓我們消失殆盡,但這種機率也特別小。哺乳動物平均存活了大約100萬年,因此,自然滅絕率為每年百萬分之一。與核戰爭的威脅相比,這種威脅要低很多。
推薦閱讀: