宇宙萬物都會有滅亡的一天,甚至包括宇宙本身,那麼我們人類又會如何滅亡呢?偉大的理論物理學家史蒂芬·霍金(Stephen William Hawking)對這個問題總是直言不諱,探討了人類滅亡的多種可能性,其中談得最多次的為「人工智能」、「人類衝突」和「外星文明」這三種可能。

霍金一直以來都對人工智能(AI)相當擔憂,甚至認為AI是「人類歷史上最嚴重的錯誤」。他認為人工智能的潛力無限,完全有可能超越人類的智慧水平,擺脫人類的控制。霍金曾直言不諱地說「AI的全面發展將導致人類的終結!」霍金的這個觀點不無道理,獲得了很多精英人士的支持,其中「現實版鋼鐵俠」伊隆·馬斯克(Elon Musk)就曾聲援稱「AI是人類生存最大的威脅!」

而霍金對AI的威脅最到位的一句評價則是「人工智能的短期影響取決於誰控制了它,而長期影響則取決於它到底能不能被控制。」

霍金認為,就算人工智能沒有毀滅人類,人類文明或許會自取滅亡,終結於自身內部的衝突。人類自私、貪婪和無節制的擴張,科技的進步也創造出了可以毀滅人類的武器。「地球上的生命遭遇毀滅性災難的風險正在不斷增加,比如突如其來的全球性核戰爭、基因工程病毒或者是其它我們還未想像到的危險。」其中,全球性的核戰爭在人類文明間形成了一種恐怖而詭異的威脅,最令人擔憂。

然而面對這樣的威脅,霍金認為太空探索與移民是解決之道。畢竟地球資源有限,將人類的生存空間和資源向外太空延伸,確實是延續人類文明的必經之路。但短期內這是一個難以實現的目標,霍金對現狀表示「在一個政治、社會和環境混亂的世界,人類又該如何維持未來的100年呢?」

外星文明或許並不像我們想像的那麼友好。霍金曾經稱「如果外星人造訪地球,我認為結果可能會和哥倫布首次造訪美洲大陸很相似,這對土著人來說可不是一件好事。」先進的外星文明可能是一個「游牧文明」,征服並殖民他們所能觸及的星球,利用星球上的資源建造新的飛船,從而不斷持續他們在宇宙中擴張的步伐。

「生存是文明的第一需要;文明不斷增長和擴張,但宇宙中的物質總量保持不變。」縱觀歷史,人類文明之間為了生存和發展都經常大動干戈,更何況是不同星球的文明之間。

文章來源:新民網

【本篇文章非正式學術論文,如有不同觀點,歡迎留言討論】

#霍金 #人工智能 #外星 #人類