-
日期: 2016-01-20 | 來源: 叁體迷 | 有0人參與評論 | 專欄: 霍金 | 字體: 小 中 大
霍金屢次發出末日警告!是危言聳聽還是先知先覺

霍金再壹次語出驚人,這次他指明“幾乎可以確定”人類自己制造的災難將於未來千年降臨。這已經不是這位世界上最著名的物理學家第壹次向人類發出末日警告了。
最 近在BBC的壹場講座上,霍金宣稱科學技術的持續發展,正在創造出“可能出岔子新的事物”。他指出核戰爭、全球變暖以及基因工程病毒等可能就是其中最嚴重 的罪魁禍首。霍金說道:“雖然在短期內末日降臨的可能性很低,但是可以確定在未來的千年、萬年內,地球末日必將到來。屆時,人類已經發展到太空去了,甚至 移民到了其他星球,所以此時地球的末日不代表人類的末日。但是,我們無法在未來百年內建立可自給自足的太空殖民系統,因此在這段時期我們要格外的小心。”

霍金的警告至少可以追溯到10年前,2006年他在網上發布了壹個問題:
"In a world that is in chaos politically, socially and environmentally, how can the human race sustain another 100 years?"
“在壹個政治、社會和環境混亂的世界,人類又該如何維持未來的100年呢?”
這壹言論觸動了很多人的神經,引發了很多人的共鳴與感慨。但是不少人也對霍金沒有給出自己的答案而感到失望。有人評論道,“這是我所知道的世界上最聰明的人問的壹個沒有明確答案的問題。”包括霍金本人在後來也寫道:“我不知道答案,這也是我提出這個問題的原因!”
次年,在香港的壹次新聞發布會上,霍金宣稱:
"life on Earth is at the ever-increasing risk of being wiped out by a disaster, such as sudden global nuclear war, a genetically engineered virus or other dangers we have not yet thought of."
“地球上的生命遭遇毀滅性災難的風險正在不斷增加,比如突如其來的全球性核戰爭、基因工程病毒或者是其它我們還未想象到的危險。”

而霍金最大的擔憂要數人工智能的發展,AI被他認為可能是“人類歷史上最嚴重的錯誤”。2014年,霍金和幾名物理學家共同對人工智能做了探討,他們認為人工智能的潛力無限,但是我們也無法預測人工智能地不斷發展會出現什麼後果。正如他們寫道:
"One can imagine such technology outsmarting financial markets, out-inventing human researchers, out-manipulating human leaders, and developing weapons we cannot even understand. Whereas the short-term impact of AI depends on who controls it, the long-term impact depends on whether it can be controlled at all."
“可以想象這樣的技術會比金融市場還更勝壹籌,創造出人類研究人員,操縱人類領袖,開發出我們無法理解的武器。人工智能的短期影響取決於誰控制了它,而長期影響則取決於它到底能不能被控制。”
去年,霍金被推選為負責對人工智能的監控,他簽署了壹封公開信,呼吁禁止“超越人類控制的自動攻擊性武器系統”的研發。

除了以上這些,霍金還對人類末日做出了其他方面的警告,諸如小行星撞擊地球以及外星人入侵等等。

對於霍金的預言與警告,有些人略帶反感。他們認為“霍金聲稱自己對人類智慧控制這些風險保持樂觀,但他從未對未來可能出現的不詳做詳細的描述,也沒有指出面對這些風險我們該怎麼做。他的回答都非常簡單模糊,這與他果斷的末日預言形成了鮮明的對比。”- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見