霍金都曾預(yù)言過什么?盤點霍金六大驚世預(yù)言
4:人類與外星人接觸是危險的事情
霍金十分確信在地球之外的其他世界存在著智慧生命,但他警告人類應(yīng)當想盡一切辦法避免與這些外星生命接觸;艚鹫f過:“在無限的茫茫宇宙中,一定存在著其他形式的生命。”“而真正的挑戰(zhàn)在于將外星人找出來。”
霍金表示:“我們只需要看看自己,就知道智能生命是如何發(fā)展到無法自給自足的地步了。我設(shè)想他們現(xiàn)在就乘坐著一艘艘的大船,已經(jīng)耗盡了他們星球上的所有資源。他們可能已經(jīng)成為了游牧民族,伺機征服并殖民他們能夠抵達的任何星球。如果外星人來拜訪人類,我想其結(jié)果會變得與哥倫布到達新大陸時非常相似,那對美洲土著可并不有利。”
5:千年內(nèi)人類須移民外星,否則“滅絕”
霍金預(yù)言未來千年將是人類的大限,到時地球?qū)㈦y以承受人類的消耗,人類只能選擇移民外星或者滅亡;艚鹫J為,未來1000年內(nèi),基本可以確定的是地球會因某場大災(zāi)難而毀滅,如核戰(zhàn)爭或者溫室效應(yīng)。因此,他強調(diào)人類必須移居其他星球;艚鸨硎:“人類滅絕是可能發(fā)生的,但卻不是不可避免的,我是個樂觀主義者,我相信科學技術(shù)的發(fā)展和進步最終可以帶人類沖出太陽系,到達宇宙中更遙遠的地方。”
6:人工智能可能終結(jié)人類
霍金曾多次表示,“徹底開發(fā)人工智能可能導致人類滅亡”。霍金宣稱,未來100年中,人類將面臨比人類更聰明的人工智能的挑戰(zhàn)。2015年年初,霍金曾與特斯拉CEO伊隆·馬斯克共同發(fā)表公開信,他們認為人工智能的發(fā)展應(yīng)該受到控制。信中稱,如果智能機器無法保障安全,人類可能陷入黑暗的未來。信中警告科學家們警惕人工智能將抹*類。
2017年12月,在中國某機構(gòu)舉辦的一個活動上,霍金再次表達了對人工智能無限制發(fā)展的隱憂。“人類無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。我們擔心聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。”
“人工智能也有可能是人類文明的終結(jié),除非我們學會如何避免危險。我曾經(jīng)說過,人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。除非人工智能系統(tǒng)需要按照人類的意志工作。”
以上就是霍金六大驚世預(yù)言,大家可以了解下。