霍金都曾預(yù)言過什么?盤點(diǎn)霍金六大驚世預(yù)言
4:人類與外星人接觸是危險(xiǎn)的事情
霍金十分確信在地球之外的其他世界存在著智慧生命,但他警告人類應(yīng)當(dāng)想盡一切辦法避免與這些外星生命接觸。霍金說過:“在無限的茫茫宇宙中,一定存在著其他形式的生命。”“而真正的挑戰(zhàn)在于將外星人找出來。”
霍金表示:“我們只需要看看自己,就知道智能生命是如何發(fā)展到無法自給自足的地步了。我設(shè)想他們現(xiàn)在就乘坐著一艘艘的大船,已經(jīng)耗盡了他們星球上的所有資源。他們可能已經(jīng)成為了游牧民族,伺機(jī)征服并殖民他們能夠抵達(dá)的任何星球。如果外星人來拜訪人類,我想其結(jié)果會變得與哥倫布到達(dá)新大陸時(shí)非常相似,那對美洲土著可并不有利。”
5:千年內(nèi)人類須移民外星,否則“滅絕”
霍金預(yù)言未來千年將是人類的大限,到時(shí)地球?qū)㈦y以承受人類的消耗,人類只能選擇移民外星或者滅亡。霍金認(rèn)為,未來1000年內(nèi),基本可以確定的是地球會因某場大災(zāi)難而毀滅,如核戰(zhàn)爭或者溫室效應(yīng)。因此,他強(qiáng)調(diào)人類必須移居其他星球;艚鸨硎:“人類滅絕是可能發(fā)生的,但卻不是不可避免的,我是個(gè)樂觀主義者,我相信科學(xué)技術(shù)的發(fā)展和進(jìn)步最終可以帶人類沖出太陽系,到達(dá)宇宙中更遙遠(yuǎn)的地方。”
6:人工智能可能終結(jié)人類
霍金曾多次表示,“徹底開發(fā)人工智能可能導(dǎo)致人類滅亡”;艚鹦Q,未來100年中,人類將面臨比人類更聰明的人工智能的挑戰(zhàn)。2015年年初,霍金曾與特斯拉CEO伊隆·馬斯克共同發(fā)表公開信,他們認(rèn)為人工智能的發(fā)展應(yīng)該受到控制。信中稱,如果智能機(jī)器無法保障安全,人類可能陷入黑暗的未來。信中警告科學(xué)家們警惕人工智能將抹*類。
2017年12月,在中國某機(jī)構(gòu)舉辦的一個(gè)活動上,霍金再次表達(dá)了對人工智能無限制發(fā)展的隱憂。“人類無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。我們擔(dān)心聰明的機(jī)器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計(jì)的工作崗位。”
“人工智能也有可能是人類文明的終結(jié),除非我們學(xué)會如何避免危險(xiǎn)。我曾經(jīng)說過,人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。除非人工智能系統(tǒng)需要按照人類的意志工作。”
以上就是霍金六大驚世預(yù)言,大家可以了解下。