傳奇科學(xué)家史蒂夫霍金的預(yù)言了什么?
2018年的3月14日,全球非常著名的物理學(xué)家斯蒂芬·霍金在英國(guó)逝世了,引起了全世界的沉痛悼念,霍金的一生注定是很不平凡,是充滿了很多傳奇的,他的很多言論一直能夠產(chǎn)生很多的爭(zhēng)議性的言論,其中包括了霍金的三大著名預(yù)言,外星人就在我們周圍、移民外星球和人工智能可能導(dǎo)致人類滅亡,下面讓我們一起去了解一下霍金的三大著名預(yù)言。
斯蒂芬·霍金三大著名的預(yù)言:
一、外星人說(shuō)不定就在我們周圍
在2015年倫敦皇家科學(xué)學(xué)會(huì)尋找外星生命跡象的啟動(dòng)儀式上,霍金就說(shuō)過(guò):“在無(wú)限的茫茫宇宙中,一定存在著其它形式的生命。”他說(shuō):“或許外星生命會(huì)正盯著我們看呢。”“不管最終地外智慧生命到底存在還是不存在,現(xiàn)在該是有人正式投入進(jìn)來(lái)。這個(gè)問(wèn)題,我們必須要弄個(gè)明白。”當(dāng)時(shí),這個(gè)項(xiàng)目將動(dòng)用部分目前世界上最大的望遠(yuǎn)鏡,更遠(yuǎn)地深入宇宙中去捕捉任何無(wú)線電波和激光信號(hào)。
二、移民外星球
霍金預(yù)言指的是著名物理學(xué)家史蒂芬·霍金在2011年接受美國(guó)著名知識(shí)分子視頻共享網(wǎng)站BigThink訪談時(shí),稱地球?qū)⒃?00年內(nèi)毀滅,而人類要想繼續(xù)存活只有一條路:移民外星球。他還多次在不同場(chǎng)合下表示,人類要想長(zhǎng)期生存,唯一的機(jī)會(huì)就是搬離地球,并適應(yīng)新星球上的生活。除非人類在最近兩個(gè)世紀(jì)內(nèi)殖民外太空,否則人類將永遠(yuǎn)從世界上消失。“為了人類生存,擴(kuò)大到太空是對(duì)人類來(lái)說(shuō)很重要的事情。地球上的生命被一場(chǎng)災(zāi)難摧毀的風(fēng)險(xiǎn)日漸增加,例如突然惡化的全球暖化,核武戰(zhàn)爭(zhēng),基因改造的病毒,甚至其他我們還不知道的危險(xiǎn)。”
“人類在未來(lái)數(shù)百年里必須認(rèn)真考慮自己的生存問(wèn)題。我看到了人類的危險(xiǎn),過(guò)去曾出現(xiàn)過(guò)多次人類的生存危機(jī)。發(fā)生類似情況的頻率還會(huì)增加,我們需要十分謹(jǐn)慎地避免這類危機(jī)。但我是一個(gè)樂(lè)觀主義者,如果人類在未來(lái)二百年間能成功向外太空擴(kuò)張,那么我們就能避免災(zāi)難。”“如果我們是這個(gè)星系中唯一的智能生命體,我們應(yīng)該確保自己得以生存和延續(xù)。但面對(duì)地球的有限資源和呈指數(shù)形式增長(zhǎng)的人口數(shù)量,我們長(zhǎng)期生存的唯一機(jī)會(huì)不是留在地球,而是向外太空尋找出路。”
“盡管我并不贊成進(jìn)行人類基因遺傳工程的研究,但無(wú)論我們是持歡迎還是反對(duì)的態(tài)度,將來(lái)肯定會(huì)出現(xiàn)一種新的人種。事實(shí)上,如果人類在未來(lái)100年之內(nèi)沒(méi)有進(jìn)行自我毀滅,那么我預(yù)計(jì)我們將移居太陽(yáng)系其他星球上生活。”霍金還呼吁,如果我們想延續(xù)進(jìn)步,就不得不放眼外太空,因此他才大力支持載人航天飛行研究。他還指出,人類有望駕駛宇宙飛船做時(shí)光旅行,屆時(shí)從地球到銀河系邊緣的漫長(zhǎng)路程僅需八十年,這給人類殖民外太空帶來(lái)了技術(shù)上的可能。
另外,霍金預(yù)言外星人可能會(huì)為資源入侵地球。2017年11月,霍金預(yù)言2600年能源消耗增加,地球或?qū)⒆兂?ldquo;火球”;艚痤A(yù)言時(shí)間表:2032年地球進(jìn)入冰河時(shí)代;2060年人類必須離開(kāi)地球;2100年人類進(jìn)入外太空新人種出現(xiàn);2215年地球?qū)⒚媾R毀滅;2600年地球變成熾熱的“火球”。
三、人工智能可能會(huì)導(dǎo)致人類的滅亡
2014年5月3日消息,著名物理學(xué)家史蒂芬霍金在討論約翰尼德普主演的新片《超驗(yàn)駭客》時(shí)稱,人工智能或許不但是人類歷史上最大的事件,而且還有可能是最后的事件。他的意思是:人工智能可能會(huì)導(dǎo)致人類的滅亡。
霍金認(rèn)為,人工智能可以解決世界上的大部分問(wèn)題,包括人類的疾病、社會(huì)的問(wèn)題等,AI有這個(gè)潛力。如果對(duì)于AI的部署得當(dāng),那將會(huì)挖掘無(wú)限的潛力,如果部署不當(dāng),可以威脅人類的生存。人工智能一旦脫離控制,人類受到進(jìn)化的限制,將無(wú)法與之競(jìng)爭(zhēng)。跟據(jù)霍金的預(yù)測(cè),在未來(lái)一段時(shí)間內(nèi),AI將迅速地消滅數(shù)百萬(wàn)的工作崗位。
霍金表示,他曾經(jīng)和埃隆·馬斯克有過(guò)一次談話,并且聯(lián)合科學(xué)家們簽署一份關(guān)于人工智能的協(xié)議,發(fā)表了一封公開(kāi)信--《為穩(wěn)定人工智能并從中獲益的公開(kāi)信》。他還在倫敦建立了一個(gè)新的研究中心--利弗姆休研究中心;艚疬呼吁,我們需要確保下一代繼續(xù)參與科學(xué)研究,以繼續(xù)發(fā)揮科學(xué)的潛力。
2017年11月6日,霍金表示,技術(shù)有望逆轉(zhuǎn)工業(yè)化對(duì)地球造成的一些危害,有助于消除疾病和貧困,但人工智能需要加以控制。