霍金的遺愿清單:離開地球和警惕人工智能(2)
2016年1月26日和2月2日在BBC電臺第四頻道播出霍金瑞思系列演講(Reith Lectures),在演講中他直言,科學(xué)技術(shù)的進(jìn)一步發(fā)展會惹出更多的新麻煩。同樣在這個(gè)演講中,霍金依舊認(rèn)為科技進(jìn)步是人類的新威脅。他甚至提及若人類最終得以在其他星球建立家園,或許還能幸存下來。
“盡管地球在某一年遭受滅頂之災(zāi)的可能性很低,但隨著時(shí)間的推移,在未來幾千或幾萬年,這會是可以預(yù)見的事情。那時(shí),我們應(yīng)該已經(jīng)進(jìn)入太空、住到其他星球上。所以地球上的毀滅并不意味著人類的終結(jié)。”“然而,至少在未來數(shù)百年里我們還無法在太空世界建起人類的地盤。所以我們現(xiàn)在必須非常小心。”
2015年,霍金曾聯(lián)合思想家喬姆斯基馬斯克等數(shù)千名知識分子發(fā)表聯(lián)名公開信中警告:必須取締“機(jī)器人殺手”的研發(fā)和應(yīng)用,人工智能方面的軍備競賽可能是人類的災(zāi)難,它將助長戰(zhàn)爭和恐怖主義,加劇世界動(dòng)蕩局勢。
這封公開信由未來生活研究所(Future of Life Institute)發(fā)起,這個(gè)團(tuán)體致力于緩解“人類面臨的生存風(fēng)險(xiǎn)”,警告人們啟動(dòng)“人工智能軍備競賽”的危險(xiǎn)。公開信中談到“人工智能技術(shù)已經(jīng)達(dá)到了這樣一個(gè)地步:如果沒有法律限制,那么這種系統(tǒng)的部署在未來幾年中就可以實(shí)現(xiàn),并不需要等待幾十年。”
而早在2014年12月,霍金接受英國廣播公司(BBC)采訪時(shí)就明確表示:“制造能夠思考的機(jī)器無疑是對人類自身存在的巨大威脅。當(dāng)人工智能發(fā)展完全,就將是人類的末日。”
霍金也許對人類和科技的未來是悲觀的,他并不信任人類真的能控制科技這個(gè)怪物,但令人諷刺的是,一旦人類用科技?xì)У袅诉@個(gè)星球,他所能仰賴的也只有科技能幫這個(gè)種族在外星球繼續(xù)繁衍。
讓我們別忘記霍金的預(yù)言和警告。
?????投稿郵箱:jiujiukejiwang@163.com ??詳情訪問99科技網(wǎng):http://www.hacbq.cn
頭條資訊
推薦資訊













