霍金的遗愿清单:离开地球,警惕人工智能
永恒是很長的時間,特別是對盡頭而言——霍金
2018年3月14日,著名理論物理學(xué)家史蒂芬·威廉·霍金去世,享年76歲。
噩耗傳來,震驚世界。
在過去的二十年里,除了繼續(xù)探索宇宙理論,霍金也出現(xiàn)在各種場合,為所有關(guān)切人類命運的主題發(fā)聲。而在他去世前的這幾年中,霍金最關(guān)注的話題就是:
離開地球,和警惕人工智能。
現(xiàn)在,我們就梳理下霍金通過各種渠道談?wù)撨@兩個話題的言論。
關(guān)于離開地球,早在2011年,霍金在接受美國視頻共享網(wǎng)站BigThink訪談時就稱,地球?qū)⒃趦砂倌陜?nèi)毀滅,人類要想活命只能移民外星球。
2017年11月5日,北京騰訊WE大會的現(xiàn)場?;艚鹜ㄟ^視頻指出了人類移民太空的原因所在:一個原因是,對我們來說,地球變得太小了。在過去二百年中,人口增長率是指數(shù)級的,即每年人口以相同比例增長。目前這一數(shù)值約為1.9%。
這聽起來可能不是很多,但它意味著,每四十年世界人口就會翻一番。2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時膨脹了四倍。(讀來恍若隔世)
這樣的指數(shù)增長,不能持續(xù)到下個千年。
到2600年,世界將擁擠得“摩肩擦踵”,電力消耗將讓地球變成“熾熱”的火球。這是岌岌可危的。然而我是個樂觀主義者,我相信我們可以避免這樣的世界末日,最好的方法就是移民到太空,探索人類在其他星球上生活的可能。
2017年7月,霍金痛批美國總統(tǒng)特朗普退出氣候問題《巴黎協(xié)定》的決定,警告稱此舉或?qū)⒆尩厍蜃兂梢粋€金星一樣的溫室星球。霍金在接受BBC專訪時表示,我們正在接近全球變暖不可逆轉(zhuǎn)的臨界點,特朗普的決定可能將地球推過這個臨界點,變成像金星一樣的星球,溫度高達(dá)250度,并且下著硫酸雨。
在2017年6月播放的紀(jì)錄片《遠(yuǎn)征新地球》(Expedition New Earth)中。霍金說,在未來一百年內(nèi),人類為生存必須離開地球,在太空尋求新家。
離開地球,霍金是認(rèn)真的。
2016年4月12日,霍金在紐約宣布啟動“突破射星”計劃,將同俄羅斯商人尤里·米爾納(Yuri Milner),以及美國社交網(wǎng)站面簿創(chuàng)始人兼總裁扎克伯格(Mark Zuckerberg)合作建造能以五分之一光速飛往比鄰星的微型星際飛船。
除了地球即將面臨的各種風(fēng)險,霍金更關(guān)切人類正在創(chuàng)造一個毀滅自己的怪物:人工智能(AI)。
2017年3月,霍金在接受英國《泰晤士報》采訪時再次發(fā)出警告,“人類需要控制以人工智能為代表的新興科技,以防止它們在未來可能對人類生存帶來的毀滅性威脅?!?/span>
霍金解釋自己的警告時說,“他們本身也是生根于達(dá)爾文的進(jìn)化論之中。因此人類需要利用邏輯和理性去控制未來可能發(fā)生的威脅。”
2016年10月19日,劍橋大學(xué)“萊弗休姆的未來智能中心(LCFI)”正式投入使用?;艚鹪趹c祝典禮上發(fā)表了演講。霍金在演講中,批評了人工智能的無節(jié)制發(fā)展。
他認(rèn)為,人工智能技術(shù),的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險,比如強大的自主式武器,或者幫助少數(shù)人壓迫多數(shù)人。
早在2014年12月,霍金接受英國廣播公司(BBC)采訪時就明確表示:“制造能夠思考的機器,無疑是對人類自身存在的巨大威脅。當(dāng)人工智能發(fā)展完全,就將是人類的末日。”
《萬物理論》劇照
霍金對人類和科技的未來,也許是悲觀的,他并不信任人類真的能控制科技這個怪物。但令人諷刺的是,一旦人類用科技?xì)У袅诉@個星球,所能仰賴的也只有科技,才能幫人類在外星球繼續(xù)繁衍。
斯人已逝,讓我們別忘記霍金的預(yù)言和警告。
∑編輯?|?Gemini
來源 | 澎湃新聞
算法數(shù)學(xué)之美微信公眾號歡迎賜稿
稿件涉及數(shù)學(xué)、物理、算法、計算機、編程等相關(guān)領(lǐng)域
稿件一經(jīng)采用,我們將奉上稿酬。
投稿郵箱:math_alg@163.com
總結(jié)
以上是生活随笔為你收集整理的霍金的遗愿清单:离开地球,警惕人工智能的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 她被“誉为”中科院最美女院士,52岁依然
- 下一篇: 阿里再添一员虎将!刚刚入职的80后硅谷科