網站首頁 母嬰 愛美 健康保健 生活 熱點資訊 十二星座
當前位置:瑞麗谷 > 熱點話題 > 百姓民生

再提醒世界“要小心人工智能”|霍金亮相中國

欄目: 百姓民生 / 發佈於: / 人氣:2.61W

霍金亮相中國 再提醒世界“要小心人工智能”

霍金

4月27日消息,GMIC北京2017在北京召開,來自英國的著名科學家斯蒂芬·霍金教授通過視頻發表演講,談了他關於人工智能的看法,他認爲人工智能在未來是否會威脅到人類還不好說,現在我們就該從研究中規避這種風險。

霍金認爲,人工智能的崛起是人類歷史上最好的事情,也有可能是最糟糕的,但它是最好的還是最壞的,現在還不能確定。

人工智能的出現是一種必然的趨勢。從實驗室研究到實現人工智能的經濟效益,有很長的路,哪怕很小的提升,也可以實現巨大的效益。我們現在的工作應該從提升人工智能的能力轉化爲提升人工智能的社會效益。

我們現在對於人工智能的研究是從各個分支入手,比如語音識別,圖像分類,自動駕駛,機器翻譯,步態運動等,推動人工智能的快速發展。但是就長遠來說,人腦和計算機能實現的事情,是沒有本質區別的。

現在更需要關注的是,包括人工智能的研究人員也在擔心和探索人工智能的倫理問題。拿機器人來說,我們需要在未來確保機器人一直都會爲人類工作。未來可能機器人會需要人格化的身份,就像今天的獨立法人,爲了確保人類可以控制機器人,研究和設計人員都應該確保每個機器人都有終止開關。

人工智能可以解決世界上的大部分問題,包括人類的疾病、社會的問題等,AI有這個潛力。如果對於AI的部署得當,那將會挖掘無限的潛力,如果部署不當,可以威脅人類的生存。人工智能一旦脫離控制,人類受到進化的限制,將無法與之競爭。跟據霍金的預測,在未來一段時間內,AI將迅速地消滅數百萬的工作崗位。

更長遠的擔憂就是人工智能系統失控的風險以及超級智能的崛起。人工智能贏得圍棋就是這種未來的趨勢,人工智能未來的潛力在於,我們現在取得的成就和未來幾十年的相比,簡直是相形見絀,未來人工智能甚至有可能終結人類文明。

我們如何去研究人工智能,是解決和理解這個問題的關鍵。我們需要在研究過程中就規避這種風險。霍金表示,他曾經和埃隆·馬斯克有過一次談話,並且聯合科學家們簽署一份關於人工智能的協議,發表了一封公開信——《爲穩定人工智能並從中獲益的公開信》。他還在倫敦建立了一個新的研究中心——利弗姆休研究中心。霍金還呼籲,我們需要確保下一代繼續參與科學研究,以繼續發揮科學的潛力。