網站首頁 母嬰 愛美 健康保健 生活 熱點資訊 十二星座
當前位置:瑞麗谷 > 熱點話題 > 百姓民生

讓"算法"遵循"善法"

欄目: 百姓民生 / 發佈於: / 人氣:2.89W

人工智能的蓬勃發展帶來了人們在思想、生活和工作各方面全方位的變革。“人機大戰”引發廣泛關注的深層原因,在於它在文明史和人類史尺度上以一種儀式化的效應表徵了一個時代的來臨,即人工智能時代的來臨。

讓"算法"遵循"善法"

人工智能時代來臨,人類應該如何行動

從人工智能的主體結構看,無論“阿爾法狗”戰勝人類頂尖棋手,還是“微軟小冰”創作詩歌,抑或是IBM公司的超級機器人“沃森”躋身杏林、懸壺治病,它們目前充其量屬於某種弱的人工智能,離真正的智能主體相去甚遠。然而,這並不能消除一種日益滋長起來的恐慌性擔憂:一旦人工智能大規模進入我們的生活,人類未來會怎樣?斯蒂芬·霍金、史蒂夫·沃茲尼亞克、比爾·蓋茨等發出警示說:人工智能可能是人類存在的最大威脅。埃隆·馬斯克甚至說:“有了人工智能,就相當於我們開始召喚惡魔。”

透過各種各樣的“悲觀主義—樂觀主義”的觀念對峙,我們看到,我們真正需要認真面對的問題是:既然認識到人工智能的時代已經到來,我們要如何行動才使自己成爲未來的一部分?換言之,爲了避免人工智能在喚醒萬物的同時喚醒人類無法控制甚至最終控制或取代人類的“惡魔”,我們到底應該如何行動?筆者認爲,這個問題的緊要處只有放在規範性的先行構建上,才能未雨綢繆。它涉及人工智能時代的道德建構問題,應從“人爲自己立法”的規範性原理中產生。就形式方面而言,筆者將這種規範性的先行構建概括爲一個基本原則,那就是:讓算法遵循“善法”。因爲“善法”的主體性總是與“目的”相關,而算法在總體上永遠只能是達到目的的手段或工具而已。

具而言之,作爲人工智能時代的道德建構,讓算法遵循“善法”的原則包含兩個重要的倫理尺度:一是人工智能自身嵌入的道德,涉及人工智能帶來的智能主體模式及其相關倫理尺度;二是人類在拓展人工智能的過程中進行的道德建構,涉及常見的人類主體模式以及人類主體與人工智能主體相處的“主體間”模式及其相關倫理尺度。

“人工智能2.0”是否依繫於“道德算法”

第一個方面的倫理尺度與人工智能的智能主體或智能主體模式有關。人工智能通常的定義是:研究如何使計算機等機器能夠做那些表現出人的智能的事情,其目標是使智能行爲自動化。然而,就智能主體的類型而言,在機器中實現某些人類的智能的弱人工智能,與讓機器自主地或自動地表現人類的智能的強人工智能,在強弱程度上是大不一樣的。如果將前者記爲“人工智能1.0”,那麼後者就是“人工智能2.0”。目前的人工智能完全可以看作是從“人工智能1.0”到“人工智能2.0”的過渡,其實質是走向一場更深遠的智能主體革命。

在這個背景下,人工智能作爲一種“自主智能主體的架構體系”,其主體性或主體結構,有點類似於我們將人腦的某些功能(或類似人腦的某些功能)移至機器之中。如果說人類主體性的生物學基礎是“神經”,那麼,人工智能的主體性是而且只能是對人類主體性的一種模仿。這種模仿的科學基礎和展現形式就是“算法”。拋開人工智能主體在多大程度上類似於人類主體不論,研究者指出:使人工智能產品成爲智能主體的關鍵要素是“道德算法”——即一種令自主性人工智能裝置學會負責任行動的算法,它內嵌於人工智能的算法體系之中。那麼,這是否意味着“人工智能2.0”的智能主體革命依繫於道德算法呢?

人工智能的主體模式在這個問題上面臨倫理尺度上的重大挑戰。以醫療和戰場中的自主式機器人爲例,當面臨人類生命之生死抉擇難題時,機器人應該如何做決定?當不當決定導致原本可避免的傷害發生時,那是誰的責任?在這個問題上,人工智能的主體模式雖然凸顯了道德算法的重要性,但其更深層次且更爲重要之依系,則無疑是人類爲自己所立之“善法”。

人工道德與算法遵循“善法”的道德形態

第二個方面的倫理尺度與人類主體模式下的道德建構有關。目前賦予人工智能以道德能力的算法大致上有三種:一是通過語義網絡擴增道義邏輯,形成義務與許可概念;二是通過知識圖譜建立關聯法則,偵測道德判斷情境;三是通過雲計算髮掘相關關係,評估或預測行動後果。道德算法是嵌入在算法體系中有待完善的算法程式。它本身是在不斷變化發展之中的,而非某種具體現存之物,也非某種一蹴而就或一勞永逸的終極預設。它作爲一種人工建構,是一種通向“目的善”的“手段善”,因而依繫於人類主體模式。在這個尺度上,算法只有體現或遵循人類主體模式下的“善法”,才能以有責任感的方式推進道德算法的進化及其在機器中的嵌入。這是人工智能時代的道德建構應遵循的基本原則,即算法遵循“善法”。在這一原則中,“善法”一詞儘管抽象含混,其表徵的人類主體性尺度在具體內容上也可能引發爭論,但它在形式上則明確指向人類尺度上的兩種道德形態。

第一種道德形態由常見的人類主體模式主導,涉及人類在拓展人工智能時可能帶來的所有倫理問題。特別說來,當人們把人工智能視爲一種工具時,它的道德特殊性和道德重要性始終呼喚人類主體的道德責任之迴歸。這是一種單純的規範性取向,即人類應該透過有責任感的方式籌劃和迎接人工智能時代的來臨。一種審慎的倫理表明,人工智能可能存在的最大威脅並非來自機器,而是來自人或人類的意圖和行動。考慮到賦予機器人以道德能力的算法本質上是模仿人類道德的算法,如果人類在道德問題上不能獲得明確性,以算法形式在機器中展現人類道德又如何可能呢?問題以悖謬方式彰顯了人工智能內爆的道德形態建構。它以某種方式迴應了美國人詹姆斯·摩爾對倫理智能主體應具備道德明確性的要求,即隨着自主性的提升,具有自主道德能力的人工智能在面臨道德兩難的情境時,或者在面對不同道德原則衝突時,必須能夠作出明確的合理化決策。這種對道德明確性的要求,反過來構造或描繪了人類尺度上的“善法”之特質,它倒逼人類主體模式盡一切可能走出可能會引發晦暗後果(甚至災難)的各種道德模糊地帶。

第二種道德形態由人類主體與人工智能主體相處的“主體間”模式主導,涉及人類主體與智能主體之間依系關係的道德建構。這是一個新的領域。道德算法只有在“‘人—機’交互主體間”的反覆博弈中,才能不斷地矯正偏頗或錯誤,進一步升級和完善。自主性機器人可能會作出我們認爲在道德上有錯誤的決定——例如被授權不爲病患提供止痛藥,再比如帶有偏見的人工智能可能會自我強化從而損害社會。但是,這不應該成爲人類拒絕機器人的原因,而應該成爲機器人或人工智能在道德形態上得到改善和提升的契機。隨着人類主體與人工智能主體之間的相互依系關係的建立,具備自我決策能力的自主機器人一旦在與人類主體的互動中學習從道德角度發展決策算法,那麼避免傷害就成爲人與機器相互依系的“善法”。

(作者:田海平,系北京師範大學哲學學院教授)