tft每日頭條

 > 圖文

 > 人工智能最重要的倫理準則

人工智能最重要的倫理準則

圖文 更新时间:2024-09-27 13:04:09

作者:陳小平(中國科學技術大學計算機學院)

内容提要:人工智能倫理建設的必要性已形成全球共識,但建設目标、重點任務和實現路徑仍存在較大分歧,概括為六個議題。本文首先介紹AI的兩大類主要技術——強力法和訓練法,在此基礎上總結AI現有技術的三個特性,作為AI倫理的技術依據。同時,以全球公認的福祉原則作為AI倫理的根本依據。本文立足于這兩個依據,闡述AI倫理建設應具有雙重目标——同時回答應該和不應該讓AI做什麼,進而探讨另外五個重要議題:AI的安全底線,AI功能的評價原則,AI治理責任的落實路徑,AI主體狀況變遷的可能性,以及一種全新的創新模式——公義創新。

經過幾年的廣泛讨論,人工智能(Artificial Intelligence,簡稱AI)倫理建設的必要性已形成全球共識。但是,關于AI倫理的建設目标、重點任務和落地路徑,仍存在較大的分歧和争論,也有些關鍵問題尚未引起足夠的重視,文本将這些内容概括為六個議題。顯然,建設目标的定位将決定重點任務和落地路徑的選擇,從而決定AI倫理建設的發展大局。關于AI倫理建設目标的主要分歧是:AI倫理應該是雙重目标(即同時回答應該和不應該讓AI做什麼),還是單一目标(即主要回答不應該讓AI做什麼)?如果是單一目标,一些重大議題将被完全或部分地排除。引起分歧和争議的一個重要原因在于,對現階段AI技術特性的認識存在巨大差異,從而導緻對AI社會意義和倫理風險的截然不同甚至完全相反的判斷。為此,有必要梳理七十年來AI研究的主要進展,澄清現階段AI技術的主要特性,形成AI倫理的技術依據。同時,以全球公認的福祉原則作為AI倫理的根本依據。本文根據這兩個依據讨論AI倫理的六個議題。

一、人工智能的強力法

AI經過三次浪潮取得了大量進展,各種技術路線層出不窮,受到研究者較多關注的有兩大類技術——強力法和訓練法。強力法又包含推理法和搜索法兩種主要類型,推理法是在知識庫上進行推理,搜索法是在狀态空間中進行搜索。推理法通常由一個推理機和一個知識庫組成,推理機是一個負責推理的計算機程序,往往由專業團隊長期研發而成,而知識庫則需要研發者針對不同應用自行開發。

一般來說,推理機的工作方式是:針對輸入的提問,根據知識庫裡的知識進行推理,給出問題的回答。下面用一個簡化的例子加以說明。假設我們要用推理法回答“就餐”這個應用場景的有關問題。為此需要編寫一個關于“就餐”的知識庫,其中部分知識如表1所示。表1中的第一條知識是一個邏輯公式,它的含義是:餐具可以盛食物;表中的第二條知識food(rice)也是一個邏輯公式,它的含義是:米飯是食物;表中的其他知識類似。

人工智能最重要的倫理準則(人工智能倫理建設的目标)1

表2列舉了一些問題,比如第一個問題“hold(bowl,rice)?”問的是:碗能盛米飯嗎?推理機利用知識庫中的知識進行推理,可以給出此問題的回答yes。表2中的第三個問題稍微複雜一點,它問的是:碗能盛什麼?回答一般不是唯一的,但推理機仍然能夠根據知識庫中的知識,找出所有正确的答案:碗能盛米飯、能盛湯……推理機還可以回答更複雜的問題。

值得注意的是,一般情況下,由推理機得到的回答,并不是知識庫中存貯的知識。例如表2中的三個回答都是推導出來的,在知識庫(表1)中并沒有直接保存“碗能盛米飯”“碗能盛湯”等答案。因此,知識庫推理與數據庫查詢不同,不是提取事先保存的答案,而是推出知識庫中沒有保存的答案,可見知識庫加推理機的組合能力之強大。知識庫上的推理被認為是一種智能功能,是其他信息技術所不具備的。

目前強力法受到一個條件的限制——封閉性。①封閉性在推理法上的具體表現是:要求存在一組固定、有限的知識,可以完全描述給定的應用場景。對于上面的“就餐”場景,如果存在着不可以盛湯的“破碗”(并且将“破碗”也當作“碗”),那麼表1中的知識就不能完全描述這樣的“就餐”場景,因為根據這些知識推出的某些回答(如“碗能盛湯”)在這個場景中是不正确的。

上述“就餐”場景是特意設計的一個小例子,而實際應用中的場景都很大、很複雜(否則就不必應用AI技術了),有時不滿足封閉性條件。比如一個就餐場景中,一開始沒有破碗,根據知識庫推出的回答都是正确的;可是一段時間之後出現了破碗,根據知識庫推出的某些回答就不正确了。這種情況也是不滿足封閉性條件的。

關于推理法對于整個AI的重大意義,深度學習的三位領軍學者Geoffrey Hinton、Yann LeCun和Yoshua Bengio(他們共同獲得2018年度圖靈獎)在深度學習的總結性論文中指出:深度學習的根本性局限在于缺乏複雜推理能力。(cf.LeCun et al)而推理法代表着人類關于複雜推理能力的最高研究成果,所以推理法的局限性也代表着整個AI現有技術的局限性,封閉性對推理法的限制也是對整個AI現有技術的限制。

二、人工智能的訓練法

訓練法要求首先收集一組原始數據,并對其中的每一條數據都進行人工标準,做成訓練數據集。然後用訓練數據集訓練一個人工神經元網絡,用訓練好的網絡回答問題。

圖1是一個人工神經網絡的示意圖。圖中每一個圓圈代表一個“神經元”,每一個帶箭頭的線段代表神經元之間的一個“連接”。人工神經元網絡就是由大量神經元和連接組成的網絡。一個連接可理解為一條信息通道,并對通道中傳遞的信息進行加權運算;也就是說,一條連接首先從一個神經元接受輸入數值,經過加權運算,再按照箭頭的指向,向下一個神經元輸出加權計算的結果。圖1省略了所有連接上的權值。

如圖1所示,一個神經元可以有多個輸入連接,從而同時接受多個輸入值。一個神經元也可以有多個輸出連接,從而同時向多個神經元傳遞輸出值。每個神經元能夠獨立地計算一個簡單函數f,即根據該神經元的所有輸入值,計算得出函數f的值之後,作為輸出值向所有輸出通道同時發送,經過各條連接上的加權運算之後,傳遞給其他神經元。在圖1中,是整個人工神經元網絡的輸入連接,具體輸入值來自網絡外部; 是整個人工神經元網絡的輸出,具體的輸出值就是網絡的計算結果。

人工智能最重要的倫理準則(人工智能倫理建設的目标)2

圖1 一個人工神經網絡示意圖

圖1隻畫出了四列神經元,其他列被省略了。每一列神經元稱為一個“網絡層”。如果一個人工神經網絡具有很多層,比如幾十層、幾百層甚至更多層,就稱為“深層網絡”,深層網絡上的機器學習稱為“深度學習”。

下面以著名的ImageNet圖像分類比賽中的一個任務為例,說明訓練法的工作過程。在比賽之前,組織者收集了一個大型圖片庫,包含1400多萬張圖片,并将其中一部分圖片做了人工标注,這些帶人工标注的圖片作為訓練數據集,參賽隊可以用這些圖片訓練他們的神經網絡。圖片庫中沒有标注的圖片作為測試集。在比賽中,要求每一個參賽的圖像分類軟件,針對測試集中的大量圖片,自動識别這些圖片中動物或物品的種類,按識别正确率的高低決定比賽名次。

這個測試集中的圖片被人工分為1000類,其中每一個類用0至999中的一個數字進行标注。一個類包含幾十張到一百多張圖片,這些圖片中的動物或物品的種類相同,所以這些圖片被标注為相同的數字。這1000個類包括7種魚,第一種魚的所有圖片标注為0,第二種魚的所有圖片标注為1,……,第七種魚的所有圖片标注為6;還包括公雞和母雞,公雞和母雞的圖片分别标注為7和8;還有26種鳥的圖片分别标注為9至34等等;一直到最後一類——衛生紙圖片,标注為999。原始圖片和人工标注的對照見表3。采集好的原始圖片經過人工标注,訓練集就制作完畢,可以用于人工神經元網絡的訓練了。

如果訓練之後,一個人工神經元網絡的正确識别率達到了預定的要求(比如95%以上),就認為訓練成功,可以應用了。正确識别指的是:對輸入的任何一張圖片,能夠指認輸出圖片中動物或物品所對應的數字。比如輸入公雞的圖片,人工神經元網絡輸出數字7;輸入衛生紙的圖片,則輸出數字999。從實際效果來看,如果一個人工神經元網絡達到了上述要求,就可以認為,該神經網絡“學會”了識别圖片中的1000類動物或物品。

訓練法也受封閉性的限制,具體表現為:可以用一組固定、有限、帶人工标注的代表性數據,完全描述給定的應用場景。(參見陳小平,2020年a,2020年b)所謂“代表性數據”,指的是能夠代表所有其他數據的數據。例如,上面的圖像分類比賽例子中,如果隻用訓練集中的圖片訓練神經網絡,就可以訓練出合格的網絡,那麼這個訓練集就具有代表性,代表了圖片庫中所有1400多萬張圖片。反之,假如一個訓練集不具有代表性,用它訓練出的神經網絡就不合格,比如正确識别率到不了預定的要求,不能實用。

普通算法通常直接計算一個函數。例如,圖2中的算法計算一個自然數x是偶數還是奇數,算法規定了每一步計算過程,根據相關背景知識可以得知每一步計算的含義和作用是什麼,進而判斷這個算法是否正确。

通過“AI算法”與普通算法的對比發現,它們是非常不同的。具體地說,強力法中的推理法是用知識和推理解答問題,要求針對一個應用場景編寫相關的知識庫,然後用推理機回答問題,而不是像普通算法那樣直接計算結果。訓練法則要求首先采集、制作訓練數據集,訓練出一個合格的神經網絡,然後用該網絡回答問題,而網絡内部的運行一般是無法解釋的(至少目前如此)。

圖2 計算自然數奇偶性的普通算法

由此可見,AI算法不僅更複雜,更重要的是原理不同,難以直接根據一個AI算法判斷它能做什麼、不能做什麼、怎麼做的、做得是否正确等等。為此,本文給出AI現有技術的三個特性,從而為分析AI倫理的六個議題提供技術依據。

AI現有技術的第一個特性是封閉性(具體含義如上所述)。一個應用場景如果具有封閉性,則應用AI的強力法或訓練法技術,可以保證應用成功;如果不具有封閉性,則不保證應用成功(但也不一定失敗)。由于大量應用場景是封閉的,或者可以被封閉化,即改造為封閉的(參見陳小平,2020年a),所以封閉性條件對于大量實際應用成立,也為這些應用的研發提供了一個不可忽略的關鍵指标。

AI現有技術的第二個特性是被動性。這些技術不具備主動應用的能力,隻能被動地被人應用。有人認為,AI可以自我學習,從而學會它原來不會做的事情。事實上,這樣的技術确實在研究之中,但目前尚未成熟,無法投入使用,而且強行投入使用會帶來極大風險。還有人認為,圍棋AI程序“阿法狗”可以自學下圍棋,而且通過自學戰勝了人類。其實,圍棋是一個封閉性問題,“阿法狗”技術隻對封閉性場景有效(參見陳小平,2020年b),而且“阿法狗”的所謂“自學”完全是它的設計者事先安排好的,與通常人的自學不是一回事。

AI現有技術的第三個特性是價值中性,也就是說,這些技術本身無所謂善惡,人對它們的應用方式決定其善惡。以推理法為例,推理機給出的回答會不會對人有害,完全取決于知識庫是否包含可能隐含不良後果的知識。由于知識庫是人編寫的,所以是設計者決定了推理法的具體應用的善惡。也有研究者試圖讓AI自動尋找自己所需的知識,即具有自動獲取知識的能力(例如Chen et al,2012),但這些技術目前仍處于基礎研究和實驗測試階段。

四、人工智能倫理的六個議題

議題1:AI倫理的建設目标——雙重還是單一?

根據對倫理學的常識理解,倫理是人的行為準則,以及人與人之間和人對社會的義務。(參見《辭海》縮印本,第221頁)因此,AI倫理要回答兩方面的問題:應該讓AI做什麼,不應該讓AI做什麼。同時回答兩個問題是雙重目标;隻回答“不應該做什麼”問題是單一目标。

鑒于世界各國都将“福祉”作為AI倫理的基本原則甚至第一原則,我們将福祉原則作為AI倫理體系的指導性原則。顯然,福祉的實現主要源于努力而非限制。由于AI具有被動性,AI的發展必須經過人的努力,所以AI倫理應該引導和規範這種努力,這就是雙重目标的根本依據。

在雙重目标下,AI倫理體系的基礎架構(參見陳小平,2019年)②如圖3所示。在此架構中,AI倫理有三層結構:倫理使命(福祉)、倫理準則(如安全性、公平性等)和實施細則(詳見議題3)。其中,針對不同的應用場景,需要設立不同的實施細則,于是AI倫理與社會及經濟發展相互緊密關聯,不再是空中樓閣。在這個架構中,傳統創新需要受到倫理準則的約束(這種約束過去沒有充分建立起來),從而促使傳統創新更好地服務于社會需求和重大社會問題的解決。

由于傳統創新并不十分适合社會重大問題的解決,所以我們提出了一種新的創新模式——公義創新(詳見議題6)。公義創新和傳統創新都要接受福祉原則的指導,這是不變的。同時,根據公義創新的成果可以改變現有倫理準則的内涵,也可以增加或減少倫理準則,以反映社會發展對AI倫理的反作用。在兩種創新的促動下,社會需求和社會重大問題不斷得到解決,推動社會進步,形成新的社會需求和重大社會問題,從而實現社會及經濟的螺旋式發展。

人工智能最重要的倫理準則(人工智能倫理建設的目标)3

圖3 人工智能倫理體系架構

議題2:AI的安全底線——技術失控與技術誤用?

在技術範圍内,AI的倫理風險主要有兩類:技術失控和技術誤用/濫用。技術失控指的是人類無法控制AI技術,反而被AI所控制,成為奴隸或寵物。技術誤用/濫用指的是AI技術的非正當使用,由此帶來對用戶和社會的損害,但達不到失控的嚴重程度。技術誤用/濫用是目前存在的現實倫理問題,亟需加強治理;而技術失控是人們的最大擔憂,相關影視作品的流行大大增強了這種擔憂。

對于AI技術失控的可能性而言,上文總結的AI三個特性具有關鍵性影響。人類對封閉性或封閉化場景具有根本性乃至完全的掌控力,因此這些場景中的應用不會出現技術失控。根據被動性,AI技術應用都是由人類實施的,隻要人類對不成熟、不安全的AI技術不實施應用,這些技術都無法進入應用空間,也就不會引起風險。根據價值中性,隻要人類對AI技術的應用符合倫理準則,這些應用就不會對人類造成不可接受的損害。

因此,在AI三個特性成立,并且AI應用遵守倫理準則的情況下,不會出現技術失控,也不會對人類造成不可接受的損害。可是,在這三個特性不全成立,或者AI應用不遵守倫理準則的情況下,就可能出現倫理風險。例如,假如未來出現了可以在非封閉性場景中自主進化的AI技術,就無法排除各種倫理風險,甚至包括技術失控的可能性。(參見趙汀陽)再如,如果在AI技術應用中不遵守相關倫理準則,就會出現技術誤用/濫用;數據安全問題、隐私問題、公平性問題等等,都屬于這種情況,而且已經在一定範圍内發生,亟需加強治理。這表明,針對技術誤用/濫用的治理已經成為當務之急,而完整AI倫理體系的建設也必須提上議事日程。

議題3:AI功能的評價原則——“超越人”與“人接受”?

對AI技術的功能水平的傳統評價原則是“超越人”,有時具體表現為“戰勝人”,如阿法狗。不過在AI界,這個原則理解為AI與人的同類能力水平的對比,看誰的水平更高,而不是要在現實世界中用AI戰勝人(雖然經常發生這種誤解)。AI研究界和産業界往往認為,當AI的某項能力超過了人,那麼就可以在産業中實現該能力的産品化;如果尚未超過,則表示AI的該項能力還不夠強,難以實用化。

不過,在上述傳統評價原則之外,實際上還存在着另一種評價原則,這就是“人接受、人喜愛”。在一些應用場景中,AI通過人—機器人交互提供服務,而且人—機器人交互以人機情感互動為基礎,例如面向空巢群體的情感機器人、用于自閉症等人群心理幹預的機器人、用于少兒娛樂教育的機器人等。在這些應用中,用戶對機器人的接受度是第一重要的,否則産品的其他功能再好也難以被用戶接受。

在接受原則下,相關AI産品的主要評價指标不是在某個方面比人強,而是人對AI的接受性和接受度是否滿足用戶的期望。例如,中國科學技術大學研發的情感交互機器人“佳佳”,其智能水平隻是她的“姐姐”——“可佳”機器人(cf.Chen et al,2010,2012)的幾分之一,但由于“佳佳”可以識别人(如用戶)通過表情和話語呈現出的情緒,并通過機器人的表情和話語進行即時反饋,在一定程度上實現了機器人與人的情感互動,因而具有更高的用戶接受度,在人機情感交互方面的性能遠遠超過“可佳”。

兩種AI功能評價原則決定了人類對AI的兩種觀察角度和評判标準,所以它們絕不是單純的技術問題,同時也決定了AI倫理對AI技術的觀察角度和評判依據。因此,AI倫理應該同時從這兩個角度展開自己的研究和實踐。目前對第一個角度的研究較多,而第二個角度的研究基本處于空白狀态。亟待加強。

議題4:AI治理責任的落實——規範性與自主性?

目前法學界傾向于認為,AI尚不具備法律主體地位。(參見劉洪華,2019年)因此,與AI相關的法律責任的主體是人,比如産品的研發、運維機構。因此,與AI技術相關的主體責任和治理責任的落實,就成為AI倫理的一個重要議題。

我們認為,由于AI現有技術的三個特性,法學界的上述判斷是符合現階段實際情況的,AI确實不應該、也不可能承擔主體責任。另一方面,隻要倫理規範足夠具體化,以至于成為封閉性條件的一部分,那麼在這種場景中,就可以利用AI現有技術,自主地執行這些規範,從而完成部分AI治理任務。對于非封閉的應用場景,或者倫理規範不能成為封閉性條件的一部分的情況下,則不能完全依靠AI技術的自主性,必須堅持人的管理和介入。總體上,人作為責任主體,絕不能放棄自己的職責。

根據以上分析可知,在倫理規範和管理體制下,讓AI技術自主或半自主地實現其功能,是一種有效的責任落實方式。例如,利用AI技術,可以對消息的真僞性進行核查和推測,對通過核查的真實消息向目标用戶進行分發推送,對敏感操作流程的合規性進行審核,等等。不過,由于這些應用的場景往往不是完全封閉的,所以仍然需要人工管理,但AI技術的應用能夠大大減輕人工負擔,顯著提高工作效率,整體上明顯改善管理水平。

産業部門的現行管理體制為主體責任的落實提供了一條可行路徑,尤其其中的技術标準可以作為AI倫理準則的一種實施細則(見圖3)。對于AI相關産品,需要與其他工業品一樣,設立四個層級的技術标準:國際标準、國家标準、行業标準和企業标準,其中企業标準和行業/團體/地方标準不得與國家标準相抵觸,而國家标準與國際标準之間,可以通過國際标準化合作達成協調一緻。所有這些層級的技術标準都應符合AI倫理規範的要求。這樣,倫理規範就通過技術标準及相關管理機制得到落實,不再是紙上談兵的空中樓閣。

議題5:AI主體狀況變遷的可能性——物、人還是“非人非物”?

上文已說明,目前AI在法律上是物,不是人。但是,由于大量應用需求的推動,以及“接受”評價原則的采納及相關研究的深入和成果推廣,AI技術的發展已形成了一種新的可能性:在不遠的将來,某些AI産品或技術載體如情感交互機器人,會被部分大衆接受為“非人非物、亦人亦物”的第三種存在物。

在AI發展早期,曾出現少數用戶将AI誤認為人的情況,比如上世紀60年代有人将一個AI對話系統誤認為人。不過,這是在人與物的二分法體系之中出現的混淆,沒有突破二分法的邊界。而現在出現的情況是,人在與某些機器人的交互中,一方面從理智上明确認識到和自己交互的機器人不是人,同時卻在情感中不将機器人視為物,而更傾向于視為某種有情感能力的新型存在物。這種情況實際上比之前的要更複雜。

出現這種現象的原因在于:與科學和哲學中的默認假設不同,人們通常并不關心機器人表現出的情緒是不是真實的人的情緒,更不去仔細區分人的情緒和機器人的情緒有什麼本質區别。(參見胡珉琦)

這種現象帶來三方面的可能性。第一,有助于AI在某些領域的應用推廣,滿足用戶的大量真實需求(尤其是情感交互方面的需求),從而帶來AI研究和應用的新機遇;第二,為調整、拓展和改善人機關系開辟了新的探索空間;第三,帶來一種新的倫理挑戰——對自古以來從未受到懷疑的人—物二分法的挑戰。雖然科學上可能不承認這種存在物的真實性,哲學上也不承認它的必要性,但如果越來越多的大衆在認知和心理上接受這種存在物,就會形成一種普遍和重要的社會現象,甚至可能對人機關系和人際關系産生廣泛的、震撼性的沖擊和深遠的影響。因此,忽視這些可能性将會造成AI倫理大廈的巨大缺口。AI倫理的雙重目标要求對正、反兩方面的可能性展開積極探索。

議題6:AI時代的創新模式——傳統創新與公義創新?

在圖3所示的AI倫理體系架構中,一個核心部分是公義創新。與傳統創新(參見黃陽華)相比,公義創新的主要内涵及特點如下。

第一,傳統創新主要追求經濟效益的顯著增長,而公義創新追求經濟效益和社會效益的協同提升。傳統創新帶來經濟效益的顯著增長是有目共睹的。與此同時,諸多重大社會問題不斷積累和深化,包括氣候變化、環境污染、人口老化、收入不均、大規模流行病等等。甚至有人認為,正是傳統創新加劇了這些問題的惡化。作為對傳統創新模式的反思和超越,公義創新将以經濟效益和社會效益的協同提升為基本目标,以重大社會問題的解決為重點任務,改變經濟效益和社會效益相互脫節的現象。在現代社會中,公益事業與商業創新是相互分離的,科技成果相對易于進入商業創新,不易進入公益事業,公益事業與商業創新的這種分立式組合,明顯不利于重大社會問題的解決。

第二,傳統創新的目标對象是滿足用戶需求的具體産品/服務,而公義創新的目标對象是符合社會發展需要的人工/人造系統。③滿用戶需求、且具有顯著經濟利益的産品/服務這個目标對象貫穿于傳統創新的全流程,是該流程一切環節的終極考核指标,因而難以避免各種損害社會效益的副作用。因此,公益創新将不再以産品/服務本身作為目标對象,而是上升到人工/人造系統(參見司馬賀,第30頁)層面,并且全面重構人工/人造系統的設計—實施體系,将其改造為實現經濟效益和社會效益綜合提升的手段。

例如,很多高新技術的應用在提高經濟效益的同時,也帶來人工崗位的大量減少,④并可能導緻新的收入分化,這種情況在傳統創新中比較普遍。而在公義創新的設計考慮中,一個人工/人造系統包含的要素有:産品/服務、制造方式、員工利益、用戶利益……于是,設計方案的評價指标不僅反映經濟效益,同時也反映社會效益。顯然,這種人工/人造系統的設計和實施難度遠遠高于傳統的産品設計和制造。為此,不僅需要将AI技術繼續應用于産品設計環節(類似于傳統創新),更需要将“規劃”(參見李德毅,第216頁)、機制設計、目标優化等AI技術應用于整個人工/人造系統的設計,從而使AI技術發揮更大的作用,幫助人類發現或創造社會經濟發展的更多新機遇,如新的就業崗位、新的人機合作方式、新的生産—生活協同方式以及解決重大社會問題的新途徑。

第三,傳統創新延續、強化工業文明傳統,而公義創新探索更具包容性的文明路徑。除上面提到的問題之外,傳統創新通過延續、強化工業文明傳統,進一步加劇了人的異化、人機對立等長期存在的難題,甚至可能産生“無用階層”(參見鞏永丹)等文明層面的重大挑戰。尤為重要的是,這些挑戰性問題在工業文明傳統下是無解的,因此有必要探索新的化解路徑。公義創新的思想來源包括三個方面:曆史觀——道家哲學(特别是老子的“道”),文化觀——儒家哲學(特别是孔子的“義”),社會觀——希臘哲學,如梭倫的“正義”理論。(參見廖申白)這些不同文化傳統的融合、發展将構成公義創新的理論基礎,并在其上構建公義創新的方法論體系,最終形成可運行的公義創新模式。在這種新模式下,對人的關注将得到根本性加強,對人和機器的認識将大幅度更新,人與機器的關系将得到重新定義,并在福祉原則的指導下,推動人、機器和環境的更具包容性的一體化發展。

顯然,在現行市場規則下,公義創新面臨很多困難,因此公義創新的實行要求改變市場規則和管理方式。其次,公義創新也要求設計思維、教育理念及實踐的徹底變革,并帶來人的觀念的重大變革。事實上,公義創新的實施将為社會經濟發展帶來大量新機遇。

為了實現其基本使命——增進人類福祉,AI倫理要能夠同時解答兩方面的問題:應該讓AI做什麼,不應該讓AI做什麼,所以AI倫理具有雙重目标。根據雙重目标,結合AI現有技術的特性,本文認為短期内AI的主要風險是技術誤用/濫用,這應成為近期AI倫理治理的重點課題。同時,本文分析了AI功能評價的兩種原則——超過人和人接受,需要同時從這兩個角度展開AI倫理治理。針對以上任務,本文發現,在現行産業管理及技術标準體系的基礎上加以擴展,在适當條件下将AI技術引入到管理過程中,可以更加有效地實施AI倫理治理,從而形成落實AI治理責任的一條切實可行的路徑。一個較長期的挑戰是AI主體狀況的變遷,即某些類型的AI被部分人接受為“非人非物、亦人亦物”的可能性,由此帶來從技術到人機關系再到AI法制的一系列新課題。另一個更大的挑戰是面向重大社會問題,以經濟效益和社會效益的協調統一為基本追求的公義創新,它在人類福祉原則的指導下,廣泛深入地利用AI技術,将傳統的産品設計和制造升級為人工/人造系統的設計和實施,這也是雙重目标下AI倫理體系建設的最大特色和最終标志。

*本文根據作者在“第二屆全球視野下的人工智能倫理論壇”(杭州,2020年7月25日)上的演講整理而成。作者在與趙汀陽、王蓉蓉關于AI倫理問題的讨論中受益良多。本文部分素材來自《人工智能倫理導引》(陳小平主編,中國科學技術大學出版社2020年),劉貴全、顧心怡、葉斌、汪琛、王娟、侯東德、蘇成慧參與了該書編著。謹向以上諸位表示感謝。

注釋:

①關于封閉性具體内涵的詳細描述,通俗性介紹參見陳小平,2020年a;專業性介紹參見陳小平,2020年b。

②原文引入了“倫理創新”的術語,後經王蓉蓉建議,改為“公義創新”,但内涵保持不變。

③“人工”的例子如“人工降雨”,其結果(降下來的雨)是“真的”(自然的),而導緻這個結果的過程是人為的(非自然的);“人造”的例子如“人造衛星”,其結果(衛星)及其過程都不是“真的”。AI中的Artificial包含人工和人造兩種類型,公義創新的目标對象也包括人工系統和人造系統。

④對此需要具體情況具體分析,比如目前在國内工業界,機器人替代的勞動崗位主要是工作環境惡劣、不适合人從事的工種,如噴漆、打磨等。值得重點關注的是經濟效益與社會效益不一緻的情況。

原文參考文獻:

[1]陳小平,2019年:《人工智能倫理體系:基礎架構與關鍵問題》,載《智能系統學報》第4期。

2020年a:《封閉性場景:人工智能的産業化路徑》,載《文化縱橫》第1期。

2020年b:《人工智能中的封閉性和強封閉性——現有成果的能力邊界、應用條件和倫理風險》,載《智能系統學報》第1期。

[2]《辭海》(縮印本),1979年,上海辭書出版社。

[3]鞏永丹,2019年:《人工智能催生“無用階級”嗎?——赫拉利“無用階級”斷想引發的哲學審度》,載《國外理論動态》第6期。

[4]胡珉琦,2020年:《AI與情感》,載《中國科學報》7月23日。

[5]黃陽華,2016年:《熊彼特的“創新”理論》,載《光明日報》9月20日。

[6]李德毅主編,2018年:《人工智能導論》,中國科學技術出版社。

[7]廖申白,2002年:《西方正義概念:嬗變中的綜合》,載《哲學研究》第1期。

[8]劉洪華,2019年:《論人工智能的法律地位》,載《政治與法律》第1期。

[9]司馬賀(Herbert Simon),1987年:《人工科學》,商務印書館。

[10]趙汀陽,2018年:《人工智能會是一個要命的問題嗎?》,載《開放時代》第6期。

[11]Chen et al,2010,"Developing High-level Cognitive Functions for Service Robots",in Proc.of 9th Int.Conf.on Autonomous Agents and Multi-agent Systems(AAMAS 2010),Toronto,Canada.

2012,Xiaoping Chen,Jiongkun Xie,Jianmin Ji,and Zhiqiang Sui,"Toward Open Knowledge Enabling for Human-Robot Interaction",in Journal of Human-Robot Interaction 1(2).

來源: 《哲學研究》

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关圖文资讯推荐

热门圖文资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved