tft每日頭條

 > 生活

 > 最終解釋權歸屬是否合理

最終解釋權歸屬是否合理

生活 更新时间:2025-01-15 10:27:33

最終解釋權歸屬是否合理(雖被個保法認可)1

【編者按】基于個人信息的算法自動化決策越來越普遍,但由于算法具有黑箱性、不确定性與複雜性,算法解釋權應該理解為一般性權利還是限定性權利,要求系統性解釋還是個案性解釋、事前解釋還是事後解釋、人工解釋還是機器解釋,都存在解釋争議與适用困境。

《互聯網法律評論》特約專家、中國人民大學法學院副教授丁曉東認為,應以信任機制重構自動化決策中的算法解釋權,将算法解釋權視為一種信任溝通機制。在制度層面,可以根據算法自動化決策所處的行業領域、市場化程度、個案影響、企業能力而對算法解釋權的内容、程度、時間和方式作不同要求。

本文發表于《中國法學》2022年第1期,原标題為《基于信任的自動化決策:算法解釋權的原理反思與制度重構》。《互聯網法律評論》今日獲得作者授權編輯轉發。

在大數據與人工智能時代,基于個人信息的算法自動化決策越來越普遍。于是,許多國家都在個人信息或個人數據保護法中引入算法決策的相關條款,但由于與算法相關的權利相對新穎,而且各國的法律規定都比較概括抽象,這些條款往往可以作不同解讀。與此同時,研究者也對算法解釋權的權利内容、程度、時間與方式給出了不同的法律解釋。不同的算法解釋權意味着個人可以主張行使的權利不同,個人信息處理者應當承擔的義務不同。

1

算法解釋權的解釋争議

權利内容方面

一般性權利主張

限定性權利主張

程度要求

系統解釋

個案解釋

時間要求

算法決策前解釋

算法決策後解釋

解釋方法

人工解釋

機器解釋

(一)一般主張與限定主張

在權利内容方面,算法解釋權可以被解釋為一般性權利主張,即此種權利賦予個體在所有情形下針對所有自動化決策者的算法解釋權利。綜合我國《個人信息保護法》中的相關法律條款,可以從中推導出一種基于透明性主張的算法解釋權,個人可以對所有算法決策者提出算法解釋與說明的主張,并且可以在信息處理者拒絕的情形下提起訴訟請求。但另一方面,《個人信息保護法》的相關規定又可以被理解為限定性的權利性主張,包括特定條件下的說明解釋權與拒絕自動化處理的權利,但不包括一般情形下的算法解釋權。

算法解釋權的一般性主張與限定性主張之間的區别并不僅僅是概念性的,前者比後者為個人賦予了更寬泛的權利主張,其适用對象更廣,而且對算法決策者施加了更多責任

(二)系統解釋與個案解釋

算法解釋權的程度要求也存在兩種理解:一種理解是,個人可以要求自動化決策者對算法的系統功能做出解釋,即要求自動化決策者解釋自動決策系統的邏輯、意義、預期後果和一般功能。另一種理解是,個人可以要求對個案決策做出解釋,即要求自動化決策者解釋“算法決策的基本原理、原因,以及限定自動決策的個别情況”。兩種解釋為個人賦予不同的信息權利,為自動化決策者施加不同的責任

(三)事前解釋與事後解釋

就解釋的時間要求而言,算法解釋權既可以視為要求自動化決策者進行算法決策前的解釋,也可以視為要求自動化決策者進行算法決策後的解釋。根據事前解釋的要求,無論是網約車乘客還是各類資訊、廣告、新聞的用戶,都可以要求自動化決策者在算法決策前就公布其算法規則。根據事後解釋,個體隻能在算法決策作出之後提出請求。對于算法解釋權的時間要求,我國《個人信息保護法》并未進行明确規定,歐盟的《一般數據保護條例》也可以作兩種解釋。

(四)人工解釋與機器解釋

就解釋方法而言,算法解釋權可以被認為要求進行人工解釋。另一方面,也可以認為純粹機器解釋同樣符合算法解釋權的要求。目前,各國的個人信息保護法并未對解釋方法作出明确規定。

最終解釋權歸屬是否合理(雖被個保法認可)2

2

算法解釋權的适用困境

算法解釋權的困境不僅存在于法律解釋層面,也存在于法律适用與效果層面。一旦對算法解釋權的内容要求、程度要求、時間要求、方式要求作剛性的規則要求,就會帶來各類問題。

(一)算法解釋權的權利内容

就權利内容而言,将算法解釋權界定為一般性權利主張,可能面臨知情同意原則帶來的問題。以“知情—同意”模式保護個人信息相關權益,本身就面臨着很多困境,可能同時引發個人信息權益保護不足或者保護過度的問題。在涉及算法的自動化決策中,上述問題更為明顯。相比個人信息的收集與非自動化決策的信息處理,涉及算法的規則往往更為複雜。因此,如果将絕對透明視為算法解釋權的要求,未必現實。就效果而言,也未必能很好地維護個人的相關性權益,促使企業為個人提供更優服務

此外,将算法解釋權視為一種限定性權利的主張,以拒絕算法自動化處理權作為核心,也面臨不少困境與挑戰。首先,在有的場景下,個人反對權的行使并不合理。其次,在原理層面,将反對或脫離算法決策上升為一種權利,也需要進一步論證。很多人可能更願意采用自動化決策算法,而非人工算法。如果拒絕自動化決策可以作為一種權利,那麼反對人類決策和采取自動化決策權是否也應該成為一種權利?

(二)算法解釋權的解釋程度

1.算法的系統性解釋面臨時時更新的難題

以機器學習為代表的人工智能算法可以從數據中學習,并随着時間的推移而提高其準确性。因此,在機器學習算法中,算法随着時間的演進而變化,而非一成不變。

2.算法的系統性解釋難以引起個人注意,也難以為個人提供有效信息

在自動化決策者進行自動化決策之前對個人的告知中,個人對算法自動化決策系統的邏輯、意義、預期後果和一般功能往往就沒有太多興趣,更不用說去了解和閱讀相關告知。在個人遭遇自動化決策,對算法産生相應疑慮之後,關于算法的一般系統解釋也未必能打消個人疑慮。

3.算法的系統性解釋面臨知識産權與“算計”算法的難題

算法的系統性解釋,往往意味着算法決策機制一定程度的公開,會對企業的知識産權保護帶來一定的挑戰。如果向包括社會公衆在内的人員完全公開算法,可能導緻社會主體鑽算法的空子,采取各種方式來“算計”算法的問題。

相比算法的系統性解釋,算法的個案性解釋需要解釋某個具體算法決策的邏輯,因而更貼近個人訴求。但個案性解釋首先面臨與系統性解釋同樣的問題,因為個案性解釋以系統性解釋為前提,其需要首先解釋算法決策系統的一般規則。其次,個案性解釋的解釋難度更大、成本更高。最後,算法的個案性解釋需要多具體?從邏輯上說,個案性解釋可以無限具體,個人可以無限追問。

(三)算法解釋權的時間要求

就算法解釋的時間要求而言,事前解釋的意義有限。事前解釋隻能是一般解釋。個體往往對于告知不太在意或難以理解,而機器學習等算法又可能随時發生變化。在這樣的背景下,對算法做事前解釋無助于個體理解算法并且作出理性決策

同時,事後解釋也面臨難題。一方面,事後解釋是在算法決策作出之後進行。自動化決策者無需提前告知個體其運行機制,那麼個人對自動化決策與個人信息處理的選擇權将形同虛設。此外,在一些具有風險性的算法決策中,事後解釋可能面臨更大的問題。另一方面,事後解釋應當以體系性解釋作為要求,還是應當以個案性解釋作為要求,也是一個兩難問題

在機器學習等算法中,算法可能在經過大數據訓練後發生變化,因此,算法的事後解釋既可以要求自動化決策者對算法進行一般解釋,也可以針對決策時的算法系統進行個案解釋。如果将事後解釋的要求界定為體系性解釋,那麼企業等算法主體需要對算法的演化進行追蹤了解,将決策時的算法告知用戶即可。其好處是企業等算法主體的負擔相對合理,但問題在于,個體對算法決策的困惑可能很難消除。如果将事後解釋的要求界定為個案解釋,則企業不但需要追蹤算法的演化,還需要針對成千上萬用戶做出個性化解釋。此類解釋雖然有利于用戶消除疑慮,但也會給企業等算法主體施加不現實的負擔。

(四)算法解釋權的方式要求

在解釋方式要求上,機器解釋與人工解釋也難以作統一要求。如果将人工解釋作為強制性與統一性要求,并不現實。這意味着在個人信息的收集、處理、申訴等各個階段,使用算法的企業都需要單獨通知個人,并在個人行使訪問權、更正權、删除權、拒絕自動化決策權等權利時,都設置人工服務。事實上,即使對算法解釋權最為推崇的歐盟,也将很多自動化決策視為符合法定要求的個人信息處理,毋需人工介入或人工解釋

但是如果完全不作要求,允許企業以純機器解釋的方法進行算法解釋,那麼算法解釋制度設計的初衷就可能大打折扣。特别是當算法對個人的“權益造成重大影響”,而個人又對機器的算法解釋感到困惑與質疑,希望有人工解釋介入時,此時企業如果仍然未能提供人工解釋的選項,則所謂的算法解釋制度将形同虛設。

最終解釋權歸屬是否合理(雖被個保法認可)3

3

算法解釋權的原理分析

(一)算法個體控制論的困境

在原理層面,算法解釋權的提出與制定與個人信息控制權理論密切相關。20世紀60年代,美國學者阿蘭·威斯丁(Alan Westin)首先提出個人對自身信息控制的權利,以回應傳統隐私權在信息技術時代保護個人權益的不足。此後,這一個人信息控制權或個人信息自決權廣泛傳播,并在制度層面形成以“公平信息實踐”為基礎的個人信息保護制度。算法解釋權作為一種新型權利,正是訪問權、糾正權、删除權等傳統個人信息控制權的進一步拓展。但将算法解釋權視為絕對化的控制性權利,存在如下問題:

1.個人信息控制權本身存在可行性困境

雖然法律在個人信息收集、儲存、流轉的各個環節都賦予個體知情選擇權,但個人很難通過“告知—同意”的方式來作出理性判斷,以至于這種權利在很大程度上仍然是停留在“紙面上的權利”。同時,解決這種困境,也無法簡單通過強化個人選擇權來完成。在算法問題上,個人控制權面臨更多問題。算法自動化決策比個人信息的收集、儲存與流轉更加複雜,更加具有黑箱屬性與不可預測性。

2.個人控制權存在正當性困境

在很多自動化決策的場景中,自動化決策者與個人之間的關系具有互惠合作性,而不隻具有對抗性,這就使得個人的算法解釋權與控制權難以具備絕對化權利的正當性基礎。

3.市場本身也具有調整能力

在企業算法決策中,并非所有不合理的算法問題都需要國家力量的介入。當某一領域的競争較為充分,特别是已經形成市場良性競争的前提下,當某企業利用算法對個人設置過高的價格或提供低水平服務,這家企業就很可能會被消費者抛棄,被市場淘汰。

因此,算法解釋權應當更多針對那些對消費者産生重大影響的自動化決策,或者針對具有市場支配地位的企業。前者可以使政府力量集中,避免規制中經常出現的規制失靈、選擇性規制、規制俘獲等問題。後者則可以避免某些壟斷企業利用算法和消費者的個人信息而濫用市場支配地位,支配消費者。

(二)抛棄算法解釋權并不明智

算法解釋權既然面臨種種困境,那是否應當抛棄算法解釋權的進路,以算法規制的進路作為替代?算法外部監管具有很多優勢,但徹底放棄算法解釋權的進路,代之以算法的外部監管,并不是合理的法律與制度選擇。

1.算法的外部監管面臨多重挑戰

監管機構雖然專業能力、執法能力較強,但監管機構的數量和人員都有限度,發現問題能力較弱。尤其是在算法這類科技專業性較強的領域,一般監管機構的通用專業能力往往難以應付。此外,監管往往依賴全有全無的規則或命令,對于場景多元、權益多變的算法自動化決策來說,這類規則或命令也未必完全适合監管算法。

2.在算法外部監管面臨困境的方面,算法解釋權的合理行使恰巧可以彌補其不足

面對算法決策,個體雖然認知能力較弱,也一般傾向于息事甯人,不願意介入法律訴訟,但用戶是算法決策的最直接影響對象,算法的變化或更改,用戶的感受往往最為直接深刻。即使其中有很小比例的用戶發現問題,提起申訴或訴訟,也可以較快發現問題。因此,個人對算法的控制權雖然難以行使,但賦予個人對于算法的有限解釋權,通過個人發現算法存在的問題,有利于對算法進行監督和合作治理。

3.算法解釋權不僅可以扮演一種工具性權利,也可以成為一種價值本身

在日常交往與法律活動中,受到影響特别是受到傷害的一方尋求解釋,這對于維護個體自治與尊嚴價值具有重要意義。

(三)邁向溝通信任的算法解釋權

為避免以個人控制權為基礎的算法解釋權帶來的困境,同時彌補算法外部監管的不足,應當重構算法解釋權的基本原則。既然自動化決策者與個人既存在合作互惠關系,又存在對抗防範關系,那麼算法解釋權就應當以促進雙方的合作互惠為目标,以消除個人的疑慮和防範自動化決策者的不合理支配為目标。換言之,算法解釋權應當建立在溝通信任的原則之上。在算法自動化決策問題上,以信任原則重構算法解釋權,比個人信息保護中的其他議題更為必要

(四)算法解釋權的程序性特征

從溝通信任的原則出發,可以重新界定算法解釋權的性質。既不應将算法解釋權視為一種透明性要求,也不應将其視為一種靜态、孤立、絕對化的實體性權利。相反,算法解釋權應當被視為一種動态、溝通、相對性的程序性權利,因為信任本身就是持續性、關系性、程度性的。

首先,信任本身是一個過程,無法通過一次性授權而永久性建構,這使得算法解釋權更類似一種動态性權利。

其次,信任需要在關系中進行建構,而不能通過孤立的權利行使來獲取,這使得算法解釋權更類似溝通性權利。因此,孤立和形式主義的權利行使無助于信任的建構,應以關系溝通的立場看待算法解釋權。

最後,信任是程度性而非絕對性的,這使得算法解釋權更接近于一種相對性權利。就信任而言,即使是最親密的關系,也不可能實現百分之一百的信任。在商業算法決策等場景下,信任關系更不可能達到私人之間親密關系中的信任程度,也毋需達到這種程度。因此,算法解釋權的行使不應追求絕對信任。

最終解釋權歸屬是否合理(雖被個保法認可)4

4

算法解釋權的制度重構

從算法解釋權的原理出發,重新建構算法解釋權制度,可以結合算法解釋權的溝通信任原則與程序性性質,對算法解釋權的内容、程度、時間與方式作不同類别的要求

(一)權利内容:算法解釋權不應被視為一種内容邊界完全清晰的權利

無論是一般性主張還是限定性主張,其權利主張都是程序性的,其實體性邊界應該根據具體場景下個人與算法決策者之間的溝通信任關系而确定。總體而言,當算法決策所處的場景具有嚴重的信任危機,而且難以通過市場競争改善算法時,應當賦予個體一般性的算法解釋權主張,而不僅僅是拒絕算法自動化決策的權利。同時,個體主張算法說明解釋的權利也不應設置前提。相反,當算法決策所處的場景本身具有相對較高的信任度,或者該行業具有良性互動的競争機制,則此時應将算法解釋權限定為某些特定的權利主張。

(二)解釋程度:自律與他律兼顧

一方面應要求企業充分了解和掌握算法的系統性解釋。換言之,企業需要不斷進行内部的自我監管,既需要在事前解釋環節就對算法設計進行内部溝通,也需要在事後解釋中倒查企業内部的算法運作機制,保持對算法的内部動态監管。另一方面,可以根據算法所處的領域特征、影響性不同而要求不同程度和類别的算法個案解釋。

對于那些用戶具有較多選擇權、個案影響一般的算法決策,應允許自動化決策者自身設定個案解釋的規則。對于企業應用算法進行不涉及意識形态與公共倫理的娛樂資訊的分發,應允許企業在個案解釋中進行自我規制,避免國家過多的強制性監管。但對于具有公共性影響的算法以及對個體造成重大影響特别是實際傷害的算法決策,國家則應強制自動化決策者進行個案解釋,以保護公共利益與個人的核心權益。

(三)解釋時間:在告知環節可以要求或倡導企業在事前進行模糊性解釋

由于算法的自我演化與不确定性,算法向公衆的告知可以描述算法的整體運行,讓用戶或消費者感知算法的具體運行情況,幫助個體作出更佳決策,而非對算法的所有參數和所有細節進行描述。

(四)解釋方式:具體情況,具體分析

自動化決策者可以根據自身能力、行業特征、用戶數量與算法影響程度而選擇人工解釋或機器解釋。在理念層面,人工解釋具有一定的優先性,專業高效的人工解釋更有利于信任的建立。同時,對于一些對個人或社會造成重大影響的算法,人工解釋應成為兜底性要求,以便消費者或監管機構對企業或算法運用的主體進行算法監督。但對于其他并未産生重大影響、用戶數量龐大的算法,要求企業或算法主體對所有個體都采取人工解釋,并不現實。因此,應當允許企業在一般情況下運用機器解釋或自動化客服。此外,還可以鼓勵企業或算法主體建立機器與人工的混合解釋機制。機器解釋與人工解釋的混合使用,将有助于減小自動化決策者的現實壓力,更有效推動算法解釋權的落地。

作者:丁曉東

《互聯網法律評論》特約專家

中國人民大學未來法治研究院副院長、博士生導師

【免責聲明】此文僅代表作者個人觀點,與本平台無關。本平台對文中陳述、觀點判斷保持中立,不對所包含内容的準确性、完整性或可靠性提供任何明示或暗示的保證。

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关生活资讯推荐

热门生活资讯推荐

网友关注

Copyright 2023-2025 - www.tftnews.com All Rights Reserved