tft每日頭條

 > 生活

 > 人工智能與各種算法對我們的滲透

人工智能與各種算法對我們的滲透

生活 更新时间:2025-02-24 06:32:53

人工智能與各種算法對我們的滲透?作者:唐樹源(上海杉達學院法學系、知識産權法商研究中心),現在小編就來說說關于人工智能與各種算法對我們的滲透?下面内容希望能幫助到你,我們來一起看看吧!

人工智能與各種算法對我們的滲透(人工智能時代下算法治理的内核與路徑)1

人工智能與各種算法對我們的滲透

作者:唐樹源(上海杉達學院法學系、知識産權法商研究中心)

随着時代生産要素的演進,當前人工智能時代的本質在于算法和數據。算法帶來飛速便利的同時也帶來了諸如大數據殺熟、算法黑箱、信息繭房、算法操縱等新的社會風險問題。2021年12月底,四部門聯名簽署對外公布《互聯網信息服務算法推薦管理規定》(簡稱“《算法推薦規定》”),并已于2022年3月1日正式實施。基于此,有必要進一步厘清算法治理的基礎内核,探究算法時代治理新路徑。

一、當前我國算法治理的法律體系

當前我國算法治理的立法體系已初步建成,構建起立法層級廣、多部門聯動、快速擴張的法律體系。立法監管由此前聚焦在網絡安全、數據信息保護轉變為當前深度的治理,即人工智能時代的算法治理。

在頂層設計方面,《法治社會建設實施綱要(2020-2025年)》就提出健全算法推薦、深度僞造等新技術應用的規範管理辦法。另外,《“十四五”數字經濟發展規劃》指出加快構建算力、算法、數據、應用資源協同的全國一體化大數據中心體系。

在法律法規依據方面,《民法典》《網絡安全法》《數據安全法》《個人信息保護法》《互聯網信息服務管理辦法》分别從人格權、網絡安全、數據安全、信息保護利用、互聯網服務等角度進行了統籌性的規範。

在算法的專門性規範方向,有2021年9月發布的部門規範性文件《關于加強互聯網信息服務算法綜合治理的指導意見》和2022年《算法管理規定》對算法相關規範進行了全面細緻的規範。

在其他規範性文件或國家标準方面,多部門對機器學習、人工智能倫理、信息合成、平台監管等多方面有間接性的規範,如《國務院反壟斷委員會關于平台經濟領域的反壟斷指南》《國家市場監督管理總局、國家網信辦、國家發展改革委、公安部、人力資源社會保障部、商務部、中華全國總工會關于落實網絡餐飲平台責任切實維護外賣送餐員權益的指導意見》《新一代人工智能倫理規範》《互聯網信息服務深度合成管理規定(征求意見稿)》《信息安全技術 機器學習算法安全評估規範(征求意見稿)》《信息安全技術個⼈信息安全規範》等。

雖然我們已經在多個層面進行立法,但是當前算法相關立法體系還存在問題。一是立法層級分散,主要聚焦在部門規範性文件。法律法規的制定時間成本明顯高于部門規章和各類規範性文件,這就導緻目前針對算法這一新興問題主要在部門規範性文件及國家标準中,容易出現強制性不夠、執法監管效果打折扣、部門職責劃分不清等問題。同時多部門的規範性文件給平台企業也造成無法适從、标準不統一、專項行動式的緊急應對等情形發生。二是對平台的監管主要在事後被動監管,缺乏精細化的平台監管規範。對平台的監管主要根據平台的過錯、行為、責任采取行政處罰措施,而此種監管模式在于缺乏事前的過程性監管,即便現在有算法備案制度,也是主要停留在特定重要領域的算法備案,再者對于備案的算法審查邏輯和标準也需要根據算法分級分類制度及時調整。三是對算法的技術性規範監管較少,立法缺少回歸算法本源。算法是一個技術概念,是“計算的方法”或“處理數據的方法”,同時算法也是具備一定的學習能力的,能夠根據現有的算法基礎和數據不斷演變。對于這些計算機指令的技術規範當前仍缺乏立法上的規範,目前主要規範是從網絡安全、法律風險等角度來規制的。

二、算法治理的内核、路徑與體系建設

為了促進算法相關立法體系的完善,實現算法的精準治理,筆者認為算法治理的内核在于數據信息安全。一方面算法是在自然語言基礎上建構起來的一系列程序邏輯,本質上就是且、或、非的邏輯運算。但無論算法多麼複雜,其本質也是“用數據訓練的模型”,也就是通過不斷投喂數據來實現算法的不斷運行和進化。算法離不開數據的支持,當數據的處理活動出問題,那算法必然就出問題。因此關注算法的治理,本質就是數據的安全和合理處理。

另一方面自動化決策算法引發的“大數據殺熟”等法律風險已引起越來越多的社會關注,這說明算法治理的本質還在于信息的合理利用。此外,算法的靈魂在于其正向的價值觀。數據信息的利用處分需要追求正向價值觀,逐步實現算法的可驗證、可審核、可監督、可追溯、可預測、可信賴,同時具備普惠性、公平性和非歧視性。

需要說明的是,數據信息安全包括數據安全和信息安全兩大塊,數據安全就是規範數據處理活動,保障數據安全,維護各方利益,保障數據開發利用和産業發展;信息安全就是以《個人信息保護法》為主體,規範個人信息處理活動,促進個人信息合理利用,從嚴保護個人隐私。

明晰了算法治理的内核,才能聚焦立法規範和監管的重點,對于當前實踐中算法治理的困境問題有新的解決方案。人工智能乃至整個經濟社會的發展離不開海量數據和個人信息的填充,自動化決策算法充分利用數據信息發揮更大的經濟和社會價值。因此,筆者認為應當構建算法治理的“兩内在一外延”保障路徑,兩個内在要素是強化隐私保護和拓寬數據的廣度、深度和精度,一個外延保障是算法安全保障機制。

一是強化隐私保護。《民法典》對于隐私權的保護是在人格權編中的,足以顯示隐私保護的重要性。當下各大平台的隐私政策都在調整更新,而這一輪的更新勢必會對相關平台的算法無序發展帶來更多的限制。隐私保護與算法發展是相對的,強化隐私保護勢必會阻礙算法的更多元化發展,但正是基于隐私保護的重要性,避免算法侵害他人合法權益。強化隐私保護可以從以下幾點着手:

其一,強化隐私保護體現在立法内容、算法設計和應用、備案審查、執法監管重點、法律責任承擔等方面,這是算法治理的基本理念也是底線原則。

其二,強化重點人群的隐私保護,特别是不滿十四周歲的未成年人、老年人隐私保護,勞動者和消費者等群體也十分重要。按照《民法典》隐私權保護相關規定和《個人信息保護法》中敏感個人信息的相關規定進行信息保護與數據處理。個人信息處理活動滿足個人信息處理的五項重要原則,還有遵照“告知-知情-同意”的核心個人信息處理規則。

其三,有關隐私保護的糾紛主要是通過私法救濟的方式解決,而算法治理中涉及到的隐私保護問題就必然需要結合更多公法救濟的渠道,因此更多公法治理算法時需要關注隐私保護的傳統屬性與公私法治理的融合問題。

二是拓寬數據的廣度、深度和精度。算法治理絕不是過度強調監管懲罰,而是要強調事前的統籌管理。類似深度學習等自動化決策是需要海量數據的投喂,缺乏數據量基礎、數據不精準都會導緻算法算到錯誤的方向。如企業在進行“用戶畫像”的時候,當用戶數據基數少或某一維度數據缺失的時候,就無法精準推送相關信息或提供相應服務。而在拓寬數據的廣度、深度和精度的時候,必然要受到數據合法處理活動的限制,處理該問題的要點如下:

其一,拓寬數據的過程首要是保障數據安全,數據安全才能确保算法的安全穩定,此為數據處理的基石。

其二,建立重要數據和數據分級分類管理制度。大量數據的湧入可能會打亂算法的基本秩序,因而對數據進行分級分類是各大平台,尤其是超大型平台需要規範的。

其三,建立算法中的驗證糾錯機制,即對數據的質量進行驗證,如抽檢機制、結果預警等發現數據的缺陷,以便及時糾偏。

三是算法安全保障機制。有了前兩者隐私保護和數據的基礎,接下來健全算法安全保障機制就尤其重要。安全保障機制包括科技倫理審查、立法保障、安全評估監測與安全事件應急處置等多方面,形成技術、法律、管理的多重保障。具體措施包括如下:

其一,算法向善。算法備案審查的基礎性要點在于科技倫理審查,此項審查的難點在于算法的不可預判性,即便當下算法規則審查合理,但随着算法本身外延式的延伸,就會導緻算法的結果存在不确定性。因此,應當建立類似算法倫理工作小組的專門性組織,由科技、法律等領域專家及監管部門和第三方行業代表等共同組成,加強定期審查與跟蹤監督,嚴防算法價值觀問題。

其二,立法保障方面。當前有關算法治理的立法頂層設計已逐步完成,接下來除了算法推薦管理外的其他算法活動需要加以重視,如算法的技術研發、數據挖掘、規則内容、運營支持、人員管理等多角度構建起算法治理新格局。

其三,健全安全評估監測、安全事件應急處置等管理制度和技術措施。對企業來說,要落實算法安全主體責任,守住算法安全的第一道防線,建立健全算法機制機理審核。對監管部門和行業組織來說,制定算法安全行業标準體系,宣揚算法安全基本理念,形成全社會多渠道監督合力。

算法化的時代給各行各業帶來了深刻的影響,也導緻現在的組織形态發生新的動态變化。算法濫用所導緻的問題可能是行業巨大的,算法治理需要跟算法開發同步開展,有效構建算法治理的“兩内在一外延”保障路徑,建立良好的數字營商環境,促進數字經濟社會的穩步健康發展。

【本文系上海杉達學院科研基金(校基金)重點項目《民法典解決互聯網權益争議機制研究》(項目号2020ZD01)和上海杉達學院科研基金(校基金)一般項目《法治思想在高校法治人才培養模式中的應用研究》(項目号2021YB11)的階段性研究成果】

來源: 光明網-學術頻道

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关生活资讯推荐

热门生活资讯推荐

网友关注

Copyright 2023-2025 - www.tftnews.com All Rights Reserved