tft每日頭條

 > 生活

 > ai智能防禦系應用安全嗎

ai智能防禦系應用安全嗎

生活 更新时间:2024-11-29 12:35:44

在 AI 技術與相關産品高速發展的時代,大量用戶隐私未經同意而被用于 AI 機器學習中,危害用戶隐私安全。而 國内外 AI 巨頭也意識到這一點,并積極用 AI 技術制定出保護隐私安全的産品。

ai智能防禦系應用安全嗎(如何用AI技術保護隐私安全)1

一、隐私

我們處在一個智能變革的時代,人工智能技術正在“賦能”各行各業。大數據就像新能源, AI 算法就像發動機,裝載了大數據和人工智能技術的企業就像搭上了一班通往未來的快速列車,把競争對手遠遠地甩在後面。

然而,這樣的快速發展不是沒有代價的——

我們每個人的手機号、電子郵箱、家庭地址和公司地址經緯度坐标、手機識别碼、消費記錄、APP使用記錄、上網浏覽記錄、搜索引擎結果的點擊習慣、刷臉記錄、指紋、心跳等等這些信息都是我們不願意輕易給出的隐私數據,但在 AI 時代,這很可能已經成為某個公司用來訓練 AI 算法的數據集中的一條。

正是衆多不起眼的一條條個人隐私數據,構成了足夠多的訓練集,讓 AI 從中學習到認知能力,讓從未跟我們謀面的 AI 算法認識、了解我們,知道我們的喜好和動機,甚至還認識我們的家人、朋友。我們的隐私便是實現這些智能的“代價”。

當然,這個代價并不一定是你願意拱手付出的。

那如何保護隐私?我不用行嗎?

你以為關閉手機GPS就無法定位你的位置?你的手機還有陀螺儀、内置羅盤、氣壓計等裝置,還是可以用來定位你的位置。隻要使用手機,就不存在絕對的隐私保護。

對于很多手機應用來說,要麼不用,用了就很難避免洩露隐私,比如很多APP必須用手機号注冊,或者需要手機驗證才能繼續使用,還有的需要刷臉驗證等等。那麼,個人想保護隐私能做什麼?什麼也做不了,加上 AI 算法的黑盒性質,我們甚至對于 AI 背後的邏輯和動機一無所知。

二、監管

隐私保護靠個人防護真的很難實現,需要強有力的法律法規來限制。

2018年5月25日,歐盟的《通用數據保護條例》(GDPR)正式生效,這是在歐盟範圍内的一個數據保護監管框架,這是目前最完善、最嚴格的隐私保護規定。根據DLA Piper公布的數據,在不到兩年的時間内,GDPR已産生1.14億歐元的罰款,其中開出的最大罰單是法國依據GDPR對谷歌罰款5000萬歐元。

理由是谷歌在向用戶定向發送廣告時缺乏透明度、信息不足,且未獲得用戶有效許可。下圖是GDPR生效以來至2020年1月份歐盟各個國家罰款的金額分布圖。

ai智能防禦系應用安全嗎(如何用AI技術保護隐私安全)2

對于企業,GDPR要求在收集用戶的個人信息之前,必須以“簡潔、透明且易懂的形式,清晰和平白的語言”向用戶說明将收集用戶的哪些信息、收集到的信息将如何進行存儲、存儲的信息将會被如何使用,并告知企業的聯系方式。

對于個人,GDPR賦予數據主體七項數據權利:知情權、訪問權、修正權、删除權(被遺忘權)、限制處理權(反對權)、可攜帶權、拒絕權。

目前GDPR在真實地影響到我們每個人的生活,最直觀的影響就是當你浏覽網頁的時候,你會發現經常遇到網站彈出類似下圖的提示,這是網站基于信息透明性的規定,向你征詢信息收集的許可。

ai智能防禦系應用安全嗎(如何用AI技術保護隐私安全)3

歐盟的GDPR具有全球影響力,它讓用戶對自己的個人數據有絕對的掌控權,讓全球在發展新技術的同時必須開始關注隐私問題,世界各國已經紛紛出台自己的數據保護法規。

關于隐私保護,一切才剛剛開始。

歐盟在上個月正式啟動了稱為“打造歐洲數字未來”的新戰略,打算通過制定一系列針對 AI 、隐私和安全的法規,成為 AI 發展的全球領導者。該戰略的啟動也被看成是在應對美國和中國的 AI 崛起。

可以預見,關于 AI 的隐私安全與監管将逐漸成為重點話題,實際上,就像歐盟委員會副主席Margrethe Vestager說的:

“人工智能本身并沒有好壞之分,而是完全取決于人們為什麼以及如何使用它。讓我們盡可能做到最好,控制人工智能可能給我們的價值觀帶來的風險——不傷害,不歧視。”

保護隐私已經成為 AI 發展不可繞過的“檻”,是 AI 技術的難題,也是 AI 良性發展的契機。

三、趨勢

可以說,保護隐私的各種法規的出台必然是未來不可避免的趨勢,這勢必讓企業的數據收集、使用及流通的合規成本大幅增加,也容易讓企業内部或者企業間形成數據孤島問題,制約企業獲取數據價值。因此,保護隐私的 AI 技術的落地使用成為 AI 領域最亟待實現的目标。

保護隐私的 AI 主要通過數據加密、分布式計算、邊緣計算、機器學習等多種技術的結合來保護數據安全,近期比較熱門的有Differential Privacy(差分隐私)、FederatedLearning(聯邦學習,也叫聯盟學習、聯合學習、共享學習)。

保護隐私不是說完全不收集數據,而是要通過技術的手段防止個人隐私數據的洩露。

差分隐私是一種數學技術,比如,假設要分析數據集并計算其統計數據(例如數據的平均值、方差、中位數、衆數等),如果通過查看輸出,我們無法分辨原始數據集中是否包含了任何個體的數據,那麼這種算法就被稱為差異私有。

舉個非常簡單的例子,假設你的工作部門每個月都會用一個表格統計部門每個人的工資發放金額,除了制表人,别人無法查看這個表格,隻能通過一個查詢函數S知道這個表的總額。

某個月你調去了别的部門,那麼别人就可以通過上個月表格A,和這個月表格B來知道你的工資,道理很簡單,隻需用S(A)減去S(B)。

B表格稱為A表格的相鄰數據集,它倆隻相差一條數據,差分隐私技術就是要讓相鄰數據集的查詢結果差不多,從而無法推出個人的信息來,這個差不多的程度可以看作隐私保護的力度。

蘋果和Facebook已經使用這種方法來收集聚合數據,而不需要識别特定的用戶。MITTechnology Review将差分隐私技術列為2020全球十大突破性技術之一。

聯邦學習采用了分布式機器學習方法,近年來越來越受歡迎,該技術假設用戶數據不會被存儲到中心化的服務器,而是私有的、保密的,僅存儲在個人的邊緣設備上,比如手機。

因此與傳統機器學習方法相比,聯邦學習從根本上增強了用戶隐私。聯邦學習不依賴從用戶設備端收集的數據來訓練,而是在用戶移動設備端訓練 AI 模型,然後将訓練得到的參數信息傳輸回一個全局模型,這個過程不需要用戶數據離開個人設備。

ai智能防禦系應用安全嗎(如何用AI技術保護隐私安全)4

從近兩年在arXiv(一個提交論文預印版的平台)上提交的論文數可以看出,該技術發展的快速趨勢:

ai智能防禦系應用安全嗎(如何用AI技術保護隐私安全)5

四、巨頭的技術布局

從去年起全球最流行的兩個機器學習框架,Tensorflow和PyTorch都增加了聯邦學習等解決方案來保護隐私。

1. Google

聯邦學習的概念最早是由Google在2017年首次引入,去年又發布了TensorFlow Federated(TFF)框架,利用Tensorflow的機器學習框架簡化聯邦學習。

如下圖所示,基于TFF框架搭建的學習模型在衆多手機(如手機A)上進行本地化模型訓練,更新權重并聚合(步驟B),進而更新提升後的全局模型(模型C),将全局模型再應用到各手機終端來提升算法應用效果。

ai智能防禦系應用安全嗎(如何用AI技術保護隐私安全)6

2. Facebook

為了在保護隐私的機器學習領域取得進展,去年Facebook旗下優秀的深度學習框架PyTorch與OpenMined宣布開發一個聯合平台的計劃,以加速隐私保護技術的研究。

OpenMined是一個開源社區,專注于研究、開發和升級用于安全、保護隐私的 AI 工具。OpenMined發布了PySyft,是第一個用于構建安全和隐私保護的開源聯邦學習框架。

PySyft很受歡迎,在Github已經擁有5.2k個Star,目前支持在主要的深度學習框架(PyTorch、Tensorflow)中用聯邦學習、差分隐私和加密計算(如多方計算,同态加密),實現将隐私數據與模型訓練解耦。

ai智能防禦系應用安全嗎(如何用AI技術保護隐私安全)7

五、國内發展現狀

國内的 AI 巨頭們也早已開啟保護隐私的技術布局,特别是金融領域,金融領域由于監管嚴格,數據的隐私性要求極高,因此,金融機構一方面在保護隐私數據方面面臨技術難題,另一方面由于金融數據的孤立性,“數據孤島”問題導緻金融機構無法發揮出數據的真正價值。

國内多家金融機構以及金融科技公司已經嘗試在獲客、授信、風險控制等方面,利用聯邦學習解決數據隐私的合規問題和數據分享的數據孤島問題,最大化的發揮金融數據價值。

目前國内關于保護隐私的監管還不夠成熟,個人和企業對于隐私保護的意識還不強。随着全球環境中對保護隐私的關注逐漸加強,以及保護隐私的 AI 技術的發展,我相信 AI 技術終究會向着更好的方向發展,希望通過科學家們的努力, AI 的黑盒不會是潘多拉之盒。

作者:李加慶,蘇甯金融研究院研究員;公衆号:蘇甯财富資訊

本文由 @蘇甯金融研究院 原創發布于人人都是産品經理。未經許可,禁止轉載

題圖來自Unsplash,基于CC0協議

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关生活资讯推荐

热门生活资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved