又有算法被曝歧視黑人。近日,有用戶在Facebook觀看一段主角是黑人的視頻後,被詢問是否“願意繼續觀看靈長類動物視頻”。對此,Facebook緻歉表示這是一個“不可接受的錯誤”,正在調查其算法功能。
此前,Twitter、Google均有被發現算法歧視黑人的事件。據悉,算法偏見與AI核心技術之一機器學習的技術環節有關。比如,機器學習使用的數據集如果帶有來自現實社會的偏見,那麼算法就會習得這些偏見。換句話說,如果AI歧視黑人、歧視女性,很大一部分原因是現實生活中本來就存在歧視黑人、歧視女性的現象。
1 黑人遇到算法偏見,這不是第一次
近日,有用戶在Facebook觀看一段黑人與白人平民和警察發生争執的視頻之後,收到Facebook詢問“是否願意繼續觀看靈長類動物的視頻”。據悉,該視頻是由英國《每日郵報》在去年6月27日發布的,其中并沒有包含與靈長類動物有關的内容。
據《紐約時報》報道,Facebook于上周五對此緻歉,稱這是一個“不可接受的錯誤”,并表示正在調查其算法推薦功能,防止這種情況再次發生。Facebook發言人Dani Lever發表聲明稱:“雖然我們對人工智能進行了改進,但我們知道它并不完美,還有很多地方需要改進。我們向任何可能看到這些冒犯性推薦信息的人道歉。”
前Facebook員工Darci Groves 在推特上發出了該推薦提示截圖。有網友留言表達了對歧視的憤怒,也有人質疑視頻中既有黑人也有白人,“也可能是将白人識别為‘靈長類動物’。”
前Facebook員工Darci Groves 發布的推特。
不過,這已不是黑人第一次遇到算法偏見。今年五月,Twitter的研究團隊發表了一篇論文,通過實驗證實了Twitter的縮略圖算法在裁剪圖片時更偏向白人以及女性,在裁剪多人照片時會更多裁掉黑人。随後,Twitter取消了在手機App上自動裁剪照片的功能,并發起算法偏見黑客競賽,尋找代碼中可能存在的偏見。
2015年,Google Photos 也曾将兩位黑人的照片标記為“大猩猩”。為修正這一錯誤,谷歌直接從搜索結果中删除了這一詞條的标簽,這也導緻不會有任何圖片會被标記為大猩猩、黑猩猩或者猴子。
OpenAI于今年2月發布的一篇論文用數據量化了AI系統可能存在的算法偏見。他們發現,一些AI系統将黑人識别為非人類類别的概率最高,達到14.4%,是排在第二位的印度人的近2倍。
該論文的數據顯示,一些AI系統将白人識别為犯罪相關類别的概率為24.9%,将黑人識别為非人類類别的概率為14.4%。
2 算法會習得現實社會中已存的偏見
一般而言,AI系統的開發者并不會故意地将偏見注入到算法中。那麼,算法偏見來自哪裡?
騰訊研究院曾于2019年發文分析了這一問題。他們認為,這與人工智能的核心技術——機器學習有關。而為算法注入偏見主要有三個環節:數據集構建、目标制定與特征選取(工程師)、數據标注(标注者)。
在數據集構建環節,一方面,一些少數群體的數據更難以獲得,數據量較小,因此AI得到的訓練也更少,從而使少數群體在算法中進一步被邊緣化。另一方面,數據集來自現實社會,存在現實社會中存在的偏見,算法也會習得這些偏見。換句話說,如果AI歧視黑人、歧視女性,很大一部分原因是現實生活中本來就存在歧視黑人、歧視女性的現象。
此外,開發者在設定目标或選取标簽時,也有可能帶有個人偏見。數據标注者在數據打标時,不僅面臨“貓或狗”這種易于判斷的問題,也會面臨“美或醜”這類價值判斷的情況。這也會成為算法偏見的一大來源。
算法偏見具有不可知、不可查的特點,這對研發者提出了挑戰。Twitter在今年發布的聲明中提到,“發現機器學習模型的偏見是很難的。很多時候,當意外的道德危害被發現時,技術已經走向社會公衆了。”
不過,算法偏見的危害正在顯現。今年4月,美國聯邦貿易委員會警告稱,如果帶有種族和性别偏見的人工智能工具,被用于信貸、住房或就業決策,可能違反了消費者保護法。
8月27日,國家網信辦發布《互聯網信息服務算法推薦管理規定(征求意見稿)》,對規制算法偏見進行探索。其中提到,算法推薦服務提供者提供算法推薦服務,應當遵守法律法規,尊重社會公德和倫理;應當加強用戶模型和用戶标簽管理,不得設置歧視性或者偏見性用戶标簽。
采寫:南都記者馬嘉璐
,更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!