tft每日頭條

 > 生活

 > ai讓這個世界變得很糟了嗎

ai讓這個世界變得很糟了嗎

生活 更新时间:2025-01-09 11:57:37

AI檢測一定公平嗎?絕大多數人對這個問題的答案很可能是肯定。在2018年,美國社交媒體Facebook開發了新的代号為Rosetta的AI系統,用以檢測自己社交平台上的仇恨性言論。然而,兩年之後,美國南加州大學的研究人員發現,包括Facebook在内的所有AI語言檢測系統實際上也帶有偏見,黑人、同性戀和變性人所發的信息更容易被這些AI标記為“具有仇恨的”。例如,黑人的推特(美國另一個社交媒體,類似中國的微博)被AI标記為“帶有種族歧視”的可能性是其他族裔的1.5倍,這個數值在其他研究當中甚至高達2.2倍。

ai讓這個世界變得很糟了嗎(AI并沒有我們想象中那樣的公平)1

AI并沒有我們想象中那樣的公平,這是怎麼一回事?

“學壞”的AI

為什麼AI也帶有偏見?這是因為AI“學壞”了。AI是在某一種機器學習模型的基礎上發展起來的,而所有的機器學習模型都需要大量的數據來進行訓練和充實自己的數據庫。如果把AI比作高樓,那麼機器學習模型就是這座AI高樓的設計圖紙,而那些數據就是建造這座AI高樓的磚瓦。

然而,機器學習模型所使用的數據來自于現實生活中的各大社交平台,這些社交平台當中的信息又都充滿了偏見,有的社交平台甚至專為種族歧視者服務。因此,基于“偏見”磚瓦所壘砌的AI高樓,帶有偏見也就不足為奇了。

另外,這些AI采用的還是“關鍵字”的檢測方式,完全忽略了上下文和語境。就拿“nigger”這個英文單詞來說,它的中文意思是“黑鬼”,是一個極具種族歧視色彩的單詞,也是AI所檢測的重點單詞之一。但是,如果情況是黑人自己說了nigger這個詞(無論對象是誰),那麼這個詞的意思卻是“好兄弟”、“好朋友”或“死鬼”(死鬼:在黑人婦女稱呼自己黑人丈夫的語境下),等等。在日常口語中,黑人也多以nigger來稱呼自己親密的朋友和兄弟。

但AI可管不了這麼多。隻要信息中出現nigger,或其他類似的詞或語句,這信息就會被AI标記,然後被關“小黑屋”,同時,AI還會記錄發送該信息的用戶的“罪行”。于是乎,在文章的開頭提到的,黑人的推特更容易被标記為“具有種族歧視”的現象就産生了。

聯系上下文的AI更公平

那麼,科學家該如何改進AI,使它對仇恨性言論的檢測更加公平?首先在我們腦海顯現的方法很可能是解決“磚瓦”上的問題。既然AI帶有偏見的原因之一,是由于其訓練和使用的數據帶有偏見,那麼給AI提供客觀公平的數據不就好了?但是,取自現實生活的數據或多或少都帶有偏見,如果人工制造絕對客觀公平的數據,那麼這個工作量可是非常巨大的,甚至大到無法實現。

南加州大學的研究人員對原來的AI算法進行了編程,使它識别關鍵字或關鍵詞的同時,能夠聯系上下文,并判斷上下文有沒有侮辱性的語言,也就是說,跟原來的AI相比,經過編程後的AI隻多考慮了兩個“情況”。

改進後的AI效果如何?跟其它最新開發的AI相比,即使南加州大學的研究人員改進後的AI練習所使用的數據全都來自臭名昭著的仇恨網站,但它檢測仇恨性言論的準确率依然更高,高達90%,而其它最新AI隻有77%。隻是多考慮兩個附加因素的南加州大學AI為什麼會有如此大的提升?

其背後的道理不難理解。同樣且簡單的一句話“Thank you, my nigger.”(中文意思:“多謝了,我的好兄弟。”),如果跟南加州大學AI那樣考慮上下文的話,那麼我們很容易就能理解這句話的意思是感謝。但是,如果我們跟傳統的AI那樣,忽略了上下文,隻看關鍵詞“nigger”的話,那麼我們就會認為說者在發表種族歧視的言論。

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关生活资讯推荐

热门生活资讯推荐

网友关注

Copyright 2023-2025 - www.tftnews.com All Rights Reserved