tft每日頭條

 > 生活

 > ai潮流有用嘛

ai潮流有用嘛

生活 更新时间:2025-04-29 04:44:54

栗子 曉查 發自 凹非寺

量子位 報道 | 公衆号 QbitAI

ai潮流有用嘛(AI看臉就知道你的性取向)1

斯坦福有一個看臉預測性取向的AI,如同相面一般,根據面部特征就能判斷一個人是直是彎,而且準确度喜人:

男生81%,女生74%

研究結果一公布,網友沸騰。也有不少人懷疑:AI哪有這麼準?

凡事需得研究才會明白。有位名叫約翰(John Leuner)的少年,不止嘴上不信,身體還積極地複現了算法,要用新的數據做個試驗,看看它究竟有沒有那麼準。

成績依然不錯:男生的準确率68%,女生達到了77%

ai潮流有用嘛(AI看臉就知道你的性取向)2

這個結果,又引來網友們的一波激烈讨論。這一次,大家的關注點不僅僅是準确率本身,還有少年在複現研究中展現出的對AI的觀察:

憑什麼說我是直男

AI到底是靠哪些線索,來判斷人類的性向?

約翰用了控制變量法,仔細觀察人臉的每個角落。

首先,他用眼睛、眉毛、輪廓、嘴巴和鼻子的特征,單獨指導AI的預測。

ai潮流有用嘛(AI看臉就知道你的性取向)3

實驗發現,男生的眼睛和眉毛,對AI預測性向最有指導意義,鼻子就沒有幫助;

而對女生來說,眼睛是最重要的,輪廓是最次要的。

ai潮流有用嘛(AI看臉就知道你的性取向)4

接下來,是胡子和眼鏡。

約翰發現,在留胡子和不留胡子的男生數量相同的數據集裡,AI判斷男生性向的準确度,并沒有受到影響。

眼鏡也一樣,沒有左右AI的預測。也就是說,靠刻意的僞裝來欺騙AI,并不是個好辦法。

ai潮流有用嘛(AI看臉就知道你的性取向)5

神奇的是,就算縮小成5x5尺寸,AI的判斷依然沒有受到嚴重的影響。AUC基本保持在0.6-0.8之間,偶爾還會超過0.8 (下圖之左虛線為5x5,右為大圖) 。

ai潮流有用嘛(AI看臉就知道你的性取向)6

所以,大概是靠氣質判斷的吧┑( ̄Д  ̄)┍。

為了做這些探索,約翰複現了一個深度神經網絡模型和一個基于面部形态學(FM)的模型,還從約會網站中抓取了50萬張照片,從中選取2萬多張,做成性别、取向平衡分布的數據集。

他用VGG-Face神經網絡,從圖像中提取鼻子、胡須、眉毛、嘴角、發際線等面部特征,然後将照片轉換成4096個元素的特征向量。

因為是約會網站,這些照片還會帶有年齡、性别、性取向等标簽信息。

然後作者根據面部特征訓練了一個回歸模型來預測性取向。2017年斯坦福大學的研究就是這麼做的。當時,Kosinski教授把人臉所有相同性取向的臉合成了4張圖片:

ai潮流有用嘛(AI看臉就知道你的性取向)7

顯然,這四張合成面部圖片之間存在着差異。Kosinski教授就此斷言,性取向通常伴随着特有的面部特征。

但是我們深究一下就會發現其中的問題:男同性戀的人臉合成圖顯示有眼鏡。因此算法可能是根據臉上的配飾做出的判斷。

fast.ai創始人Jeremy Howard認為,說AI無法通過照片判别性取向顯然是不客觀的,但相關性不等同于因果關系。

神經網絡隻是發現面部特征和性取向的相關性,沒有解釋這背後的原因,它隻是一台識别機器。

又炸鍋的網友

和兩年前一樣,這項政治不正确的研究帶來了極大的争議。對研究結果,國外網友提出了很多質疑。

首先,帶有偏見的數據集,必然導緻帶有偏見的結果。

有網友指出,gay一般比直男更在乎自己的形象,可能會精心打扮自己。而約會網站本來就帶有強烈的目的性,用戶會精心打扮自己吸引對象。

這會導緻模型不太适用于其他社交媒體的場景。

這種猜測并非毫無根據,威斯康星大學麥迪遜分校的心理學教授William Cox研究發現,同性戀确實是更傾向于在網上發布自己高質量的圖片。

之前斯坦福大學的實驗結果也證實,将模型用在Facebook圖片上時,準确率會降至52%。

另外,這套算法在5×5的圖像上也有63%和72%的正确率,說明它還能根據皮膚、頭發顔色進行分類。

但是5×5的馬賽克基本上完全模糊掉了臉部特征,居然也能行!這與兩年前Kosinski教授的推測相悖,更讓人懷疑結果的可信程度。

ai潮流有用嘛(AI看臉就知道你的性取向)5

實驗數據的表示方法也讓人懷疑不夠客觀。

比如數據集中有70%是直男、30%是gay,那麼模型隻要判斷所有人都是直男,對準确率也會有70%。

比方說,每1000人中有50人是同性戀。準确率91%的結果會誤認9%的直男為同性戀,也就是85人。

該算法還會将9%的同性戀者視為直男,也就是會識别出45人為同性戀。結果在130個“同性戀”中,有三分之二的人其實并不是同性戀。

約翰隻是南非一個名不見經傳的學生,對他的讨論尚且能控制在理性的範圍内。

而斯坦福大學的Kosinski教授就沒這麼幸運了,他的研究一經公布,就引起了極大的非議,他本人甚至收到了許多死亡威脅。LGBT團體稱他的研究是“垃圾科學”(junk science)。

在某些國家,同性戀屬于違法行為,甚至最高會被判處死刑。即使是在一些同志合法的國家,這項技術也面臨着洩露隐私的指責。

少年在自己61頁長的論文中,就提到了這類技術的隐患:

這類能檢測性取向的新技術,可能會對同性戀男女的隐私和安全造成嚴重的影響。

你怎麼看?

這項研究在遭到LGBT團體強烈抵制的同時,Kosinski教授還提出了更大膽的主張,足以讓每個人感到害怕。

他相信AI算法很快就能夠僅通過面部圖像來判斷人的智力、政治傾向和犯罪傾向。

千萬不要以為這隻是臆想,以色列一家創業公司Faception已經開始出售這樣一種AI軟件,通過面相來識别恐怖分子,他們聲稱将這項技術用在11個恐怖分子身上,準确識别出了其中9人。

用AI給人看相真的靠譜嗎?

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公衆号(QbitAI)對話界面,回複“招聘”兩個字。

量子位 QbitAI · 頭條号簽約作者

վ'ᴗ' ի 追蹤AI技術和産品新動态

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关生活资讯推荐

热门生活资讯推荐

网友关注

Copyright 2023-2025 - www.tftnews.com All Rights Reserved