【環球視野】
撰文:約翰·麥奎德(John McQuaid) 翻譯:施 怿
1、監控遍布的社會
在英國利物浦,正在進行着一場關于政府采購的有些乏味的會議。當時是2020年2月,會議的展廳裡擺放着各種各樣的陳列品。參會者在這些展品間四處走動,時而在某些展品前停留,其他時候則直接繞過。與此同時,他們也被密切地“監視”着。整個樓層安置着24個不顯眼的攝像機,用于追蹤每個人的活動。人的表情變化是通過面部肌肉運動産生的,因此當參會者面對不同展品時,面部肌肉會發生不同程度的收縮。盡管這些變化很細微,但24個攝像機将以每秒5到10幀的速度進行拍攝。随後,拍攝好的照片會傳送到計算機網絡,利用AI算法評估每個人的性别和年齡,并分析他們的面部表情。最終,系統會從中找到表達“幸福”和“投入”的信号。
《環球科學》雜志社供圖
盡管利物浦的會議已經過去了一段時間,帕諾斯·穆塔菲斯仍然對“監視”的結果感到興奮。穆塔菲斯是一家名為“Zenus”公司的首席執行官。這家公司位于美國得克薩斯州奧斯汀,為會議上的面部表情分析提供了AI技術。“在我見過的商用AI系統中,很少能達到這樣的準确度。”他在視頻通話中對我這樣說道。他還向我展示了一張人群照片,人群中的一些臉用方框框了出來。為了使AI系統學會識别人的情感,Zenus的工程師對系統進行了“培訓”。他們選取了一個龐大的面部表情數據集,每一個表情還标注着對應的内心感受,并用這個數據集訓練AI系統識别情感的能力。為了驗證培訓後的AI系統識别情感的能力,Zenus的工程師嘗試過多種方法。其中包括現場測試,也就是在一個人說出當下感受的同時,用攝像機拍下這個人的臉。穆塔菲斯說:“這種AI系統能在多種環境中識别人的情感,例如在室内、在人們戴着口罩的條件下,或是在沒有燈光時,又或者是在室外、當人們戴着帽子和太陽鏡時。”
2、能識别情感的機器
最近有一種被稱作情感AI(emotionAI)或情感計算(affectivecomputing)的新興技術,它将攝像機和基于AI程序的其他設備結合在一起,用來捕捉面部表情、肢體語言、語調等線索。其中,Zenus開發的AI系統就是這項技術的一個示例。值得一提的是,情感AI的目的不隻是為了辨認并辨别面部表情,更重要的是要揭示出此前技術無法察覺到的信息,例如照片中人的内心感受、動機和态度。2019年曾寫過一篇題為《機器人監視的黎明》報告的傑伊·斯坦利說:“現在攝像機變得越來越智能。它們正在覺醒——不再隻是無聲地記錄人的活動,如今它們還能分析所記錄的信息。”
可想而知,情感AI已經成為一種流行的市場調研工具,但除此之外,情感AI還被應用在了風險更高的領域。例如,有AI系統能讀出與感受、性格和意圖相關的線索,而人們正在計劃或已經将這些系統用于檢測邊境檢查站的威脅、評估求職者的能力、監控是否有擾亂課堂或打瞌睡的行為,以及識别攻擊性駕駛行為的迹象。主流汽車制造商計劃将這項技術應用于未來的汽車。科技公司則結合人臉識别技術,提供基于雲計算的情感AI服務,例如美國亞馬遜、微軟和谷歌。此外,數十家初創公司也推出了可以幫助企業招聘的應用程序。在韓國,利用AI招聘的做法已經十分普遍,因此職業培訓師往往會讓他們的客戶練習如何通過AI面試。
《環球科學》雜志社供圖
為了識别情感和行為,AI系統需要使用多種類型的數據。除了面部表情、語調和肢體語言,它們還能通過分析口語或書面語的内容,獲取其中包含的情感和态度。還有一些應用程序收集數據,不是為了探究情感,而是為了得到與情感相關的信息。例如這個人具有什麼樣的人格,是否關心應用程序的内容,以及是否會對社會構成潛在威脅。
但批評人士警告稱,情感AI的潛在危險可能不是AI自身能控制的。這是因為工程師在訓練AI時,可能使用的是有種族、民族和性别偏見的數據集,這些偏見又會反過來影響算法的結果。
情感AI背後的科學原理也存在争議。這要追溯到半個世紀前,心理學家保羅·埃克曼和華萊士·弗裡森根據研究将一組面部表情與基本情感對應在了一起,他們認為這些面部表情是通用的情感語言。其中6種基本情感包括憤怒(anger)、厭惡(disgust)、恐懼(fear)、快樂(happiness)、悲傷(sadness)和驚訝(surprise),随後,埃克曼經過研究發現蔑視(contempt)很有可能是第7種基本情感。不過現在,埃克曼和弗裡森的觀點受到了極大的争議。這是因為科學家發現面部表情可能具有顯著的文化和個體差異。許多研究人員表示,至少目前在分析不同個體的面部表情時,算法還不能用一套規則正确地識别出表情的細微差異,因為有時候不同個體的表情不能與典型的内在感受對應起來。埃克曼對早期情感識别技術的開發作出了重要的貢獻,值得一提的是,現在他認為這項技術會對隐私構成嚴重威脅,應該受到嚴格的監管。
情感AI其實本質上并不壞。專家表示,如果能讓機器學會可靠地解讀情感和行為,情感AI将會在機器人、衛生保健和汽車等領域表現出巨大的潛力。不過現在,這一領域幾乎是一片“混戰”,也許最終會有一種未經驗證的技術占據主導地位而變得無處不在。然而,未經驗證的技術會對社會帶來危害,到那時我們可能會對此措手不及。
3、用AI來招聘
2018年,時任美國愛塔梅爾(Airtame,開發具有屏幕共享功能的設備)人力和商業運營副總裁的馬克·格雷想要找到改善公司招聘流程的方法,包括改善招聘的效率。一方面是因為盡管愛塔梅爾的規模不大,一共擁有約100名員工,但有時候公司會收到數百份申請市場營銷或設計崗位的簡曆。另一方面是因為錄用決策的主觀性。“有很多次,我都覺得潛意識裡有個人說‘噢,我很喜歡這個人’,而不是‘這個人的能力很強’。事實上,招聘的世界裡充滿了無形的東西,因此我想弄清楚如何才能在招聘中加入有形的考量。”格雷解釋道。
美國愛塔梅爾與德國慕尼黑的Retorio公司達成了一項合約,其中Retorio開發了一種能用在視頻面試中的AI系統。視頻面試的流程很快,應聘者隻需要錄制60秒的視頻來回答2到3個問題。随後,用算法分析應聘者的面部表情和聲音,以及他們回答的内容。然後,根據“大五”人格模型(OCEAN,一種心理學中常用的人格結構模型),為每位應聘者生成基于5種人格特質的檔案。這5種人格特質分别為開放性、責任心、外傾性、宜人性和神經質性。通過比較應聘者的檔案和職位描述,系統會按照匹配度為應聘者排序,最後招聘人員就能得到一份應聘者的排名列表。
事實上,類似的軟件已經開始改變商業決策的制定方式,以及組織與人的互動方式。它重塑了愛塔梅爾的招聘流程,使他們很快就選拔出了更适合的應聘者。格雷說,這是因為生成的檔案很有用。他分享了一張圖表,圖表顯示了最近招聘的幾名銷售人員中,工作表現與5種人格特質得分之間的關系,其中在責任心、宜人性和開放性方面得分較高的員工表現最好。
長期以來,能理解人類情感的機器一直是科幻小說的主題。但在計算機科學和工程領域,在很長一段時間裡,人類情感都是一個陌生的概念。在20世紀90年代,“它是一個禁忌話題,并不受歡迎。”美國麻省理工學院(MIT)的羅莎琳德·皮卡德說。
皮卡德和其他研究人員開發了能自動讀取和響應生物特征信息的工具。其中,生物特征信息涵蓋從面部表情到血液流動的範圍,能用于指示情感狀态。不過,如今情感AI應用場景的激增要追溯到2010年初,當時深度學習開始被廣泛應用。深度學習是一種基于人工神經網絡的強大的機器學習形式,其中人工神經網絡的原型是生物神經網絡。深度學習提高了AI算法的能力和準确度,使一些以前隻有人類才能可靠完成的任務實現了自動化,例如駕駛、人臉識别以及醫學影像分析。
4、AI的算法偏見
然而,這樣的AI系統還遠遠不夠完美,而且情感AI處理的是一項極其艱巨的任務。算法本來應該反映的是關于世界的真相,例如它們應該把蘋果識别為蘋果,而不是桃子。機器學習中的“學習”是反複比較原始數據和訓練數據的過程。其中,原始數據通常是圖像,也包括視頻、音頻等數據,不過這些原始數據沒有獨特的特征,而訓練數據則标注了與智能任務相關的特征。這就是AI系統學習提取潛在共性的方式,例如從蘋果的圖像中提取“蘋果感”,從而能從任意圖像中識别出蘋果。
但是,如果AI系統的任務是要識别人格或情感等難以定義的特質時,就更難獲得真相了。例如,“快樂”或“神經質”究竟是什麼樣的?情感AI算法并不能憑直覺知道情感、人格或意圖,相反,它們是通過訓練學會模仿人類對其他人做的判斷。其中,工程師會通過衆包(crowdsourcing)的方式采集數據,來構建用于訓練AI的數據集。批評人士認為,訓練AI的過程引入了太多主觀變量。美國南加利福尼亞大學的凱特·克勞福德表示:“這些算法做出的判斷,與一個人的真實想法或情感狀态之間存在巨大差距。因此,‘讓機器像人一樣感知情感’既是AI相關技術巨大的飛躍,也是有風險的一步。”
AI系統識别情感等特質的過程是複雜的,每一步都存在潛在的缺陷。深度學習對大量數據的需求是出了名的,因此情感AI也需要龐大的數據集。但這些數據集往往附加了數千甚至數十億個人的判斷。這可能會使算法在不經意間“學習”所有數據收集者的系統性偏見。算法會将這些系統性偏見集成在一起,形成“算法偏見”,這可能來自訓練數據集的人口統計學偏差和數據标注者無意識的态度等。
即便是識别一個微笑也遠非一項簡單的任務。2020年,在德國GESIS-萊布尼茨社會科學研究所的一項研究中,卡斯滕·施韋默和同事利用亞馬遜、微軟和谷歌基于雲計算的情感識别應用程序,分析了國會議員的照片。通過肉眼觀察,研究人員判定照片中86%的男性和91%的女性在微笑,然而,應用程序的結果則更傾向于認為女性在微笑。例如,谷歌雲視覺為超過90%的女性照片标注了“微笑”,而在男性照片當中,這一比例不到25%。研究人員據此推測,訓練數據集可能存在性别偏見。而且,在研究人員對這些圖像進行判斷時,“模糊”是很常見的,但這常常會被機器忽略。“許多面部表情的含義并沒有那麼明确。那真的是微笑嗎?傻笑也算微笑嗎?如果照片中的人露出了牙齒,但看起來并不開心呢?”他們補充道。
事實上,大多數基于深度學習的人臉識别系統,因存在偏見而廣受批評。
現在,許多公司都在強調,他們已經意識到了并正在試圖解決“偏見”問題。德國Retorio公司的聯合創始人克裡斯托夫·霍恩貝格爾表示,他們已經在采取措施,以消除會使人格判斷具有偏向性的各種偏見,例如人口統計學和文化偏見。但目前該行業還缺乏監管機制。因此,大多數情況下,我們不得不相信公司的一面之詞,盡管我們很難驗證公司專有數據集的魯棒性和公平性。HireVue是一家緻力于視頻面試的公司,他們使用算法分析應聘者的說話内容和聲調,以此協助制定錄用決策。與此同時,這家公司還會請外部審計師來檢查算法是否存在偏見,但會這樣做的公司還很少見。
5、關于科學原理的争議
美國北卡羅來納大學的伊菲奧瑪·阿瓊瓦表示,情感AI不僅引發了對算法偏見的擔憂,背後的科學原理也開始受到科學家的強烈反對。情感AI遵循的科學觀點認為,每個人的外在表現都能與可解讀的内心情感相匹配。而且,這種觀點要追溯至50多年前。那時,埃克曼和弗裡森正在巴布亞新幾内亞做田野調查。他們在這裡的東南部高地找到了原住民福爾人,并研究了福爾人識别和理解面部表情的方式。研究人員選用了幾組能分别表達6種基本情感的表情圖,并将圖像展示給志願者。結果發現,福爾人的反應與其他國家實驗志願者的幾乎完全相同,例如日本、巴西和美國。因此,研究人員認為他們成功證明面部表情是一種人類通用的情感語言。
埃克曼和弗裡森還描繪了一張包含數千種面部肌肉動作的“地圖”,經分析得到了面部肌肉動作與表情之間的對應關系,從而創制出了面部行為編碼系統(FACS)。值得一提的是,“地圖”和FACS共同構成了情感AI的理論基石,如今已經被整合到了許多AI應用程序中。
對于埃克曼的理論,科學家提出過異議,認為它們存在漏洞。例如,2012年,一項發表于《美國科學院院刊》(PNAS)的研究表明面部表情在不同文化中存在很大的差異。2019年,在美國東北大學的心理學家麗莎·費爾德曼·巴雷特和同事分析了1000多篇關于面部表情的科學論文後,發現盡管認為外在面貌能反映内在感受的觀點,已經拓展到了從技術到法律的多個領域,但幾乎沒有确鑿的證據可以證明這種觀點是正确的。
巴雷特說,基本情感是一種寬泛且刻闆的分類方式。因為每時每刻,面部表情都在反映複雜的内在狀态——一個微笑可能是在掩飾痛苦,也可能是在傳達同情。她認為,現在AI系統還不能一緻、可靠地分辨人的内在狀态,這是因為本質上AI系統的訓練數據是由标注好的刻闆印象組成的數據集。“它是先測量某些特性,然後再推測其在心理上的意義,但這本來是兩件截然不同的事。目前大肆宣傳的情感識别技術經常将這兩件事混淆在一起。”巴雷特說。
克勞福德說,造成這個問題的原因之一是,科技初創公司并不了解其他領域的科學辯論,而且這些公司被類似FACS的簡約之美所吸引。“埃克曼的理論為什麼會受到機器學習領域的青睐?”克勞福德問道。“這是因為埃克曼的理論很符合機器學習的特點。如果在一種理論中,表情的數量是有限的,而且表情可能對應的情感數量也是被嚴格控制的,這種理論就能用于構建機器學習模型。”事實上,除了埃克曼的研究結果和OCEAN人格特質模型,開發情感AI的公司還采用了其他理論體系。其中之一是已故心理學家羅伯特·普魯奇克提出的“情感之輪”。所有這些理論都将人類情感的複雜性轉化為了簡單直接的公式。
盡管如此,研究人員認為,在了解情感應用程序的局限性後,我們可以據此做出改善,從而使它們發揮作用。阿亞娜·霍華德是美國俄亥俄州立大學工程學院院長,同時也是機器人專家。她利用微軟面部表情識别軟件的改良版,讓機器人教自閉症兒童學習社會行為。例如,如果機器人檢測到對話者出現了“憤怒”的表情,它就會調整動作以平息局面。霍華德說,典型的面部表情可能并不總意味着完全相同的情感,但它們仍然是有用的。“的确,我們都是獨一無二的。但事實上,人與人之間的差異也沒有那麼大。因此,對于廣義的情感來說,這些情感AI的判斷也許不總是正确的,但并不隻是碰巧對了。與随機相比,它們正确的可能性要更大。”她說。
總體來說,能掃描和集合許多人面部反應的算法将會更加準确,例如用來解讀人群的算法。巴雷特說,這是因為在統計學上,随着群體規模的增加,“不可能”會變成“可能”,從而具有“比随機正确更大的概率”。但是評估個體是有風險的,因為任何準确率低于100%的事情都會造成對某些個體的歧視。
現在對于面部表情,許多計算機視覺專家更偏向于一種不可知論的态度,也就是說無法通過分析面部表情得到确切的結果。而且越來越多的公司表示,他們不會直接用面部表情來描述情感或内在狀态。美國南加利福尼亞大學的喬納森·格拉奇說:“随着這一領域的發展,人們越來越認識到,許多表情其實和情感無關。表情就像對話中有含義的詞語,表情或詞語都不能直接傳達此刻的感受。”
6、潛在的隐私風險
随着越來越多的技術試圖描述情感、人格特質和行為,并嘗試将相關技術推向市場,我們的生活受到了更多的監視。在科技公司從網上行為中挖掘個人數據已經過去20年後,一個新的、更私密的領域準備做類似的事情,那就是采集人臉和肢體信息,以及它們所傳達的信号。加拿大VSBLTY公司主要銷售智能相機和用于掃描人群的軟件,這些産品能為零售商分析消費者的人口統計特征和對産品的反應。2020年12月,VSBLTY宣布與墨西哥啤酒制造商莫德羅集團建立合作夥伴關系,計劃到2027年,要在莫德羅集團旗下的5萬家莫德羅拉馬便利店,和墨西哥以及其他拉丁美洲國家的社區酒店裡,配置店内攝像頭來獲取數據。
這就提出了一個基本的法律和社會問題:來自你的臉和身體的數據屬于你自己嗎?如果把個人身份與這些數據分開,在世界上大多數地方,答案是否定的。美國辛辛那提大學法學院教授詹妮弗·巴德研究過這一問題,她表示:“如果你想知道公共場所中一些人的信息,對他們進行掃描來識别情感似乎并不受到限制。”
大多數在公共場所采集數據的情感AI公司表示,他們收集的信息是匿名的,因此大衆不必對此擔憂。Zenus公司的穆塔菲斯指出,Zenus的應用程序不會上傳相機捕捉的真實人臉圖像,隻會上傳有關情感和位置的元數據。在進行監視時,他們會在會場的屏幕上展示相關标識,以告知會議中的人。穆塔菲斯表示:“在采集信息時告知被采集者其實是非常好的做法。因為作為公司,我們應該在監視行為的區域内張貼标志,表示這裡正在被監視。”不過應用程序的多樣性意味着沒有統一的标準。而且,一旦這種例行監控成為政治和政策上的問題,普通大衆和政界人士是否會接受它,還遠沒有一個明确的答案。
此前埃克曼曾與Emotient公司和蘋果公司在情感AI方面展開過合作,不過,現在他警告稱,情感AI會對隐私構成威脅,并表示公司有法律義務取得每位被掃描者的同意。“不幸的是,這是一項可以在人們不知情的情況下使用的技術。情感AI被用在人們身上,卻并不是為了讓他們更幸福。這項技術還會讓人們購買原本不會購買的産品。不過,這可能是情感AI最良性的非良性用途了。”埃克曼補充道。
除此之外,情感AI也侵入了私人空間,私人空間儲存着更豐富的行為數據。亞馬遜的Alexa(亞馬遜的情感AI系統)會通過分析用戶的語調,尋找沮喪的迹象并據此改進算法。到2023年,一些汽車制造商将推出基于AI的車載系統,這些系統将生成大量關于駕駛員和乘客的行為數據。汽車制造商将利用這些數據(可能會是匿名化的),改進系統響應和車内設計。情感AI公司Eyeris的首席執行官莫達爾·阿拉維表示,用戶或将可以選擇激活系統中不同級别的功能,因此如果使用者不使用某些功能,系統就不會從這些地方收集數據。
亞曆克斯·馬丁内斯是美國俄亥俄州立大學和亞馬遜的計算機視覺科學家。2019年,他與巴雷特合作撰寫了一篇批評面部表情與情感之間關聯性的論文。他總是會展示一張照片,照片上一個男人的臉扭曲着,看起來就像是處于一種混雜着憤怒和恐懼的情感中。然後,他将整個畫面展示出來,結果那是一名在進球後狂喜的足球運動員。他指出,面部表情和手勢等信号不僅是身體和大腦的産物,而且與事情發生的情境有關,也與一個人周圍環境中正在發生的事情有關。迄今為止,情感AI面臨的最大挑戰是如何解讀模棱兩可的情境。“除非我知道什麼是足球,否則我将永遠無法理解照片裡發生了什麼。因此,這些知識是基礎,不過在解讀情境方面,現在還沒有任何AI系統能做得很好。”馬丁内斯解釋道。
馬丁内斯說,如果縮小任務的範圍、擁有簡單的環境,并采集到多樣化的生物特征信息,情感AI将會變得更加有效。不過,未來将多樣化的生物特征信息整合起來的情感AI,可能隻會是社會還沒有準備好迎接的、更強大且更具侵入性的技術。
(本版圖文由《環球科學》雜志社供稿)
《光明日報》( 2022年01月27日14版)
來源: 光明網-《光明日報》
,更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!