tft每日頭條

 > 圖文

 > 谷歌ai新模式

谷歌ai新模式

圖文 更新时间:2024-07-20 19:13:00

谷歌ai新模式(谷歌AI具備意識與工程師對話)1

圖片來源@視覺中國

文|電廠,作者|湯一濤,編輯|高宇雷

著名科技公司的工程師沖破重重阻撓對外發聲:他所負責的人工智能産生了意識。公司則以違反保密協議為由,暫停了他的職務。這個看起來像是《黑鏡》中的情節真實發生在了2022年的當下。

這位工程師名叫布雷克·萊莫伊内(Blake Lemoine),在谷歌的人工智能部門負責測試谷歌的LaMDA模型是否會産生歧視性語言或者仇恨言論。

但,事情真是這樣嗎?

中文互聯網媒體已經對此事件進行了一些報道,事情本身也迎合了大衆對人工智能擔心的心理,但我們還是希望更認真地讨論一下這個事件。

LaMDA是什麼?

LaMDA是谷歌在2021年開發者大會上公布的大型自然語言對話模型。和訓練所有的大型人工智能模型一樣,要想讓LaMDA能夠與人類通過自然語言對話,分為預訓練和微調兩步。 在預訓練階段,谷歌從公共數據中創建了一個1.56T的數據集投喂給LaMDA,讓它對自然語言有一個初步的認識。

到這一步,LaMDA就可以根據給到的句子預測上下文。但這種預測通常還是不夠精準,所以需要進一步微調。在對話期間,LaMDA會根據對話生成幾個備選回答,并通過LaMDA分類器預測每個回答的有趣程度(SSI)和安全程度(Safety)的得分。安全分數低的答案就會首先被過濾掉。其餘的答案會根據有趣程度排序,并将分數最高的備選答案作為回答。

谷歌ai新模式(谷歌AI具備意識與工程師對話)2

從LaMDA的訓練過程可以看到,它并不理解自己的回答。但機器學習的優勢就在于它可以從大量的數據中尋找規律,通過自己的量化評價體系,找出最接近正确的那個回答。

布雷克·萊莫伊内為什麼會被停職?

因為他違反了谷歌的保密協議。 根據他本人的說法,他曾經尋求“最低限度的外部咨詢,以幫助指導我的調查”。其中包括一位美國參議院,萊莫伊内向他提供了谷歌及其技術參與宗教歧視的證據。

LaMDA真的有意識嗎?

谷歌官方已經否定了這個說法。 谷歌發言人布萊恩 · 加布裡埃爾(Brian Gabriel)在一份聲明中表示: “我們的團隊——包括倫理學家和技術專家——已經根據我們的人工智能原則審查了布萊克的擔憂,并告知他,證據不支持他的說法。” LaMDA是一個自然語言模型,本質上來說,它的工作和谷歌搜索欄裡的自動補全沒有什麼不同,都是通過給定的上下文預測用戶的意圖。

隻不過,當LaMDA的參數量達到1370億這個量級時,它把這項工作完成得非常出色,以緻于可以短暫地欺騙人類。 但LaMDA并不理解自己說出的話是什麼意思,機器學習所做的是捕捉訓練語料的語言結構。它可能會生成精妙的回答,也可能完全驢唇不對馬嘴。

但關鍵是,現階段的人工智能并沒有辦法成為自己的“決策者”。斯坦福大學的經濟學家埃裡克·布林約爾松(Erik Brynjolfsson)做了一個精準的比喻:聲稱它們(人工智能)是有感知能力的,就相當于狗聽到留聲機裡的聲音,就以為主人在裡面。

谷歌ai新模式(谷歌AI具備意識與工程師對話)3

谷歌是如何審查人工智能的?

在谷歌,任何員工都可以為新産品請求審查。中央審查小組會應用相關的人工智能道德框架作為原則,并在審查時尋求專家支持。這個團隊的成員包括用戶研究人員、社會科學家、技術專家、倫理學家、人權專家、政策和隐私顧問、法律專家。 評審員會系統地考慮人工智能原則,并從以前的案例研究中尋找可以應用的例子。

如果需要,評審員會就解決方案像專家咨詢。産品團隊會根據建議調整方法。 商定的解決措施會有領導層簽署,并成為産品開發計劃的一部分。如果有一個具有挑戰性的決定需要決策,谷歌高管組成的高級理事會會最終審查,并決定是否需要大幅更改或者停職項目。 此外,谷歌還會邀請外部專家參與審查過程,例如他們曾邀請非營利組織BSR(商業社會責任)對評估新的名人識别工具。 谷歌人工智能原則包括:

除了上述目标外,谷歌還承諾不會在以下應用領域設計或部署人工智能:

我們真的需要人工智能像人嗎?

把人工智能打造成一個人類,除了引發群衆的恐慌、潛在的倫理問題和給公司帶來數不清的麻煩,它的積極意義在哪? 科幻作品讨論的是一種基于現實社會模型的思想實驗。

遊戲《底特律變人》讨論了這一議題,最終人類和機器人分化為了兩個陣營,社會完全撕裂。 但在真實世界中,人工智能的意義在于它是一種提高生産力、解放人類的工具,正如蒸汽機把人類從體力勞動中解放出來一樣。完全像人,也意味着它全盤接受了人類固有的缺陷。 說到底,人工智能與人工意識是兩種完全不同的概念,能夠騙過人類并不意味着人工智能産生了意識。 現階段的人工智能其實還相當脆弱。

由于人工智能模型複雜度之高,人工智能已經進入到了不可解釋的狀态。人類能夠把控的,就是輸入的語料和輸出的回答,至于其中發生了什麼,無人知曉。這也就意味着,但凡輸入的語料出現一絲偏差,人工智能就極易被污染。 由人工智能引發的偏見、謊言和種族歧視并不少見。

2020年1月,美國密歇根州一位非裔美國人就以入店行竊罪被捕,但他對此一無所知。原因在于警員是根據人工智能面部識别來抓捕嫌疑人的。由于用于訓練的圖像大多是白人,人工智能在識别黑人面孔時就發生了錯誤。 在人工智能領域,還有大量嚴肅的問題需要解決,例如如何使它更加高效、更加安全、更加能夠解決實際的問題。 科幻作品和社交網絡編織出的人工智能恐慌深入人心,但這更多是一種臆想。

一些人工智能企業有意無意的誇張和市場宣傳某種程度上加劇了這種恐慌。美國人工智能公司Geometric Intelligence的創始人加裡·馬庫斯(Gary Marcus)在《重啟人工智能》一書中把這種人類傾向稱之為“易受騙差距”——一種有害的現代版幻想性錯覺。

對于還十分脆弱的人工智能來說,将其稱之為“人工智障”倒也不是十分過分的說法。可以确定的是,人工智能将會在人類文明中扮演重要的角色,但還有很長的路要走。在這個時間點到來之前,對于人工智能的過度恐慌與臆想,才是應該警惕的。

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关圖文资讯推荐

热门圖文资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved