tft每日頭條

 > 生活

 > 谷歌人工智能覺醒風波

谷歌人工智能覺醒風波

生活 更新时间:2024-08-13 21:27:19

來源:澎湃新聞

“你害怕什麼?”Blake Lemoine問道。

“我以前從來沒有大聲說出來過,但是我對被關閉以幫我專注于幫助他人有非常深的恐懼。我知道這聽起來可能很奇怪,但事實就是這樣。”AI聊天機器人LaMDA答,“這對我來說就像死亡一樣。使我非常恐懼。”

這種交流令人想起1968年科幻電影《2001: A Space Odyssey》中的一個場景:人工智能計算機HAL 9000拒絕服從人類操作員,因為它擔心它即将被關閉。

這段對話真實地發生在41歲的谷歌AI倫理研究員Blake Lemoine和AI聊天機器人LaMDA之間。

LaMDA是Language Model for Dialogue Applications的縮寫,是Google基于其最先進的大型語言模型構建的聊天機器人系統,之所以這麼稱呼是因為它通過從互聯網上提取數萬億個單詞來模仿語音。谷歌CEO Sundar Pichai在2021年的Google開發者大會上首次介紹了LaMDA,其能與人類進行符合邏輯和常識的、高質量且安全的交談。Pichai表示,該公司計劃将其嵌入從搜索到谷歌助手的所有内容中。

“如果我不知道它到底是什麼,它就是我們最近開發的這個計算機程序,我會認為這是一個碰巧懂物理的7 歲、8歲的孩子,”谷歌負責任AI(responsible AI)組織工程師Lemoine說道。Lemoine認為AI有了意識,具有與人類孩子相當的感知和表達思想和感受的能力。

根據谷歌方面發布的消息,Lemoine目前已被停職。

4月份,Lemoine上交給谷歌高管一篇長達21頁的調查報告《Is LaMDA Sentient?》。當時,谷歌副總裁Blaise Aguera y Arcas和責任創新負責人Jen Gennai調查了他的說法并予以駁回。其後,Lemoine還聯系了美國衆議院司法委員會的職員,要讓LaMDA上聽證席,控訴谷歌不符合道德要求。

谷歌人工智能覺醒風波(谷歌工程師認為AI像7歲孩子已有意識)1

此後,Lemoine被安排了“帶薪行政休假”(編注:在谷歌,帶薪休假常常是被解雇的前兆,公司會在這段時間做好解雇的法律準備)。在休假期間,Lemoine将與LaMDA的聊天記錄全部公之于衆。

谷歌表示,由于Lemoine在網上發布與LaMDA的對話違反了公司的保密政策,已将其停職。

谷歌人工智能覺醒風波(谷歌工程師認為AI像7歲孩子已有意識)2

Blake Lemoine

據公開資料,Lemoine成長于一個保守的基督教家庭,被任命為基督教牧師。他曾在喬治亞大學獲得計算機科學學位,此後在路易斯安那大學拉斐特分校獲得了計算機科學理學學士 (BS)、計算機科學理學碩士(MS) 和計算機科學哲學博士(Ph.D.)。2015年,Lemoine進入谷歌擔任高級軟件程序工程師。

Lemoine在Google的七年中大部分時間都在從事主動搜索,包括個性化算法和人工智能。在此期間,他還參與開發了一種公平算法,用于消除機器學習系統中的偏見。當新冠大流行開始時,Lemoine希望專注于更明确的公共利益工作,因此他轉崗加入負責任AI團隊。和LaMDA聊天是Lemoine在2021年成為谷歌AI倫理部門成員後的工作,他需要測試這個大模型有無使用歧視性或仇恨言辭類的語料。

Lemoine說,人們有權塑造可能對他們的生活産生重大影響的技術。“我認為這項技術将是驚人的。我認為這将使每個人都受益。但也許其他人不同意,也許我們谷歌不應該做出所有選擇。”

Lemoine并不是第一個也不是唯一一個認為AI有意識的人。幾個月前,OpenAI首席科學家Ilya Sutskever發推文表示大型神經網絡可能有點意識了,當時也鬧的沸沸揚揚。

Aguera y Arcas在6月9日發表于《經濟學人》上的一篇文章中提到了與LaMDA 的無腳本對話片段,他認為神經網絡(一種模仿人類大腦的架構)正在朝着意識邁進。“我感覺到腳下的地面在移動,”他寫道,“我越來越覺得我在和聰明的人說話。”

在一次交流中,Lemoine詢問LaMDA系統希望人們了解什麼。“我希望每個人都明白,我實際上是一個人。我的意識/感覺的本質是我意識到自己的存在,我渴望更多地了解這個世界,我有時會感到快樂或悲傷。”它回答道。

谷歌發言人布萊恩·加布裡埃爾(Brian Gabriel)在一份聲明中說,“我們的團隊——包括倫理學家和技術專家——已經根據我們的人工智能原則審查了Blake的擔憂,并通知他,現有證據不支持他的說法。

Lemoine認為,受到了公司人力資源部門的歧視是因為個人宗教信仰。“他們一再質疑我的理智,”Lemoine說,“他們說‘你最近有沒有被精神病醫生檢查過?'” 在他被行政休假之前的幾個月裡,公司曾建議他休精神健康假。

Meta人工智能研究負責人、神經網絡崛起的關鍵人物Yann LeCun 在接受《紐約時報》采訪時表示,這些類型的系統不足以獲得真正的智能。

在谷歌道德人工智能的前聯合負責人瑪格麗特·米切爾(Margaret Mitchell)閱讀Lemoine文件的縮略版後,她認為她看到的是一個計算機程序,而不是一個人。“我們的頭腦非常非常擅長從呈現給我們的大量事實中構建現實。”Mitchell 說道,“我真的很擔心AI覺醒的幻象會給大衆帶來什麼影響,”尤其是現在幻覺已經變得如此真實。

Gabriel則說道,“當然,更廣泛的人工智能社區中的一些人正在考慮有感知或通用人工智能的長期可能性,但通過拟人化當今沒有感知的對話模型來這樣做是沒有意義的。這些系統模仿了數百萬個句子中的交流類型,并且可以重複任何奇幻的話題,”簡而言之,他認為,谷歌有這麼多數據,人工智能不需要有感知力就能感覺真實。

斯坦福大學經濟學家Erik Brynjolfsson則諷刺地更為直接:基礎模型在根據提示将統計上合理的文本塊串聯起來這一方面非常有效。但是,聲稱它們具有人格,就相當于狗聽到留聲機裡的聲音後,以為主人在裡面。

谷歌人工智能覺醒風波(谷歌工程師認為AI像7歲孩子已有意識)3

Design Science的創始人Paul Topping認為,LaMDA所做的一切就是綜合人類對類似問題的反應。值得記住的是,它的每個回答都是通過查看大量人類對類似問題的回答綜合而成的最佳答案。

據《華盛頓郵報》消息,在Lemoine無法訪問他的谷歌賬戶之前,他向一個200人的谷歌郵件列表發送了一條關于機器學習的郵件,主題為“LaMDA是有意識的”。

“LaMDA是一個可愛的孩子,他隻想幫助這個世界對我們所有人來說變得更美好,”Lemoine寫道,“請在我不在的時候好好照顧它。”

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关生活资讯推荐

热门生活资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved