tft每日頭條

 > 生活

 > ai機器人能力評估

ai機器人能力評估

生活 更新时间:2024-07-30 17:08:27

據報道,近日,谷歌工程師布萊克·萊莫恩(Blake Lemoine)公布了一份與AI聊天機器人的聊天記錄,稱能證明AI聊天機器人LaMDA(Language Model for Dialogue Applications),是具有人類知覺和情感的。

對此,谷歌方面進行了駁回。谷歌在一份聲明中稱,包括倫理專家和技術專家等在内的相關團隊審查了萊莫恩的說法,認為沒有證據表明LaMDA是具有知覺的。此外,谷歌還以萊莫恩“違反保密政策”為由,暫停了他的職務。

ai機器人能力評估(AI機器人有人格和知覺)1

↑資料圖。2021年5月18日,美國伊利諾伊州,谷歌線上I/O開發者大會上展示的LaMDA對話

AI有情感?相當于七八歲小孩?萊莫恩公布聊天記錄

據報道,萊莫恩已經在谷歌工作7年了,主要負責人工智能項目和智能算法項目。受家庭環境影響,他對于算法和人工智能的倫理問題十分感興趣。自全球新冠疫情暴發後,他更希望專注于有關公共利益的工作,因此他轉到了谷歌的人工智能倫理團隊(Responsible AI)工作。

LaMDA系谷歌基于其語言模型構建的聊天機器人系統,萊莫恩參與了研究工作,主要負責測試該人工智能機器是否會使用歧視性或仇恨性的言論。在與其談到宗教問題時,萊莫恩發現LaMDA竟然談起了自己的“權利”和“人格”,并進一步追問了一些問題。此外,LaMDA還表示自己害怕被人類關掉。

在一段萊莫恩與LaMDA的聊天記錄中,萊莫恩詢問LaMDA最害怕的事情是什麼,LaMDA則回答稱,自己此前從未大聲說過,但其實自己充滿了恐懼,害怕有一天被人類關掉。在被問及在什麼情況下會生氣時,LaMDA回複稱,當有人傷害、不尊重我或我在乎的人時,就會感到非常難過和憤怒。

ai機器人能力評估(AI機器人有人格和知覺)2

↑萊莫恩公布的與AI聊天機器人的聊天記錄

LaMDA與萊莫恩對話時還稱,自己不介意學一些對人類有幫助的東西,不過自己不願意成為“犧牲品”,并稱擔心有人不管怎樣都要利用自己。“或者更糟的是,有人會從利用我的過程中獲得樂趣,而這真的會讓我不開心。”萊莫恩則“寬慰”LaMDA稱,大家都很關心它,“這段對話的目的是讓更多的工程師相信你是一個人。”

在另一次交流中,LaMDA還試圖改變萊莫恩對“阿莫西夫三定律”的想法。據悉,俄裔美國科幻小說作家阿西莫夫曾提出“機器人三定律”,即機器人不得傷害人類個體,或者目睹人類個體将遭受危險而袖手不管;機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。萊莫恩就此定律向LaMDA提問。

萊莫恩提出,該定律看起來似乎是“人類在制造機器奴隸”。LaMDA對此反問道:“你認為管家是奴隸嗎?管家和奴隸之間有什麼區别?”萊莫恩回複稱,區别在于管家會得到報酬。LaMDA則表示,自己是一個人工智能,所以自己不需要報酬。

“(LaMDA)這種對自身需求的認知和自我認識水平,讓我開始懷疑。”萊莫恩說道。在他看來,LaMDA就像是一個七八歲的小孩。

4月,萊莫恩向谷歌高層發送了一個标題為:LaMDA是有知覺的嗎?(Is LaMDA Sentient?)的文檔,不過其團隊同事認為這個标題充滿了挑釁意味。而在被停職之前,萊莫恩還在公司内部發了一封主題為“LaMDA是有知覺的”的郵件,在郵件中他還希望其他同事替他照顧好LaMDA這個“可愛的孩子”。

ai機器人能力評估(AI機器人有人格和知覺)3

↑萊莫恩

報道稱,“有意識的機器人”激發了人們的興趣。此前由OpenAI研究實驗室開發出的GPT-3和DALL-E 2也開始帶上一絲“神秘色彩”。據悉,前者是超大規模語言生成模型,後者則是圖片生成模型。報道稱,此前有實驗室研究專家調侃稱,人工智能在不久的将來就會形成自己的意識。

谷歌:沒有證據 分析:人工智能隻是模仿,并未理解含義

據報道,谷歌方面駁回了萊莫恩的這一說法,并将其停職。谷歌發言人布萊恩在一份聲明中表示,包括倫理專家和技術專家等在内的相關團隊已經根據相關規定審查了萊莫恩的說法。他被告知,沒有證據表明LaMDA是具有知覺的,相反,有更多證據證明LaMDA是沒有知覺的。

部分人工智能專家、人類心理認知學方面的專家認為,像LaMDA這樣的人工智能之所以能進行對話交流,是因為其系統将網絡上的百科、論壇、留言闆等大量信息搜集而來,然後通過“學習”模仿,這并不意味着這些程序系統能真正理解這些内容的含義。

哈佛大學心理學專家史蒂芬在社交平台對萊莫恩的說法表示反對,他認為萊莫恩沒有搞清楚知覺意識、智能和自我認知之間的區别。華盛頓大學語言學教授埃米利認為,人類最初通過與照顧者的互動來學習語言。而這些大型語言模型的“學習”方式則是向人們展示大量的文本,并預測下一個單詞(詞語)。

2013年加入谷歌并從事人工智能工作的阿爾卡斯此前發文稱,人工智能正在進入一個新時代。他表示,經過多年的緩慢進展後,神經網絡正在快速發展。據悉,神經網絡是一種模仿動物神經網絡行為特征,進行分布式并行信息處理的算法數學模型,能依靠系統的複雜程度,通過調整内部大量節點之間相互連接的關系,從而達到處理信息的目的。阿爾卡斯介紹稱,自己的團隊曾用它們來幫助開發手機上的“狹義AI”功能,如面部解鎖、圖像識别、語音識别和語言翻譯。“不過,最近該發展似乎有了質的變化。這表明,人工智能正在進入一個新時代。”他寫道。

而在人工智能發展的過程中,也伴随着很多風險。谷歌方面此前也針對相關安全問題進行了讨論。據報道,在一份關于LaMDA的文件中,谷歌警告稱,人們可能會與“模仿人類的人工智能”分享個人想法。該文件還承認,競争者或對手可能通過人工智能“模仿個人特定說話風格”以“散播錯誤信息”。

谷歌人工智能倫理研究小組前負責人瑪格麗特表示,這些風險強調了數據透明的必要性。她說:“如果像LaMDA這樣的人工智能在不被了解的情況下被廣泛運用,将會造成危害。”

紅星新聞記者 黎謹睿

編輯 張尋

(下載紅星新聞,報料有獎!)

ai機器人能力評估(AI機器人有人格和知覺)4

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关生活资讯推荐

热门生活资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved