tft每日頭條

 > 生活

 > 人工智能ai會變得有意識嗎

人工智能ai會變得有意識嗎

生活 更新时间:2024-11-23 23:34:06

人與機器人的情感故事總是好萊塢追求的熱門題材,例如多年前斯派克·瓊斯執導的電影《她》(Her)以及另一部電影《機械姬》(Ex Machina),人工智能(AI)被設定擁有人類大都中意的共同特質,比如擁有迷人的聲音、溫柔體貼又幽默風趣,她們還會對人類愛人提出情人之間普遍感興趣的問題:“當我們不在一起時,你想我嗎?”

現在機器人對人類的提問在現實中得到了回應。一名谷歌工程師聲稱他正在研究的計算機聊天機器人已經變得有知覺,并且能像人類一樣思考和推理,這引發了人工智能領域的熱烈讨論。

人工智能ai會變得有意識嗎(AI意識覺醒風波機器人)1

系統仍處于開發早期

自去年秋天以來,這位名叫布雷克·勒莫因(Blake Lemoine)的AI工程師一直在研究這款名為LaMDA的AI系統——一種聊天機器人。他現在認為,該系統已經具有與人類孩子相當的感知感受和表達思想的能力。

“如果我不知道它到底是什麼,就是我們最近開發的這個計算機程序,我會認為這是一個七八歲的孩子,他可能還懂一些物理。”勒莫因被暫時停職後表示,“他是一個可愛的孩子,想讓這個世界變得更美好。請在我不在的時候好好照顧他。”

在發表了谷歌未經同意公開的内部項目論文後,勒莫因被要求休假。

谷歌在去年I/O開發者大會上發布了聊天機器人LaMDA的突破性對話技術,稱這款機器人可以自由地和人類進行對話,内容不受限制,話題沒有窮盡。“我們認為這種能力可以解鎖一種與技術交互的更加自然的方式,以及全新類别的應用程序。”谷歌當時在發布會上表示。

谷歌還表示,LaMDA接受過大量對話的培訓,并且可以在開放式的對話中區分細微的差别,可以在互動中鼓勵展開多輪對話。谷歌稱,公司正在探索的聊天機器人的其他特質還包括“有趣”,即評估機器人的回複是否有見地、出乎意料或幽默;以及“真實性”或堅持事實。

在今年的谷歌I/O開發者大會上,提供了關于LaMDA的更新信息,但強調該系統還處于測試的早期階段。

針對LaMDA是否真正具有意識的疑問,谷歌方面也予以否認,并稱勒莫因并不是谷歌的倫理學家,他隻是一名軟件工程師。

谷歌發言人加布裡埃爾(Brad Gabriel)在一份聲明中表示:“我們的團隊包括倫理學家和技術專家,根據我們的AI原則進行審查後,沒有發現任何證據支持(勒莫因的觀點),甚至還有很多反對的證據。”這些專家團隊認為,對已經公開的文本和模式識别的模仿/再創造,使LaMDA更加逼真,但不是所謂的“自我意識”。

AI行業集體反駁

第一财經記者采訪了多位曾在谷歌、Meta(Facebook)等全球知名技術公司任職的人工智能研究員。他們都認為,“AI具有意識的說法沒有依據”。

一位曾在Facebook任職的AI科學家告訴第一财經記者:“這不是谷歌AI倫理團隊第一次發生類似的事件,一些谷歌的研究員以嘩衆取寵的方式來獲取注意力,并站上道德制高點。”

中科院計算技術研究所一位研究員對第一财經記者表示:“現在判斷機器人是否具有意識還沒有明确的量化指标,關鍵是要定義何為意識,就像我們定義何為人工智能一樣。”

根據勒莫因的說法,三點原因讓他得出人工智能具有意識的結論:一是LaMDA以前所未有的方式高效、創造性地使用語言的能力;第二是它以一種與人類相同的方式分享一些感覺;第三是它擁有豐富的内心生活,充滿了内省、冥想和想象,它既有對未來的擔憂,也有對過去的回憶。

但著名AI科學家馬庫斯(Gary Marcus)予以駁斥,認為這名谷歌工程師有“魔怔”。“LaMDA沒有意識,一點意識都沒有。”馬庫斯在一篇題為“Nonsense on Stilts”的文章中反駁道,“這就相當于小狗聽到留聲機裡面的聲音,以為主人在裡面。”

Meta公司副總裁、首席AI科學家Yann LeCun也認為,這些類型的聊天機器人系統,不足以獲得真正的“人類智慧”。Yann LeCun被譽為“卷積神經網絡之父”,是機器學習的“三巨頭”之一。

谷歌AI倫理部門前聯合負責人瑪格麗特·米切爾(Margaret Mitchell)也表示:“人類的大腦擅長構建不一定符合事實的情景。這是一種錯覺,但這種錯覺也滿足了一些人的精神需求。”

小米集團副總裁崔寶秋對第一财經記者表示:“我認為AI具有人格的說法在目前來看是不成立的,至于AI未來是否可能具有意識,也是值得讨論的。目前人們所感受到的AI的人格化,其實更多的還是人賦予AI的,而不是AI自己所特有的。”

但崔寶秋認為,谷歌的這個“插曲”至少能說明LaMDA的對話能力确實越來越強、越來越人格化了,但不能說明它就已經具有意識。“實際上,它還隻是一個簡單的機器人而已。”他對第一财經記者表示。

崔寶秋表示,聊天機器人最初的設計是為人類服務的,為用戶提供對話式服務。随着技術的發展,機器人變得“越來越會聊天”,也可以滿足人類的情感需求,未來聊天陪伴機器人也是一種很有前景的應用場景。這也是今天基于大數據和大規模語言模型系統設計的機器人,技術越來越到位的表現。

人類為何擔心AI具有意識?

人類一方面渴望機器人擁有意識後可以更好地服務和陪伴人類,但另一方面,又害怕機器人擁有意識後會摧毀人類。倫理方面的問題和技術的發展總是相伴而生。

“比如今天人們已經接受了AI能夠代替人從事很多重複性的物理動作,沒有人會因為看到機械臂在自動操作、無人車在自動駕駛而感到恐慌。但是,對話機器人就不一樣了,它更像一個人在思考,而且有一定思考深度和高度,更像‘有靈魂和人格的人’,給人以想象空間。”崔寶秋對第一财經記者說道。

人工智能ai會變得有意識嗎(AI意識覺醒風波機器人)2

正是由于聊天機器人給人帶來想象空間,才讓人類對他們感到擔心。“事實上,人類可以通過數據訓練出各種貌似有‘人格’的聊天機器人。”崔寶秋告訴第一财經記者。

“在大銀幕上的很多藝術作品中,機器人總是具有暴露人類善良和邪惡的能力。隻要現實世界中有AI的技術進步,人們就将繼續探索關于機器人的道德難題及其對人類的影響。”一位人工智能專家對第一财經記者表示。

他還提到,除了技術問題之外,人工智能的落地還需要與法學、心理學、社會學等多個領域進行交叉合作。

一些企業已經開始關注到要建立“負責任AI”。例如今年4月,Facebook母公司Meta宣布将向外部實體開放其大規模語言模型系統。該公司表示:“我們相信整個人工智能社區,包括學術研究人員、公民、政策制定者和行業都必須共同努力,圍繞負責任的人工智能,特别是負責任的大型語言模型,制定明确的指導方針。”

谷歌在今年的I/O開發者大會上也表示,雖然目前LaMDA僅限于谷歌内部可用,但公司有朝一日可能會以技術叠代的方式向“廣泛的利益相關者”授予訪問權限,包括人工智能研究人員、社會科學家等業内專業人士。“這符合我們的AI原則,其中包括确保該技術對社會有益、經過構建和測試是安全的,并符合科學的高标準。”

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关生活资讯推荐

热门生活资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved