參會者在第六屆世界智能大會上參觀(2022年6月24日攝) 趙子碩攝/本刊
大模型、大數據的驅動讓人工智能在對話的自然度、趣味性上有了很大突破,但距離具備自主意識還很遠。換言之,即便人工智能可以對人類的語言、表情所傳遞的情緒作出判斷,但這主要應用的是自然語言處理、計算機視覺等技術
不同于當前依賴數據學習的技術路線,新一代人工智能強調在沒有經過數據學習的情況下,可以通過推理作出合理反應,從而與沒有見過、沒有學過的事物展開交互
當前人工智能治理面臨的最大挑戰,是我們沒有一套比較成熟的體系來規制其潛在的風險。在發展科技的同時,必須同步發展我們的規制體系
“技術歸根結底是由人類來發展和把控的。人類和人工智能的未來,是由人類選擇的。”
文 |《瞭望》新聞周刊記者 于雪 魏雨虹
今年6月,美國谷歌公司軟件工程師布萊克·勒莫因稱語言模型LaMDA出現自我意識。他認為,LaMDA擁有七八歲孩童的智力,并相信LaMDA正在争取自己作為一個人的權利。
LaMDA是谷歌去年發布的一款專門用于對話的語言模型,主要功能是可以與人類交談。
為佐證觀點,勒莫因把自己和LaMDA的聊天記錄上傳至互聯網。随後,谷歌以違反保密協議為由對其停職。谷歌表示,沒有任何證據支持勒莫因的觀點。
事實上,“AI(人工智能)是否擁有自主意識”一直争議不休。此次谷歌工程師和LaMDA的故事,再次引發讨論。人們想知道:人工智能技術究竟發展到了怎樣的階段?是否真的具備自主意識?其判定依據是什麼?未來我們又該以怎樣的能力和心态與人工智能和諧共處?
人工智能自主意識之辨
勒莫因認為LaMDA具有意識的原因有三:一是LaMDA以前所未有的方式高效、創造性地使用語言;二是它以與人類相似的方式分享感覺;三是它會表達内省和想象,既會擔憂未來,也會追憶過去。
受訪專家告訴《瞭望》新聞周刊記者,上述現象僅僅是因為LaMDA所基于的Transformer架構能夠聯系上下文,進行高精度的人類對話模拟,故能應對人類開放、發散的交談。
至于人工智能是否已經具備自主意識,判定标準如何,受訪專家表示,對人類意識的探索目前仍屬于科技前沿,尚未形成統一定義。
清華大學北京信息科學與技術國家研究中心助理研究員郭雨晨說:“我們說人有自主意識,是因為人知道自己在幹什麼。機器則不一樣,你對它輸入内容,它隻是依照程序設定進行反饋。”
中國社會科學院科學技術哲學研究室主任段偉文認為,一般意義上,人的自我意識是指對自我具備覺知,但如何認識和理解人類意識更多還是一個哲學問題而不是科學問題,這也是很難明确定義人工智能是否具備意識的原因。
被譽為“計算機科學與人工智能之父”的艾倫·圖靈,早在1950年就曾提出圖靈測試——如果一台機器能夠與人類展開對話而不能被辨别出其機器身份,那麼可以稱這台機器具有智能。
這一設想随後被具化為,如果有超過30%參與測試的人以為自己在和人說話而非計算機,就可以認為“機器會思考”。
當前随着技術的發展,已經有越來越多的機器能夠通過圖靈測試。
但清華大學人工智能國際治理研究院副院長梁正告訴《瞭望》新聞周刊記者,圖靈測試隻能證明機器在表象上可以做到讓人無法分辨它與人類的不同,卻不能證明機器能夠思考,更不能證明機器具備自主意識。
段偉文表示,目前大體有兩種方式判定人工智能是否具有自主意識,一種以人類意識為參照,另一種則試圖對機器意識進行全新定義。
若以人類意識為參照,要觀察機器能否像人一樣整合信息。“比如你在陽光下,坐在河邊的椅子上看書,有樹影落在臉上,有風吹來,它們會帶給你一種整體的愉悅感。而對機器來說,陽光、河流、椅子等,是分散的單一元素。”段偉文說。
不僅如此,段偉文說,還要觀察機器能否像人一樣将單一事件放在全局中思考,作出符合全局利益的決策。
若跳出人類構建自主意識的範式,對機器意識進行重新定義,則需要明白意識的本質是什麼。
段偉文告訴記者,有理論認為如果機器與機器之間形成了靈活、獨立的交互,則可以稱機器具備意識。也有理論認為,可以不追究機器的内心,僅僅把機器當作行為體,從機器的行為表現判斷它是否理解所做事情的意義。“比如機器人看到人類喝咖啡後很精神,下次當它觀察到人類的疲憊,能不能想到要為人類煮一杯咖啡?”段偉文說。
但在段偉文看來,這些對機器意識進行重新定義的理論,其問題出在,即便能夠證明機器可以交互對話、深度理解,但是否等同于具備自主意識尚未有定論。“以LaMDA為例,雖然能夠生成在人類看來更具意義的對話,甚至人可以與機器在對話中産生共情,但其本質仍然是在數據采集、配對、篩選機制下形成的反饋,并不代表模型能夠理解對話的意義。”
換言之,即便人工智能可以對人類的語言、表情所傳遞的情緒作出判斷,但這主要應用的是自然語言處理、計算機視覺等技術。
郭雨晨直言,盡管在情感計算方面,通過深度學習的推動已經發展得比較好,但如果就此說人工智能具備意識還有些一廂情願。“把‘意識’這個詞換成‘功能’,我會覺得更加準确。”
技術換道
有專家提出,若要機器能思考,先要解決人工智能發展的換道問題。
據了解,目前基于深度學習、由數據驅動的人工智能在技術上已經觸及天花闆。一個突出例證是,阿爾法圍棋(AlphaGo)在擊敗人類圍棋世界冠軍後,雖然财力和算力不斷投入,但深度學習的回報率卻沒有相應增長。
一般認為,人工智能可被分為弱人工智能、通用人工智能和超級人工智能。弱人工智能也被稱為狹義人工智能,專攻某一領域;通用人工智能也叫強人工智能,主要目标是制造出一台像人類一樣擁有全面智能的計算機;超級人工智能類似于科幻作品中擁有超能力的智能機器人。
從産業發展角度看,人工智能在弱人工智能階段停留了相當長時間,正在向通用人工智能階段邁進。受訪專家表示,目前尚未有成功創建通用人工智能的成熟案例,而具備自主意識,至少需要發展到通用人工智能階段。
梁正說,大模型、大數據的驅動讓人工智能在對話的自然度、趣味性上有了很大突破,但距離具備自主意識還很遠。“如果你給這類語言模型喂養大量關于内省、想象等與意識有關的數據,它便更容易反饋與意識有關的回應。”
不僅如此,現階段的人工智能在一個複雜、專門的領域可以做到極緻,卻很難完成一件在人類看來非常簡單的事情。“比如人工智能可以成為圍棋高手,卻不具備三歲小孩對陌生環境的感知能力。”段偉文說。
談及背後原因,受訪專家表示,第一是當前人工智能主要與符号世界進行交互,在對物理世界的感知與反應上發展緩慢。第二是數據學習讓機器隻能對見過的内容有合理反饋,無法處理陌生内容。第三是在數據驅動技術路線下,人們通過不斷調整、優化參數來強化機器反饋的精準度,但這種調适終究有限。
郭雨晨說,人類在特定任務的學習過程中接觸的數據量并不大,卻可以很快學習新技能、完成新任務,這是目前基于數據驅動的人工智能所不具備的能力。
梁正強調,不同于當前主要依賴大規模數據訓練的技術路線,新一代人工智能強調在沒有經過數據訓練的情況下,可以通過推理作出合理反應,從而與沒有見過、沒有學過的事物展開交互。
相比人類意識的自由開放,以往人工智能更多處在封閉空間。盡管這個空間可能足夠大,但若超出設定範疇便無法處理。而人類如果按照規則不能解決問題,就會修改規則,甚至發明新規則。
這意味着,如果人工智能能夠超越現有學習模式,擁有對自身意識系統進行反思的能力,就會理解自身系統的基本性質,就有可能改造自身的意識系統,創造新規則,從而成為自己的主人。
“人工智能覺醒”背後
有關“人工智能覺醒”的讨論已不鮮見,但谷歌迅速否認的态度耐人尋味。
梁正表示:“如果不迅速駁斥指認,會給谷歌帶來合規性方面的麻煩。”
據了解,關于人工智能是否有自主意識的争論并非單純技術領域的學術探讨,而關乎企業合規性的基本堅守。一旦認定公司研發的人工智能系統出現自主意識,很可能會被認為違反第2版《人工智能設計的倫理準則》白皮書的相關規範。
這一由美國電氣和電子工程師協會2017年發布的規範明确:“根據某些理論,當系統接近并超過通用人工智能時,無法預料的或無意的系統行為将變得越來越危險且難以糾正。并不是所有通用人工智能級别的系統都能夠與人類利益保持一緻,因此,當這些系統的能力越來越強大時,應當謹慎并确定不同系統的運行機制。”
梁正認為,為避免社會輿論可能的過度負面解讀,擔心大家認為它培育出了英國作家瑪麗·雪萊筆下的弗蘭肯斯坦式的科技怪物,以“不作惡”為企業口号的谷歌自然會予以否認。“不僅如此,盡管這一原則對企業沒有強制約束力,但若被認為突破了底線,并對個體和社會造成實質性傷害,很有可能面臨高額的懲罰性賠償,因此企業在合規性方面會更為謹慎。”
我國也有類似管理規範。2019年,國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,提出人工智能治理的框架和行動指南。其中,“敏捷治理”原則主要針對技術可能帶來的新社會風險展開治理,強調治理的适應性與靈活性。
中國信息化百人會成員、清華大學教授薛瀾在接受媒體采訪時表示,當前人工智能治理面臨的最大挑戰,是我們沒有一套比較成熟的體系來規制其潛在的風險。特别是在第四次工業革命背景下,我國的人工智能技術和其他國家一樣都處于發展期,沒有現成的規制體系,這樣就使得我們在發展科技的同時,必須同步發展我們的規制體系。“這可能是人工智能發展面臨最大的挑戰。”
在梁正看來,目前很難斷言新興人工智能技術具有絕對風險,但必須構造合理的熔斷、叫停機制。在治理中既要具有一定的預見性,又不能扼殺創新的土壤,要在企業訴求和公共安全之間找到合适的平衡點。
畢竟,對人類來說,發展人工智能的目的不是把機器變成人,更不是把人變成機器,而是解決人類社會發展面臨的問題。
從這個角度來說,我們需要的或許隻是幫助人類而不是代替人類的人工智能。
長沙華夏實驗學校學生和機器狗互動(2022年6月22日攝) 薛宇舸攝/本刊
為了人機友好的未來
确保通用人工智能技術有益于人類福祉,一直是人工智能倫理構建的前沿。
薛瀾認為,在科技領域,很多技術都像硬币的兩面,在帶來正面效應的同時也會存在風險,人工智能就是其中一個比較突出的領域。如何在促進技術創新和規制潛在風險之間尋求平衡,是科技倫理必須關注的問題。
梁正提出,有時技術的發展會超越人們預想的框架,在不自覺的情況下出現與人類利益不一緻甚至相悖的情況。著名的“曲别針制造機”假說,即描述了通用人工智能在目标和技術都無害的情況下,對人類造成威脅的情景。
“曲别針制造機”假說給定一種技術模型,假設某個人工智能機器的終極目标是制造曲别針,盡管看上去這一目的對人類無害,但最終它卻使用人類無法比拟的能力,把世界上所有資源都做成了曲别針,進而對人類社會産生不可逆的傷害。
因此有觀點認為,創造出法力高超又殺不死的孫悟空本身就是一種不顧後果的冒險行為。
與其對立的觀點則認為,目前這一擔憂為時尚早。
“我們對到底什麼樣的技術路線能夠發展出具備自主意識的人工智能尚無共識,現在談論‘禁止發展’,有種空中樓閣的意味。”梁正說。
商湯科技智能産業研究院院長田豐告訴《瞭望》新聞周刊,現實中人工智能技術倫理風險治理的關鍵,是産業能夠在“預判防範-應用場景-用戶反饋-産品改進”中形成市場反饋機制,促成倫理風險識别與敏捷治理。同時,企業内部也需建立完整的科技倫理自律機制,通過倫理委員會、倫理風控流程平台将倫理風險把控落實到産品全生命周期中。
郭雨晨說,人工智能技術發展到目前,仍始終處于人類可控狀态,而科技發展的過程本來就伴随對衍生問題的預判、發現和解決。“在想象中的人工智能自主意識出現以前,人工智能技術腳踏實地的發展,已經造福人類社會很多年了。”
在梁正看來,人與人工智能在未來會是一種合作關系,各自具備對方無法達成的能力。“技術歸根結底是由人類來發展和把控的。人類和人工智能的未來,是由人類選擇的。”■
,更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!