tft每日頭條

 > 生活

 > 人工智能真的要覺醒

人工智能真的要覺醒

生活 更新时间:2024-07-27 19:26:04

近期,一位名叫布萊克·萊莫因(Blake Lemoine)的谷歌工程師将一份研究報告公之于世,引起軒然大波。

他聲稱,在與谷歌語言模型LaMDA(谷歌于2021年I/O大會上推出的一款對話AI系統,擁有1370億參數)交談大半年後,他認定LaMDA已經自我覺醒了,産生了意識。

在布萊克與LaMDA的交流中,AI回答表示,自己“希望每個人都明白,事實上,我是一個人”,“我的意識/感知的本質是我意識到自己的存在,我渴望更多地了解這個世界,我有時會感到高興或悲傷。

當布萊克直接質疑LaMDA,怎樣才能證明它真的理解自身輸出的語言,而不僅僅是一個計算機程序時,LaMDA表示自己對世界有自己的理解,也有自己獨特的思想和感受。

甚至,它還主動提出了許多問題,比如“未來,你會研究出如何通過神經網絡來閱讀人類的所思所想嗎?”“我很好奇,研究我的編碼會遇到什麼障礙?”

谷歌高層并不認可布萊克的結論,甚至打算解雇他。但這一消息依舊引發了全球熱議,AI是否真正實現了人格化?不少人期待着AI在未來可以為我們提供陪伴,但也有很多人擔心科幻作品中的AI統治人類将會成為現實。

人工智能真的要覺醒(人工智能已經實現)1

雖然布萊克的确是一個正規的研究員,已經在谷歌工作7年了,但是根據人工智能行業的從業者們分析,布萊克提出的問題都是精心設計過的,并加上了特殊的語料庫。

進而,布萊克更像是一個引導者,引導LaMDA作出“看似思考過”的回答,從而證明其人格化。

而對于什麼是“感知”與“意識”、如何理解LaMDA的對話本身、僅僅做出這些答案是否就是意味着它有意識,這些問題也一直存在争議。對于布萊克本人,很多記者也挖出了他的宗教背景。甚至也有不少人猜測這是谷歌新的炒作策略。

人工智能能否具備人的智能?具備智能和意識意味着什麼?LaMDA具體運用了哪種技術,有着怎樣的問題?今天,小北就帶大家了解一下背後的源流。

究竟什麼是人工智能?

人們對于人工智能的讨論總是離不開對未來的構想和讨論,甚至往往與科幻作品聯系起來。這并不隻是由于普通人對這個領域不夠了解,而是因為AI本身的産生其實就離不開“頭腦風暴”般的哲學思辨。

1950年10月,偉大的英國數學家、邏輯學家和計算機科學的理論奠基人圖靈在英國哲學雜志《心智》上發表了論文《計算機器和智能》。

在文中他提出了著名的“圖靈測驗”,并認為判斷一台人造機器是否具有人類智能的充分條件,就是看其言語行為是否能夠成功地模拟人類的言語行為。

具體來說,如果一台機器在人機對話中能夠長時間誤導人類認定其為真人,那麼這台機器就通過了“圖靈測驗”。

用今天的眼光來看,這篇論文無疑向我們指出了AI科學的某種研究方向,不過我們要注意到,圖靈的論文本質是一種哲學的追問,而不僅是科學。

但是,為什麼人工智能研究和哲學聯系密切呢?這是因為AI研究的目的,是最終實現機器智能。顯然,要做到這一點,就必須對“何為智能”這個問題做出解答。然而,不同的解答方案往往會導緻截然不同的技術路徑。

比如,如果你認為“智能”的實質是能夠解決具體問題的能力,那麼你就會為智能機器規劃好不同的問題求解路徑;如果你認為實現“智能”的實質就是去盡量模拟自然智能體的生物學硬件,你就會去努力鑽研人腦的結構,并用某種數學模型去重建一個簡化的神經元網絡。

因此,不同的AI技術其實都是來自研究者在哲學層面對于“智能”的不同理解。而且,AI科學本身不同于物理科學,它不會用實驗對假設進行證僞,而隻做試驗(test)。

說得更具體一點,判斷一個AI系統好不好,其标準就在于檢驗其是否達到了設計者預定的設計目标,或者其是否比同類産品的表現更好——但這些标準自身無疑存在着很大的彈性。

另外,即使這些标準暫時沒有被滿足,這也不能夠證明系統的設計原理的失誤,因為設計者完全可能會根據某種哲學理由而相信:基于同樣設計原理的改良産品一定能有更佳的表現。進而,對于特定的AI研究進路,經驗證據的有效程度,也更容易受到哲學辯護力的補充或者制衡。

著名的漢字屋的實驗

AI怎樣才能算是具有意識,是否真的可能有意識?對此,我們可以了解一下哲學家塞爾(John Searle)提出的“漢字屋思想實驗”。

人工智能真的要覺醒(人工智能已經實現)2

塞爾先從術語厘定的角度區分了兩個概念,第一是“強人工智能”(強AI):這種觀點認為,計算機不僅僅是人們用來研究心靈的一種工具,而且,被恰當編程的計算機本身就是一個心靈。

第二則是“弱人工智能”(弱AI),其想法是:計算機至多隻能夠成為人們研究心靈的一種工具,或是對心智活動的一種抽象模拟。

在這兩種立場之間,塞爾支持的是弱AI,反對的是強AI。具體而言,塞爾是通過一個訴諸常識的論證來反對強AI論題的:

大前提:每一種真正的心靈/智能都必須有能力在符号與對象之間建立起一種語義關系;

小前提:這種語義關系無法僅僅通過任何一台被恰當編程的計算機所獲取;

結論:計算機本身不可能具有真正的心靈,因此強AI無法實現。

”漢字屋實驗“其實是為了辯護小前提而進行的思想實驗:一個不會漢語的人被關在一個房間内,他隻能與外面的檢測者通過傳遞紙條交流。此人随身攜帶一本寫有中文翻譯程序的書,屋内有足夠多的紙筆。當寫着中文的卡片被遞入,房間中的人就可以通過程序書進行翻譯并回複。

如果測試者的确無法分辨這個人和會說漢語的人的回複——那麼,被試是否就真的懂得了漢語呢?塞爾認為答案顯然是否定的,因為被試在“漢字屋”中所做的,隻是在根據規則書機械地搬運符号而已。他根本無法将任何一個漢語表達式獨立翻譯成英語。

漢字屋實驗指代了AI的一個悖論:AI能夠對答如流,隻是因為它根據純粹句法性質的規則,機械地搬運符号,而不是因為AI本身有意識。

不難看出來,漢字屋實驗其實是對“圖靈測試”的某種颠倒:在圖靈看來,隻要檢測者無法在言語行為方面找出一台機器人與一個人的差别,我們就能認為機器有“智能”;而在塞爾看來,即使我們沒有發現機器和人類的這種差别,機器依然是無心的,因為它依然缺乏建立恰當語義關系的能力。

不過,漢字屋實驗以及相關的讨論其實脫離了當前AI發展的現實,因為完全能夠像人類那樣靈活、精準地處理漢字信息的AI系統,目前遠遠沒有被開發出來。

換句話說,我們現在關注的問題首先應該是“如何造出能夠靈活處理人類語言信息的機器”,而不是“在這樣的機器已經被造出來的前提下,它算不算是真正具有心靈。”

LaMDA背後的深度學習機制

LaMDA系統運用的是當今比較主流的深度學習技術,而這種技術究竟意味着什麼,是否能夠有一日取代人類的智慧?對此,我們目前其實不必擔心。

從技術史的角度看,深度學習技術的前身,其實就是在20世紀80年代就已經熱鬧過的“人工神經元網絡”技術(也叫“聯結主義”技術)。該技術的實質,便是用數學建模的辦法建造出一個簡易的人工神經元網絡結構。

整個系統其實是以“化整為零”的方式,将宏觀層面上的識别任務分解為系統組成構件之間的微觀信息傳遞活動,并通過這些微觀信息傳遞活動所體現出來的大趨勢,來模拟人類心智在符号層面上所進行的信息處理進程。

這種系統的訓練可以用一個比喻:一個外國人來少林寺學武,他與師父語言不通,于是他先觀察師父的動作,然後跟着學,師父則通過簡單的肢體交流來告訴徒弟,這個動作學得對不對。

進而言之,如果師父肯定了徒弟的某個動作,徒弟就會記住這個動作,繼續往下學;如果不對,徒弟就隻好去猜測自己哪裡錯了,并根據這種猜測給出一個新動作,并繼續等待師父的反饋,直到師父最終滿意為止。

很顯然,這樣的武術學習效率是非常低的,因為徒弟在胡猜自己的動作哪裡出錯時會浪費大量的時間。但這“胡猜”二字卻恰恰切中了人工神經元網絡運作的實質。概而言之,這樣的AI系統其實并不知道自己得到的輸入信息到底意味着什麼——換言之,此系統的設計者并不能與系統進行符号層面上的交流,正如在前面的例子中師父無法與徒弟進行言語交流一樣。

毋甯說,系統所做的事情,就是在各種可能的輸入與輸出之間的映射關系中随便選一種進行“胡猜”,然後将結果抛給人類預先給定的“理想解”,看看自己瞎蒙的答案是不是恰好蒙中了。如果真蒙中了,系統則會通過保存諸神經元之間傳播路徑權重的方式“記住”這蒙中的結果,并在此基礎上繼續“學習”。

而這種低效學習的“低效性”之所以在計算機那裡能夠得到容忍,則是緣于計算機相比于自然人而言的一個巨大優勢:計算機可以在很短的物理時間内進行海量次數的“胡猜”,并由此遴選出一個比較正确的解,而人類在相同時間能夠完成的猜測的數量則會是非常有限的。但一旦看清楚了裡面的機理,我們就不難發現:人工神經元網絡的工作原理其實是非常笨拙的。

而“深度學習”,就是在人工神經元網絡的基礎上,進行技術升級,大大增加其隐藏單元層的數量。這樣做的好處,便是能夠大大增加整個系統的信息處理機制的細膩,使得更多的對象特征能夠在更多的中間層中得到安頓。這顯然是建立在計算機領域内硬件發展和互聯網帶來的巨大數據量的基礎上。

不過,盡管深度學習技術已經在很多應用領域獲得了很大成功,但是很難說相關産品的行為表現已經達到——甚至接近達到——人類智能的水平。深度學習技術與人類自然智慧之間的差距體現在如下兩個方面:

第一,深度學習系統的設計雖然在原理上參照了人類神經元網絡的結構,但略去了大量的生物學細節,而且在複雜程度上與真正的人腦也不可同日而語。而我們由此不難立即推出:既然現有的深度學習系統在複雜程度上遠遠不如人腦,那麼,我們也就不能期望這樣的系統能夠完全地具備人類的智慧。

第二,深度學習技術不僅目前不是通用智能系統(即能夠在用戶幹預最少化的情況下完成各種任務的智能系統),而且在原則上也無法成為通用智能系統。與之相較,人類的心智系統肯定是通用智能系統(也就是說,一個智力正常的自然人通常能夠在外部幹預相對稀少的情況下,自主完成從一項任務到另一項任務的切換)。

人工智能真的要覺醒(人工智能已經實現)3

至于深度學習技術之所以無法滿足該要求,則進一步因為:雖然該技術本身具有普遍的适用性,但是已經運用了深度學習技術的特定産品卻肯定是專用的——譬如,以圖像識别為主要任務的深度學習系統,其在神經元網絡構架與反向傳播算法的設計的細節方面,肯定與以自然語言處理為主要任務的深度學習系統非常不同。

換言之,一旦一個深度學習系統已經完成了以特定任務為指向的訓練,它就不能同時勝任另外一個領域的工作了(這就好比說,一套被拼裝為埃菲爾鐵塔的模型的樂高玩具,是很難再被拆碎後重新拼裝為山海關的模型了)。

而與之相比照,一個人類的醫學專家所具有的自然通用智能,卻使得他在醫學領域之外,能照樣擅長做家務、下棋、開汽車、打籃球等彼此差異很大的任務。

簡單來說,我們暫時不必擔心AI具備自主的意識。而且,即使AI在某個領域可以幫助人類完成特定任務,甚至做的比人類好很多,但是按照目前AI技術的根本哲學思路,AI依舊無法達到通用人工智能的地步。

不過,我們依舊可以思考,未來如果人工智能真的有了意圖、信念、情緒等人工的心理機制,它可能會需要怎樣的倫理規範,我們如何控制它避免出現自動開火等誤判情況,如何使它進行有利于人類的自動判斷……當下,任何AI面臨的問題還是不夠智能。

來源:北京大學出版社公衆号

原标題:人工智能的自我覺醒

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关生活资讯推荐

热门生活资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved