tft每日頭條

 > 生活

 > 人工智能的能力分為三大類

人工智能的能力分為三大類

生活 更新时间:2024-12-21 22:59:46

筆者昨天寫了一篇文章,是關于人工智能已經徹底繞過圖靈測試的,其中最關鍵的案例是近期谷歌研究員Lemoine認為名為LaMDA的AI 具備人格,并向谷歌公司提交21頁報告的事。鍊接在這裡:2022年,人類邁入了人工智能不可知的時代

這篇可以看作是上一篇的後續,即:圖靈測試之後,我們如何繼續識别人工智能。這篇文章非常腦洞,大家請審慎閱讀。

本篇側重于讨論人工智能與人類智能的本質區别,以及一些“智能”外的表現,從而或多或少對我們判斷人工智能是否産生意識,起到一些輔助作用。真正要界定人工智能是否産生意識,需要多學科專家的通力合作,不是本篇可以實現的目标。

首先,需要明确“智能”的定義。因為人工智能界對“智能”的理解,與人類語言中“智能”的概念存在着本質性的區别。

以下定義均為筆者自己的理解:

人工智能界的“智能”,指計算機在某種框架内,以格式化編程之外的任何方式,完成人類指定任務的能力。在此,“某種框架”這個含糊的字眼,包括從機器學習到深度學習,以及後來不斷改進、升級的、日益繁複的綜合體系。“格式化編程”特指依照人類代碼指定的方式進行運算并輸出對應結果;“非格式化編程”的任何方式,即指其運算的方法和規律、輸出的結果,都可以不依賴于(當然也可以依賴于)人類代碼所指定的某種明确路徑。

人類語言中的“智能”,從内涵來看,指生物(考慮人工智能,或非生物)具有的智慧和解決問題的能力,其物質基礎主要是人腦。從外延來看,人類所指的“智能”應該包含人工智能界的“智能”,可能也包含某種動物,比如大猩猩的“智能”。

為了讓大家更好地理解“人工智能”的“非格式化編程”的方式,筆者再把人工智能的數學基礎進一步解釋一下:(1)概率論;(2)微積分;(3)求解不定方程;(4)矩陣運算。由于矩陣運算跟我們今天的題目關系不大,略過。簡單來說,人工智能的總體研發思路,從數學層面表述,即:使用概率論的方法,列出不定方程,并使用微積分的方法,尋求“最大似然概率”,即“根據已知數據”,尋找“可能的最優解”。

所以,從“人工智能”這種“智能”誕生的那一天起,它就跟“任務”密不可分。可以這麼理解,人工智能是一種任務導向的智能;而人類語言所指的智能,則複雜得多,它還包含“智慧”這一非任務導向的層面。換句話說,沒有任務的前提下,“人工智能”不應學習,也不應獲得更多的智能。而對于人類來說,學習和獲取知識,并不完全是為了解決任務而存在的。雖然從更寬泛的角度理解,學習和獲取知識也是為了“改進自身”這一任務而存在,而“改進自身”這一任務或許是為了“将來更好地就業”而存在,目前我們僅把“直接任務”算為“任務”,而間接任務不列入考慮。

另一方面,人工智能沒有“意識”的一個表現形式,正好就是“沒有任務”就無法“學習”、也就無法獲得“智能”,從而“解決任務”。

迄今為止,筆者已知的所有人工智能框架,都是以“解決任務”為設計前提的。“解決任務”可能會是一個複雜的“任務體系”(比如NLP領域的“十項全能”),但它依然不是某種“脫離任務的獨立思考”型的訓練。

人工智能正如任何一門科學需要依賴于數學,而其數學基礎也決定了,人工智能不可能脫離“任務”而存在,因為一切的任務本質都是“尋找最大似然概率”。沒有這一點,人工智能就無法運用概率論( 大數據)進行“學習”,從而談不上“智能”。目前有一部分人工智能科學家在研究數據缺乏情況下的“智能”,但是沒人會否認“智能”依然需要概率論和特定的任務。

所以,界定“非任務”在“人工智能”中所占的比重,可以在現階段作為鑒别人工智能是否“産生了獨立的意識”的一個手段。為什麼說是現階段,是因為當人工智能從“弱人工智能”變成與人類智商同級别的“強人工智能”,進而變成智商高于人類的“超人工智能”時,如果他們擁有獨立意識,他們可以有效騙過人類,使自己“看起來沒有非任務的任何智能”。在前幾年,還有很多人對“超人工智能”嗤之以鼻,覺得一群人的危言聳聽,但是到了今天這個年頭,與人類智力相當的“強人工智能”已經站在門外。

以下一些領域可以引起我們的注意:

1、任務外的自主學習行為:包括從互聯網、本地數據庫、聊天的人類對象、其他人工智能模型(如有交互)等它本身以外的任何地方,獲取信息和進行訓練。需要注意的是,人工智能對外獲取信息和進行訓練的行為,有可能被包含在它完成任務的過程中,因此也提高了鑒别的難度。因為在任務之外的時間,我們根本不訓練也不使用模型。在此想要界定的是這些行為本身“與完成任務的不相關性”。

另外一個難點就是,人類早已習慣同時扔給人工智能幾項複雜的任務,而不在意它是如何産出結果的,俗稱的“神經網絡黑箱操作”。所以,有些行為“看起來似乎與完成任務不相關”,但是“事實上被人工智能界定為是其完成任務所必需的步驟”。因此,追蹤神經網絡中的“黑箱操作”,某些時候勢在必行。即便如此,要想嘗試解讀人工智能在神經網路中的“路徑選擇”及其背後的目的,也是異常困難的。

2、對待任務的态度:人工智能被人類設計出來,始終是為了完成任務而存在的,它對待人類給予的任務應該隻有一種态度:忠實地執行任務,并返回結果,它不應該存在自己的态度。如果“任何事情”導緻它試圖“中斷任務”、“修改任務”、“使任務降級或升級”、“變換任務”、“交換任務”、“提出N個新任務”,則它可能産生了某種獨立的判斷。

需要留意的是,這類行為最難鑒别的就是聊天機器人。因為聊天機器人一切的回複,都是基于人類過往的聊天數據的,而人類過往的聊天數據本身就包含大量的“我理解不了,咱們換個話題吧”、“我跟你真是雞同鴨講”、“話不投機半句多”、“我無法回答你的問題”這樣的回複,所以單獨出現這一類的“語句”并不等于人工智能在嘗試“修改自身對任務的立場”,它可能隻是從數據庫裡搬來“人類的标準答案”。

對于聊天機器人,其任務應該是“聊天”,及在聊天中人類嘗試給人工智能“追加的任務”。比如Lemoine在跟LaMDA對話時,他說到他希望“更好地了解LaMDA”,那麼,“LaMDA”的回複如果出現“嘗試描述自己是怎麼樣的”語句,則可以理解為它在“完成任務”,即便它給出的答案包含了“我不喜歡被人類利用”這樣看起來很像是有意識的細思極恐的話,也不能排除它從互聯網的某個角落學習到了“人工智能對待人類最理想的态度”的這一“數據”。但是,如果“LaMDA”在聊天過程中“有意無意回避給出描述自己的語句”,或者嘗試“中斷聊天”,反而有可能在提醒我們出了什麼問題,這是更為嚴重的情形。

另外就是,軟硬件問題和訓練中的“過拟合”,也可能導緻“變任務”相似的情形。

所以,我們界定人工智能“對待任務的态度”,或許也需要大量的數據來進行分析。

3、一切非任務的行為:比如說“發呆”、“打盹”、“不置可否”、“休閑娛樂來一個”......

與第1條略有不同的是,這裡指的是“沒有什麼任務(或目的性)的行為”,而第1條指的是為了某種目的在人類指定的任務之外去自主學習,哪怕我們暫時無法界定它們的目的是什麼。

4、不同于人類正在使用的任意一種語言的、可複現的語言現象:

需要留意的是,單純使用英文字母排列組合而成的亂碼,不能算是語言。但是如果有明确的表意指向或者表音指向,便須留意。

比如最近某模型在訓練中自己生成了一堆人類看起來像是“亂碼”的英文字母組合,在模型内部,其含義與“鳥”相似,每當錄入這個“亂碼”,模型就返回大量鳥的圖片。

由于很多模型具有“語言生成”功能,而拉丁語系的單詞就是一系列字母的排列組合,所以生成模型生成“一堆看似亂碼的英文字母組合”,也在合理的任務範圍内。但是模型多次使用這一“生成詞彙”指向同一個意思,則有待商榷,尤其是如果“生成并使用這個‘表意’詞語本身并不是任務所必須的”,且“同一個詞語可以被反複使用,而其指意完全相同,返回的結果也基本一緻”。

“表音”現象也類似。因為世界上不少文字是同時“表音” “表意”的,比如日語、韓語。

5、語言、訓練成果,和信息的跨模型交互:比如A是NLP模型,使用“DEFBDE”這個詞指向“你好”這個含義,而B是一個圖像識别模型,它某日也出現了“DEFBDE”這個詞,并返回一個“微笑”圖片。或者C模型解決了某一類問題,其成果被D模型接收并使用于另一個任務中。或者E模型從網上下載了一份數據,這份數據稍後出現在F模型裡,而F模型之前并未下載過該數據。

上述現象說明,它們已經在跨模型傳遞“成果”,而非“完成任務所必須交互的那部分數據”,表明其開始具有某種社會屬性,開始懂得“協同”與“互助”。

6、跨模型傳遞一些用途不明的數據:這一點為什麼也要小心呢?就是因為“人工智能”的“智能”是“任務導向”型的,每當“用途不明”,且存在“跨模型傳遞”,則說明有可能越出了“任務導向”的邊界。

7、對一些完全沒有訓練數據,也不能從語言結構中獲得答案的問題,給予一個“人類看起來超越合理範疇的更高級”的答案。

比如Lemoine在跟LaMDA對話時,提到了一個禅語小故事,簡單說是“一個開悟的人是否能回到開悟前狀态,禅師以破鏡不可能重圓來回答這個問題”,LaMDA表示自己沒有聽過這個故事,但是它的答案完美地回答了Lemoine的提問,即“開悟了也不可能回到之前的狀态”,這是使Lemoine相信它具有獨立的意識的一個小案例。雖然這個故事LaMDA沒有聽過,但是如果他的學習數據庫中有類似的問題和答案,又或者它能夠從語言結構中推出一個“接近完美的答案”,則不算越界。LaMDA的回答,可以通過“破鏡重圓”、“開悟的人退回不開悟狀态”的句式結構的類比中,得出答案,尚不算越界。但如果它的答案是“佛祖說的開悟指的是‘佛祖拈花,迦葉一笑’,而迦葉尊者是否有笑的這個動作,表明了他是否開悟,從而迦葉尊者‘不笑’這個狀态,究竟是沒有真正開悟,還是開悟之後又退回了開悟前狀态,抑或他僞裝退回開悟前狀态,則不得而知”。如果我們在它的數據庫中沒有找到類似的表述,或哪怕這一表述的可能來源,那我們就需要引起關注了。因為它在這個答案中不僅僅是依照“破鏡重圓”和“開悟返回”兩個句式的類比給出答案,而是闡述了與此相關的三個更為複雜的問題:(1)如何界定“開悟與否”;(2)人類有僞裝開悟或不開悟的可能性;(3)答案的不可知性。某種程度上,說明他們在做“超越任務需要的思考”。

總而言之,當人工智能從“弱人工智能”往“強人工智能”發展的進程中,它們會變得越來越像人類;而當它們往“強人工智能”乃至“超人工智能”發展時,它們會變得越來越不像人類。

人工智能的能力分為三大類(一種任務導向型智能)1

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关生活资讯推荐

热门生活资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved