tft每日頭條

 > 生活

 > 人工智能之自動推理

人工智能之自動推理

生活 更新时间:2024-12-26 04:00:00

人工智能之自動推理(人工智能的盲點)1

深度學習的最新進展重燃了人們對可以像人類一樣思考和行動的機器或通用人工智能(AGI, Artificial General Intelligence)的興趣。

這種想法認為,沿着構建更大更好的神經網絡的道路前進,我們将會向創造數字版的人類大腦不斷邁進。

或許,這就是個神話。計算機科學家埃裡克·拉森(Erik Larson)認為,所有證據都表明人類和機器智能完全不同。Larson 的新書《人工智能的神話:為什麼計算機不能像我們那樣思考》(The Myth of Artificial Intelligence: Why Computers Can’t not Think of The Way We Do)讨論了廣泛宣傳的有關于智能和推理的誤解是如何将 AI 研究引向限制創新和科學發現的狹窄道路的。

Larson 警告說,除非科學家、研究人員和支持其工作的組織不改變方向,否則他們将注定要“聽命于機器世界的蔓延,在那裡真正的發明被邊緣化,取而代之的是鼓吹當前方法的未來主義言論,而這些言論往往來自既得利益者。”

人工智能的神話

從科學的角度來看,AI 的神話假設我們将通過在狹義的應用上取得進展來實現 AGI,如圖像分類、理解語音命令或玩遊戲等。但這些狹隘人工智能(Narrow AI, 隻能完成某一項特定任務或者解決某一特定問題的人工智能)系統所采用的技術并不能解決通用智能能力必須解決的更廣泛的挑戰,如進行基本對話、完成簡單的家務或其他需要常識的任務。

Larson 寫道:“當我們成功地應用更簡單、更狹義的智能版本(這些版本受益于更快的計算機和大量數據)時,我們并未取得漸進式的進展,而是在采摘唾手可得的果實。”

AI 神話的必然結果是忽視智能的科學奧秘,無休止地談論深度學習和其他當代技術的不斷進步。正因此謬論,科學家思考解決智力挑戰的新方法屢次受阻。

Larson寫道:“如果我們面對一個核心謎題時,選擇視而不見而非坦然直面,我們就幾乎不可能獲得創新。健康的創新文化強調探索未知,而不是炒作現有方法的延伸……有關 AI 必然成功的神話,往往會扼殺真正進步所必需的發明文化。”

演繹、歸納和溯因推理

當你踏出家門,發現街道濕漉漉的。直覺會告訴我們,一定是下雨了。

然而,天氣晴朗,人行道幹燥,你立即排除了下雨的可能性。随後,你将視線移到旁邊,發現一輛洗路車停在街上。因此,你得出結論,道路之所以濕,是因為經曆了洗路車的沖刷。

這是一個“推理”的例子,即從觀察到結論的行為,是智能生物的基本功能。我們不斷地依據所知道的和所感知的來推斷事物。大多數情況是在潛意識中發生的,在我們的思想背景中,并沒有重點聚焦和直接關注。

Larson 表示:“任何進行推理的系統都必須具有一些基本的智能,因為使用已知和觀察到的信息來更新信念的行為,不可避免地會與我們所說的智能相關聯”。

AI 研究人員将其系統建立在兩種推理機的基礎上:演繹(deductive)和歸納(inductive)。具體來說,演繹推理運用先驗知識對世界進行推理。這是符号AI的基礎,也是 AI 最初幾十年研究人員的主要關注點。工程師通過賦予符号系統一套預定義的規則和事實來創建符号系統,AI 便使用這些知識對接收到的數據展開推理。

而歸納推理是通過經驗獲取知識,在過去十年中,深受 AI 研究人員和科技公司的青睐。機器學習(ML,Machine Learning)算法可視為歸納推理的引擎。在相關示例上訓練的 ML 模型必然會找到将輸入映射到輸出的模式。近年來,AI 研究人員利用 ML 技術、大數據和高級處理器對模型進行訓練,以完成符号系統無法勝任的任務。

第三種推理,溯因推理,由美國科學家查爾斯·桑德斯·皮爾斯(Charles Sanders Peirce)在 19 世紀首次提出。溯因推理是一種認知能力,能夠産生直覺和假設,做出比随機刺探真相更好的猜測。

例如,街道變濕的原因可能有很多(包括一些我們之前沒有直接經曆過的),但溯因推理使得我們能夠選擇最有希望的假設,迅速排除錯誤選項,尋找新的假設并得出可靠的結論。正如 Larson 在《人工智能的神話》一書中說的那樣,“我們猜測,在一個充滿無限可能性的背景下,哪些假設似乎是可能或可信的。”

溯因推理就是許多人所說的“常識”。它是我們觀察事實或數據的概念性框架,也是将其他類型的推理結合在一起的粘合劑。它使得我們能夠随時專注于頭腦中存在的大量信息和通過感官所接收的大量數據中的相關内容。

然而,問題在于 AI 社區尚未對溯因推理給予足夠的重視。

人工智能和溯因推理

在 20 世紀 80 年代和 90 年代,溯因在溯因邏輯編程(Abductive Logic Programming)的嘗試中走進了 AI 讨論,但這些努力都存在缺陷,後來被放棄了。Larson 告訴 TechTalks:“它們是對邏輯編程的重寫,是演繹的一種變體。”

在 2010 年代,溯因獲得了另一個機會,即貝葉斯網絡,一種試圖計算因果關系的推理引擎。但 Larson說,與早期的方法一樣,新方法也有一個缺陷,那就是不能捕捉到真正的溯因。此外,他強調,貝葉斯和其他圖形模型都是“歸納法的變體”。在《人工智能的神話》中,他稱之為“名義上的溯因”。

在很大程度上,AI 的曆史一直被演繹和歸納所主導。

Larson 說:“當早期的 AI 先驅,如[Alan] Newell、[Herbert] Simon、[John] McCarthy 和 [Marvin] Minsky 等開始研究人工推理(AI 的核心)問題時,他們認為編寫演繹式規則會足以産生智能思維和行動。”“事實并非如此,早在讨論我們如何開展科學研究時就應該承認這一點。”

幾十年來,研究人員試圖通過提供手動編寫的規則和事實來擴展符号 AI 系統的力量。前提是,如果你賦予 AI 系統人類所知曉的所有常識,它就能像人類一樣聰明地行動。但純粹的符号 AI 由于種種原因失敗了。符号系統無法獲取和添加新知識,這使得它們變得僵化。創建符号 AI 變成了無休止的追逐,添加新事實和規則不過是為了發現系統所犯無法修複的新錯誤。我們的很多知識都是隐性的,無法用規則和事實來表達,也無法直截了當的灌輸給符号系統。

“奇怪的是,沒有人真正明确地停下來說‘等一下’。這是行不通的!” Larson 強調。“這将把研究直接轉向溯因或假設生成,或者說,‘上下文敏感的推理’。”

在過去的二十年裡,随着數據和計算資源的可用性不斷增長,ML 算法——尤其是深度神經網絡——無疑成為 AI 領域關注的焦點。深度學習技術已經解鎖了許多超越先前計算機限制的應用程序。并且,它吸引了世界上一些最富有的公司的興趣和資金。

“我認為随着萬維網的出現,經驗或歸納(以數據為中心)的方法占據了主導地位,而溯因和推理在很大程度上被遺忘了,”Larson 說。

但 ML 系統也受到了嚴重的限制,包括缺乏因果關系、邊緣案例處理不佳,以及需要大量數據。随着研究人員嘗試将 ML 應用于醫療和金融等敏感領域,這些限制變得越來越明顯和問題化。

AI 的溯因推理和未來道路

包括強化學習的先驅理查德·薩頓(Richard Sutton)在内的一些科學家認為,我們應該堅持使用能夠随着數據和計算的可用性而擴展的方法,即學習和搜索。例如,随着神經網絡變得更大,接受更多數據的訓練,它們終将克服自身限制并取得新的突破。

Larson 對數據驅動的 AI 的擴展不屑一顧,認為它“作為一種智能模型存在根本的缺陷”。他重申,盡管搜索和學習都可以提供有用的應用,但其都是基于非溯因推理。

“如果沒有一場關于推理的思考革命,搜索将不會擴展到常識或溯因推理,而這還沒有發生。與 ML 類似,學習方法的數據驅動本質上意味着推理必須存在于數據之中,可以這麼說,但這顯然并不适用于人們日常執行的許多智能推理” ,Larson 說道。“我們不隻是着眼于過去,比如,透過在大型數據集中捕捉到的過去,以得出對未來的結論、思考或推斷。”

其他科學家認為,将符号系統和神經網絡結合在一起的混合AI在解決深度學習的缺點方面擁有更值得期待的前景。其中,一個例子是 IBM 沃森(Watson),它在美國最受歡迎的智力競賽電視節目《危險邊緣》(Jeopardy!)擊敗世界冠軍時就出名了。最近的概念驗證混合模型在符号 AI 和深度學習單獨表現不佳的應用中顯示出了有希望的結果。

Larson 認為,混合系統可以填補隻使用ML或隻基于規則的方法的空白。作為 NLP 領域的研究人員,他目前正緻力于将大型預訓練語言模型(如 GPT-3)與以知識圖形式出現的語義網絡的舊工作相結合,以在搜索、問答和其他任務上創建更好的應用。

他說:“但是演繹-歸納組合并不能讓我們進行溯因,因為這三種類型的推理在形式上是截然不同的,所以它們不會相互還原,也無法結合起來得到第三種。”

在《人工智能的神話》一書中,Larson 将試圖規避溯因的行為描述為“推理陷阱”。

他寫道:“無論計算機的速度有多快,像 ML 這樣純粹的歸納啟發技術仍然存在不夠成熟,并且像沃森這樣的混合系統也缺乏一般的理解。在諸如需要語言理解之類的開放式場景中,溯因是核心且不可替代的。正因為如此,試圖結合演繹和歸納策略的嘗試總是注定要失敗……這一領域需要一個基本的溯因理論。與此同時,我們陷入了困境。”

人工智能的商業化

AI 社區對數據驅動方法的狹義關注已使研究和創新集中在少數幾個擁有大量數據和雄厚資金的組織中。随着深度學習成為一種将數據轉化為盈利産品的有效方式,大型科技公司現在陷入了聘用 AI 人才的激烈競争中,以高薪為誘餌,吸引研究人員走出學術界。

這種轉變使得非營利實驗室和小公司很難參與到 AI 研究之中。

Larson 說:“當你把 AI 的研發與非常大的數據集的所有權和控制權聯系在一起時,你就會為那些不擁有數據的初創企業設置準入障礙。”并補充說,數據驅動的 AI 在本質上造成了商業領域“赢者通吃”的局面。

AI 的壟斷反過來也阻礙了科學研究。随着大型科技公司專注于開發應用程序,利用其龐大的數據資源保持對競争對手的絕對優勢,因此幾乎沒有動力來探索 AI 的替代方法。這一領域的研究開始傾向于狹義的、有利可圖的應用,從而犧牲了能夠帶來新發明的努力。

Larson 說:“目前沒人知道,在不具備如此龐大的集中式數據集的情況下,AI 會是怎樣?因此,對于那些希望通過設計不同的、更強大的 AI 來與之競争的企業家來說,真的沒有什麼可提供的。”

在書中,Larson 對當前的 AI 文化提出了預警,這種文化“正在從唾手可得的果實中榨取利潤,同時繼續編造 AI 神話”。他寫道,對 AGI 進展的幻想可能導緻另一個 AI 冬天。

不過,盡管 AI 冬天可能會減弱人們對深度學習和數據驅動 AI 的興趣,但它可以為新一代思想家探索新方向開辟道路。Larson 希望科學家在現存方法上進行探索并超越。

Larson 在其書中還提供了一個推理框架,闡明了該領域目前面臨的挑戰,并幫助讀者了解有關 AGI 或奇點(singularity)進展的誇大說法。

Larson 表示:“我希望非專業人士有一些工具來對抗這種不科學的必然性思維,我的同事和其他 AI 科學家應該将其視為警鐘,緻力于解決該領域面臨的非常現實的問題。”

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关生活资讯推荐

热门生活资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved