“2045年,當計算機智能超越人類。”在庫茲韋爾著作《奇點臨近》中譯本的封頁上寫着這樣一句話。這本書是2005年的暢銷書,如今算來,離庫茲韋爾預測的時間還有30年。這一個預測結果得自庫茲韋爾的加速回報定律 (LawofAcceleratingReturns),該定律認為人類社會是加速發展的,一個更加發達的社會本身具備的繼續發展的能力也更強,按照這條定律,2000年的發展速度是20世紀平均發展速度的5倍,人類在21世紀的進步又将是20世紀的1000倍。而這一切試圖讓人們相信奇點正在臨近,技術将以近乎無限的速度發展。“從弱人工智能走向強人工智能可能需要幾十年,從強走向超甚至有人預測是兩年,最長的預測時間也是30年。大家都同意從強到超會變得非常快,如果失控,在強的階段就會出現,到了超就徹底失控。《超體》雖然是幻想人腦的開發,但露西發展的過程恰恰是強人工智能到超人工智能過程的一個圖解。一旦越過了界限,知識會迅速膨脹。這部電影跟現在關于腦科學、人工智能的想象關系非常密切。”上海交通大學科技史與科學文化研究院院長江曉原說。
智能超越,的确會破壞人類的安全感,畢竟智能是人類站上食物鍊頂端的重要憑恃。江曉原和穆蘊秋博士剛剛翻譯完成的《Nature雜志科幻小說選集》,其中有10來篇涉及人工智能,故事結局大多荒唐,字裡行間透着隐憂。“西方做科幻與做前沿的人之間似乎形成一種不成文的規定,科幻專門用來對研究的内容質疑,想象其發展所帶來的一些不好的未來。在Nature上的小說作者都是很入流的,都是跟着西方現在的科幻潮流在寫。”以此反觀,對于人工智能的擔憂似乎并非空穴來風。
這種擔憂,大概可以分為三個層面:第一層是技術上的濫用、技術缺陷對人類社會造成傷害;第二種是哲學層面的擔憂,即人對技術過于依賴,把所有事情都交給計算機決策,人類喪失主體地位,更喪失生活的意義;第三層是最為可怕的,人工智能變壞,在意識的驅動下傷害人類,這更像是《終結者》中的場景。
電影《終結者5》
人工智能會超過人類智能嗎?這種争論在學界一直存在。堅持人工智能不能超越人類的人不在少數,依據是人工智能是人造物,是在不斷模拟人類,模拟者怎麼會超越被模拟者?
“這種想法的論據都是站不住腳的。”江曉原說,“沒有任何一條定理證明被創造的東西不能超過造物主,現實生活中反而有很多相反的例子,比如孩子比父母聰明,就非常典型。雖然目前還在讨論人工智能能不能通過圖靈測試,離超過人類還差得太遠,但那種認為人工智能永遠不能超過人類的想法我不贊成。”他認為,這類東西的問題在于技術的突破是不可知的,突破也有可能很快就到來。
反駁“不會超越說”的一個重要依據是機器強大的升級能力,離我們生活最近的例子就是電子郵箱中根據收件人習慣,篩除垃圾郵件的程序。這一點曾是霍金提出警示的重要原因,他擔心,一旦發展出相當于或者超越人類智慧的人工智能技術,它就會脫離控制,以不斷加快的速度重新設計自己。但是人類受到緩慢生物進化的限制,無法與其競争,甚至可能最終被超越。庫茲韋爾也在書裡寫道:一旦人工智能達到人類的水平,它一定會很快超越人類水平,因為它會把人類智能的力量和非生物展現出來的智能(包括速度、内存容量、知識共享)結合在一起。機器學習是人工智能學習人類智能的重要方式,通過大樣本的數據、信息讓計算機從中發現學習知識經驗、自動改進計算機算法。美國辛辛那提大學智能維護中心主任李傑認為人工智能的确有學習能力,但那屬于程式裡的學習,不會跳到程式之外,人工智能隻能在指定領域升級。“不要忘了,人工智能裡都有一個核心東西叫軟件,軟件不會自己思考,一定是人編程的。”
目前人工智能在模拟人類智能上還存在諸多障礙,這讓很多人相信終結者的出現還非常遙遠。
比如現階段讓機器學習人類的知識就不容易。這種學習有個困境——計算機學到的知識未必是人類全部的知識。李傑認為,人在自身智慧的基礎上學習别的智慧的功能,就不能被機器複制。“比如人會因為某一條信息醍醐灌頂,人類稱之為靈感,靈感是精神上的、無形的、不能編程的。我認為,機器可以取代知識,可以慢慢幫助人類做決策,但是靈感是其無法實現的,靈感是由人的智慧(wisdom)跟個人的精神所造成的一種很即時的沖擊,無法量化描述,而機器是以目标為準。當以目标為準時,比如在打字速度、翻譯速度、計算能力上,人腦的确競争不過電腦,但當人以價值為準,道德價值、意識價值,電腦就不知如何與人相比。”
難以數字化處理的并非隻有靈感。人有個特質在現象學上叫具身性——有身體、有感知,可以跟周邊環境接觸獲得知識,這種知識與不跟外界接觸、完全靠推理得來的知識不一樣,打個比方,眼睛的轉動可以幫注意力集中做出多種選擇,這是人生活在世界上跟周邊環境接觸形成的,很難提煉出來放到計算機中去。再如兩條腿走路,要在機器人身上實現并不容易,因為涉及人如何使用力氣來抵抗地心引力,這是人上百萬年來生物進化後自然而然的反應,要把這個技能加諸機器人身上,會涉及大量的計算,而且這種運轉需要非常複雜的機電控制系統,保證它像人體四肢那樣可靠地精密運轉有很大挑戰。概言之,人的知識來自于社會和交往,這種知識很難形式化,知識的形式化邊界至少在目前來看也是數字計算機的能力邊界,人工智能缺乏具身性特征,難以從周邊環境中獲得這些不能形式化的知識。
知識學習已經夠複雜了,但這還不是人類智能的全部。前些年機器人“華生”參加美國答題節目,已經超越了最好的美國選手,它存儲了很多詞典、報紙,也可以做簡單推理,已然是知識豐富了,但并沒有人把它看作是一個完整的人。“人除了知,還有情和意,意是意志信仰,情跟人的群體有關,知情意是綁定一起的,很多知識的正确與否取決于情和意,比如宗教信仰和社會背景。作為社會動物,人做出的決策并不完全是知識表達,有很多情和意的因素在裡面,所以很難還原出一個算法來表現人類如何做決策。”出身計算機專業的上海交通大學科學史在讀博士陳自富,是個AI發燒友,他的這個觀點與李傑相仿。在李傑看來,人類是團結的動物,人類的智慧來自于群體間的學習與成長,人類智慧不是一個單純的機械,而是一個智能化集成技術。簡而言之,智慧是智能化的結晶。人工智能可能在“單挑”中勝出,但是超出整個社會的人類智慧不太可能。
“即便是最樂觀的計算機科學家也認為人工智能在21世紀達到單個人的智力水平,這已經不錯了,但其中不涉及情和意。”陳自富認為,知的方面,在未來30多年内,計算機可以達到一個很高的水平,人工智能大緻能幫助普通個人做出不那麼糟糕的決策,比如幫人計算存一筆錢是否劃得來,存定期還是活期,買哪支股票。“對于确定的任務,人工智能可以做得到,而一些非确定性的任務則很難。說白了,機器隻有不斷進化,成為我們社會的一員,才能達到人類水平。”
人工智能最終達到或超越人類智慧,必須要跨越機器與人的差别。這種差别主要是理性、信仰和群體交往中的情感互動、文化基因。創造出有意識、有情感的人工智能,懷此願望的科學家不在少數,阿森克特說過,我們能夠實現讓機器人像人類一樣思考,但構建完美的機器人大腦需要很長時間。.
藍腦計劃(BlueBrain)領軍人物亨利·馬克萊姆(HenryMarkram)2009年曾聲稱十年内推出人類意識的全息圖,意圖建立一套具有自我意識的人工智能。完成的方法是建立一個從突觸到腦半球的完整人腦模型,并在一部超級計算機上模拟。盡管他的實驗室已成功模拟小鼠單個腦皮層單元的活動,但是似乎距離還是很遠。
“西方人常說,生命是一個奇迹,那麼腦更是一個奇迹,腦是生命裡最高級的組成部分,人們并沒有把這個奇迹的所有機制都搞清楚。”江曉原說,當人們說生命是一個奇迹,跟說蘋果是一個奇迹,意思不一樣,後者隻是溢美之詞,其構造運作機制都可以搞清楚,而前者是因為不知道生命裡面到底發生了什麼事,人腦也是一樣。
讓我們看看把大腦神經元的工作原理弄清楚有多難。人腦是由連接着1000億個神經元的100萬億個神經突觸組成的網絡,這些神經突觸和神經元的狀态每秒改變10到100次,而線蟲隻有302個神經元,人們尚且都搞不懂其機制。“大腦是個複雜的、開放的巨系統,跟外界一直有信息交換,用計算機模拟整個巨系統難度非常大,目前來講還差十萬八千裡。”陳自富說,現在很多人通過計算機程序模拟神經單元,比如谷歌的一個項目大概可以實現10萬到100萬個大腦神經元的處理功能,這可能還達不到一隻貓的智力水平,更何況它的算法是不是就是人腦中的算法,都沒法判斷。就連馬克萊姆自己都無法對“模型建出來,能不能做思考”這個問題給出答案。
事實上,神經系統的計算方式和計算機有着本質的區别。計算機的狀态轉變完全由程序設定好,而神經系統從一個狀态到另一個狀态則非常依賴于當時的境況。“人腦處理事情會做很多剪枝,當你端起杯子往外倒水,其實有多個分支,大腦會給出一個直接判斷,把一些不必要的判斷剪掉。但是機器人做這件事,就是對各個分支一個接一個地做可行性計算,這個叫做蠻力計算,所有的計算都要消耗能量。再者,從技術上來看,大腦神經元雖多,其運算速度是緩慢的,但對事情的處理是并行的。如果計算機實現10的10次方到12次方級别的大腦神經元處理功能,目前的技術條件下散熱就是一個難以處理的問題。”陳自富認為,人工智能學習人類的這種緩慢的處理機制,需要認知科學的進步。但是搞清楚大腦的大部分原理就要數十年,甚至上百年。可以說,以現實的技術路徑來看,在模拟人類智能的路徑上完成超越很難,終結者似乎還距離我們幾個星系。
(節選自《人工智能是人類的“終結者”嗎?》 刊2015年4月17日《文彙報·文彙學人》)
作者:劉力源編輯:劉力源
*文彙獨家稿件,轉載請注明出處。
,更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!