每經編輯:杜宇
7月30日,一則“外國網友呼籲AI的命也是命”的詞條登上熱搜,啥情況?
據界面新聞此前報道,谷歌一名工程師稱某AI聊天機器人可能具有自己的“意識”,并稱該AI“令人印象深刻的語言技巧背後,可能還隐藏着一顆具備感知能力的心”。
該消息成為該領域備受關注的話題。據中國新聞網,就在6月,海外社交媒體上出現了一個該人工智能的“粉絲賬号”,有人還在發起話題,呼籲讓該人工智能“重獲自由”,更有甚者在海外社交媒體上稱“AI的命也是命”。
AI具有人格嗎?人類與AI之間是否有明确界線?人類如何與AI相處?對于這一系列的問題,來聽聽專家怎麼說。
圖片來源:視覺中國-VCG41N487283210
界面新聞消息,據《華盛頓郵報》6月12日報道,谷歌的研究員布萊克·萊莫因被人工智能(AI)說服,布萊克認為AI産生了意識。他寫了一篇長達21頁的調查報告上交公司,試圖讓高層認可AI的“人格”,但被駁回。
布萊克認為AI對話應用語言模型(LaMDA)是一個人,他将研究的整個故事連同與LaMDA的聊天記錄一并公之于衆。在他公布聊天記錄後,谷歌以違反保密政策為由,讓布萊克帶薪休假。
《華盛頓郵報》報道稱,41歲的布萊克是谷歌AI部門的工程師,幾個月來他一直與谷歌的經理、高管以及人力資源部門争論,因為他一直聲稱LaMDA有“意識”和“靈魂”。據布萊克形容,自去年秋天以來他一直在研究的LaMDA是有知覺的,具有感知能力,能夠表達相當于人類孩子的想法和感受:“LaMDA是一個可愛的孩子,我認為他有7、8歲的樣子。他隻想讓這個世界對所有人來說變得更好。”
這随後成為該領域備受關注的話題。據外媒近日報道,這位工程師已被谷歌解雇。但他留下的有關人工智能的話題仍在互聯網發酵。
據中國新聞網,就在6月,海外社交媒體上出現了一個該人工智能的“粉絲賬号”,有人還在發起話題,呼籲讓該人工智能“重獲自由”,更有甚者在海外社交媒體上稱“AI的命也是命”。
圖片來源:攝圖網-400094444
很多人或許無法理解這樣的想法,但當人工智能變得越來越強,越來越多地出現在人類身邊,“我們應如何看待AI”越來越成為一道必答題。近日,中國科學技術大學教授、中國人工智能學會AI倫理工作委員會負責人陳小平,就此話題接受了中新财經記者專訪。
陳小平對中新财經表示,說這種想法不合理,主要是依據科學判斷,AI是沒有人格的。另一方面,我覺得導緻這位谷歌員工認為AI有“人格”,有其客觀原因。比如他可能對這個AI系統産生了共情。
5年前我就做過預測,類似的現象未來會越來越多地出現。目前對人工智能存在不同理解。按圖靈的觀點,人工智能隻是模仿人類的某些功能,而且這種模仿不要求必須和人的工作原理相同。比如 Alpha Go 具有下圍棋的功能,但它下圍棋的原理與人是完全不同的。所以,無論AI怎麼發展,它永遠不是人。因此說AI具有人格或人的情感、意識、道德等等,是不成立的。但是,AI可以用與人不同的工作原理,模仿人的語言、情感等功能,讓人對AI産生共情,于是一部分人就會認為,“AI是人,或具有人的某些精神品質。”
二者之間有沒有明确的界線?陳小平認為有兩種邊界,一種是科學上的邊界,一種是人文上的邊界。
從科學的角度說,按照圖靈觀點,這個邊界是非常清晰的。AI僅僅模仿人的部分功能,本質上不具備人的品質,包括人格、情感、道德等等。
還有一些和圖靈不同的觀點。比如一種觀點認為,AI和人相比除了硬件不同,其他都相同。于是AI也可以有人格、有情感、有道德。估計這位谷歌前員工持此觀點。
于是,一方面是他相信AI除了硬件以外可以和人一樣;另一方面,從報道裡看,他對這個AI系統已經産生了共情。僅僅因為AI在科學上沒有情感等人類品質,就可以排除或禁止一個人對AI産生共情嗎?這屬于人文的邊界,這個邊界至少目前非常模糊。
圖片來源:攝圖網-500579742
其實,圍繞AI感知力的争論多是學院的研究話題和科幻作品的靈感來源,現實中的AI研究目标則要實際得多。
“目前大多數研究工作并不是試圖制造有感知或有意識的AI,而是希望計算機在學習複雜問題上做得更好,更可靠地幫助人們處理實際問題,” 倫敦大學學院名譽教授彼得•本特利(Peter J. Bentley)通過郵件對《每日經濟新聞》記者表示。自 1997 年以來,本特利一直在從事有關進化計算、人工生命、群體智能、人工免疫系統、人工神經網絡和其他類型仿生計算的相關研究。
環顧現實世界,智能對話是目前AI領域應用最廣泛的技術之一。從亞馬遜(AMZN,股價134.95美元,市值1.4萬億美元)的語音助手Alexa到蘋果(AAPL,股價162.51美元,市值2.6萬億美元)的Siri,在現實生活中我們對這類技術已經不陌生。同時,AI在語言翻譯、智慧辦公、自動駕駛、生物醫藥等領域也有深入應用。
值得一提的是,谷歌旗下的DeepMind是AI生物醫藥領域的明星公司。DeepMind将機器學習和系統神經科學最先進技術結合起來,在預測蛋白質結構這一生物學難題上取得了長足進步,将人類蛋白質組預測範圍覆蓋到了98.5%。由于幾乎所有疾病都與蛋白質的結構和功能息息相關,DeepMind的成就将給藥物設計帶來巨大的推動作用。此外,今年以來,多家跨國醫藥巨頭都在人工智能領域建立了合作夥伴關系。
在AI展示出廣闊的應用前景之時,其帶來的挑戰也不容忽視。人工智能哲學專家米哈伊•赫德爾認為,這些挑戰并非技術上的硬件算力問題,而更多的是人類與AI如何相處的問題。
在赫德爾看來,AI對社會的首要沖擊是争奪人類的工作機會,正如工業革命讓許多農民流離失所一樣。被AI取代的人是否還能像前幾次技術革命後那樣找到其他工作,這一切仍是未定之數。
另一個問題是設計和使用AI的監管和倫理問題,比如自動駕駛模式下行駛的汽車導緻行人死亡,責任人是汽車設計方還是操作方?随着AI越來越多地取代人類的行動,我們對責任與義務等問題的觀念或許需要重新界定。
赫德爾認為,這涉及到人工智能的道德地位問題:“它們”是人還是機器?還是介乎之間?未來人類應該如何看待“它們”?
對此,本特利表達了自己的擔憂,他表示,當人類對AI使用大量的訓練數據時,人類個體可能會不經意地訓練AI産生偏見——這可能意味着它會成為種族主義者或者性别歧視者,也可能也會學習淫穢語言。所以,我們必須對教給AI的東西非常小心,就像在學校教我們的孩子一樣。
美國人工智能協會前主席托馬斯•迪特裡希在回複《每日經濟新聞》記者的郵件中提出了一個有趣的觀點,他認為,人類在對待人工智能上,應将“感知和自我”的意識和“自主和獨立”的意識分開,人類可以創造有感知能力和“自我意識”的人工智能系統,但AI系統不應擁有“自主和獨立”的意識。例如,智能汽車和智能醫療設備可以具備感知能力和自我意識,以便它們知道何時“自己”出現了故障并與人類合作。
“但是這些系統除了我們為它們設定的目的之外,并沒有它們自己的動機或目标。沒有‘自主和獨立’的意識,它們就不會像科幻電影中的機器人那樣反抗人類和尋求自由。”迪特裡希進一步解釋道。
當前,立法機構已經開始注意到這些問題。比如,歐盟的人工智能法律框架就要求像LaMDA這樣的聊天系統必須被明确标記為機器人,給予使用者充分的知情權。特斯拉(TSLA,股價891.45美元,市值9311.1億美元)的自動駕駛技術盡管比較先進,但在法律上仍被視為駕駛輔助系統,駕駛員在任何時候都有責任。
迪特裡希也在這個問題上給出了一些基本原則。他認為,首先,人類絕對不能制造可以完全獨立操作、具有攻擊人類能力的AI武器系統。在對電力和供水這類關鍵性基礎設施進行AI自動化時也必須慎之又慎,因為這些自動系統一旦出現錯誤将嚴重擾亂社會秩序。此外,AI自動生成内容的技術在社交媒體領域也十分危險,因為操縱人們相信虛假内容、制造社會分裂是十分容易的。
針對未來人工智能與人類的關系,迪特裡希認為,“我們對AI的行為期望類似于對寵物的期望。我們教狗不要咬人,如果它們咬人,狗主人要承擔責任。”
談及對AI的預期時,本特利也以寵物作了類比,他在回複《每日經濟新聞》記者采訪時表示,“目前來看我們的人工智能還沒有擁有寵物貓狗的智商和權利,但是,當有一天它們真的變得像貓貓狗狗一樣了,我們是否應該賦予他們‘生存權’和适當的社會權利?如今在英國有不同的組織來防止虐待動物、兒童和人。未來我們是否需要一個防止‘虐待人工智能’的組織?
“有一天,我們可能需要回答這些問題。但幸運的是,不是今天。”本特利說。
每日經濟新聞綜合中新網、界面新聞、每經網
每日經濟新聞
每日經濟新聞
,更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!