昨天是世界三大科幻小說家阿西莫夫逝世23周年的紀念日。在人工智能漸行漸近的今天,重讀阿西莫夫别有趣味。
今年1月,物理學家史蒂芬·霍金(Stephen Hawking)和特斯拉CEO伊隆·馬斯克(Elon Musk) 等著名科學家、企業家和投資人簽署了一封公開信,強調“人工智能必須确保能夠按照人的意志工作”。霍金曾警告人們稱人工智能機器人可能是人類曆史上最後一個裡程碑,造無人車的埃隆·馬斯克則把人工智能比喻成核武器和無法被巫師控制的魔法。
《娛樂至死》的作者尼爾波茨曼又犀利了一把——人工智能可能因一個無害的目标而傷害全人類,也可能通過僞裝自己無害來達到欺騙創造者并自我成長的目的。
不過,在一個阿西莫夫粉看來,他們說的這些話差不多都是幾十年前阿西莫夫的機器人系列小說中的翻版。如果機器人學有朝一日成為幾何學一樣的基本學科,那麼阿西莫夫的機器人三定律可能成為“兩點之間直線最短”一樣的基本理念。
比如說,“人工智能必須确保能夠按照人的意志工作”,就幾乎是機器人三定律的另一種說法。
機器人三定律
一、機器人不得傷害人類,或因不作為而使人類受到傷害。
二、除非違背第一法則,機器人必須服從人類的命令。
三、在不違背第一及第二法則的情況下,機器人必須保護自己。
不僅如此,阿西莫夫還考慮了三定律的各種漏洞。
定律自身的背反
在《我,機器人》中,“美國機器人公司”首席機器人心理學家蘇珊•凱文講述了她記憶中9次關于機器人三定律最嚴重的事故,往往和定律的部分缺失和相互矛盾有關。
《講假話的機器人》篇中,學會讀心因此滿口白色謊言的機器人,最終在蘇珊•凱文憤怒的逼問下化作廢鐵(人工智能可能出于好心而傷害人類);
《總有一天》篇中,說書人機器人知道了每個機器人都勝于人的事實,推斷出機器人總有一天不再為人類服務,并違反機器人三定律,終于說着“終有一天”壞掉,猶如《盜夢空間》中那個将停未停的陀螺(人工智能無法永久可控);
《環舞》篇中,負責水星開礦任務的機器人在第二和第三定律的沖突中陷入“焦慮”,開始不停地繞圈子,這也是阿西莫夫首次提出“機器人學三定律”之作(定律本身的不完善)。
如何定義人類
“人類”的定義無疑是三定律的基石,如果機器人認為“人不是人”,三定律就會被覆滅。在《裸陽》和《曙光中的機器人中》,Solaria星的機器人學家先後嘗試或已經制造認為“戰艦裡沒有人”和“Solarian星人才是人”的機器人,因此可以傷害其它星球的人類。
什麼是“傷害”
如何讓機器人通過“傷害”人來幫助人的命題,經過《裸陽》和《機器人與帝國》的孕育,終于導出了“機器人第零定律”這條補丁,就像美國憲法第一修正案一樣。
在《裸陽》中,機器人要學會打小朋友來幫他們成長,在《機器人與帝國》中,機器人丹尼爾将第一定律擴展為第零定律,即“機器人不得傷害人類整體,或坐視人類整體受到傷害。”
這出于丹尼爾的偵探夥伴、地球人伊利亞·貝萊的臨終遺言。
“個别人的死亡是無所謂的。一個人生路,留下的工作後人會繼承。從這個意義上來說,他沒有死。隻要人類存在一天,人類的事業就不會結束。每一個人的工作,結合成人類整體的一部分,因此,就成了整體的一部分。整體存在,他的那一部分也就存在。全人類的生命——過去的、現代的和将來的——彙成了永不停息的生命的長河,并将變得越來越壯麗。一個人的生命,隻是這生命長河中的一滴水。”
機器人三定律并非無源之水,而是對人類社會的比拟。在《我,機器人》中,阿西莫夫借蘇珊之口說道:
第一法則
理論上每個‘好人’都會愛人如己,保護他的同胞,冒着生命危險拯救他人。
第二法則
每個擁有社會良心和責任感的‘好人’,理論上都會服從适當的權威;聽從他的醫生、老闆、政府、精神醫師,以及同事的意見;并且守法重紀,循規蹈矩——即使會影響到他自己的安适或安全。
第三法則
理論上人人都有自保的本能。
阿西莫夫本人對機器人三定律很有信心。他在1981年說:“人問,我是不是覺得我的三定律真的可以用來規範機器人的行為——等到機器人的靈活自主程度足以在不同的行為方式中選擇一種的時候。我的答案是,‘是的,三定律是理性人類對待機器人的唯一方式’。”(《Compute!》)
也許,在人工智能問題上,需要科學家的科技創造超越人類的智能,也需要科幻小說家或任何人的想象力來為機器人制定“義務倫理論”的基本規則,解決科技和倫理的不同步。
,
更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!