tft每日頭條

 > 圖文

 > 易操作的無人駕駛機器人使用方法

易操作的無人駕駛機器人使用方法

圖文 更新时间:2024-12-28 11:46:07

很多科幻小說作家的想象,最終在現實世界中得到了應驗。

易操作的無人駕駛機器人使用方法(阿西莫夫的機器人三定律和Mobileye的自動駕駛五原則)1

大師級科幻小說作家阿西莫夫有過一個思考,對于AI驅動的機器人,除了應該不斷提升機器本身的智力水平之外,讓其更好用之外,在其和人類打交道的時候,還需要一個更宏觀的,在技術至上的指導原則。他在短篇小說集《我,機器人》中寫了這樣一組規則,稱為“機器人三定律”:

1. 機器人不得傷害人類,或者不得置人類于危難中;

2. 機器人必須服從人類的命令,除非與第一定律沖突;

3. 機器人可以在不與第一、第二定律沖突情況下維護自身存在。

1985年,阿西莫夫又出版了《機器人與帝國》,在書中他将三大法則擴張為四大法則,增加了第零法則:機器人不得傷害整體人類,或坐視整體人類受到傷害,構成更加完整的機器人四定律。

雖然機器人三定律、四定律在很多有關于人工智能的電影和文學作品中屢屢出現,但也一直停留在想象階段,并沒有被實際應用過。一方面的原因,是在很長一段時間裡,機器的智力水平還沒有高到能和人類社會日常生活的息息相關;另外一個原因,則是由于阿西莫夫的原則隻是簡單的語言符号,并未構成嚴密的邏輯閉環。

但這并不妨礙阿西莫夫的思考成為一種新學科“機械倫理學”的基礎,一門以人類為中心,關于機器人的建造和使用的學科,其核心就是如何安全的應用智能機器。

自動駕駛,數據是基石,但并不是全部

而Mobileye公司,正在試圖在自動駕駛領域,書寫堪比機器人三定律,甚至更精确的規則。

這個月的月初,至頂網(賽博故事母平台)拜訪了Mobileye,一家創立于 1999 年,總部位于以色列的高科技公司。該公司的主要業務為輔助駕駛系統和自動駕駛開發所需要的計算機視覺、機器學習、數據分析、定位與地圖建模等技術。2017 年的 3 月,Mobileye被英特爾公司斥資 153 億美元收購,并與後者的自動駕駛事業部(ADG)合并,形成新的自動駕駛部門,由 Mobileye 聯合創始人、董事長兼首席技術官阿姆侬·沙書亞(Amnon Shashua)教授領導。

易操作的無人駕駛機器人使用方法(阿西莫夫的機器人三定律和Mobileye的自動駕駛五原則)2

Mobileye 聯合創始人、董事長兼首席技術官阿姆侬·沙書亞教授

很長時間以來,自動駕駛汽車的安全可靠性,一直被認為隻和數據量密切相關。這是由于這一次由機器學習、深度學習帶來人工智能浪潮的本質來是使用統計學方法對數據的利用,讓機器通過“吃掉”海量的數據來總結模式和規律。隻要數據足夠多,也就是路測的裡程足夠長,自動駕駛汽車就會更安全。沙書亞在和我們交流中表示,在自動駕駛這件事上,“把任務完全交給統計學是不可行的”,不能隻有數據訓練,還要有一些常識原則,否則會面臨極大的發展障礙。

障礙之一在于經濟性,“要讓人類信任自動駕駛汽車,安全性至少要比人類司機好100倍。如果用統計學方法來實現,這就意味着1億小時的路測,假設路測時每小時行駛30公裡,路測的距離是30億公裡”, 沙書亞做了一個簡單的計算來證明經濟上的不可能性,畢竟30億公裡,相當于繞地球跑了7萬圈還不止。

障礙之二來自于黑箱問題,沙書亞認為統計學之上的AI “既不透明、也不公開”。現在的深度學習是基于數據的自動編程,一種方式成功了,我們知道它有效,但是我們不知道它為什麼有效,反之,如果它失敗了,我們也不知道它為什麼失效,唯一能做的就是不斷調整參數,加大數據量,試圖讓結果更盡如人意,但實際上我們對其“内在”一無所知。

但對自動駕駛而言,透明是非常重要的。畢竟駕駛這件事太複雜了,涉及到社會安全,涉及到駕駛員、乘客、路人,以及涉及交通部門、汽車公司甚至保險公司等利益相關方。一旦車輛發生事故,我們卻無法向涉事相關方解釋緣由,也無法界定責任,進而很難讓自動駕駛赢得社會信任。

在自動駕駛汽車,很可能成為人類第一個要考慮如何與其安全相處的智能機器之際。Mobileye試圖在統計學之上,增加一些人類可以理解的規則,發布了它RSS—— Responsibility Sensitive Safety模型,中文翻譯為責任敏感安全模型。RSS中所制定的各種規則,正如同阿西莫夫的“機器人三定律”,其核心目的也是安全。

RSS,機器可以讀懂的數學安全“定律”

在之前發表的由沙書亞教授參與撰寫的論文“On a Formal Model of Safe and Scalable Self-driving Cars”中,和後續來自Mobileye公司的演講說明中,我們得知RSS模型為實現這樣的 “目标”而設定:

1. 自動駕駛汽車本身不能導緻事故(它可以是事故中的一方,但不是導緻事故的一方);

2. 自動駕駛汽車應該在其它車輛發生錯誤時(導緻事故),做出正确反應,避免發生更嚴重的事故。如果用一句話來總結,就是自動駕駛汽車永遠不應為一場事故負責。

之所設立這個目标,可以理解為是要解決自動駕駛的可行性。不導緻事故,就意味着自動架設汽車不會為事故承擔責任,這在基礎上卸下了監管部門、汽車公司的壓力。

但如果沒有合理的方式,僅靠這句文字符号,無從保證自動駕駛汽車可以沿着這個目标邁進。所以自動駕駛汽車就需要能回答這樣幾個問題:1,什麼是可能發生事故的危險情況;2,遇到問題時,什麼是正确的反應;3,以及最後,也是非常重要的,既然自動駕駛汽車要避免成為導緻事故的一方,那麼如何認定事故中的責任方?(即如何避免成為責任方)

為實現這些目的,在這篇論文中,RSS規定了這樣五條基本常識性原則:

1. 别追尾(追尾前車無責)。

2. 别突然并道,導緻後車追尾(這是前車責任)。

3. 擁有“路權”,但别刻意争取路權。(英文是:right-of-way is given,not taken)。如果舉例來說明,前車加塞,或許“可以不讓路,但是為了保證安全,可以讓速。

4. 小心視覺盲區。

5. 如果能避免事故又不會傷及他人,那一定要努力避免。

需要注意的是,RSS并非隻是看似簡單的文字符号描述,而是由強大的數學邏輯來保證可實現,像下圖這樣的公式(關于安全車距),在論文中處處可見。沙書亞也強調,必須遵守基于三方面的原則對這些常識進行公式化,包括合理性、有效性和可驗證性。而有了這些常識準則,自動架設汽車的決策系統,就可以避開單純依靠統計學AI實現安全駕駛的低效性。

易操作的無人駕駛機器人使用方法(阿西莫夫的機器人三定律和Mobileye的自動駕駛五原則)3

自動駕駛汽車的監管、共識和價值

毫無疑問,由于涉及社會公共安全,自動駕駛是政府一定會介入監管的領域。

在我們走訪Mobileye公司的過程中,發生了比較重要的新聞。Mobileye和大衆宣布共同合作首個自動駕駛網約車服務(也稱為出行即服務,MaaS)。沙書亞認為這個項目的重點在于,這是全球第一個由政府參與的自動駕駛MaaS項目。以色列政府承諾将為此成立專門的委員會,讨論監管壁壘、監管架構支持MaaS發展。

對于自動駕駛汽車這樣的新生事物,沙書亞認為監管的松緊程度是非常重要的。如果為了安全,過于看重監管,很可能一事無成。這方面來看,美國相對放松,歐洲則是重重監管,過松或者過嚴都會保證一事無成(過松導緻事故頻發讓公衆失去信心,過嚴則讓産業毫無創新機會)。而以色列做了制度上的創新,由政府介入來确保項目在安全性和可行性的平衡,“做到了創新型監管(制度創新)”。

在沙書亞眼中,新的技術要求,讓政府法律的合理監管體系,和技術上的嚴密數學邏輯,組成了一門重要的新學科——“法規科學”(regulatory science),一門把法律和高等數學結合在一起的新學科,正如阿西莫夫催生了機械倫理學一樣。沙書亞希望RSS不是Mobileye一家之言,而是成為全球自動駕駛産業的共識,作為一項“常識規則”,認同的人越多,安全性和可用性就越能得到保證。Mobileye現在正在同主機廠合作,同行業供應商合作(百度4個月前宣布将采用Mobileye的RSS模型),甚至同美國、中國等監管機構進行合作,來開展這樣推動共識,協同創新的工作。

易操作的無人駕駛機器人使用方法(阿西莫夫的機器人三定律和Mobileye的自動駕駛五原則)4

同樣發生在我們到達Mobileye之時,北京公交集團、北太智能也同時到訪Mobileye,三方共同簽署了諒解備忘錄,建立合作夥伴關系。用北太智能的運營總監李華的話來說,“建立一個基礎交通大數據的基礎設施”。

在以色列,我體會到了兩種駕駛體驗。

第一次是自駕,以色列并非是一個司機開車循規蹈矩的國度,當我們一行人在異國他鄉小心自駕時,時不時被後邊響起的鳴笛聲催促,甚至被逆行超車。所以當我把這個自動駕駛網約車相關新聞發到朋友圈時,有位在以色列工作過的朋友說,在這裡開發自動駕駛,絕對是好地方,有足夠豐富的路測場景。

第二次是乘上了Mobileye平台支持的自動駕駛汽車。在沒有人類司機幹預的情況下,我們乘坐的福特汽車在馬路上自由穿梭。甚至在一次變線時,其反應速度遠遠超過人類。而事後複盤一想,這絲毫不值得奇怪,畢竟這輛汽車的攝像頭可以實時兼顧前後兩百米的路況,根本無需像人類一樣轉向之前,還要匆忙再看一眼後視鏡。

實際上,自動駕駛汽車完全可能已經比人類司機更傑出了,隻不過出于跨物種擔心的緣故,我們需要自動駕駛汽車,比人類駕駛汽車的安全水平高一百倍,才能認可一個新司機的出現。就讓人類“老司機”再保持最多不會超過十年的自信吧。

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关圖文资讯推荐

热门圖文资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved