tft每日頭條

 > 科技

 > 戰争機器人會成為現實嗎

戰争機器人會成為現實嗎

科技 更新时间:2024-07-19 20:14:16

  戰争機器人會成為現實嗎(殺手機器人對未來戰争意味着什麼)(1)

  殺手機器人現在看起來不像這樣。圖片來源:Denis Starostin/Shutte

  你可能從電影和書籍中聽說過殺手機器人、屠宰機器人或終結者--官方稱為緻命自主武器(LAWs)。而超級智能武器橫行的想法仍然是科幻小說。但是,随着人工智能武器變得越來越複雜,公衆對缺乏責任感和技術故障風險的擔憂也在增加。

  我們已經看到所謂的中立人工智能是如何做出性别歧視的算法和無能的内容審核系統的,主要是因為它們的創造者不了解這項技術。但在戰争中,這些類型的誤解可能會殺死平民或破壞談判。

  例如,一個目标識别算法可以被訓練為從衛星圖像中識别坦克。但是,如果用于訓練該系統的所有圖像都以坦克周圍的士兵編隊為特征,那該怎麼辦?它可能會把穿過軍事封鎖線的民用車輛誤認為是目标。

  我們為什麼需要自主武器?

  由于全球超級大國建造和使用日益先進的武器的方式,許多國家(如越南、阿富汗和也門)的平民遭受了痛苦。許多人會認為它們造成的傷害多于好處,最近的一次是指2022年初俄羅斯入侵烏克蘭的事件。

  在另一個陣營中,有人說一個國家必須有能力保護自己,這意味着要跟上其他國家的軍事技術。人工智能已經可以在國際象棋和撲克上勝過人類。它在現實世界中的表現也超過了人類。例如,微軟聲稱其語音識别軟件的錯誤率為1%,而人類的錯誤率約為6%。因此,軍隊正在慢慢地把缰繩交給算法,這并不令人驚訝。

  但是,我們如何避免将殺手機器人加入我們希望從未發明過的一長串東西中呢?首先:了解你的敵人。

  什麼是緻命的自主武器(LAWs)?

  美國國防部将自主武器系統定義為:“一種武器系統,一旦啟動,就可以選擇和攻擊目标,而不需要人類操作員進一步幹預。”

  許多戰鬥系統已經符合這一标準。無人機和現代導彈上的計算機擁有的算法可以探測目标,并以遠比人類操作員更精确的方式向其開火。以色列的 "鐵穹 "是幾個主動防禦系統中的一個,可以在沒有人類監督的情況下攻擊目标。

  雖然是為導彈防禦而設計,但鐵穹可能會意外殺人。但這種風險在國際政治中被認為是可以接受的,因為鐵穹在保護平民生命方面通常有着可靠的曆史。

  也有設計用于攻擊人的人工智能武器,從機器人哨兵到在烏克蘭戰争中使用的閑逛的神風無人機。LAWs已經在這裡了。因此,如果我們想影響緻命性武器的使用,我們需要了解現代武器的曆史。

  戰争的規則

  國際協議,如《日内瓦公約》,規定了沖突期間對待戰俘和平民的行為。它們是我們控制戰争方式的少數工具之一。不幸的是,美國在越南和俄羅斯在阿富汗使用化學武器,證明這些措施并不總是成功的。

  更糟糕的是,關鍵參與者拒絕簽字。國際禁止地雷運動(ICBL)自1992年以來一直在遊說政治家禁止地雷和集束彈藥(在大範圍内随機散布的小型炸彈)。1997年,渥太華條約包括禁止這些武器,122個國家簽署了該條約。但美國、中國和俄羅斯并不買賬。

  自2015年以來,地雷每年至少使5000名士兵和平民受傷和死亡,2017年多達9440人。2022年地雷和集束彈藥監測報告》說。

  “傷亡人數......在過去七年裡一直令人不安地居高不下,此前有十多年曆史性的減少。2021年也不例外。這一趨勢主要是由于2015年以來觀察到的沖突和簡易地雷污染的增加。平民占記錄的受害者的大部分,其中一半是兒童。”

  盡管國際禁雷運動作出了最大努力,但有證據表明,俄羅斯和烏克蘭(渥太華條約的成員)在俄羅斯入侵烏克蘭期間都在使用地雷。烏克蘭還依靠無人機來指導炮擊,或者最近對俄羅斯的基礎設施進行 "神風攻擊"。

  戰争機器人會成為現實嗎(殺手機器人對未來戰争意味着什麼)(2)

  以色列導彈防禦系統

  我們的未來

  但更先進的人工智能武器呢?阻止殺手機器人運動列出了緻命武器的九個關鍵問題,重點是缺乏問責制,以及随之而來的固有的非人性化殺戮。

  雖然這種批評是有效的,但全面禁止緻命性武器是不現實的,原因有二。首先,和地雷一樣,潘多拉的盒子已經被打開了。另外,自主武器、緻命性武器和殺人機器人之間的界限非常模糊,很難區分它們。軍方領導人總是能夠從禁令的措辭中找到漏洞,将殺手機器人作為防禦性自主武器偷偷投入使用。他們甚至可能在不知不覺中這樣做。

  我們幾乎肯定會在未來看到更多啟用人工智能的武器。但這并不意味着我們必須另眼相看。更加具體和細微的禁令将有助于讓我們的政治家、數據科學家和工程師負責任。

  例如,通過禁止。

  人工智能的黑匣子:用戶除了輸入和輸出之外沒有關于算法的信息的系統。

  不可靠的人工智能:經過不良測試的系統(如前面提到的軍事封鎖的例子)。

  而且,你不必成為人工智能專家,也可以對LAWs有自己的看法。保持對新的軍事人工智能發展的了解。當你讀到或聽到人工智能被用于戰鬥時,問問自己:它是合理的嗎?它是否保護了平民的生命?如果不是,請與正在努力控制這些系統的社區接觸。團結起來,我們就有機會防止人工智能造成更大的傷害。

  ,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关科技资讯推荐

热门科技资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved