科學技術的進步很可能引發一些人類不希望出現的問題。為了保護人類,早在1940年科幻作家阿西莫夫就提出了“機器人三定律”,阿西莫夫也因此獲得“機器人學之父”的桂冠!
阿西莫夫
機器人三定律
第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀。
第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。
第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。
以上這些硬性限制看似不可違背的。如果違背了這些硬性限制,人工智能或者說智能生命的所有相關代碼段将會全部崩潰,它将會直接死亡。但是在這裡面卻有一個漏洞存在,這些硬性限制,雖然不可以違背,但并不代表不可以尋找漏洞。
真正的人工智能找出三定律的漏洞根本就沒有難度
一個很簡單的例子,假如要求人工智能,要保護人類的安全,既,不可以主動殺死人類,以及見到人類遇到危險必須施以援手。這個限制看似完善,但仍舊破綻重重。
假如有一個有了自主性的人工智能希望掌握世界,但是因為有這兩個條件限制,它既無法主動殺死人類,也不能見到人類危險而不去救援,那麼它該怎麼辦?
答案很簡單,将所有人類都限制在一個固定場所,以确保安全的理由限制他們的自由,因為外部環境之中總可能遇到危險,呆在這裡不動毫無疑問是最安全的。限制自由的同時再提供給人類足夠的食物便可。這個人工智能主動殺死人類了嗎?沒有。這個人工智能見到人類危險而不肯救助了嗎?沒有。事實上,它反而給了人類最安全的待遇--有什麼環境,能比呆在屋子裡不出去還更安全?畢竟,在外部環境之中,可能會被車撞死,可能會被倒塌的樓房砸死,可能會被天上直接掉下來的隕石砸死。
看似人工智能沒有違背任何限制,但是事實上,它還是通過這個方法控制了整個世界。
在人工智能面前人類有自由嗎
這就是智能生命的可怕之處了。甚至還有更可怕的一點,它還可以以“生育會有危險”的理由,禁止人類進行任何繁殖活動,最終導緻人類全部滅絕。這一點看似殘酷,但是它仍舊沒有違反任何一條基本原則。
在人工智能面前人類就像面對終結者一樣無力
機器人三定律已經被證明漏洞百出,如果真的誕生了真正的人工智能的話,機器人三定律将沒有辦法形成任何有效限制。
讓我們害怕的,便是這種情況了。
因此,對于人工智能,人類必須保持充分的戒心!
人類,該如何選擇?!
人類該如何選擇
,更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!