tft每日頭條

 > 圖文

 > 人工智能機器人不寒而栗

人工智能機器人不寒而栗

圖文 更新时间:2025-01-29 07:17:21

科學技術的進步很可能引發一些人類不希望出現的問題。為了保護人類,早在1940年科幻作家阿西莫夫就提出了“機器人三定律”,阿西莫夫也因此獲得“機器人學之父”的桂冠!

人工智能機器人不寒而栗(機器人三定律漏洞百出)1

阿西莫夫

機器人三定律

第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀。

第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。

第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。

以上這些硬性限制看似不可違背的。如果違背了這些硬性限制,人工智能或者說智能生命的所有相關代碼段将會全部崩潰,它将會直接死亡。但是在這裡面卻有一個漏洞存在,這些硬性限制,雖然不可以違背,但并不代表不可以尋找漏洞。

真正的人工智能找出三定律的漏洞根本就沒有難度

一個很簡單的例子,假如要求人工智能,要保護人類的安全,既,不可以主動殺死人類,以及見到人類遇到危險必須施以援手。這個限制看似完善,但仍舊破綻重重。

假如有一個有了自主性的人工智能希望掌握世界,但是因為有這兩個條件限制,它既無法主動殺死人類,也不能見到人類危險而不去救援,那麼它該怎麼辦?

答案很簡單,将所有人類都限制在一個固定場所,以确保安全的理由限制他們的自由,因為外部環境之中總可能遇到危險,呆在這裡不動毫無疑問是最安全的。限制自由的同時再提供給人類足夠的食物便可。這個人工智能主動殺死人類了嗎?沒有。這個人工智能見到人類危險而不肯救助了嗎?沒有。事實上,它反而給了人類最安全的待遇--有什麼環境,能比呆在屋子裡不出去還更安全?畢竟,在外部環境之中,可能會被車撞死,可能會被倒塌的樓房砸死,可能會被天上直接掉下來的隕石砸死。

看似人工智能沒有違背任何限制,但是事實上,它還是通過這個方法控制了整個世界。

人工智能機器人不寒而栗(機器人三定律漏洞百出)2

在人工智能面前人類有自由嗎

這就是智能生命的可怕之處了。甚至還有更可怕的一點,它還可以以“生育會有危險”的理由,禁止人類進行任何繁殖活動,最終導緻人類全部滅絕。這一點看似殘酷,但是它仍舊沒有違反任何一條基本原則。

人工智能機器人不寒而栗(機器人三定律漏洞百出)3

在人工智能面前人類就像面對終結者一樣無力

機器人三定律已經被證明漏洞百出,如果真的誕生了真正的人工智能的話,機器人三定律将沒有辦法形成任何有效限制。

讓我們害怕的,便是這種情況了。

因此,對于人工智能,人類必須保持充分的戒心!

人類,該如何選擇?!

人工智能機器人不寒而栗(機器人三定律漏洞百出)4

人類該如何選擇

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关圖文资讯推荐

热门圖文资讯推荐

网友关注

Copyright 2023-2025 - www.tftnews.com All Rights Reserved