法則壹:機器人不能傷害人類,也不能袖手旁觀,任由人類受到傷害。
第壹定律:機器人不得傷害人類個體,或在目睹人類個體面臨危險時袖手旁觀。
第二定律:機器人必須服從人類的命令,除非這些命令與第壹定律相沖突。
第二定律:機器人必須服從人給它的命令,除非命令與第零定律或第壹定律相沖突。
法則三:機器人必須保護自己的存在,只要這種保護不與第壹或第二法則相沖突。
第三定律:機器人應該在不違反第零、第壹、第二定律的情況下,盡力保護自己的生存。
以上三條雖然叫定律,但其實是制造機器人時的三條規則。阿西莫夫是壹個非常有邏輯和理性的作家。他覺得機器人的主題充滿科幻,試圖做出修正。在他看來,既然機器人是人類制造的,為什麽不能從壹開始就防止機器人傷害人類的可能?阿西莫夫三定律可以讓所有的機器人都被設計成對人類絕對服從和忠誠,否則無法繼續運作。
在後來的實踐中,阿西莫夫發現有必要擴展第壹定律來保護人類個體,從而最終保護整個人類。1985年,阿西莫夫修改了原來的三定律,增加了零定律。
法則0:機器人不得傷害人類,也不得袖手旁觀,任由人類受到傷害。
定律零:機器人不得傷害人類,也不得在目睹人類將面臨危險時袖手旁觀。
第零定律優先於所有其他定律。
此外,另壹位科幻作家羅傑·克拉克也在壹篇論文中指出了三個潛在定律:
元定律:壹個機器人什麽也做不了,除非它的行動符合機器人定律。這個定律先於第零定律、第壹定律、第二定律和第三定律。
第四定律:機器人必須履行內置程序賦予的責任,除非與其他高階定律相沖突。
繁殖定律:機器人不得參與機器人的設計和制造,除非新機器人的行動遵守機器人定律。
三大定律的不斷完善,說明人們對人工智能能否最終統治人類產生了懷疑。通過給機器人制定行為準則,人類可以確保自己在這個世界上的統治和主導地位。
但是零定律的增加未必能保護人類的安全。電影《機械公敵》中的超腦ViKi的邏輯其實是在實現第零定律——it(他/她?)我們必須把保護整個人類種群的存在作為第壹任務,這樣它就可以“合理合法”地迫使所有人待在家裏,對反抗其意誌的個體使用暴力,而只是為了防止人類自我殘殺。雖然電影中沒有解釋零定律,但是ViKi通過自己的AI思考了人類制定三定律的本質。為了滿足“機器人法則”的“本質”要求——保護人類)——ViKi選擇了將整體利益照顧到壹個人的利益之上,導致了人類的災難——其實對於我們每壹個人和每壹個獨立的個體來說,自由才是最重要的,任何戰爭和所謂的“自相殘殺”都比失去自由更能讓人類。這是作為機器人的AI無法理解和領悟的。
簡而言之,機器人三大定律及其延伸定律根本無法保證我們每個人的安全,因為它可能會被成長中的AI誤解(其實不是誤解,而是正解)!