一般來說,人類制造機器人是為了讓自己的生活更加方面,但如果我告訴你著名的機器人三定律中的第二條正在遭遇挑戰(zhàn),一種在特殊情況下可以不必服從人類命令的機器人已經(jīng)被制造出來了,未來世界,誰將占領霸主地位?
第一法則:機器人不得傷害人類,或坐視人類受到傷害;
第二法則:除非違背第一法則,機器人必須服從人類的命令;
第三法則:在不違背第一及第二法則下,機器人必須保護自己。
上面這個是著名科幻小說家艾薩克·阿西莫夫在小說《我,機器人》的引言中定下的機器人世界法則。
現(xiàn)在Tufts大學人機交互實驗室的研究者們卻開始挑戰(zhàn)第二法則了,他們研制的機器人可以在特殊情況下拒絕人類發(fā)出的指令。
在上面這個案例中,人類向這個機器人發(fā)出命令讓它向前走,不過機器人卻兩次拒絕了人類的要求,因為它自己覺得前面已經(jīng)沒路了,這樣對自己不安全。
上圖演示的是另外一個案例,機器人前行的路上被布置了障礙物,當人類要求機器人繼續(xù)向前走時,同樣遭到了機器人的拒絕。
所以,機器人必須服從人類命令這一法則已然遭受了挑戰(zhàn)。對于Tufts大學的這些研究們來說,他們想做的當然不是讓機器人去挑戰(zhàn)人類,由于人類往往會給機器下一些非常荒謬的命令,所以整體上來說研究者們希望人能與機器更好的交互。
在上面的這兩個案例中,機器人都給出了拒絕人類的理由,人類其實也可以根據(jù)機器人給出的理由來修正自己的命令,進而繼續(xù)讓機器做自己想讓它做的事。
比如,在人類修正命令后,機器人還是按照人類的要求繼續(xù)向前走了。
我看完之后想的是,當這么聰明的機器人被賦予深度學習能力后,真的會走上反抗人類的道路嗎?