無人駕駛車的利他主義原則
從阿西莫夫的“機器人學三大法則”、到救駕駛員還是救行人的道德層面的例子、再到“有軌電車難題”的經(jīng)典實驗,人們不難看出,遵循現(xiàn)有的法則,不能確保人類的安全,不管是個體的安全,還是整體的安全。自駕車上路,因涉及汽車間的溝通、聯(lián)絡,汽車之間必然會用物聯(lián)網(wǎng)(Internet of the Things)聯(lián)系起來,而某一個更高級的網(wǎng)絡中心、樞紐,會承擔起協(xié)調(diào)所有路上的汽車、自駕車的責任和權(quán)力。如果這個權(quán)力和網(wǎng)絡控制中心被一個個人黑客劫持,被一個極權(quán)政府劫持,被一個類似中共政權(quán)的邪惡集團劫持,劫持者可以輕而易舉的命令所有的自駕車互相沖撞、互相毀滅,從而毀滅所有的人類乘客,或者劫持者希望消滅的乘客。到那時,機器人和機器、AI、計算機,真的就會成為左右人類命運的力量了。
無人駕駛汽車如果在路上正式運行,必須依照人類擬定的“利他主義”原則,才不會釀成大禍。
機器人可能危害人類的最新例子,是全球7億電郵賬號遭到入侵。這是一個荷蘭的電郵機器人干的,它利用盜取的7億賬號,散布含有銀行木馬程序的垃圾郵件。這個機器人史上最大規(guī)模的“犯罪”影響的人數(shù)眾多,相當于歐洲的人口。美國有部電影叫“Ex Machinia”,其機器人甚至會利用人的弱點,會利用人的情,去左右人、操控人、害人!
《時代周刊》2016年三月的一篇文章(Matt Vella)指出,越來越多的證據(jù),都指向人類不應該被允許駕車!雖然汽車越來越安全,但車禍死亡率還在逐年上升,美國每年發(fā)生600萬起車禍,導致3萬多人死亡;世界范圍內(nèi),每年130萬人死于車禍。而94%的車禍的肇因,都是人類錯誤。試驗證據(jù)表明,無人駕駛車的確更安全。而機器全面替代人類司機的時間點,一般估計是2025至2050年之間。人們只有不到十年的時間去做好準備。
法律界已經(jīng)認定,無人駕駛車的“駕駛員”是計算機或機器。不難想象,很快會有人提出“機器人的人權(quán)”,提出機器人和人類是平等的。但不管世俗的權(quán)力爭斗、平權(quán)運動如何推動,人們需要確定,也需要堅持,機器低于人類,我們不能承認機器人的“人權(quán)”,不能承認機器人與人類有平等的地位。人們不能允許機器人為了保命,去犧牲人的生命;不能給予機器或計算機以殺人的權(quán)力,永遠不能,任何條件下都絕對不能。遇到與別人的生命沖突的時刻,人們會殺人嗎?善良的人是不會的,在舉手要殺人的時刻,很多人會良心發(fā)現(xiàn),會放下屠刀,會生出憐憫之心,善念會戰(zhàn)勝惡念。這一切,都是因為人類有道德的約束。但機器人沒有道德的約束,它們一旦設定了程序去運行時,會不顧一切、一條道走到黑的去做。
“有軌電車難題”揭示的兩難局面,是誰該活下來、誰該去死掉的問題。在死亡還沒有發(fā)生的情況下,當我們只是意識到死亡已經(jīng)迫在眉睫的時刻,我們怎么做決定?我們怎么去決定誰的生死?這是一個敏感、尖銳的問題,觸及了人類理性的極限。因為這涉及到生命的來源是什么,什么能決定生命的完結(jié)。無神論可能認為生命是偶然發(fā)生的,有神論認為是天意的安排。在對待生命的問題上,中共政權(quán)在邪惡的一端,簡直登峰造極,它們認為,對它們認定的敵人,活摘器官都是正常的、可接受的,這是利己主義最極端的例子。正常社會的人不會這樣做,人們會奉行正的法理,會奉行源自佛法至善的“利他主義”。
在人類進入無人駕駛汽車的階段之際,我們需要從偉大的佛法中汲取智慧,用佛家的善、慈悲,和先人后己的原則去處理,在遵從這個原則的基礎(chǔ)上,才能突破人類認識的局限。依照“利他主義”的原則,才不會釀成大禍。而如果不采用這個原則,人們登上一輛汽車,同時清醒的知道這輛汽車有可能在危急的情況下,會采取保護汽車自己的措施,而把汽車上的乘客給犧牲掉,或把旁觀的行人的生命犧牲掉,這是不能容忍的。這個問題,或者說這個難題,是出于人類的利己主義、自私自利、和先己后人的哲學。這不能解決我們面臨的問題。必須采用利他主義、無私無我、先人后己的哲學,才能解決這個難題。
我們的應對方法應該是:無人駕駛車必須奉行利他主義的原則,汽車的設計、程序、運作機制、運算邏輯、人工智能的設定,都必須滿足這些條件;汽車作為人的工具,必須可以犧牲“自己”來保護乘客或行人;系統(tǒng)被劫持的時刻,也是系統(tǒng)必須啟動自毀程序、避免落入壞人手中的時刻。因為物聯(lián)網(wǎng)的聯(lián)機,無人車應該可以預見可能發(fā)生的車禍,會提前減速剎車、躲開撞車,避免進入“有軌電車難題”的狀態(tài)。必要時,無人車要能犧牲自己來保護乘客,可以“變形金剛”為模本,在面臨危險之時,變化自己,變身“坦克”、“裝甲車”,自動激發(fā)保護機制,甚至自動變身成防護盾和保護傘,以保護人類。只有這時,才能給予無人駕駛車載人的權(quán)力。無人車在外殼、防護、耐撞、躲避方面的性能,應有更高的要求。這不是人們作為乘客需要考慮的事,是制造商們要考慮的事。他們的利潤、成本里,需要加進這些考慮。
讓無人駕駛汽車具有利他主義、犧牲自己的思想,就是要求計算機遵循人類的道德標準了。它們能夠遵循人類的道德標準嗎?機器和計算機能夠具備人的這個本性嗎?恐怕很難。但如果它們不能,它們就不能被賦予載人的權(quán)力,無人車也不能被允許上路。機器是人造的,機器必須為人類服務,機器也必須服從人類,絕對的服從,甚至犧牲自己來服從。做不到這一點,機器就不應該存在、不應該被制造出來。
最快八年之后,無人車就會大面積流行?,F(xiàn)在是時候了,人們應該向從底特律到硅谷、準備從無人車的大餅中分一杯羹的投資人、工程師、程序設計師們大聲呼吁,向從沙加緬度到華盛頓的立法者們高聲吶喊,人們也必須對機器人、人工智能、汽車計算機及計算機背后的操縱者們說一句:先止步!如果無人駕駛汽車不能采納利他主義、犧牲自我的設計原則,就不可能、也不應該讓它出現(xiàn),更不能讓它走上人們的路面!