Google的無人駕駛汽車已經發(fā)生了很多事故,前幾天,Google披露在7月1日的一次測試中,一輛經過Google改裝的雷克薩斯SUV在加州山景城遭到追尾,車上的3名Google員工受了輕微的皮外傷。然而無一例外,這些事故的原因都不是Google無人駕駛汽車自己的問題,至少Google一直堅持這么說;畢竟這些事故中有很多都是Google的無人駕駛汽車被追尾導致的。
那么為什么Google的無人駕駛汽車不能在追尾即將發(fā)生時進行變道而避免事故發(fā)生呢?
事實上,他們可以辦到這一點,但是在這么做之前,他們還有一些道德上和法律上的問題需要解決。
汽車防撞的技術一直都存在,不管對方是另一輛汽車,還是一個行人或者其它物體,裝備這項技術的汽車應該都能對可能發(fā)生的撞擊采取措施而進行規(guī)避。到目前為止,這項技術都還只用到防止前方撞擊上,但理論上,這些技術也可以用在防止追尾上,但首先,還需要考慮以下的問題:
可能的事故場景
想象一下你的自動駕駛汽車停在路口等待著你前面的行人過馬路,這時候,你的車子發(fā)現后面有另一輛卡車沖過來了,看起來無可避免地要發(fā)生追尾事故了,但是你坐在前排座位上,這樣的事故只會給你帶來一點小傷——至少不會致命。如果你的汽車具備規(guī)避程序,那么你的汽車應該怎么做呢?如果你的車子可以立馬躲開,移到旁邊的車道去,那么這輛卡車就會沖進路口,碾壓行人。
那么這樣的自動駕駛程序是合情合理的嗎?在大部分的追尾事故中,這樣的規(guī)避也許無可厚非,但是在類似于這種情況的特殊情況(其實并不罕見)下,讓自己受一點小傷還是拱手送上無辜行人的性命,選擇顯而易見。
因為,這個時候可以認為你(或你的車)應該對被無辜碾壓的行人負責,因為正是你(或你的車)的規(guī)避動作導致了這一事故的發(fā)生。由此帶來的道德和法律后果就需要你(或車輛負責人)承擔。
這樣的狀況可能在今天的汽車駕駛中也會出現,在發(fā)生事故時,你可能本能地保護自己而給別人造成傷害??雌饋砗蜔o人駕駛汽車造成的后果一樣,但是人類不是全然理性的生物,在遇到緊急狀況時并不能做出理智的決定——人類會感到驚慌。然而無人駕駛的機器就不一樣了,它的決定都來自于經過了深思熟慮之后的程序和算法,由此帶來的后果就不太容易讓人原諒。而且如果是程序員故意設置這樣的程序,那么甚至可以將這種事故定義為“蓄意謀殺”,即使是考慮不周,也可能被定義為“重大過失”。
不管哪種可能,對程序員和開發(fā)者來說都是難逃法律干系的。當科技公司用機器來取代人做決定的時候,也就給自己帶來了新的責任和義務。
道德困境
但是別急,這樣的問題難道在前端碰撞時就不存在嗎?后端碰撞有什么不同?
其中最大的不同之處在于,追尾發(fā)生的時候,責任通常是在后車——通常是因為后車跟車太緊,沒法對前車的動作做出及時的反應;或者后車駕駛員分心了。所以對于無人駕駛汽車而言,被追尾是沒有法律責任的。而如果無人駕駛汽車在行進過程中發(fā)現了前方車輛,那么它就有責任進行規(guī)避,避免可能發(fā)生的事故。
在無人駕駛引起的倫理問題上,這兩種情況也是不同的。這個問題有一個被稱為“電車難題”的通用版本,由哲學家Phillipa Foot和Judith Jarvis Thomson提出,在這種情況下,無人駕駛汽車做出的規(guī)避選擇是完全合法的:它躲開了可能直接造成的傷害,也沒有給其他人帶來直接的傷害,但是這種合法卻是不道德的,所以也就是說,僅僅讓無人駕駛汽車的程序滿足法律規(guī)范是不夠的。
那應該怎么辦?
有這樣或那樣的麻煩并不意味著我們應該禁止無人駕駛汽車上路,而是意味著我們應該為可能發(fā)生的情況早做準備。有時候,無人駕駛汽車可能會面臨兩難的選擇,這就給開發(fā)者帶來了潛在的困難和挑戰(zhàn)。
為了減少這種風險,行業(yè)應該在設置用戶期望和社會影響上做更多的工作,它們應該讓公眾明白無人駕駛汽車的能力和限制,這就意味著算法透明,而不是讓我們無法理解計算機程序掌控我們的生命。
而且算法透明對生產商和服務提供商來說也是好事,當事故發(fā)生的時候,他們也能更好地面對法律和道德上的責難。
沒有任何技術是完美的,事故還將繼續(xù)發(fā)生。對待可能發(fā)生的問題,我們要保持開放和對話,就像上個月斯坦福大學的“針對自動駕駛汽車的編程倫理學問題”做的那樣。因為無人駕駛是一件重要的造福大眾的事業(yè),我們只有在確定可能存在的問題之后才能為之確定可能的解決方案。