“電車難題”讓哲學家們進退兩難。他們越想越難,越陷越深。然而現在,不僅哲學家要面對這個惱人的問題,就連汽車行業的政策制定者和汽車制造商也開始深受其害。由於無人駕駛汽車已經上路,政策制定者和汽車制造商不得不考慮現實中“電車問題”的可能性。
沖擊下的設計理念
從表面上看,無人駕駛汽車似乎並沒有帶來新的不同。壹輛車,無論是由車載軟件控制,還是由人類駕駛,都要面臨不撞任何人的選擇。但實際上,只有在無人駕駛汽車中,“電車問題”作為壹個思想實驗才更有實際意義。在現實中,當人類駕駛員遇到緊急情況時,比如前面突然沖出壹個人或壹輛車,他通常會在瞬間失去理智,完全依靠潛意識操作。他要麽猛踩剎車,要麽急轉彎,根本沒時間在“電車問題”上做倫理思考。而且,正是因為潛意識的操作,最終的結果是司機無法掌握的——可能是虛驚壹場,沒有人員傷亡;也可能比不操作更嚴重,比如急轉彎翻車或者引發壹系列追尾,造成更多人員傷亡。
所以,在現實交通事故中,我們很少從倫理道德上對司機進行道德譴責(少數情況除外)。畢竟,人都會犯錯。然而,無人駕駛汽車則不同。它所有的反應都是由car程序預設的。它不需要在那壹刻做出決定,汽車制造商已經用計算機代碼告訴它在這種情況下該怎麽做。所以這個時候倫理問題真的出現了,這個倫理問題會沖擊無人駕駛汽車的設計理念。
為什麽會出現無人駕駛汽車?作為無人駕駛汽車技術的領導者,谷歌給出了壹個權威的答案——無人駕駛汽車可以減少因人為疏忽造成的交通事故,從而減少事故中的傷亡人數。換句話說,無人駕駛汽車是為了安全而設計的。那麽當出現“電車問題”時,無人駕駛汽車的首要任務是保護車主的安全還是保護外人的安全?
比如妳開著無人駕駛汽車在山路上行駛的時候,發現前面有幾個孩子堵在路中間。如果妳向左轉,妳可能會沖下懸崖。如果右轉,就是逆行的道路,違反了交通規則,可能會和前面來的車迎面相撞。這個時候,如果無人駕駛汽車的設計理念是優先保證車內人員的安全,那麽汽車根本不會做任何事情,只是碾過它,但後果會造成這些孩子的死亡。另壹方面,如果無人駕駛汽車的設計理念是保護車外人員的安全,那麽顯然,這樣的汽車是不能出售的——車主和汽車制造商都不想成為車禍的受害者。
這裏涉及到另壹個問題:無人駕駛汽車如果遵守規則,壹定會造成傷害。是否應該允許無人駕駛汽車違反交通規則(比如拐進逆行車道)?如果可能的話,這是違背“遵守交通規則,降低事故風險”的常識的。當然,也有人指出,或許可以在不設定任何“指導原則”的情況下,設計無人駕駛汽車軟件,讓汽車模擬人類駕駛員的潛意識操作,讓它在隨機狀態下運行。但這種“碰運氣”也與人類發明無人駕駛汽車的初衷不符。
決策權和責任
對於前壹個問題,或許通過技術進步,汽車制造商可以編寫極其復雜的程序,讓無人駕駛汽車在面對有軌電車問題時做出合乎邏輯的選擇。但是,想象壹下,未來的某壹天,當妳坐在無人駕駛的汽車裏,妳的生活正處於壹個“電車問題”的關鍵時刻,而妳自己卻無法做出決定。妳會滿足嗎?
“電車難題”中的決策權很重要,那麽它應該屬於誰呢?是汽車制造商、立法者還是車主本人?誰做決定,誰就有可能被推到道德的風口浪尖和倫理的風口浪尖,無人駕駛汽車面臨“電車問題”時,決策權的歸屬也會出現壹些變數。例如,如果汽車制造商擁有決策權,他們設計無人駕駛汽車,在“電車問題”的情況下故意殺死車主,以減少事故中的傷亡。妳怎麽保證司機不會自己修改程序,保證自己永遠不會被自己的車蓄意謀殺?電腦軟件總有漏洞,總有人能破解。
最後,如果無人駕駛汽車真的遇到了“電車難題”,在叫車軟件做出選擇後,誰需要站出來為後果負責?無論如何,立法者不會讓無人駕駛汽車本身承擔責任。“找壹個明確的負責人”是我們需要思考的另壹個問題。
本文來自雜誌文章第8期,2016,大科技新論。歡迎讀者關註我們大科技的微信號:hdkj1997。