當前位置: UU看書 > 都市 > 無人駕駛帝國最新章節列表 > 第三百九十二章 “電車難題”有些假設很難成立
選擇背景顏色: 選擇字體: 選擇字體大小:

第三百九十二章 “電車難題”有些假設很難成立

隋老師接著說:

“最近,一輛無人駕駛測試車就在亞利桑那州坦佩市撞死了 49 歲的婦女 Elaizberg,當時她正推著腳踏車橫跨馬路。

在筆者分析了一番有關這次事故的法律內涵後,有些讀者對我報以功利主義者的嘲諷。

不過他們不知道的是,米國去年因為橫穿馬路而遭遇車禍身亡的人數高達 5376 人,而新聞可不會對這些事故進行逐一報道。

很快,無人駕駛汽車就能減少甚至把行人死亡的情況降為零。

如果把這種想法套進電車難題,你就會發現軌道變成了時間,而非空間。

雖然犧牲一邊軌道上的那個人依舊是個悲劇,但如果它的代價是拯救數千人,恐怕也會變得合乎情理。

問題在於,這樣的立場需要假定 Hertzberg 的死與其他不幸的行人一樣。

從統計學上來說,這能說得過去,但從道德上看,恐怕就不是一回事了。

未來,如果不出意外,無人駕駛汽車肯定能避免坦普市的悲劇,畢竟傳感器和計算機比人類反應要快得多。

隨著無人駕駛測試車致命事故的細節逐漸浮出水面,許多專家稱這起事故完全可以避免。”

這時,劉浩同學舉手問道:“隋老師,能確定無人駕駛會減少或者避免交通事故嗎?”

隋老師說:

“理論上是肯定的。但實踐中,可能有一個過程,而且可能。

谷歌Waymo CEO 還專門出面補刀稱自家技術完全可以避免事故的發生,畢竟它們的司機每 5600 英里才需要‘碰’下方向盤,而 Uber 的司機可要忙得多(每 13 英里)。

在亞利桑那的道路上,Waymo 無人駕駛汽車與 Uber 無人駕駛汽車的差別比無人和有人駕駛汽車之間的差別更為重要。

不過,為了吸引更多公司來亞利桑那研究、測試和部署無人駕駛車輛,州長 Doug Ducey‘網開一面’,在沒有嚴格監管的情況下就放它們上路了。

解決這些問題可不能靠揣摩電車難題的場景。

如果放在 Uber 這起致死事故中,就意味著測試車第一時間看到了 Hertzberg,這時它才能相應做出選擇,決定救路人還是保司機。

此外,要進入電車難題的討論範圍,還要假設無人駕駛汽車足夠可靠且安全功能有保證,即在電車難題中扳道的槓桿沒有因為鏽蝕而動彈不得。

不過,這次事故以上兩個假設都不成立。

其實富特已經預料到了場景中上下文缺失的問題。

‘在現實中,’她寫道。‘你很難說那位孤零零被綁在鐵道上的人就必死無疑。也許他能找到個立足點並在電車透過前救自己一命呢。’

想要一個個探索完這些無限的可能,一種方式就是一遍遍的實驗並從公眾的反應中蒐集模式,這也是‘道德機器’的方法,就像現在最火爆的機器學習一樣,一個龐大的資料集必不可少。

不過,另一種方式則是在最合適的道德背景下考慮特定的問題。

富特還提供了一個典型例子,相比電車難題,它與 Uber 的致命車禍有更多共同點。

富特將場景搬到了醫院,假設醫院有五個病人,他們的疾病只有一種特殊的氣體能治好,不過在使用時這種氣體釋放的毒物卻飛進了旁邊的病房,而該病房中的病人都無法移動。

在這樣的情況下,其效果確實很像經典的電車難題,但在許多結論上又不是那麼明顯。

這不僅是因為目的和可預見的效果有所不同,還因為避免造成傷害的道德慾望工作原理不同。

在電車難題中,駕駛員根本別無選擇,無論他走出哪一步,都會帶來慘痛的後果,而在醫院這個例子中,醫生則面臨一個衝突的選擇,他要麼施以援手,要麼禍害其他病人。

事實上,無人駕駛測試車面對的情況更加棘手,因為各方(Uber、安全司機和政府)對車輛的狀態都沒有一個準確的認識。

這讓無人駕駛致命事故的道德情景與未來車輛傷亡撇清了關係,它讓人更多的聯想到政府監管、公司披露和交通政策。”

這時,沈笑夫舉手問道:“隋老師,請問電車道德問題複雜嗎?”

隋老師笑著答道:

“應該說比較復雜!

如果無人駕駛這起事故成了道德哲學中能同時滿足技術人員、市民和政策制定者需求的先例,那麼這場災難可能會成為道德運氣的代表。

這裡還要舉一個例子,假設一名喝醉的男子晚上冒險開車回家並最終安全到家,那麼在同樣的情況下也有可能發生事故。

一般來說,後者的罪責會更大,但其實兩者都有錯在先,唯一的不同就是結果罷了。

由此看來,無人駕駛汽車的致命車禍並不代表價值中立或理直氣壯的犧牲一位路人,以保全未來乘客的安全。

相反,它強調了這樣一個事實,那就是積極結果(如更安全的車和行人等)很容易成為無人駕駛汽車道德運氣的功能。

道德運氣還為無人駕駛汽車提供了其他途徑的思考。

在無人駕駛汽車上,我們很難確定它們的自主行為。

那麼,無人駕駛汽車司機清楚的知道且理解自己一舉一動可能造成的後果嗎?

【新章節更新遲緩的問題,在能換源的app上終於有了解決之道,這裏下載 huanyuanapp.org 換源App, 同時查看本書在多個站點的最新章節。】

人類能切入機器操作,但又不進行積極操作嗎?

亞利桑那的邀請是否能幫無人駕駛公司減輕罪責呢?

這些問題現在都成了事故的焦點,無論是在亞利桑那還是其他地方。

不過,對 Elaizberg 來說,這恐怕只能算一個無用的安慰。

這樣子很複雜吧?”

同學們你紛紛點頭。

確實複雜,都有些暈了!

隋老師接著說:

“這堂課的目的不是要責怪或者讚美誰,也不是要慶祝或哀悼無人駕駛汽車的未來。

相反,我們在呼喚更多的道德複雜性,這是解決現在和將來無人駕駛汽車問題的必需品。

所謂的倫/理並非將一個簡單的微積分套在某種情況上,當然也不是人類有關某個典型案例的意見集合。

當工程師、批評家、記者或普通人認為電車難題才是無人駕駛汽車的終極拷問時,他們就自動放棄了對更為複雜道德情況的思考。

對哲學家來說,雖然實驗是考慮未知結果或重新考慮已經接受觀點的好方法,但它也只是一種思考工具,並非現成的菜譜。

電車難題讓人們產生了誤解,以為無人駕駛汽車是已經可靠存在的成熟技術,某些假設的抽象道德行為可以針對性解答了。

事實上,我們離真正的無人駕駛時代還有距離。

與此同時,市民、政府、汽車製造商和科技公司必須繼續探索,找到更多有關無人駕駛汽車的複雜道德後果的問題。”