
5月7日,約書亞·布朗(Joshua Brown)駕駛著他的特斯拉Model S行駛在佛羅里達西部的威利斯頓,當(dāng)時車輛已開啟了自動駕駛模式,隨后,車輛與一輛卡車相撞,約書亞當(dāng)場死亡。他經(jīng)營著一家網(wǎng)絡(luò)公司,也是特斯拉的忠實用戶。
就在事故發(fā)生前一個月,約書亞曾上傳過一段關(guān)于特斯拉自動駕駛系統(tǒng)成功躲避突然并線車輛的視頻。諷刺的是,馬斯克還曾在Twitter上轉(zhuǎn)過這個視頻。但這次,不幸卻降臨在他身上。
特斯拉隨后在官網(wǎng)表示,事故發(fā)生時,特斯拉正對卡車的側(cè)面,由于天空的強光導(dǎo)致駕駛者和特斯拉的自動駕駛系統(tǒng)都未做出剎車反應(yīng),導(dǎo)致車輛直接穿過卡車底部,車頂及擋風(fēng)玻璃被全部削掉。
目前Autopilot技術(shù)累計完成了約1.3億英里(約2.1億公里)的測試,5月的車禍?zhǔn)堑谝黄鹱詣玉{駛致人死亡的事故。
北京時間7月1日凌晨,美國國家公路交通安全管理局(NHTSA)就這起事故正式展開調(diào)查,調(diào)查的焦點將集中在這輛Model S的自動駕駛系統(tǒng)當(dāng)時到底有沒有發(fā)揮作用。
特斯拉曾經(jīng)對Autopilot給出過明確定義:這是一種輔助性技術(shù),駕駛者必須隨時將他們的雙手放在方向盤上,并隨時準(zhǔn)備好接手車輛的控制權(quán)。如果駕駛者雙手脫離方向盤,自動駕駛系統(tǒng)會通過圖像和語音進行提示,如果駕駛者沒有作出反饋,這輛將降低行駛速度,直到完全停止。
因此,事故的原因到底該歸咎于機器還是駕駛員,只有等待調(diào)查結(jié)果才能知曉了。而DT君今天想和大家討論的,卻是一個遠不止于自動駕駛本身的話題。
我們的性命其實每天都在別人手里
人類文明的大多數(shù)時期,其實是處于一種自給自足的生存方式中的,在這樣的生活里,吃的是自己種的,穿的是自己織的,用的自己造的,只會偶爾進行一些簡單的交換,人們互相之間的“依賴程度”并不高。
而我們這個“高度文明”的當(dāng)今,一切恰恰截然相反,科技的飛速發(fā)展導(dǎo)致了社會的分工不停地細化,每個人幾乎都只有精力專注于自己的專業(yè),“隔行如隔山”這句話從未如此的正確過,而人們之間的互相依賴也達到了空前的高度,甚至可以這么說:我們的性命每天都在別人的手里。

作為一個普通人,我們幾乎在完全依靠“信任”來避免惶惶不可終日——我們相信我們的食物是無毒的,我們相信衣服的原料是無害的,我們相信公共汽車司機是認真負責(zé)的,我們還相信大樓是質(zhì)量很好不會隨便塌的。
當(dāng)然,我們偶爾也會“相信錯”,比如,大家相信嬰兒奶粉應(yīng)該是沒有三聚氰胺的,大家相信下水道提煉出來的油是不會去用作炒菜的,大家也相信沒有飛行員是會帶著一飛機的乘客去自殺的。盡管如此,我們在大多情況下還是選擇去相信。
不可否認,大多事情是由“人”來完成的,那么邏輯上來講,基于法律道德的“問責(zé)機制”在絕大多數(shù)情況是可以對人進行約束,從而可以盡可能避免這種讓大家“相信錯”的情況出現(xiàn)。
然而,“問責(zé)機制”很明顯無法解決所有的問題,于是,就有人試圖求助于機器,因為雖然哪怕最“聰明”的機器依舊缺乏創(chuàng)造性,卻可以一絲不茍地完成人類交給他的具體任務(wù)。簡單來說,機器看起來比人“靠譜”。
就拿這次的事故來說,先不去管調(diào)查結(jié)果如何,特斯拉的Autopilot系統(tǒng)在這次事故中要承擔(dān)多大的責(zé)任,我們不妨先這樣想一下,如果這次事故的原因完全歸咎于機器,那么Autopilot到底是讓駕駛變得更加安全?還是更加危險呢?
回答這個問題必須靠數(shù)據(jù)說話,根據(jù)特斯拉的統(tǒng)計,激活了Autopilot自動駕駛的累計行程約為1.3億英里,平均每一億英里死亡人數(shù)為0.77人;而在全世界范圍內(nèi),平均每一億英里死亡人數(shù)為1.67人。雖然自動駕駛數(shù)據(jù)的樣本容量還偏低,但也能在一定程度上說明問題。

所以,馬斯克提出的“自動駕駛技術(shù)可將人為交通事故率降低約50%”,看起來并不見得是一句大話。
如果我們暫時“放下”那么幾分鐘人文關(guān)懷,停止去聯(lián)想所有數(shù)字背后關(guān)聯(lián)著的一條條鮮活的生命,那么我們必須承認,盡管會犯錯,Autopilot功能也確實是非??孔V的,再引申開一點說,至少統(tǒng)計數(shù)字告訴我們,相信機器確實比相信人來得強。
按照這個邏輯,Autopilot,甚至是將來的全自動駕駛技術(shù),應(yīng)是一項被大力推廣和發(fā)展的技術(shù),那么自動駕駛技術(shù)的爭議從何而來?
機器該不該被“問責(zé)”?
自動駕駛技術(shù)存在爭議,主要原因是動搖了上面提及的“問責(zé)機制”,而這本是維持這個高度分工的人類社會維持的基礎(chǔ)。“自動機器”的介入,讓“問責(zé)”都變復(fù)雜了。
舉例而言,自動駕駛造成車禍之后,責(zé)任到底是車主的?車的?抑或是汽車生產(chǎn)商的?這對于今后的汽車保險商來說一定是個頭疼的問題,而這些在汽車實現(xiàn)全自動駕駛之后會變得更加尖銳。
DT君去年年底的一篇文章,就著重討論了汽車的“殺人”編程。比如,當(dāng)汽車不得不面臨“殺人”的選擇時(見下圖a),自動駕駛程序會決定“殺掉”少數(shù)的人(包括車內(nèi)人員),以實現(xiàn)“損失最小化”。
在車禍不可避免時,自動駕駛將如何抉擇?
考慮一個這樣的困境:假設(shè)在不久的將來,你擁有了一臺自動駕駛汽車。有一天,你正乘坐這輛車,突然發(fā)生某些事件導(dǎo)致車輛沖向10個正穿過馬路的行人。車輛無法及時剎車,但可以轉(zhuǎn)向旁邊的一堵墻避免撞向那10位行人。但是,撞向墻壁可能會讓身為車主和乘客的你丟掉性命。它該怎么辦呢?
解決此問題的辦法之一是自動駕駛汽車應(yīng)盡量將人員傷亡降到最低。按照這種思路,殺死一個人要比殺死 10 個人好。
但是,這種處理辦法可能會帶來其它后果。購買自動駕駛汽車的人會變得很少,因為這種汽車被編程為發(fā)生事故時犧牲車主,那么,路上的安全事故仍然會照常發(fā)生,更多人有可能死去,因為普通車輛造成的事故要多得多。結(jié)果就陷入進退兩難的境地。
還是回到最初的論題上來,我們生活在一個需要依靠每個人“靠譜”才能“活”下去的世界。就自動駕駛而言,盡管機器要比人造成的傷亡少,但仍然有相當(dāng)數(shù)量的人似乎依舊愿意相信“人力操作”。
其中的原因到底是我們對自己犯的錯更加容易“認命”,還是大多數(shù)人對機器這種“異類”沒有建立起足夠的信任?目前來看似乎兼而有之。
換而言之,在技術(shù)突飛猛進的大背景下,我們的感情、倫理、道德和法律已嚴重滯后才是所有沖突的終極原因。
于是,我們不由得要捫心自問一句:“自動駕駛,我們真的準(zhǔn)備好了么?”(文|anqi 來源|DeepTech深科技)
如果您對您所在行業(yè)有很深認知,也想在我們的平臺上說點什么,我們歡迎您來投稿!
{{item.content}}