實現目標的路只有一條,想走過去就必須經過雷區
3月的一個早晨,天剛蒙蒙亮,傑里米·班納(Jeremy Banner)就從床上爬了起來,與其他通勤日一樣,他坐進自己的那輛紅色特斯拉Model 3(參數|圖片)里,朝着目的地駛去。
從車裡往外看,路旁的沼澤和農田就像一大片綠地一樣,這時,班納點擊了屏幕上的一項操作,隨着一聲輕快的提示音響起,市面上能看到的最複雜、也最富爭議的Autopilot模式被啟用了。
這就是說,在電腦的控制下,汽車可以自行加速、變道、選擇出口,如果前方有障礙物,還可以進行制動。
但這是班納最後一次使用這個功能,這也是他生命的最後一天。
特斯拉的目標是通過造出世界上首款完全自動駕駛汽車來主導全球汽車市場,它認為這一步至關重要。客戶也信了。
該公司從Autopilot上收集到的行駛里程已經超過15億英里(約24億公里),其中不乏有一些車主是在特意挑戰軟件能做的極限。
儘管《車主手冊》提醒司機應當密切注意路況,但這並沒有阻止一些人讀書、打盹、彈琴或車震。不過,大多數時候,汽車確實把他們帶到了要去的地方。
回到班納的故事裡,他的車在那一天遇到的卻是「少數時候」。該車沒能發現前面有一輛卡車正穿過四車道的高速公路,班納本人顯然也處於游離狀態。
接下來,他的車以超過100公里/時的速度與卡車相撞,車頂被掀翻。這位時年50歲,已是三個孩子父親的車主當場喪生。
後來,班納的家人根據佛羅里達州的《非正常死亡法案》起訴了特斯拉,給出的理由直截了當:特斯拉承諾提供一輛安全的汽車,卻交付了一輛存在危險、有缺陷的汽車。
人類有出現判斷失誤的時候,但不一定都會導致嚴重的後果,這是因為人犯錯的程度不同,選擇補救的方式也多種多樣。
這就引發了一個思考,要是系統出了問題怎麼辦?縱使車上配備了多種探測設備,但當軟件認為前方道路沒有危險時,那它就認定一切安全,因此不會採取任何防護措施。
自2015年特斯拉引入自動駕駛系統以來,在已知的5起死亡事故中,有4起都是這種疏忽造成的。
但Autopilot與歷史上幾乎所有其他消費產品都不一樣,它在某些方面為我們提供的是一個對未解決問題的預演,讓我們提早看到自動駕駛時代會面臨哪些令人不安的問題。
特斯拉CEO埃隆·馬斯克(Elon Musk)就表示,這項技術挽救了生命,很多特斯拉車主都提供了自己的證詞,證明車輛能發現危險並避免了碰撞。(不信的話,還有油管視頻為證)
在發生班納致命事故後不到兩個月,馬斯克邀請了大約100名投資者和分析師來到特斯拉位於帕洛阿爾托的總部,在一個寬敞的會議廳里與他們暢談,好似什麼都沒發生一樣。
可能雙方都是對的。依靠電腦系統,一些本來可以活下來的司機失去了生命,但同時,技術的不斷更新也將在未來讓致命事故大幅下降成為可能。
黃:所有特斯拉汽車行駛里程,黑:Autopilot行駛里程,單位:英里
馬斯克決定讓儘可能多的人擁有Autopilot,這相當於把世界各地的高速公路集合在一起,成為一個前所未有的實驗場。
由此可見,這個問題已經不僅僅是學術上的討論了。而在未來幾年裡,社會——尤其是監管機構和法院——將不得不決定這是否是一種可以接受的商品。
讓我們再來看看另一位特斯拉車主的情況。
只有26歲的年輕軟件工程師奧馬爾·卡齊(Omar Qazi)「開」着特斯拉行駛在洛杉磯的一條州際公路上,之所以要打引號,是因為他其實並沒有把手放在方向盤上,這輛黑色Model 3同樣是開啟了自動駕駛模式,正以約80公里/時的速度前進着,還是在交通最繁忙的時段。
「完美。」看到方向盤自動向左打了一點,車輛又回到平緩彎曲的車道中央後,卡齊評價道。
留着胡茬、穿着一雙藍色耐克Air鞋,就像卡齊一樣,特斯拉的大批鐵杆粉絲中,很多都是富裕、痴迷科技的男性,有些人還經常在推特上與馬斯克互動。
在一個充電站停車後,卡齊展示了還屬於試驗性質的「智能召喚」功能。
他按下了手機上的一個按鈕,隨後,他的特斯拉從車位開了過來。「這功能現在還沒什麼用。」卡齊笑着說,但因為這能招來不少觀眾,以致於喜歡炫耀的他經常忍不住就要試一試。
智能召喚讓人們得以一窺馬斯克所承諾的自動駕駛的未來,但對於道路行駛來說,Autopilot自始至終都是避不開的關鍵。
特斯拉表示,這項技術還不夠可靠,所以需要司機把手放在方向盤上,哪怕是一秒鐘,也不能將注意力放到別的地方。
當然,這也有法律上的目的。因為美國大多數州仍在研究如何管理自動駕駛汽車,而對州監管機構來說,Autopilot只是一個高級的駕駛員輔助程序,或者說是巡航控制的加強版。
Autopilot還不能完美應對非高速公路上的交通信號燈和停車標誌等問題。但在高速公路上,積累了4年的數據信息,這確實讓它逐漸承擔了更複雜的任務,比如平穩地並道、防止其他車輛插隊,或者是從一條高速路導航行駛到另一條高速路。
「它不可能完美地自動駕駛,但每隔幾周你就會得到一次更新,汽車的駕駛也越來越像人類。」卡齊感嘆道,但也表達了一種擔心,「這反而讓人有點害怕。」
為什麼會這樣?因為機器本來就應該有超過人類的準度,如今卻讓機器變得像人類一樣,一定程度上是在降低標準。拿前面的防止插隊來說,自動駕駛變得更像人類司機的話,就意味着系統有可能選擇讓步,讓其他車輛先走。
事實上,駕駛是大多數成年人做的最危險的事情之一。去年全美有40000人死於車禍,全球範圍則有140萬人因交通事故喪生。
1974年,為了節省燃料,美國將高速公路限速限制在每小時55英里。一項研究發現,這種變化在第一年至少減少了3000人車禍死亡。但人們喜歡開快車,因此國會後來取消了這一限制。
幾年前,交通事故造成的死亡人數開始小幅上升,有專家將其歸因於智能手機的使用。但這也沒用,現在依舊有人邊開車邊發信息。
但不管有什麼缺陷,電腦都不會醉酒、疲勞、生氣,也不會有開車時刷手機的衝動。這是它不會變得像人類的一大優勢。
自動駕駛技術承諾消除94%的人為失誤車禍。從這個角度來看,自動駕駛汽車可能成為與青黴素和天花疫苗同一級別的救星。
卡齊做了個計算,說有朝一日,自動駕駛汽車每天能拯救3000條生命。按照他的邏輯,屆時沾滿鮮血的將是任何阻礙這一進程的人,「想象一下,有人把軟件延遲了一天,因此不少人失去了生命」。
商業火箭、高速隧道、大腦植入、電動汽車,在南非出生和長大的馬斯克,不到30歲就賺了很多錢,然後我們就看到了他的這一系列大膽的項目。
特斯拉的股價已經下跌了幾個月。儘管推出了世界上最暢銷的電動車Model 3,但該公司距離實現盈利仍任重道遠。
於是,馬斯克有了新的關注點。「今天上路的汽車將能在幾個月內在當地道路上使用Autopilot。」他說,「到2020年的某個時候,車輛將不再需要人工監督,並可以在閒置期間通過自動駕駛出租服務來賺錢。」
崇拜者認為馬斯克是一個改變世界的夢想家,他的敵人則覺得這又是一個會吹牛的騙子。
「從財務角度上來說,購買特斯拉以外的任何東西都是不靠譜的。」馬斯克接着說道。
包括通用汽車、戴姆勒和Uber在內的幾十家公司都在競相開發這項技術。對於任何關注自動駕駛汽車行業的人來說,馬斯克給出的時間線看起來過於大膽。
許多觀察人士認為,實力最強的競爭者依舊是Waymo。可十多年來一直致力於解決這個問題的Waymo還沒有向公眾出售自動駕駛汽車。
馬斯克卻很自信地告訴投資者,稱特斯拉將超越他們所有人,這要歸功於已經上路的50多萬輛配備自動駕駛系統的特斯拉汽車。簡單來說,Autopilot就像是草稿,用的人多了、數據多了,就能逐漸被「描繪」得更加靈活和可靠,最終實現真正的完全自動駕駛。
智能手機APP和視頻遊戲採用的正是這種方式,先向客戶發布尚不完整的軟件,並希望在這個過程中解決問題,增加功能。
但有一點要注意,這些產品完不完美不會致人死亡,自動駕駛卻有這個可能。
Waymo、通用汽車和其他公司也有大致的設計方案,但它們只安裝在幾百個測試車型中,部署在全國少數幾個精心挑選的社區,而且幾乎總是坐有專業的安全駕駛員。
馬斯克顯然不這麼想,他正以最快的速度把「草稿」送到消費者手中。不得不說,這使得特斯拉的工程師能夠從客戶那裡收集到TB數量級的數據,並根據真實世界的情況,利用這些信息來完善自動駕駛軟件。
即使特斯拉不在自動駕駛模式下,它們也會自動地將人類駕駛員的選擇與計算機所做的選擇進行比較。每隔幾周,特斯拉就能推送新的Autopilot版本,將其上傳到汽車裡。
對此,卡齊和其他車迷很高興。
「每個人每時每刻都在訓練這個網絡。」馬斯克解釋說,並把這種良性循環稱為「車隊學習」,將其與谷歌的搜索引擎每年處理1.2萬億次查詢的方式進行比較。他堅信,軟件會有一天變得足夠好,讓司機不會再想要方向盤。
另一方面,當摩根士丹利分析師就Autopilot的安全記錄向馬斯克施壓時,他很快把話題轉向了人類駕駛的危險,以及技術修復它的潛力上。
汽車好比是由人工操作的老式電梯,「每隔一段時間,工作人員就會感到疲勞、喝醉了,或者別的什麼,然後他們就會在錯誤的時間轉動槓桿,因此釀成災難。」馬斯克接着說,「現在可沒有電梯操作員了。」
除非司機走上電梯服務員的老路,否則自動駕駛是下一個最好的選擇。
他曾表示,讓Autopilot退出市場「在道德上應該受到譴責」。有意思的是,不光是馬斯克或他的支持者這麼想,受害者也有站在他這一邊的。
第一位死於自動駕駛的美國駕駛員是來自俄亥俄州的海軍老兵約書亞·布朗(Joshua Brown),他和班納一樣,也是撞上了一輛十字路口的半掛卡車。在2016年的車禍之後,他的家人發表了一份聲明,基本上表達了對特斯拉道德考量的支持。
「改變總是伴隨着風險,我們的兒子對未來的公路安全產生了如此積極的影響,這讓我們全家感到欣慰和自豪。」聲明中寫道。
實際上,他是馬斯克事業的殉道者。
不可否認,當我們把大部分(還不是全部)責任交給電腦時,我們就會走神。更嚴重的是,作為司機,駕駛技術也有可能因此變得生疏。
航空史上充斥着人類對自動駕駛模式過度依賴所導致的錯誤。西北航空公司的兩名飛行員一度完全走神,這讓他們的飛機足足飛離了原定目的地160公里。
「注意力會分散,這是人之常情。」前海軍戰鬥機飛行員、杜克大學普拉特學院工程教授米西·卡明斯(Missy Cummings)給出了這樣的回答,並希望Autopilot退出市場。
與此同時,系統所認為的最具挑戰性的一些任務往往對人類來說是小菜一碟。因此,電腦出問題的時候,也很可能是司機覺得最安全的時候。
上述兩起事故就是很好的證明。任何一個有感知能力的成年人都能分辨出良性道路特徵(公路立交橋、頭頂標誌、停在路邊的車)和潛在風險(一輛擋在路中間的卡車)之間的區別。
但對於世界上最複雜的機器視覺軟件來說,這非常難辦到。
特斯拉一直拒絕對其Autopilot設限,因為這樣做讓系統更安全的同時,用起來也更不方便。該公司允許駕車者將自動駕駛儀的巡航速度設置在當地限速以上,並允許車輛在任何能檢測到車道標記的地方啟動自動模式。(手冊上說它的使用應該限制在高速路上)
對於那些想要測試特斯拉汽車自動駕駛極限的人,馬斯克或多或少都給予了鼓勵。
他親自在電視節目中扮演反面教材,完全按照手冊上的警告反着來,啟動Autopilot,把手從方向盤上移開,然後展示了一款Model 3。
後來,一段涉及Autopilot的色情視頻在網上瘋傳後,馬斯克發了一條推文,開玩笑地說:「事實證明,使用這個功能的方式比我們想象的要多。」
就連卡齊也承認,說他和前女友曾經在Autopilot模式下的車裡親熱過。他盡力把一隻眼睛盯在路上。
鑑於Autopilot現在已經積累了超過24億公里的行駛記錄,確定它的安全水平應該很容易才對。但到目前為止,特斯拉既沒有官方公布的數據,也沒有向第三方研究人員提供相關信息。
我們能知道的,只有馬斯克聲稱的使用Autopilot駕駛的安全性大約是不使用情況下的2倍這個說法。
特斯拉倒是公布了每季度Autopilot的事故率數據,但安全專家表示,如果沒有這些事故發生的具體情況,數字本身毫無用處。
在2016年的布朗撞車事故後,美國國家公路交通安全管理局(NHTSA)對Autopilot進行了調查,但發現沒有理由召回。該部門得出的一個結論是,安裝了Autopilot的特斯拉汽車的事故率比沒有安裝此功能的同品牌車輛低40%。
得出這種結果所依靠的數據並非完全可信。要知道,儘管特斯拉當時已提交4.4萬輛汽車的里程和碰撞數據,但除了5700輛以外,其他所有車輛的關鍵數據都有缺失或相互矛盾。
馬里蘭州的獨立統計顧問蘭迪·惠特菲爾德(Randy Whitfield)指出了報告中的這些缺陷,但NHTSA表示他們將堅持原有的發現記錄。
在評估Autopilot或完全自動駕駛技術這一點上,一大問題在於不清楚社會將接受何種程度的安全性。
自動駕駛汽車在上路之前應該是完美無瑕的,還是僅僅比一般的人類司機更好就行?
「人類對機器缺陷造成的傷害或死亡幾乎是零容忍的。」負責豐田自動駕駛技術研發的吉爾·普拉特(Gill Pratt)在2017年的一次演講上表示,「機器學習需要很多年的時間,再加上遠超他人的模擬測試和真實測試的里程數,才能達到所需的完美效果。」
但如此高的標準反而可能導致更多的死亡。蘭德公司2017年的一項研究中,研究人員尼迪·卡爾拉(Nidhi Kalra)與大衛·格羅夫斯(David Groves)評估了該技術發展的500種不同假設情景。
在大多數情況下,等待近乎完美的自動駕駛汽車的代價,與接受只比人類安全一點點的汽車相比,差別就要用數萬條人命來衡量。
「那些還在等着近乎完美的人應該意識到,這不是沒有代價的。」機器人專家卡爾拉給出了這樣的回答。
我們習慣於認為代碼是由人類程序員編寫的一系列指令。卡爾拉的論點的關鍵卻是在汽車如何學習的洞察力上。
識別一輛自行車,然後預測它會朝哪個方向走,這太複雜了,不能歸結為一系列的指令。大多數電腦都是這樣工作的,但特斯拉和其他自動駕駛汽車開發商使用的電腦不是這樣。
相反,程序員使用機器學習來訓練他們的軟件。他們可能會給它展示數千張不同自行車的照片,從不同的角度,在不同的背景下。他們可能還會給它看一些摩托車或單輪腳踏車,這樣它就知道其中的區別。隨着時間的推移,系統就能制定出自己的規則來解釋它看到的東西。
機器積累的經驗越多,它就越聰明。但這隻解決了問題的一部分。即使我們造出了一輛完美的自動駕駛汽車,我們又怎麼知道呢?
卡爾拉接着說:「如果我們真的想最大限度地挽救生命,我們甚至可以在自動駕駛汽車比人類更危險的時候讓它們上路,以加速它們的學習能力。」
另外,致命事故在統計上其實相當罕見。在美國,每行駛1億3千萬多公里才會有一起類似事件,如果換成模擬數據,那麼想要達到必要的測試數量太浪費時間。
在蘭德公司的另一篇文章中,卡爾拉估計,一輛自動駕駛汽車要無故障行駛約4.42億公里才能證明它比人類司機更好,而這一距離需要100輛測試車連續行駛12年以上才能完成。
考慮到這一切,再回顧馬斯克計劃同時完善和測試他的自動駕駛,利用真實道路上的老客戶作為志願測試者的方法,好像聽起來也沒那麼瘋狂了。
說起來也許有些恐怖,但如果不讓大量駕車者面臨被機器殺死的風險,也許就不可能實現自動駕駛安全性上的本質提高。
馬斯克決定加速Autopilot的發展,並讓它在未經批准的道路上工作,這背後有一定的邏輯。
每次司機為了避免事故從而奪回控制權時,對電腦來說都是一個潛在的教育時刻,一個讓軟件學會不應該做什麼的好機會。
再來看一個例子。美國已經有了一個對可能拯救生命但也可能有致命副作用產品進行測試的機制,那就是分階段臨床藥物試驗。
卡內基梅隆大學哲學教授亞歷克斯·倫敦(Alex London)呼籲汽車監管機構採取類似措施,允許新技術分階段上路,同時密切監控其安全記錄。
「這也許不是最好的提案,但我可以告訴你最糟糕的是什麼。」他說,「最糟糕的情況,是選擇相信設計系統的人的話,尤其是當他們試圖向你推銷這個系統的時候。」
軟件工程師奧馬爾·卡齊當卡齊開着他那輛特斯拉快要到帕洛斯維德斯牧場的時候,雖然沿途並不是高速路,但他再次啟動了Autopilot。
車輛自動行駛過陡峭懸崖時,系統正確地識別出前方的騎行者並決定超越他。可就在要超車的時候,卡齊踩了剎車,讓那人在這之前騎到了更寬的路上。
他說要是有機會,他想看看車輛最後超過去會是怎樣的結果,但他不能這麼做,並希望機器最終也能做和他相同的操作。
隨着特斯拉在全球道路上的普及,卡齊似乎已經接受了統計學上的確定性——Autopilot造成的死亡人數將會增加。
「最大的公關噩夢還沒來呢。」他指出,「實現目標的路只有一條,想走過去就必須經過雷區。」(文章&圖片來源:Bloomberg,作者:Zachary Mider)
評論列表
每次有疑惑都會請教,你們對我的幫助真的很大,謝謝!
如果發信息,對方就是不回復,還不刪微信怎麼挽回?
可以幫助複合嗎?