導(dǎo)讀:如果你相信那些首席執(zhí)行官們的話語,你就會相信,現(xiàn)在距離一輛完全自動駕駛(full autonomy)汽車實(shí)現(xiàn)的時間可能只需幾個月。
如果你相信那些首席執(zhí)行官們的話語,你就會相信,現(xiàn)在距離一輛完全自動駕駛(full autonomy)汽車實(shí)現(xiàn)的時間可能只需幾個月。2015 年,埃隆·馬斯克曾經(jīng)預(yù)測,到 2018 年特斯拉就可以達(dá)到完全自動駕駛;谷歌也做出了相似的承諾。Delphi 和 MobileEye 兩家公司也承諾,他們共同研發(fā)的 Level 4 自動駕駛系統(tǒng)將于 2019 年實(shí)現(xiàn),而 Nutonomy 公司也計(jì)劃在 2019 年,在新加坡街頭部署數(shù)千輛無人駕駛出租車。通用汽車的計(jì)劃是,在 2019 年讓完全自動駕駛汽車投入生產(chǎn),而且這臺汽車沒有方向盤且完全不需要司機(jī)的介入。
這些假設(shè)并不是空穴來風(fēng),在他們背后已經(jīng)有了大量的資金注入,就是為了讓自動駕駛軟件開發(fā)的速度趕得上他們所承諾的自動駕駛到來的日子。
從表面上看,我們似乎比以往任何時候都更接近完全自動駕駛實(shí)現(xiàn)的日子。Waymo 公司已經(jīng)在亞利桑那州的公路上測試了自己的自動駕駛汽車——雖然數(shù)量有限。特斯拉公司和許多其他效仿者已經(jīng)賣出了一些功能有限的自動駕駛汽車——雖然還需要在意外情況時司機(jī)進(jìn)行干預(yù)配合。目前開發(fā)出來的自動駕駛工具有時也會有一些意外情況出現(xiàn),有些甚至是致命的,但是依照現(xiàn)在的邏輯,只要系統(tǒng)持續(xù)不斷改進(jìn),照這個速度發(fā)展下去,不久之后就可以達(dá)到無需司機(jī)進(jìn)行干預(yù)的自動駕駛水平。
但實(shí)現(xiàn)完全自動駕駛汽車的夢想可能比想象的要更遠(yuǎn)得多。最近,人工智能專家越來越擔(dān)心,我們可能需要數(shù)年甚至數(shù)十年,才能真正實(shí)現(xiàn)可以避免事故的自動駕駛系統(tǒng)。在 AI 自動學(xué)習(xí)系統(tǒng)應(yīng)對越來越混亂的現(xiàn)實(shí)世界的同時,像紐約大學(xué)的加里·馬庫斯(Gary Marcus)這樣的人工智能專家也不得不一次次將自己對 AI 系統(tǒng)的期望值重新進(jìn)行調(diào)整,這種調(diào)整有時被稱為“人工智能的冬天”。這可能會給那些以自動駕駛車維生的公司帶來災(zāi)難性的后果,甚至將自動駕駛真正實(shí)現(xiàn)的日子推遲整整一代。
自動駕駛汽車就如同一個我們不知道答案的科學(xué)實(shí)驗(yàn)
其實(shí),對于為什么汽車公司對自動駕駛的前景持樂觀態(tài)度,我們很容易理解。在過去的 10 年中,深度學(xué)習(xí)——一種使用分層機(jī)器學(xué)習(xí)算法從海量數(shù)據(jù)集中提取結(jié)構(gòu)化信息的方法,已經(jīng)在人工智能和技術(shù)行業(yè)中取得了幾乎無法想象的進(jìn)展。它支持的服務(wù)包括了從谷歌搜索到 Facebook 新聞?wù)?,從語音轉(zhuǎn)文本輸入到獲得世界圍棋冠軍的阿爾法圍棋系統(tǒng)。除了被應(yīng)用于互聯(lián)網(wǎng),我們還使用深度學(xué)習(xí)來檢測地震、預(yù)測心臟病,并標(biāo)記監(jiān)控相機(jī)上的可疑行為,以及無數(shù)本來被認(rèn)為是不可能的創(chuàng)新。
但深度學(xué)習(xí)是建立在大量的訓(xùn)練數(shù)據(jù)的基礎(chǔ)上的,這些訓(xùn)練數(shù)據(jù)需要包含算法可能遇到的幾乎每個場景。比如說,只要有足夠多的訓(xùn)練數(shù)據(jù)來向?qū)W習(xí)系統(tǒng)展示足夠多的每種動物的樣子,類似谷歌圖像那樣的自動識別系統(tǒng)將會善于識別各種動物。馬庫斯將這種任務(wù)描述為“插值”過程,比如,讓系統(tǒng)對所有被標(biāo)記為“山貓”的圖像進(jìn)行學(xué)習(xí),然后讓系統(tǒng)自己來確定,一張新的圖片是否屬于這一組。
雖然工程師可以在數(shù)據(jù)來源以及數(shù)據(jù)架構(gòu)上進(jìn)行一定的優(yōu)化,但是對于一個給定的算法這個系統(tǒng)可以學(xué)習(xí)或識別的程度一定是有一個極限的。比如說,運(yùn)用某種算法機(jī)器只有在學(xué)習(xí)了成千上萬張山貓的圖片時候才能夠識別出山貓,那么這臺機(jī)器即使看到了無數(shù)張家貓和美洲虎的照片,并且知道山貓介于這兩者之間,也無法識別出山貓。要想達(dá)到這個目的,我們還需要機(jī)器用一種新的被稱為“歸納總結(jié)”的算法進(jìn)行學(xué)習(xí),這又是一套不同的技能。
長期以來,研究人員一直認(rèn)為他們可以通過正確的算法提高 AI 的概括總結(jié)技能,但最近的研究表明,傳統(tǒng)的深度學(xué)習(xí)在概括總結(jié)時比我們想象的要更糟糕。在一項(xiàng)研究中,研究人員將同一只北極熊在不同的、有著微小變化的背景中圖片分別標(biāo)記為狒狒、貓鼬或黃鼠狼,卻發(fā)現(xiàn)運(yùn)用傳統(tǒng)的深度學(xué)習(xí)系統(tǒng)甚至難以對視頻中不同的幀進(jìn)行歸納總結(jié)。由于每個分類都是基于數(shù)百個因素的綜合識別的,即使是圖片的微小變化也可以完全改變系統(tǒng)的分類判斷。
圖 | 深度學(xué)習(xí)網(wǎng)絡(luò)對圖片中的微小變化過于敏感
馬庫斯指出,聊天機(jī)器人的熱潮實(shí)際上是不考慮深度學(xué)習(xí)在概括總結(jié)方面的問題卻被炒熱的例子?!拔覀冊?2015 年說聊天機(jī)器人將會實(shí)現(xiàn)并有美好的前景”,他說,“但實(shí)際上它們并沒有給我們的生活帶來任何實(shí)質(zhì)性的好處,因?yàn)橐獙?shí)現(xiàn)它并不僅僅是收集數(shù)據(jù)的問題”。當(dāng)你在網(wǎng)上與一個人交談時,你不僅僅想要他們重新討論之前已經(jīng)說過的對話。你還希望他們能夠回應(yīng)你所說的話,利用更廣泛的會話技巧去做出只有對你才會說出的獨(dú)有的回應(yīng)。但是利用深度學(xué)習(xí)是無法制作出這種聊天機(jī)器人的。隨后,一旦最初的宣傳熱潮消退,公司就會對自己的聊天機(jī)器人項(xiàng)目失去了信心,而且現(xiàn)在很少有公司仍在對該項(xiàng)目進(jìn)行積極開發(fā)。
這也讓特斯拉和其他自動駕駛公司不得不面對一個可怕的問題:自動駕駛汽車到底會不會不斷變好,然后像圖像搜索、語音識別和其他人工智能那樣成為一個成功故事?還是他們會像聊天機(jī)器人那樣不得不因?yàn)闄C(jī)器學(xué)習(xí)在概括總結(jié)方面的問題而遇到發(fā)展瓶頸期?自動駕駛的實(shí)現(xiàn)到底是插值問題還是概括總結(jié)問題?駕駛真的是無法預(yù)測的嗎?
這些答案我們尚無法得知?!白詣玉{駛汽車就像一個我們不知道答案的科學(xué)實(shí)驗(yàn)?!瘪R庫斯說。我們以前從未能夠?qū)崿F(xiàn)這個級別的自動駕駛,所以我們不知道它到底是什么類型的任務(wù)。在某種程度上,它的主要任務(wù)是識別熟悉的對象和并且根據(jù)規(guī)則去做出反應(yīng),如果是這樣的話,現(xiàn)有技術(shù)應(yīng)該可以讓它完成任務(wù)。但馬庫斯擔(dān)心,在事故多發(fā)的情況下,自動駕駛可能比目前行業(yè)里想要承認(rèn)的要復(fù)雜得多。“道路上會出現(xiàn)人類也意想不到的狀況,對于深度學(xué)習(xí)來說它將不知所措?!?/p>
安全意義重大,不僅僅事關(guān)人工智能技術(shù)的質(zhì)量
有時候自動駕駛汽車遇到出乎預(yù)料的情況卻無法做出正確反應(yīng),我們這里有一些由于該問題導(dǎo)致的公共事故的報(bào)告實(shí)驗(yàn)數(shù)據(jù)。2016 年的一場致命的車禍中,一輛特斯拉 Model S 汽車全速駛向了一輛白色拖車的后部,主要就是由于自動駕駛系統(tǒng)無法辨別高度較高的拖車與反射的太陽光。今年 3 月份,一名優(yōu)步自動駕駛汽車發(fā)生車禍,原因是汽車撞上了一位在未被官方標(biāo)識為人行橫道上出現(xiàn)的推著自行車前行的一名婦女。根據(jù)美國國家運(yùn)輸安全委員會的報(bào)告,優(yōu)步的軟件錯誤地將該女性識別為一個未知物體、一輛車或一輛自行車,每次重新識別都對路線預(yù)測進(jìn)行更新。在加利福尼亞州的一次撞車事故中,由于一些我們?nèi)圆磺宄脑?,特斯? Model X 在撞擊之前曾突然轉(zhuǎn)向沖向障礙物并加速前進(jìn)。
雖然上面所說的每起事故似乎都是邊緣個案,在這些情況下工程師無法提前做出預(yù)測。但幾乎所有的車禍都會涉及某種不可預(yù)見的情況,如果沒有足夠的歸納總結(jié)能力,自動駕駛汽車在面對這些情景中的每一個時,都會認(rèn)為這些情況是頭一次遇到。這樣的結(jié)果可能是,隨著時間的推移系統(tǒng)遇到的這種邊緣案例越來越多,這些事故也會變得更頻繁。對于持懷疑態(tài)度的人來說,之前的一次自動駕駛轉(zhuǎn)人工駕駛率的報(bào)告的已經(jīng)表明,自動駕駛系統(tǒng)已經(jīng)進(jìn)入了瓶頸,之后將很難再繼續(xù)像現(xiàn)在這樣向前發(fā)展。
前百度高管、業(yè)界最杰出的項(xiàng)目主導(dǎo)者之一、Drive.AI 董事會成員吳恩達(dá) (Andrew Ng) 認(rèn)為,問題不在于建立一個完美的自動駕駛系統(tǒng),而在于訓(xùn)練旁觀者預(yù)測自動駕駛汽車行為。換句話說,我們可以為汽車提供安全的道路,而不是讓汽車去預(yù)測所有的不安全狀況。作為一個不可預(yù)測的案例,如現(xiàn)代系統(tǒng)可以處理自己從未見過的在高速路上走高蹺的行人,吳恩達(dá)說,“我認(rèn)為許多自動駕駛團(tuán)隊(duì)開發(fā)的系統(tǒng)可以對在人行橫道上走高蹺的用戶做出正確的處理。盡管如此,在高速公路中間的走高蹺還是非常危險的。”
吳恩達(dá)表示:“我們應(yīng)該與政府合作,要求人們合法行駛并對自動駕駛有一些寬容性,而不是要非要建立一個可以解決在路上走高蹺的人的問題的人工智能系統(tǒng)。安全的意義重大,它不僅僅事關(guān)人工智能技術(shù)的質(zhì)量?!?/p>
這個問題很難分開處理
AI 技術(shù)不僅僅只有深度學(xué)習(xí),許多公司正在探索一些深度學(xué)習(xí)的替代品。盡管這些技術(shù)保密森嚴(yán),仍有許多公司將轉(zhuǎn)向了另一項(xiàng)更早的技術(shù)——基于規(guī)則的 AI 技術(shù),這項(xiàng)技術(shù)使得工程師們通過硬編碼制定特定的規(guī)則或邏輯。雖然這項(xiàng)技術(shù)沒法讓 AI 通過學(xué)習(xí)數(shù)據(jù)來自定義相應(yīng)行為,但它卻可以避開一些深度學(xué)習(xí)技術(shù)的局限。不過,鑒于目前自動駕駛的普遍認(rèn)知仍被深度學(xué)習(xí)深深地影響著,很難說這些工程師們能否真的徹底突破這些潛在的技術(shù)難題。
Ann Miura-Ko 是一名 Lyft 董事會的企業(yè)資本家,她認(rèn)為有一部分上述的問題對于無人車行業(yè)本身而言期望過高,這樣將一概而論地把仍不成熟的自動駕駛直接定義為失敗?!叭藗兛偸瞧谕麄円徊降翘?,這完全不符合新技術(shù)上的正常期望,我認(rèn)為,每一個微小的優(yōu)化都是自動駕駛成熟工業(yè)化路程上獨(dú)特的風(fēng)景?!?/p>
盡管如此,我們?nèi)圆恢罒o人車會深陷在目前困境中多久。半自動駕駛產(chǎn)品——比如特斯拉的 Autopilot 系統(tǒng),已經(jīng)有足夠能力來應(yīng)對大部分自動駕駛的場景了,但它在遇到突發(fā)狀況時也仍需要人為操作來干預(yù)。所以這種情況發(fā)生時,我們也很難說是無人車的責(zé)任還是駕駛員的責(zé)任。這對于某些批判家而言,即便有些故障并不完全是機(jī)器或技術(shù)的問題,這種半自動駕駛被認(rèn)為比人為駕駛不安全得多。Rand Corporation 的研究表明,只有當(dāng)無人車在沒有人為干預(yù)的情況下自動駕駛超過 2.75 億英里后才可以被認(rèn)為是和人為駕駛一樣安全可靠的。而第一起特斯拉 Autopilot 無人車引起的死亡事故僅僅行駛了 1 .3 億英里,這遠(yuǎn)遠(yuǎn)沒達(dá)到可靠性標(biāo)準(zhǔn)。
但深度學(xué)習(xí)已經(jīng)是汽車探測物體并做出響應(yīng)的核心技術(shù)了,要優(yōu)化這方面的錯誤率并非看上去那么簡單。針對今年早期的優(yōu)步車禍導(dǎo)致行人死亡的事件,杜克大學(xué)教授瑪麗·卡明斯(Mary Cummings)表示:“這個問題很難分開處理,識別物體并做出響應(yīng)是環(huán)環(huán)相扣的。比如在對行人識別錯誤導(dǎo)致車禍的事件中,系統(tǒng)對于自動識別的誤判什么事都沒有做,因?yàn)閭鞲衅靼l(fā)出了太多的錯誤警報(bào)導(dǎo)致了緊急剎車關(guān)閉?!?/p>
這起事故最終以優(yōu)步公司在今年夏天暫停了自動駕駛上的測試而結(jié)束,這也是對自動駕駛公司一個不好的預(yù)警。在產(chǎn)業(yè)界,各大公司都希望通過獲取更多數(shù)據(jù)來爭相解決這個問題,他們認(rèn)為自動駕駛更多的里程將構(gòu)建更穩(wěn)固的系統(tǒng)。但這馬庫斯眼里卻并非那么簡單。“他們僅僅只是用現(xiàn)有的技術(shù)來期望這個系統(tǒng)能穩(wěn)固工作,但依靠數(shù)據(jù)來學(xué)習(xí)的技術(shù)是基于這些數(shù)據(jù)都是已有事故的數(shù)據(jù),而不能達(dá)到防范于未然的級別?!?/p>