應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

人工智能的盡頭是人工?

2020-09-01 09:05 今日頭條

導(dǎo)讀:人工智能并不能百分之百包打天下。

上個(gè)月出門,發(fā)現(xiàn)十字路口的交警和輔警人數(shù)明顯增加了。我不禁有些詫異,近十年來,人工智能最成功和最有效的落地成果不就是安防和交通相關(guān)應(yīng)用嗎,而十字路口往往都是視頻監(jiān)控最密集的地方?既然如此,為什么還需要那么多警力呢?

除了定期上街執(zhí)勤需要外,一個(gè)深層次的原因是,人工智能并不能百分之百包打天下。更極端情況下,人工智能的盡頭可能是人工。

--何出此言呢?其一原因是人工智能算法的評(píng)價(jià)準(zhǔn)則。這里談?wù)搩蓚€(gè)指標(biāo),漏檢率和誤報(bào)率。第一個(gè)指標(biāo),漏檢率是指本應(yīng)發(fā)現(xiàn)卻未被算法發(fā)現(xiàn)的問題,俗稱假陰性。

以交通違章為例,假陰性或漏檢率意味著并非所有違章現(xiàn)象都能被有效發(fā)現(xiàn)。在監(jiān)控探頭日益普及的今天,多數(shù)違章都已經(jīng)能通過人工智能算法檢測(cè)到。如早期研發(fā)的闖紅燈、高速公路超速、占用高速應(yīng)急車道等,中期研發(fā)的基于云臺(tái)監(jiān)控?cái)z像機(jī)的三分鐘路邊違停、車牌遮擋等,和近年來的實(shí)線變道、市內(nèi)禁鳴區(qū)域鳴笛等。然而,隨著駕駛員的交通安全意識(shí)的提高,這些易于監(jiān)控的違章現(xiàn)象正變得越來越少。以至于可以推測(cè),在未來針對(duì)這類違章的監(jiān)控可能會(huì)較難被觸發(fā),甚至形同虛設(shè)。那么,交管部門和相關(guān)研發(fā)的公司就必須深化監(jiān)控系統(tǒng)的研究,將重心推向識(shí)別更為復(fù)雜的交通違章行為。比如惡劣天氣或低照度情況下的低分辨車牌識(shí)別、非機(jī)動(dòng)車的違章行為。然而,這些復(fù)雜的交通違章并不見得能通過人工智能算法獲得很低的漏檢率,甚至可能無法形成應(yīng)用級(jí)的實(shí)際監(jiān)控系統(tǒng)。如非機(jī)動(dòng)車闖紅燈行為、以及在禁行區(qū)域行駛。盡管目前這一塊的智能監(jiān)控已經(jīng)開始試點(diǎn),但當(dāng)非機(jī)沒有車牌以及駕駛者戴著口罩時(shí),算法很難自動(dòng)給出確定的結(jié)論。此時(shí),就只有依賴人工現(xiàn)場(chǎng)截停和處罰了。

而第二個(gè)指標(biāo),誤報(bào)率則是指不應(yīng)被檢測(cè)出來、卻被錯(cuò)誤辨識(shí)成真的“假問題”,俗稱假陽性。

仍以交通違章為例,假陽性高意味著會(huì)報(bào)到過多的假違章現(xiàn)象。如在高速公路上,一輛車被檢測(cè)出超速了,但實(shí)際上真車并未出現(xiàn)在該路段,結(jié)果車主收到了一張不屬于自己的罰單。再比如將公共汽車車身上的廣告人物錯(cuò)判成違章的行人。這些都是假陽性。誤報(bào)率高或假陽性高,往往會(huì)導(dǎo)致后期人工介入工作量的增加。

除交通違章外,漏檢率和誤報(bào)率引發(fā)的問題,在很多領(lǐng)域的應(yīng)用中都可以見到。如在醫(yī)療方面,新冠病人的漏檢有可能會(huì)造成不必要的病毒傳播,而健康人誤報(bào)為癌癥會(huì)導(dǎo)致人的心理狀態(tài)失。如在短視頻檢查上,疑似漏檢的違規(guī)短視頻必須通過人工審查來杜絕其傳播后造成的危害。誤報(bào)的也需要通過人工來決定是否可以放行。

近年來,大量人工智能技術(shù)的落地,表明相關(guān)應(yīng)用的誤報(bào)率和漏檢率問題已經(jīng)有了顯著的改善。但需要指出的是,一旦容易實(shí)現(xiàn)的應(yīng)用都完成落地或產(chǎn)品化了,剩下的可能都是難啃的硬骨頭。這些硬骨頭的潛在應(yīng)用里,依賴現(xiàn)有的人工智能技術(shù),兩個(gè)指標(biāo)可能很難得到明顯的改善。它也就意味著,人工處理仍然會(huì)是這些應(yīng)用需要依賴的主要手段。

事實(shí)上,漏檢率和誤報(bào)率這兩個(gè)簡(jiǎn)單的指標(biāo),只是影響人工智能全面替代人工,以及導(dǎo)致人工智能最終需要依賴甚至讓位于人工的一個(gè)小因素。

其原因在于,這兩個(gè)指標(biāo)主要與預(yù)測(cè)任務(wù)的性能相關(guān)。而人類智能中除了預(yù)測(cè),還有與可解釋性和其它與預(yù)測(cè)無密切關(guān)聯(lián)的智能活動(dòng)。如學(xué)生們刷題后形成的對(duì)新題的快速判斷,那是可以不經(jīng)過常規(guī)解題思路直接找到答案的快速途徑。從某種意義上來說,這是擺脫了原有學(xué)習(xí)模型后形成的一種“跳”連接,或者直覺。這種直覺,目前還無法通過數(shù)學(xué)建模方式來表示,仍然需要靠人自己的持續(xù)學(xué)習(xí)來獲得。情感也是如此,盡管我們?cè)跇?gòu)建人工智能算法中可以機(jī)械性地將情感分類并進(jìn)行預(yù)測(cè),然而這樣獲得的情感只能讓機(jī)器人更為機(jī)械化,卻無法向共情邁出質(zhì)變的一步。

即使是預(yù)測(cè),我們也受限于對(duì)自然界的理解,而不能對(duì)人工智能技術(shù)抱以過高的期望。如氣象預(yù)報(bào)中局部地區(qū)的降雨預(yù)測(cè),會(huì)因?yàn)閷?duì)大尺度臺(tái)風(fēng)的數(shù)據(jù)收集不完全而出現(xiàn)失誤。不僅是空間尺度上存在局限性,時(shí)間尺度亦如此。如氣候的變化有可能是幾十年為周期的,那么單靠十來年的數(shù)據(jù)進(jìn)行氣候意義上的分析顯然是不準(zhǔn)確的。事實(shí)上,我們?cè)谝恍?yīng)用中還面臨著數(shù)據(jù)的稀少問題。如局地冰雹的預(yù)測(cè)會(huì)因?yàn)閿?shù)據(jù)極其稀少、且在雷達(dá)回波上無法與大降雨云層區(qū)分開,而導(dǎo)致判斷失效。

我們也不能過份相信機(jī)器的預(yù)測(cè)能力。如在自動(dòng)控制方面,過份相信機(jī)器的判斷,可能會(huì)導(dǎo)致極其危險(xiǎn)的后果。如2019年3月埃航737 MAX8的空難,就是過份相信機(jī)器的自動(dòng)駕駛,以至于駕駛員后來無法接管引發(fā)的悲劇。

能列舉的人工智能短板還有很多,我就不一一枚舉了。在這里,我更想表達(dá)的是,目前人工智能技術(shù)的落地主要是在預(yù)測(cè)能力能達(dá)到應(yīng)用級(jí)的應(yīng)用上,算是在享用這些應(yīng)用的能有的紅利。一旦人工智能在應(yīng)用層的紅利消失,剩下的可能就得靠人力了。那么自然的問題是,人工智能的紅利,在各種相關(guān)的應(yīng)用上還能持續(xù)多久? 人工智能的盡頭會(huì)是人工嗎? 還是必然會(huì)走向人機(jī)混合呢?