應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

把松鼠當海獅 蜻蜓當井蓋 為什么圖像識別AI會犯這些“低級錯誤”?

2019-07-11 09:48 前瞻網(wǎng)

導(dǎo)讀:目前的人工智能技術(shù)已經(jīng)非常擅長識別圖像中的物體,但仍然很容易犯些“低級錯誤”。

在部分情況下,只需在人眼不可見的靜態(tài)噪聲中添加一些可選的筆觸或圖層,就可以“愚弄”AI圖像識別系統(tǒng),這有時甚至會造成致命的后果。

例如,曾有研究人員將打印的涂鴉貼在路牌上導(dǎo)致AI自動駕駛系統(tǒng)將限速標志識別為禁行,騰訊科恩實驗室也曾發(fā)布報告稱路面上難以注意到的小貼紙就能誤導(dǎo)特斯拉錯誤判斷并駛?cè)敕聪蜍嚨馈?/p>

這些誤導(dǎo)標志被稱為“對抗補丁”,研究人員現(xiàn)在正忙于開發(fā)保護人工智能系統(tǒng)不受這些例子影響的方法。

但在去年的一篇論文中,Google Brain和普林斯頓大學(xué)的一組研究人員,包括該領(lǐng)域最早的研究人員之一Ian Goodfellow,認為這些新研究過于理論化,沒有抓住重點。

他們說,雖然大部分研究的重點是保護系統(tǒng)免受特別設(shè)計的標志的干擾,但黑客可能會選擇一種更直接的方法:使用一張完全不同的照片,而不是在現(xiàn)有照片上疊加噪音圖案。這也可能導(dǎo)致系統(tǒng)誤判斷。這一批評促使加州大學(xué)伯克利分校的博士生Dan Hendrycks編寫了一個新的圖像數(shù)據(jù)集。

這個數(shù)據(jù)集中包括一些容易被誤判的圖像,比如松鼠(它們通常會被誤認為是海獅)或蜻蜓(它們會被誤認為是井蓋)。他表示:“這些例子似乎更難防范?!?/p>

人工合成的對抗標志需要知道所有的人工智能系統(tǒng)是如何防范誤判的。但相比之下,即使人工智能系統(tǒng)各自的防范措施不同,這些自然的例子也能很好地發(fā)揮作用。

Hendrycks上周在國際機器學(xué)習會議上發(fā)布了該數(shù)據(jù)集的早期版本,包含大約6000幅圖像。他計劃在幾周內(nèi)發(fā)布最終版本,其中包括近8000個圖像。他打算讓研究團體使用該數(shù)據(jù)集作為基準。

換句話說,與其直接在圖像上訓(xùn)練圖像識別系統(tǒng),不如將其保留下來只用于測試。他說:“如果人們只是用這些數(shù)據(jù)集訓(xùn)練系統(tǒng),那么系統(tǒng)僅僅只是記住了這些例子。這樣雖然系統(tǒng)已經(jīng)解決了誤判這些圖像的問題,但它們對新圖像的誤判程度并沒有得到改善?!?/p>

破解這些令人困惑的誤判背后的邏輯,可能會讓系統(tǒng)的適應(yīng)性更廣?!盀槭裁聪到y(tǒng)會把蜻蜓和鱷梨色拉醬搞混?”Hendrycks開玩笑道,“根本不清楚為什么會犯這樣的錯誤?!?/p>

為什么人工智能會誤判?

有些人工智能系統(tǒng)的底層計算機制是已知的,有些則不是,這被稱為“黑箱”,即該系統(tǒng)的開發(fā)者可能都無法完全了解系統(tǒng)如何做出決策。

對于圖像識別技術(shù)來說,有時原因是因為給定的訓(xùn)練數(shù)據(jù)集出了問題。比如近日Facebook人工智能實驗室的一項新研究就表明,科技巨頭銷售的物體識別算法在識別來自低收入國家的物品時表現(xiàn)得更差。

據(jù)報道,研究人員測試了五種流行的現(xiàn)成對象識別算法——微軟Azure、Clarifai、谷歌Cloud Vision、亞馬遜Rekognition和IBM Watson。而測試的圖像包括來自全球不同階級的家庭的家中用品的圖像。這些圖像可能來自非洲布隆迪的一個月收入27美元的家庭,也可能來自烏克蘭一個月收入1090美元的家庭。

研究人員發(fā)現(xiàn),與月收入超過3500美元的家庭相比,當被要求識別月收入50美元的家庭的物品時,物體識別算法的出錯率要高出10%左右。

而且在識別來自美國的照片時,算法的準確性也比識別來自索馬里或布基納法索的照片要高出15%至20%。

研究人員稱,在一系列用于圖像識別的商業(yè)云服務(wù)中,這些發(fā)現(xiàn)具有一致性。

人工智能算法的這種“偏見”還有很多別的例子,其中一種常見的推測原因是用于培訓(xùn)的數(shù)據(jù)有了偏頗——它們往往反映了相關(guān)工程師的生活和背景。由于這些人通常是來自高收入國家的白人男性,他們訓(xùn)練的算法所要識別的世界也是如此。

研究人員稱,視覺算法的訓(xùn)練數(shù)據(jù)主要來自歐洲和北美,“在人口眾多的地理區(qū)域,特別是非洲、印度、中國和東南亞,對視覺場景的采樣嚴重不足”。

由于美國科技公司在人工智能領(lǐng)域處于世界領(lǐng)先地位,這可能會影響到從照片存儲服務(wù)、圖像搜索功能到更重要的AI安全攝像頭、自動駕駛汽車等系統(tǒng)的方方面面。

“評估人工智能系統(tǒng)并不一定容易,因為沒有執(zhí)行這類評估的標準基準。”幫助開展這項研究的Facebook人工智能研究科學(xué)家勞倫斯·范德馬頓(Laurens van der Maaten)在接受采訪時表示。

“對抗這種偏見最重要的一步是,在培訓(xùn)AI系統(tǒng)之前的數(shù)據(jù)收集環(huán)節(jié)就要謹慎得多?!?/p>

值得注意的是,科技公司們經(jīng)常把自家人工智能產(chǎn)品宣傳為“人人平等、人人可得”,但實際上,它們可能只是在按照自己的形象來評估、定義和塑造世界。