導(dǎo)讀:微軟發(fā)現(xiàn),商用人臉識別識別膚色較淺的男性準(zhǔn)確率最高,而失誤率最嚴(yán)重的是膚色較深的女性。在演唱會“抓逃犯”上屢建奇功的人臉識別,其實還是不成熟的技術(shù),具體表現(xiàn)在對膚色和性別的歧視上。
微軟發(fā)現(xiàn),商用人臉識別識別膚色較淺的男性準(zhǔn)確率最高,而失誤率最嚴(yán)重的是膚色較深的女性。在演唱會“抓逃犯”上屢建奇功的人臉識別,其實還是不成熟的技術(shù),具體表現(xiàn)在對膚色和性別的歧視上。
微軟發(fā)現(xiàn),商用人臉識別識別膚色較淺的男性準(zhǔn)確率最高,而失誤率最嚴(yán)重的是膚色較深的女性。這可算是人臉識別的“技術(shù)偏見”了。
這種偏見一旦在大范圍應(yīng)用中“顯現(xiàn)”,聲討種族和性別“歧視”的聲音,將會淹沒微軟。為了解決充滿偏見的技術(shù),微軟 Face API 團隊對其識別系統(tǒng)進行了三次重大改進。最新的人臉識別系統(tǒng),識別膚色較深的人錯誤率降低了 20 倍,識別所有女性的失誤率減低了 9 倍。
盡管有了改進,但目前的人臉識別,還不是完美的系統(tǒng)。微軟認為,問題的根本解決辦法還是訓(xùn)練數(shù)據(jù)庫,需要收集更多的數(shù)據(jù),包括不同膚色、發(fā)型和面部飾品等。
中國人普遍的黃皮膚,剛好避開了“最淺”和“最深”的膚色。但我國也有外貌特征各異的少數(shù)民族,如果人臉識別對此產(chǎn)生技術(shù)偏見,就不是簡單的“開地圖炮”了,可能會引發(fā)嚴(yán)重的民族矛盾。
至于“更大范圍攻擊”的性別歧視話題,在我國也變得非常敏感,該慶幸人臉識別技術(shù)目前還沒有惹來“性別歧視罵戰(zhàn)”。
偏見的鍋不能完全甩給人工智能,技術(shù)也是反映真實社會的鏡子。
微軟研究實驗室的高級研究員、AI 系統(tǒng)公平性專家Hanna Wallach在一份聲明中回應(yīng):如果我們訓(xùn)練機器學(xué)習(xí)系統(tǒng)使用有偏見的社會產(chǎn)生的數(shù)據(jù),來模擬那個社會做出決定,那么這些系統(tǒng)必然會重現(xiàn)它的偏見。
例如,在一些社區(qū)中,黑人的犯罪率更高,AI 根據(jù)收集來的數(shù)據(jù),更容易把膚色較深的人劃分到“逃犯”的分類中。這是群體給個體的傷害,人臉識別只不過“遵循了”社會偏見。
相比起導(dǎo)致“歧視”,研究團隊更希望 AI 能檢測和減輕偏見,以彌補現(xiàn)實社會中的不完美。追捕逃犯用大范圍攻擊的“種族炮”和“性別炮”容易傷及無辜,人臉識別的方向是更精密的“狙擊槍”。
一直對人臉識別技術(shù)保持警惕的美國,其海關(guān)部門也要啟用人臉識別系統(tǒng),但收到強烈的反對。