技術(shù)
導(dǎo)讀:微軟發(fā)現(xiàn),商用人臉識(shí)別識(shí)別膚色較淺的男性準(zhǔn)確率最高,而失誤率最嚴(yán)重的是膚色較深的女性。在演唱會(huì)“抓逃犯”上屢建奇功的人臉識(shí)別,其實(shí)還是不成熟的技術(shù),具體表現(xiàn)在對(duì)膚色和性別的歧視上。
微軟發(fā)現(xiàn),商用人臉識(shí)別識(shí)別膚色較淺的男性準(zhǔn)確率最高,而失誤率最嚴(yán)重的是膚色較深的女性。在演唱會(huì)“抓逃犯”上屢建奇功的人臉識(shí)別,其實(shí)還是不成熟的技術(shù),具體表現(xiàn)在對(duì)膚色和性別的歧視上。
微軟發(fā)現(xiàn),商用人臉識(shí)別識(shí)別膚色較淺的男性準(zhǔn)確率最高,而失誤率最嚴(yán)重的是膚色較深的女性。這可算是人臉識(shí)別的“技術(shù)偏見(jiàn)”了。

這種偏見(jiàn)一旦在大范圍應(yīng)用中“顯現(xiàn)”,聲討種族和性別“歧視”的聲音,將會(huì)淹沒(méi)微軟。為了解決充滿偏見(jiàn)的技術(shù),微軟 Face API 團(tuán)隊(duì)對(duì)其識(shí)別系統(tǒng)進(jìn)行了三次重大改進(jìn)。最新的人臉識(shí)別系統(tǒng),識(shí)別膚色較深的人錯(cuò)誤率降低了 20 倍,識(shí)別所有女性的失誤率減低了 9 倍。
盡管有了改進(jìn),但目前的人臉識(shí)別,還不是完美的系統(tǒng)。微軟認(rèn)為,問(wèn)題的根本解決辦法還是訓(xùn)練數(shù)據(jù)庫(kù),需要收集更多的數(shù)據(jù),包括不同膚色、發(fā)型和面部飾品等。

中國(guó)人普遍的黃皮膚,剛好避開(kāi)了“最淺”和“最深”的膚色。但我國(guó)也有外貌特征各異的少數(shù)民族,如果人臉識(shí)別對(duì)此產(chǎn)生技術(shù)偏見(jiàn),就不是簡(jiǎn)單的“開(kāi)地圖炮”了,可能會(huì)引發(fā)嚴(yán)重的民族矛盾。
至于“更大范圍攻擊”的性別歧視話題,在我國(guó)也變得非常敏感,該慶幸人臉識(shí)別技術(shù)目前還沒(méi)有惹來(lái)“性別歧視罵戰(zhàn)”。
偏見(jiàn)的鍋不能完全甩給人工智能,技術(shù)也是反映真實(shí)社會(huì)的鏡子。
微軟研究實(shí)驗(yàn)室的高級(jí)研究員、AI 系統(tǒng)公平性專家Hanna Wallach在一份聲明中回應(yīng):如果我們訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng)使用有偏見(jiàn)的社會(huì)產(chǎn)生的數(shù)據(jù),來(lái)模擬那個(gè)社會(huì)做出決定,那么這些系統(tǒng)必然會(huì)重現(xiàn)它的偏見(jiàn)。
例如,在一些社區(qū)中,黑人的犯罪率更高,AI 根據(jù)收集來(lái)的數(shù)據(jù),更容易把膚色較深的人劃分到“逃犯”的分類中。這是群體給個(gè)體的傷害,人臉識(shí)別只不過(guò)“遵循了”社會(huì)偏見(jiàn)。

相比起導(dǎo)致“歧視”,研究團(tuán)隊(duì)更希望 AI 能檢測(cè)和減輕偏見(jiàn),以彌補(bǔ)現(xiàn)實(shí)社會(huì)中的不完美。追捕逃犯用大范圍攻擊的“種族炮”和“性別炮”容易傷及無(wú)辜,人臉識(shí)別的方向是更精密的“狙擊槍”。
一直對(duì)人臉識(shí)別技術(shù)保持警惕的美國(guó),其海關(guān)部門也要啟用人臉識(shí)別系統(tǒng),但收到強(qiáng)烈的反對(duì)。