技術(shù)
導(dǎo)讀:在人們普遍印象中,AI既具備人類一樣的“思考”能力,又因?yàn)樗举|(zhì)上是幾套固定的算法,不像人類一樣,在許多事情上可以有“商量”的余地。因此,AI在決策時(shí),能比人類更精確、更理性、更大公無私。但事實(shí)上,AI決策同樣可能存在偏見。
在人們普遍印象中,AI既具備人類一樣的“思考”能力,又因?yàn)樗举|(zhì)上是幾套固定的算法,不像人類一樣,在許多事情上可以有“商量”的余地。因此,AI在決策時(shí),能比人類更精確、更理性、更大公無私。但事實(shí)上,AI決策同樣可能存在偏見。
AI時(shí)代本質(zhì)上是算法時(shí)代,越來越多的決策將由數(shù)學(xué)模型做出。在未來,依據(jù)每個(gè)人最細(xì)微的生活習(xí)慣,人們是否有資格獲得貸款、應(yīng)該在何處接受何種教育,甚至于身體出問題的可能性有多大、應(yīng)該購買何種健康保險(xiǎn),這些問題都能被精確地算出。
既然說的是前沿技術(shù),我們不妨以“人類燈塔”為例。美國的囚犯數(shù)量冠絕全球,其中,黑人又占到了很高比例。美國人相信,立法者和執(zhí)法者的個(gè)人偏見,導(dǎo)致黑人群體在法律上受到了不公正待遇。許多人認(rèn)為,應(yīng)該引入機(jī)器算法,將個(gè)人想法從定罪量刑中完全去除。
這種想法帶有一個(gè)隱含的前提,即算法是無偏見的。若確實(shí)如此,那么機(jī)器確實(shí)避免讓美國司法系統(tǒng)中非常普遍不公平進(jìn)一步惡化。按照這種完美設(shè)想,一家名為Northpointe的美國公司開發(fā)了一套名為“COMPAS”(英語“羅盤”的諧音)的AI風(fēng)險(xiǎn)評(píng)估系統(tǒng)。這套系統(tǒng)通過137個(gè)問題,對(duì)每個(gè)囚犯再次犯罪的風(fēng)險(xiǎn),以及他們改過自新的可能性和成本進(jìn)行計(jì)算,輸出成一個(gè)個(gè)分?jǐn)?shù),從而定下他們未來一段時(shí)間內(nèi)的人生內(nèi)容。
包括亞利桑那、科羅拉多、特拉華、肯塔基、路易斯安那、俄克拉何馬、弗吉尼亞州、華盛頓和威斯康辛等州,都引入了這套先進(jìn)的系統(tǒng)。當(dāng)?shù)胤ü僭谛淌屡袥Q期間獲得相關(guān)分?jǐn)?shù),作為“公平”量刑的依據(jù)。
從常理來看,算法本身就是一套規(guī)則,會(huì)受到自身的束縛。執(zhí)行時(shí),每個(gè)執(zhí)行對(duì)象都被按照固定的規(guī)則進(jìn)行判斷。理論上,方程可以將偏見從決策過程中根除;理論上,算法的存在應(yīng)該帶來公平性的無限增強(qiáng)。然而,現(xiàn)實(shí)并非如此,像上文那套以公正為立足點(diǎn)的“羅盤”系統(tǒng),就在ProPublica的測(cè)試中,出現(xiàn)了對(duì)少數(shù)群體的偏見。
在2013-2014年,有超過7000人在佛羅里達(dá)州布勞沃德縣遭到逮捕,并接受了該系統(tǒng)的風(fēng)險(xiǎn)評(píng)分。ProPublica獲得了評(píng)分?jǐn)?shù)據(jù)后,對(duì)這些犯人2年內(nèi)再度犯罪的結(jié)果(算法創(chuàng)建者使用的基準(zhǔn)也是這個(gè))進(jìn)行了回測(cè)。結(jié)果顯示,這些分?jǐn)?shù)在預(yù)測(cè)暴力犯罪方面極不可靠:系統(tǒng)評(píng)估可能再次犯罪的人群中,只有20%出現(xiàn)了“二進(jìn)宮”的結(jié)果。
或許有人爭(zhēng)辯,認(rèn)為結(jié)果錯(cuò)誤只是算法不完善或者算力不足導(dǎo)致的,但是,其中出現(xiàn)的種族差異,算法“偏見”難辭其咎。在這7000多人中,黑人被標(biāo)上“可能再次犯罪”標(biāo)簽的數(shù)量是白人的2倍,而從結(jié)果來看,白人被告被錯(cuò)貼低風(fēng)險(xiǎn)標(biāo)簽的幾率要高于黑人被告。
ProPublica認(rèn)為,這類差異不能用被告以往罪行來解釋,也不能從犯罪類型中得到解釋。因?yàn)樗麄冊(cè)诨販y(cè)中,在控制犯罪歷史、年齡和性別等變量的情況下,以種族為依據(jù)的偏見更加明顯地體現(xiàn)了出來。
事實(shí)上,算法偏見的事例并不鮮見。早在1982年,圣喬治醫(yī)院醫(yī)學(xué)院使用的招生評(píng)估算法就出現(xiàn)了種族偏見,荒誕的是,這種算法偏差依據(jù)的居然是學(xué)生名字——但凡聽起來像外國名字,學(xué)生就會(huì)被拒收。
隨著互聯(lián)網(wǎng)和大數(shù)據(jù)時(shí)代的到來,算法偏見出現(xiàn)的頻率越來越高。2011年,在同性戀在線約會(huì)應(yīng)用Grindr介紹頁面下,安卓商店推送了旨在發(fā)現(xiàn)性侵犯者的應(yīng)用程序。換句話說,在安卓商店算法中,同性戀和戀童癖莫名其妙地聯(lián)系上了。
而在去年,F(xiàn)acebook發(fā)生了著名的算法風(fēng)波。他們?cè)就瞥隽艘环N算法來刪除網(wǎng)站上的仇恨言論,然而,其內(nèi)部文件顯示,該算法具有明顯的“精英主義”傾向,為草根和少數(shù)族裔說的話更容易被刪。
為什么會(huì)出現(xiàn)這種現(xiàn)象?歸根結(jié)底,人們嘗到AI給社會(huì)生活帶來的顯著好處,下意識(shí)地忽略其巨大隱患——算法的不透明。
既然算法是人編寫的,那么在編寫過程中,人的觀念和思維完全有可能寫入算法當(dāng)中。這里說的“寫入”,不單指編寫者有意為這些機(jī)器大腦“灌輸”某種思想,也包括他們內(nèi)心存在的價(jià)值觀念,讓他們?cè)诤Y選“正確”代碼時(shí)存在偏見。除此之外,種族歧視、性別歧視,以及更具隱蔽性的“政治正確”等現(xiàn)實(shí)問題,也可能滲入機(jī)器學(xué)習(xí)的大數(shù)據(jù)集,被AI程序自主學(xué)會(huì)。
如果我們還依照老觀念,把算法當(dāng)作客觀公平的事物,對(duì)潛在問題視而不見,必然會(huì)造成更大的破壞。
當(dāng)然,隨著AI技術(shù)在醫(yī)學(xué)和法律等領(lǐng)域的普及,實(shí)踐和理論沖突日漸增多,已經(jīng)有很多人感知到了偏見的存在。但是,前文所說的算法不透明性,讓大多數(shù)人無從對(duì)其提出異議,人們也多半不敢隨意挑戰(zhàn)人類社會(huì)千百年來積累的高深數(shù)學(xué)成果。
那么,如果不想讓AI未來對(duì)某些特定群體舉起屠刀,人類要怎么做?ProPublica認(rèn)為,技術(shù)和算法的透明化是最重要的。用戶和工程師需要了解AI最基礎(chǔ)的“價(jià)值觀”以及計(jì)算方法,才能做出針對(duì)性的調(diào)整。
最先付諸行動(dòng)的是歐盟。他們?cè)诮衲?月通過的《通用數(shù)據(jù)保護(hù)條例》(GDRP),除了隱私問題外,著重規(guī)范了AI技術(shù)的透明性。該條例要求,但凡使用算法進(jìn)行自動(dòng)決策的公司,都必須公布其算法決策的邏輯。為了降低存在錯(cuò)誤和偏差的風(fēng)險(xiǎn),GDPR甚至要求算法開發(fā)者使用“適當(dāng)?shù)臄?shù)學(xué)或統(tǒng)計(jì)程序”,即公司需要對(duì)自動(dòng)決策中出現(xiàn)的偏見和歧視負(fù)責(zé)。
不過,這只是權(quán)宜之計(jì),因?yàn)榇蠖鄶?shù)人不懂代碼,即便技術(shù)透明化,公眾也無法理解它們意味著什么,監(jiān)督作用基本等同于沒有。
因此,要防止AI偏見對(duì)人類社會(huì)造成破壞,最根本的是防止AI技術(shù)的濫用。在公眾有足夠信息獲取能力和理解之前,人類應(yīng)該對(duì)AI的應(yīng)用劃一條紅線。雖然人類同樣具有偏見,但最起碼,我們沒有機(jī)器那樣的執(zhí)行力。