技術(shù)
導(dǎo)讀:人們需要算法,也期待 2穆罕默德·本·穆薩·阿爾·花剌子模是公元九世紀(jì)的一位波斯學(xué)者。在阿爾·花剌子模逝世的數(shù)個(gè)世紀(jì)之后,他的作品引領(lǐng)歐洲進(jìn)入小數(shù)和代數(shù)領(lǐng)域,為如今這個(gè)以技術(shù)為核心的年代奠定了基礎(chǔ)。018 年,公司、政府和人民能對(duì)算法的使用負(fù)責(zé),而不在把問題歸咎于「算法」一詞。
穆罕默德·本·穆薩·阿爾·花剌子模是公元九世紀(jì)的一位波斯學(xué)者。在阿爾·花剌子模逝世的數(shù)個(gè)世紀(jì)之后,他的作品引領(lǐng)歐洲進(jìn)入小數(shù)和代數(shù)領(lǐng)域,為如今這個(gè)以技術(shù)為核心的年代奠定了基礎(chǔ)。阿爾·花剌子模名字的拉丁文版本(Algorismus)現(xiàn)在演變成了一個(gè)很常見的詞:算法(Algorithm)。
但在 2017 年,這個(gè)詞卻增添了一絲邪惡的氣息。
事情的轉(zhuǎn)變發(fā)生在上個(gè)月的美國(guó)眾議院情報(bào)委員會(huì)。在俄羅斯干預(yù) 2016 年大選的聽證會(huì)上,首席民主黨議員 Adam Schiff 在 Facebook 的律師 Colin Stretch 面前指責(zé)道:「俄羅斯社交媒體運(yùn)動(dòng)為什么能夠取得成功?其中一部分原因是,他們明白,你們 Facebook 使用的算法往往強(qiáng)調(diào)那些以恐怖為基礎(chǔ)或以憤怒為基礎(chǔ)的內(nèi)容?!?/p>
莫非算法可以放大恐懼,從而幫助外國(guó)勢(shì)力干涉民主規(guī)模?這聽起來可太危險(xiǎn)了!
幾年前,「算法」表現(xiàn)出的現(xiàn)代性和智能性造就了 Google 等科技公司的成功。而今,人們卻越來越擔(dān)心科技公司的力量,「算法」成為了政治角力的替罪羊,還使得阿爾·花剌子模的名字籠罩上了一層負(fù)面光環(huán)。
今年 2 月,《Weapons of Math Destruction》一書的作者、數(shù)學(xué)家 Cathy O’Neil 提出了有關(guān)「算法霸主」的警告。YouTube 上面的兒童推薦視頻算法引起了公眾的不滿,原因是將無害的 LBGT 內(nèi)容刪除,并將孩子們引向令人不安的內(nèi)容。與此同時(shí),學(xué)術(shù)研究者們還演示了機(jī)器視覺算法如何習(xí)得對(duì)性別的刻板印象;以及政府在刑事司法領(lǐng)域運(yùn)用算法,反而將人民置于黑暗當(dāng)中。
上周,前總統(tǒng)奧巴馬的首席戰(zhàn)略官 David Axelrod 在表露對(duì)未來媒體和政治擔(dān)憂的時(shí)候,「算法」一詞也突然到了他的嘴邊。他說:「一切都在推著我們走向算法引導(dǎo)的定制化產(chǎn)品。這讓我很擔(dān)心?!?/p>
馬里蘭大學(xué)教授 Frank Pasquale 則表示:「大選真正讓人們理解了算法系統(tǒng)的威力?!?/p>
這并非全新的擔(dān)憂——關(guān)于 Facebook 抑制民眾思想的「過濾泡沫」?fàn)幷撌加?2011 年。但是,Pasquale 表示,現(xiàn)在有一種更強(qiáng)烈的感覺,那就是算法應(yīng)該被質(zhì)疑并承擔(dān)責(zé)任。他說,這個(gè)問題的一個(gè)分水嶺是歐盟最高法院 2014 年的決議——授予市民「被類似 Google 等搜索引擎遺忘的權(quán)利」。Pasquale 稱,這是一個(gè)早期的「算法公共義務(wù)和競(jìng)爭(zhēng)性的小沖突」。
當(dāng)然,對(duì) Facebook 等公司的指責(zé)并不應(yīng)該只針對(duì)算法或數(shù)學(xué),更應(yīng)考慮創(chuàng)建這些算法的公司和個(gè)人。這也就是 Facebook 首席律師 Capitol Hill 出現(xiàn)的原因。微軟研究員兼麻州大學(xué)教授 Hanna Wallach 說,「我們不能將人工智能系統(tǒng)僅僅視為技術(shù)層面的東西,它已成為了一種社會(huì)技術(shù)的固有產(chǎn)物。」Hanna Wallach 正不斷推進(jìn)人工智能領(lǐng)域的道德考量。
有證據(jù)表明,部分硅谷的算法工程師很清楚這一點(diǎn)。塔夫茨大學(xué)人類學(xué)家 Nick Seaver 深入科技公司內(nèi)部,以了解工作人員對(duì)于算法的想法。Seaver 在一篇關(guān)于「模糊性(fuzziness)」的論文中寫道:「一個(gè)受訪者說,『算法也是人類』,他可以畫出自己和同事所研究的算法的界限?!?/p>
然而,F(xiàn)acebook 等公司承受的壓力可能會(huì)讓算法成為人類和企業(yè)失敗的替罪羊。有一些說法暗示甚至明示,算法有其自主性。但不幸的是,讓「科學(xué)怪獸」算法承擔(dān)罪責(zé)可以轉(zhuǎn)移公司制造算法時(shí)關(guān)于責(zé)任、策略和選擇的問題關(guān)注度,但卻減少了我們真正解決算法問題的機(jī)會(huì)。
讓算法成為我們眼中的「洪水猛獸」,同樣使得我們對(duì)算法如此普遍的原因熟視無睹。在計(jì)算蒙蔽我們雙眼的時(shí)代,算法是理解數(shù)據(jù)風(fēng)暴的唯一途徑。算法提供了一種優(yōu)雅而高效的方法完成任務(wù),讓世界變得更好。
在曼哈頓社區(qū)大學(xué)教授數(shù)學(xué)的 Audrey Nasar 指出,類似匹配腎臟捐贈(zèng)者和接受者的算法應(yīng)用告訴我們,算法并非都具邪惡色彩。他說:「算法對(duì)我而言是一種禮物,它是找到解決方式的一種手段?!筃asar 還發(fā)表了關(guān)于如何鼓勵(lì)高中生進(jìn)行算法思維的研究成果。
這可能是一種和阿爾·花剌子模產(chǎn)生共鳴的情緒。他在著名的代數(shù)教程中寫道,算法將有助于「人們不斷要求的各種任務(wù),例如繼承、遺產(chǎn)、分割、訴訟和貿(mào)易,以及相互之間的各種交易」。
人們需要算法,也期待 2018 年,公司、政府和人民能對(duì)算法的使用負(fù)責(zé),而不在把問題歸咎于「算法」一詞。