應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

曾毅:人工智能真正的風(fēng)險(xiǎn)就在當(dāng)下

2019-12-03 09:06 中國(guó)數(shù)字科技館

導(dǎo)讀:人工智能亦可稱機(jī)器智能,通常是指由普通計(jì)算機(jī)程序來(lái)呈現(xiàn)人類智能的技術(shù),其核心問(wèn)題包括建構(gòu)能夠跟人類比肩甚至超越人類的推理、知識(shí)、規(guī)劃、學(xué)習(xí)、交流、使用工具和操控機(jī)械等能力。

人工智能亦可稱機(jī)器智能,通常是指由普通計(jì)算機(jī)程序來(lái)呈現(xiàn)人類智能的技術(shù),其核心問(wèn)題包括建構(gòu)能夠跟人類比肩甚至超越人類的推理、知識(shí)、規(guī)劃、學(xué)習(xí)、交流、使用工具和操控機(jī)械等能力。隨著人工智能技術(shù)的不斷發(fā)展,在大眾對(duì)這項(xiàng)技術(shù)刷新認(rèn)識(shí)的同時(shí),也產(chǎn)生了諸多的疑問(wèn)及質(zhì)疑。

曾毅:人工智能真正的風(fēng)險(xiǎn)就在當(dāng)下

中科院自動(dòng)化研究所研究員、智源人工智能倫理與安全研究中心主任曾毅

作為中國(guó)人工智能的從業(yè)者,希望中國(guó)的人工智能發(fā)展成什么樣?就此相關(guān)問(wèn)題,記者對(duì)中科院自動(dòng)化研究所研究員、智源人工智能倫理與安全研究中心主任曾毅進(jìn)行了專訪。

大眾對(duì)人工智能的認(rèn)識(shí)存在偏差

有人曾說(shuō),一個(gè)不再像人類一樣思維的機(jī)器,會(huì)引起大家的恐慌。在人工智能發(fā)展的過(guò)程當(dāng)中,有很多人在疑問(wèn):人工智能實(shí)現(xiàn)通用智能、超級(jí)智能,是不是最大的風(fēng)險(xiǎn)?對(duì)此,曾毅回答道,在實(shí)現(xiàn)通用人工智能的途徑中一定會(huì)存在風(fēng)險(xiǎn),但真正的風(fēng)險(xiǎn),現(xiàn)在看來(lái)并不是通用智能或者超級(jí)智能,而是在于人工智能發(fā)展的道路過(guò)程當(dāng)中已經(jīng)涌現(xiàn)出來(lái)的風(fēng)險(xiǎn)以及安全、倫理問(wèn)題。

曾毅:人工智能真正的風(fēng)險(xiǎn)就在當(dāng)下

難以保障隱私的用戶數(shù)據(jù)(圖片來(lái)自網(wǎng)絡(luò))

對(duì)于人工智能這樣由算法專家構(gòu)建的服務(wù),極可能存在算法歧視、偏見(jiàn)等潛在問(wèn)題,這些就足以使人工智能對(duì)我們的社會(huì)產(chǎn)生巨大的負(fù)面的影響。比如在人工智能的應(yīng)用中,數(shù)據(jù)隱私泄露的問(wèn)題非常廣泛,用戶可以把數(shù)據(jù)庫(kù)當(dāng)中的用戶數(shù)據(jù)刪除,這樣看似用戶數(shù)據(jù)就被消除掉了,但其實(shí)數(shù)據(jù)庫(kù)已經(jīng)使用了它的數(shù)據(jù),數(shù)據(jù)特征已經(jīng)被模型學(xué)到了,這個(gè)時(shí)候用戶數(shù)據(jù)是不可能完全拿回的。曾毅談道,雖然類似歐盟在極力推動(dòng)的“GDPR歐洲通用數(shù)據(jù)保護(hù)條例”有相關(guān)規(guī)定,但目前幾乎沒(méi)有一家企業(yè)真正完全符合GDPR,而大眾極度卻缺乏個(gè)人數(shù)據(jù)隱私保護(hù)意識(shí)。

曾毅表示,公眾很關(guān)注人工智能的社會(huì)影響,但是礙于大眾對(duì)于人工智能的風(fēng)險(xiǎn)不是太了解,所以人工智能技術(shù)的科普比任何時(shí)候都重要。

面對(duì)當(dāng)前人工智能實(shí)際應(yīng)用的安全問(wèn)題需建立監(jiān)管平臺(tái)

面對(duì)人工智能的風(fēng)險(xiǎn),當(dāng)下存在嚴(yán)重兩極化:比如美國(guó)加州就決定禁用人臉識(shí)別技術(shù),但也有更多企業(yè)對(duì)風(fēng)險(xiǎn)持視而不見(jiàn)的態(tài)度??傮w而言,人工智能發(fā)展是主旋律,但是人工智能的健康發(fā)展,一定是治理和發(fā)展雙輪驅(qū)動(dòng)。“智源人工智能研究院安全倫理研究中心布局的重要項(xiàng)目就是從技術(shù)的角度來(lái)解決人工智能模型當(dāng)中存在的風(fēng)險(xiǎn)問(wèn)題,而不僅僅是停留在倫理原則上的討論?!痹阏f(shuō)。

曾毅:人工智能真正的風(fēng)險(xiǎn)就在當(dāng)下

人臉識(shí)別技術(shù)(圖片來(lái)自網(wǎng)絡(luò))

此外,曾毅還提出兩點(diǎn)建議:一方面,不管是企業(yè)、科研機(jī)構(gòu)、還是政府,在指導(dǎo)人工智能發(fā)展的時(shí)候,應(yīng)該建立不同層級(jí)的人工智能倫理和治理委員會(huì)。另外一方面,應(yīng)該號(hào)召國(guó)家建立人工智能服務(wù)和產(chǎn)品的監(jiān)管平臺(tái)?!叭缃竦陌l(fā)展模式是企業(yè)做完產(chǎn)品上線,一旦出了問(wèn)題,有關(guān)部門再去約談,像前一段時(shí)間的換臉軟件就是這樣的。如果有監(jiān)管平臺(tái),企業(yè)將用戶知情同意書傳上來(lái),立刻就能發(fā)現(xiàn)其中的哪些原則違反了國(guó)家的法律或者是人工智能發(fā)展的原則,就可以在產(chǎn)生社會(huì)負(fù)面影響之前,規(guī)避掉存在的風(fēng)險(xiǎn)?!?/p>

保持對(duì)人工智能發(fā)展的敬畏和理性,是非常關(guān)鍵的。曾毅呼吁提升人工智能的技術(shù)人員對(duì)于風(fēng)險(xiǎn)和倫理問(wèn)題的重視,使得他們真正在開(kāi)發(fā)人工智能的時(shí)候,心中有紅線;在發(fā)展的方向上保證他們創(chuàng)造的人工智能產(chǎn)品向著對(duì)人類有益的方向發(fā)展。(記者 張蕃)

受訪專家:中科院自動(dòng)化研究所研究員、智源人工智能倫理與安全研究中心主任曾毅

本文來(lái)自:中國(guó)數(shù)字科技館