應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

AI殺人,誰該為此負責(zé)?

2018-03-23 10:02 獵云網(wǎng)
關(guān)鍵詞:人工智能機器人

導(dǎo)讀:試想一下:現(xiàn)在是2023年,路上全是無人駕駛汽車。不幸的是,其中一輛撞死了行人,釀成了自普及以來的第一起事故,因而登上了各家報紙和媒體的頭版頭條。那么,在這場勢必會備受矚目的交通事故訴訟案中,應(yīng)該應(yīng)用什么樣的法律法規(guī)?

123.jpg

  試想一下:現(xiàn)在是2023年,路上全是無人駕駛汽車。不幸的是,其中一輛撞死了行人,釀成了自普及以來的第一起事故,因而登上了各家報紙和媒體的頭版頭條。那么,在這場勢必會備受矚目的交通事故訴訟案中,應(yīng)該應(yīng)用什么樣的法律法規(guī)?

  以往,這個問題我們是完全沒有想過的。但好在,來自英國布萊頓大學(xué)的John Kingston,為我們提供了一些思路和答案。他為我們分析了這個尚處于早期發(fā)展階段的法律領(lǐng)域,同時也提出了一些相對而言較為重要的問題,希望汽車行業(yè)、計算領(lǐng)域和法律界能夠認真去尋找相應(yīng)的解決方案。

  其實,在上述設(shè)想情形中,我們所要爭論的核心問題,就是人工智能系統(tǒng)是否需要為其不當行為或帶來的嚴重后果承擔特定的刑事責(zé)任。Kingston指出,來自以色列非營利學(xué)術(shù)機構(gòu)Ono Academic College的Gabriel Hallevy,已經(jīng)針對這一問題進行了較為詳細的分析以及較為深入的探討。

  通常情況下,刑事責(zé)任的界定,同時需要心理層面上的意圖和生理層面上的行為。用法律行話來說,就是既需要犯罪行為,也需要犯罪意圖。根據(jù)Kingston的介紹,Hallevy主要列出了三種適用于人工智能系統(tǒng)的場景。

  首先,第一種情形就是借助他人實施攻擊或犯罪。簡單地說,如果實施攻擊的一方,是心理上存在缺陷的人或動物,那么就應(yīng)該判定為無罪。但如果有人故意教唆心理上存在缺陷的人或動物去攻擊他人,那么這個教唆者就應(yīng)該判定為有罪。舉個例子,如果狗主人誘導(dǎo)自己的狗去攻擊其他人,那么狗主人就應(yīng)判為有罪,因而要承擔相應(yīng)的法律責(zé)任。

  同樣的道理,放到人工智能系統(tǒng)上來。如果那些設(shè)計智能機器或者使用智能機器的人,存在某種攻擊他人的意圖,那就另當別論了。用Kingston的話說:“按理說,某款人工智能程序本身應(yīng)該是沒有任何思維能力的,所以一旦出了事是應(yīng)該判定無罪的。但它背后的軟件程序員或用戶,如果涉及故意攻擊之嫌,那就應(yīng)該判定有罪?!?/p>

  其次,第二種情形就是我們通常所說的自然可能后果。具體說來,就是指有人不正當利用人工智能系統(tǒng)的普通行為操作,轉(zhuǎn)而用來實施攻擊或犯罪行為。 Kingston列舉了一個日本人工智能機器人的案例,當時那個來自摩托車廠的機器人殺死了一名員工。他解釋道:“當時,那個機器人誤以為員工對自己要完成的任務(wù)造成了威脅,因而就啟動了計算程序,想要找到最為高效的方式來消除這一威脅,所以就利用自己的液壓工作臂把那名員工推進了旁邊正在運作的機器中,導(dǎo)致員工當場死亡。隨后,機器人又轉(zhuǎn)身繼續(xù)去執(zhí)行自己的任務(wù)?!?/p>

  所以,在這種情況下,最為關(guān)鍵的問題,就是該機器人的編碼人員是否事先預(yù)料到了這樣一種可能會出現(xiàn)的結(jié)果。

  最后,第三種情形就是直接責(zé)任。與第一種一樣,這也需要同時具備犯罪行為和犯罪意圖。如果人工智能系統(tǒng)采取的行動直接導(dǎo)致了犯罪行為的出現(xiàn),或者說是在原本應(yīng)該采取行動的時候,它卻沒能及時采取行動,那么在犯罪行為這個問題上,證明起來就比較簡單了。

  但是,想要明確界定第二個條件犯罪意圖,還是存在一定難度的。但Kingston介紹說,這也是有一定規(guī)律可循的。他表示:“從嚴格意義上來說,超速行駛就是一種犯罪行為,是需要承擔特定法律責(zé)任的。因此,從Hallevy的分析中可以看出,如果我們發(fā)現(xiàn)某輛無人駕駛汽車出現(xiàn)了超速上路的情況,那么法律法規(guī)是非常有可能對其背后的人工智能程序追究刑事責(zé)任的?!倍c此同時,這輛無人駕駛汽車的車主,可能就不需要承擔法律責(zé)任了。

  接著,證明程序過后,還有一個辯護的問題。如果某一人工智能系統(tǒng)需要承擔特定的刑事責(zé)任,那么應(yīng)該采用哪些法律手段來進行辯護呢?Kingston列出了兩種可能性:第一,如果某一程序出現(xiàn)了些許故障,那么是否能夠按照人類精神失常的情況來辯護呢?第二,如果某一人工智能系統(tǒng)遭到了電子病毒的感染,那么是否能夠按照脅迫或者醉酒的情況來辯護呢?

  而且,我們不得不說,利用這些法律手段來為人工智能系統(tǒng)進行辯護,絕對不只是停留在理論層面上而已。Kingston重點介紹了幾起發(fā)生在英國的訴訟案件,其中一些原本遭到計算機犯罪指控的人到最后贏得了辯護勝利。那些人的計算機遭到了惡意軟件的破壞和影響,因此應(yīng)該承擔相應(yīng)法律責(zé)任的,是那些惡意軟件,而非計算機的主人。

  另外,還有一起案件。主人公是一位年輕的計算機黑客,他被指執(zhí)行了所謂的拒絕服務(wù)攻擊。但據(jù)他介紹,自己不應(yīng)該承擔所帶來后果的法律責(zé)任,因為罪魁禍首是一款實施完攻擊行為就自行清除了所有數(shù)據(jù)信息的特洛伊木馬程序。當時,那位年輕黑客的律師就成功說服了庭審的陪審團,最后幫他拿到了無罪的辯護結(jié)果。

  文章的最后,主要就是介紹一下定罪之后的懲罰問題。如果說某一人工智能系統(tǒng)需要承擔直接責(zé)任,那么誰或者什么需要因它而受到懲罰?再有,具體會通過什么樣的形式來接受懲罰?反正就目前而言,這些問題都還沒有一個明確的答案。

  但大致可以肯定的是,絕對不能用刑事法律來規(guī)定懲罰,所以還是需要選擇民事法律。這樣一來,就又出現(xiàn)了一個比較重要的問題,那就是人工智能系統(tǒng)到底是一項服務(wù)還是一款產(chǎn)品。

  舉個例子,如果它是一款產(chǎn)品的話,那可能就應(yīng)該選擇相應(yīng)的產(chǎn)品設(shè)計法律法規(guī)作為評判基礎(chǔ)??扇绻且豁椃?wù)的話,那可能就應(yīng)該選擇相應(yīng)的過失侵權(quán)法律法規(guī)作為評判基礎(chǔ)。因而在這種情況下,原告往往需要通過三大要素的明確陳述,來證明自己完全是過失行為。

  首先,就是被告存在所謂的照顧義務(wù)。一般情況下,這一點證明起來是比較簡單直接的。不過,根據(jù)Kingston的介紹,在人工智能系統(tǒng)的法律案件中,想要正確評估照顧的標準,可能是比較困難的。其次,就是被告違反了這樣一項照顧義務(wù)。最后,就是被告對這一照顧義務(wù)的違法行為,給原告帶來了比較嚴重的傷害。

  如果說完所有這些,還是有一些不清楚又不明確的地方,那么未來人工智能系統(tǒng)在法律體系中的地位,可能會隨著自己內(nèi)部功能的完善升級而發(fā)生改變,到時候它們將會更像人類,甚至?xí)^人類。

  但是,有一件事情我們可以肯定:在接下來的幾年當中,對于律師或者可能會代替律師的人工智能系統(tǒng)來說,上述所有這一切很可能會帶來更多趣味。