導(dǎo)讀:當(dāng)人們談?wù)撐磥淼娜斯ぶ悄軙r,會出現(xiàn)一些恐慌——比如,它可以教會自己學(xué)習(xí),并變得比我們?nèi)祟愃芾斫獾娜魏螙|西都更先進。
當(dāng)人們談?wù)撐磥淼娜斯ぶ悄軙r,會出現(xiàn)一些恐慌——比如,它可以教會自己學(xué)習(xí),并變得比我們?nèi)祟愃芾斫獾娜魏螙|西都更先進。在錯誤的人手中,甚至可能是自己的,這樣一種先進的算法可能會統(tǒng)治世界各國政府和軍隊,賦予奧威爾式的監(jiān)視、操縱和社會控制,甚至可以控制諸如軍用無人機等自主致命武器的整個戰(zhàn)場。
但一些人工智能專家并不認(rèn)為這些擔(dān)憂有根據(jù)。事實上,高度先進的人工智能可能比人類更擅長管理世界。這些恐懼本身才是真正的危險,因為它們可能阻礙我們將這種潛力變?yōu)楝F(xiàn)實。
“也許沒有實現(xiàn)人工智能是人類面臨的危險,”Facebook人工智能的研究科學(xué)家托馬斯?米科洛夫在上周六于布拉格舉行的“人類水平人工智能”聯(lián)合會議上表示。
米科洛夫解釋說,作為一個物種,人類在做出對我們有利的選擇方面是相當(dāng)糟糕的。人們已經(jīng)將雨林和其他生態(tài)系統(tǒng)分割開,以獲取原材料,不知道也不關(guān)心它們是如何導(dǎo)致地球整體緩慢而又不可逆轉(zhuǎn)的退化的。
但是,一個高級人工智能系統(tǒng)或許能夠保護人類不受其自身短視的殘害。
米科洛夫補充說:“我們作為人類,非常不善于預(yù)測在某個遙遠(yuǎn)的時間線上會發(fā)生什么,也許從現(xiàn)在起20到30年?!薄耙苍S讓人工智能比我們自己更聰明,在某種共生關(guān)系中,可以幫助我們避免未來的災(zāi)難?!?/p>
當(dāng)然,米科洛夫認(rèn)為一個優(yōu)秀的人工智能實體將是仁慈的,這可能是少數(shù)派。在整個會議過程中,許多其他發(fā)言者表達了這些共同的恐懼,主要是關(guān)于人工智能被用于危險的目的,或者被惡意的人類行為者濫用。我們不應(yīng)該嘲笑或輕視這些擔(dān)憂。
我們不確定是否有可能創(chuàng)造出通用人工智能,通常被認(rèn)為是復(fù)雜人工智能的圣杯,它能夠做任何人類能做的任何認(rèn)知任務(wù),甚至可能做得更好。
先進人工智能的未來充滿希望,但它帶來了許多倫理問題,甚至是意想不到的問題。
但是,HLAI會議的大多數(shù)與會者都認(rèn)為,在我們需要這些規(guī)則之前,我們?nèi)匀恍枰⒁?guī)則。政府、私營企業(yè)和學(xué)術(shù)界建立國際協(xié)議、倫理委員會和監(jiān)管機構(gòu),應(yīng)該將這些機構(gòu)和協(xié)議落實到位,減少敵對政府、不知情的研究人員,甚至是一個瘋狂科學(xué)家將會釋放惡意的人工智能系統(tǒng),或者將先進的算法武器化的可能性。如果有什么不好的事情發(fā)生了,那么這些系統(tǒng)就會確保我們有辦法處理它。
有了這些規(guī)則和保障措施,我們將更有可能在先進的人工智能系統(tǒng)中與我們和諧相處,甚至可能拯救我們自己。