人工智能(AI)和道德倫理的標準在哪里?

黃先生斜杠青年
AI倫理領域通常分為兩個領域:一個涉及指導開發(fā)人工智能的人類的倫理學,另一個涉及指導人工智能或機器人自身道德行為的機器倫理學。然而,這兩個領域并不是那么容易分得開。

使用一套開發(fā)人工智能的原則真的有用嗎?

2345截圖20211028093243.png

來源:Conyl Jay/Getty Images

我們如何創(chuàng)造“好的”人工智能,機器合乎道德意味著什么,我們如何在道德的基礎之上使用人工智能?Good in the Machine——2019年SCINEMA國際科學電影節(jié)的參賽作品——深入研究了這些問題,我們道德的起源,以及人工智能和我們自己的道德指引之間的相互作用。

鑒于過去幾年有言論對人工智能的未來發(fā)出可怕的警告,人工智能倫理學領域已成為研究的重中之重。

這些警告來自牛津大學的尼克·博斯特羅姆等各種專家,也有來自埃隆·馬斯克和已故斯蒂芬·霍金等更多公眾人物的警告。

作為回應,有些人制定了一套原則來指導人工智能研究人員,并幫助他們談判人類道德和倫理的難題。

AI倫理領域通常分為兩個領域:一個涉及指導開發(fā)人工智能的人類的倫理學,另一個涉及指導人工智能或機器人自身道德行為的機器倫理學。然而,這兩個領域并不是那么容易分得開。

機器倫理學歷史悠久。1950年,偉大的科幻作家Isaac Asimov在他的作品《機器人》中明確闡述了他著名的“機器人三定律”,并提出了這樣的建議:

機器人不得傷害人,或通過不作為允許人受到傷害。

機器人必須服從人類賦予它的命令,除非此類命令與第一定律相沖突。

只要這種保護不與第一或第二定律沖突,機器人必須保護自己的存在。

這些法律標準加在一起是阿西莫夫(和編輯約翰·W·坎貝爾)思考如何確保人工智能系統(tǒng)不會讓其創(chuàng)建者過于興奮(避免生產(chǎn)不安全或不受控制的人工智能)。

2004年,改編自《I,Robot》的電影上映,以人工智能為特色,該人工智能對三條法律的解釋導致了一項統(tǒng)治人類的計劃。

近幾年大火的西部世界也是如此。(注:本人最喜歡的美劇之一)。

為了突出這三條法律的道德原則的缺陷,一個由美國人工智能研究員Eliezer Yudkowsky領導的名為人工智能奇點研究所(現(xiàn)為機器智能研究所)的組織啟動了一個名為“三法不安全”的在線項目。

2345截圖20211028093243.png

來源:Alex Gotfryd/CORBIS/Corbis

艾薩克·阿西莫夫在1950年闡述了他的“機器人三定律”。

Yudkowsky是超級智能人工智能的早期理論家,也是友好人工智能思想的支持者,他認為,如果人工智能發(fā)展到阿西莫夫小說中描繪的階段,這些原則將毫無希望地簡單化了。

盡管這三項法律的缺點得到了廣泛承認,但從私營企業(yè)到政府,許多組織仍然堅持實施開發(fā)基于原則的人工智能道德系統(tǒng)的項目,其中一份文件列出了迄今為止發(fā)布的“84份包含人工智能道德原則或準則的文件”。

這種對倫理原則的持續(xù)關注的部分原因是,雖然這三條法律旨在僅管理人工智能行為,但人工智能倫理原則上適用于人工智能研究人員以及他們開發(fā)的智能。AI的道德行為部分反映了設計和實施它們的人的道德行為,正因為如此,AI道德的兩個領域密不可分。

如果我們要避免人工智能批評者設想的一些更災難性的情況,人工智能開發(fā)需要強有力的道德指導。

國際非營利組織Atomium-歐洲科學、媒體和民主研究所發(fā)起的AI4People于2018年發(fā)表的一份評論報告稱,其中許多項目制定了與醫(yī)學倫理學非常相似的一套原則:慈善(只做好事)、非惡意(不傷害)、自治(人類做出個人決定的權力)和正義。

對一些人來說,這種趨同為這些作為未來發(fā)展人工智能的可能指導原則提供了極大的可信度。

然而,牛津互聯(lián)網(wǎng)研究所和英國政府艾倫·圖靈研究所的布倫特·米特爾施塔特(Alan Turing Institute)認為,這種方法被稱為“原則主義”,并不像看起來那么有希望。

醫(yī)學和人工智能研究領域之間存在顯著差異,這可能會破壞前者在后者背景下的道德原則的有效性。

他的第一個論點涉及共同的目標和信托義務,即醫(yī)生等值得信賴的專業(yè)人士將他人利益置于自身利益之上的職責。醫(yī)學顯然與促進患者健康和福祉的共同目標聯(lián)系在一起,這是“一個職業(yè)質量的定義,使其從業(yè)者成為具有共同目標、價值觀和培訓的‘道德社區(qū)’的一部分”。

然而,對于人工智能研究領域來說,情況并非如此。“人工智能主要由私營部門開發(fā),用于公共(例如刑事判決)和私人(例如保險)等”。“開發(fā)人員、用戶和受影響方的基本目標不一定一致。”

同樣,私人人工智能研究中不存在職業(yè)的信托義務及其治理機制。

“人工智能開發(fā)人員不致力于公共服務,在其他職業(yè)中,公共服務要求從業(yè)者在競爭的業(yè)務或管理利益面前維護公共利益”。在人工智能研究中,“公共利益不優(yōu)先于商業(yè)利益”。

在一個相關點上,雖然醫(yī)學的專業(yè)文化規(guī)定了可以追溯到古希臘醫(yī)生的必要道德義務和美德,但“人工智能的發(fā)展沒有可比的歷史、同質的職業(yè)文化和身份,也沒有類似的職業(yè)道德框架”。

醫(yī)學已經(jīng)很久沒有時間從希波克拉底傳統(tǒng)提供的最低限度指導的缺點中吸取教訓。作為回應,它將適當行為編纂為現(xiàn)代原則主義,為更全面、更令人滿意的道德指導提供了指導。

人工智能研究顯然是一個年輕得多的領域,缺乏這些豐富的歷史學習機會。使問題進一步復雜的是,醫(yī)學的應用背景相對較窄,而“人工智能原則上可以在涉及人類專業(yè)知識的任何背景下部署”,導致其具有根本性的多學科和跨學科性,研究人員來自“不同的學科和專業(yè)背景,具有不協(xié)調的歷史、文化、激勵結構和道德義務”。

這使得制定除了“廣泛接受的原則來指導負責人工智能開發(fā)、部署和治理的人和流程跨越截然不同的使用環(huán)境”外,非常困難。問題在于將這些轉化為實際的良好做法。“在這個抽象的層面上,“有意義的指導可能是不可能的。”

最后,人工智能研究中“相對缺乏法律和專業(yè)問責機制”。在醫(yī)學有多層次的法律和專業(yè)保護來維護專業(yè)標準的地方,人工智能開發(fā)中基本上不存在此類東西。研究表明,道德守則本身不會導致道德行為,這些守則不會“嵌入組織文化并得到積極的執(zhí)行”。

“不能認為對自我監(jiān)管框架的嚴肅和長期承諾是理所當然的”。

人工智能研究需要在組織層面建立“具有約束力和高度可見的問責結構”,并鼓勵該領域的實際道德實踐為更高級別的原則提供信息,而不僅僅是依賴自上而下的原則主義。同樣,關注組織道德而不是職業(yè)道德,同時呼吁人工智能開發(fā)專業(yè)化(部分領域通過向高風險的人工智能開發(fā)人員發(fā)放許可證)。

對人工智能倫理學未來的最終建議是敦促人工智能研究人員不要將倫理問題視為需要“解決”的設計問題。“假設非常古老和復雜的規(guī)范問題僅靠技術修復或良好的設計就可以解決,那就是太天真了”。

相反,“應該期待和歡迎棘手的原則分歧,因為它們既反映了嚴肅的道德考慮,也反映了思想的多樣性。它們不代表失敗,也不需要“解決”。道德是一個過程,而不是目的地。人工智能倫理的真正工作現(xiàn)在才剛剛開始,實施我們的最崇高的原則,未來任重道遠。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論