理解AI:為什么要在人工智能系統(tǒng)中尋求可解釋性呢?

讀芯術(shù)
或許這是你第一次聽到人工智能前面加“可解釋的”這個形容詞,但其實它的涵義你一定能理解。可解釋的人工智能(XAI)是指構(gòu)建AI應(yīng)用程序的技術(shù)和方法,人們借此以理解它們做出特定決策的原因。換句話說,如果我們可以從AI系統(tǒng)獲得有關(guān)其內(nèi)部邏輯的解釋,則該系統(tǒng)可視為可解釋的人工智能系統(tǒng)。

1.jpg

圖源:unsplash

或許這是你第一次聽到人工智能前面加“可解釋的”這個形容詞,但其實它的涵義你一定能理解??山忉尩娜斯ぶ悄埽╔AI)是指構(gòu)建AI應(yīng)用程序的技術(shù)和方法,人們借此以理解它們做出特定決策的原因。換句話說,如果我們可以從AI系統(tǒng)獲得有關(guān)其內(nèi)部邏輯的解釋,則該系統(tǒng)可視為可解釋的人工智能系統(tǒng)。

可解釋性是一個新的屬性,在人工智領(lǐng)域初露鋒芒。首先,讓我們深入探討一下這個問題的技術(shù)根源。

人工智能是改善生活的增強器

無可置疑,技術(shù)進步便于人們獲得更優(yōu)質(zhì)的服務(wù)。技術(shù)是我們生活中不可或缺的一部分,而且不管你喜歡與否,它對生活的影響只會越來越大。

繼計算機和互聯(lián)網(wǎng)之后,人工智能再次改變了我們的生活。從五六十年代數(shù)學(xué)領(lǐng)域的奮力嘗試,到九十年代的專家系統(tǒng),再到現(xiàn)在人類在AI領(lǐng)域取得的成果——可乘坐自動駕駛汽車,使用谷歌翻譯與外國人交流,利用各種應(yīng)用程序修圖,使用智能推薦算法尋找最佳餐廳等等。毫無疑問,人工智能對我們生活的影響力正在逐步提高,成為生活中不可或缺的一部分。

但與此同時,人工智能系統(tǒng)錯綜復(fù)雜,普通用戶幾乎無法理解其工作原理。我確信只有不到1%的谷歌翻譯用戶知道它是如何工作的,但我們?nèi)孕湃尾V泛使用該系統(tǒng)。但我們應(yīng)該了解AI系統(tǒng)的運行路徑,或者至少,能夠在必要的時候獲取其有關(guān)信息。

過于注重準確性

數(shù)百年來,數(shù)學(xué)家和統(tǒng)計學(xué)家一直在研究傳統(tǒng)的機器學(xué)習(xí)算法,如線性回歸、決策樹和貝葉斯網(wǎng)絡(luò)。這些算法直觀易懂,且發(fā)展成熟,基于其中任何一項傳統(tǒng)算法進行的決策,都十分容易解釋,但它們的精確度卻十分有限。因此,我們的傳統(tǒng)算法雖解釋性高,但成就有限。

在麥卡洛克-皮茨神經(jīng)元之后,一切都改變了,這一發(fā)展促進了深度學(xué)習(xí)領(lǐng)域的創(chuàng)立。深度學(xué)習(xí)是人工智能的子領(lǐng)域,專注于利用人工神經(jīng)網(wǎng)絡(luò)復(fù)制大腦中神經(jīng)元細胞的工作機制。得益于強大的計算能力和優(yōu)化的開源深度學(xué)習(xí)框架,我們能夠構(gòu)建高精確性的復(fù)雜神經(jīng)網(wǎng)絡(luò)。

為達到盡可能高的精確度,人工智能研究人員開始競相研究。這些研究催生了許多出色的AI產(chǎn)品,但也有其弊端——低解釋性能力。

神經(jīng)網(wǎng)絡(luò)極其復(fù)雜,它們可以由數(shù)十億個參數(shù)來構(gòu)建。例如,Open AI革命性的NLP模型GPT-3有超過1750億的機器學(xué)習(xí)參數(shù),從這樣一個復(fù)雜的模型中獲取任何推理都是一個挑戰(zhàn)。

2.jpg

機器學(xué)習(xí)算法的準確性VS可解釋性

如圖所示,和深度學(xué)習(xí)模型相比,采用傳統(tǒng)算法會讓人工智能開發(fā)者損失慘重。而且隨著模型精確度日益增加,其解釋性愈加低效。但是,我們卻比以往任何時候都更需要可解釋性。原因如下:

· 越來越多的人工智能系統(tǒng)應(yīng)用于敏感領(lǐng)域

世界日新月異,比你想象得還要快。還記得上世紀端著步槍的戰(zhàn)爭么?現(xiàn)在人工智能無人機已經(jīng)能夠在沒有人類干預(yù)的情況下干掉任何人。一些軍隊已經(jīng)具備實現(xiàn)這些系統(tǒng)的能力,他們擔(dān)心的是無法解釋的結(jié)果,他們不想依賴于一些不明工作原理的系統(tǒng)。事實上,美國國防部高級研究計劃署已有一個正在進行的XAI項目。

另一個例子是自動駕駛汽車,特斯拉已實現(xiàn)自動駕駛。這對駕駛員來說是極大的幸事,但這也帶來巨大的責(zé)任。汽車在面臨道德困境時會怎么做?在這種情況下,它必須在兩害當(dāng)中取其輕。自動駕駛汽車是否應(yīng)該犧牲一條狗的生命來救一個路人?

AI系統(tǒng)的社會影響力不斷提升,我們需要了解它們?nèi)绾卧谝话闱闆r下以及在特定事件中做出決策。

· 人工智能的指數(shù)型發(fā)展可能會威脅人類生存

《終結(jié)者》很多人都看過,影片中展示了機器是如何變得有自我意識并可能毀滅人類。人工智能十分強大,它可以幫助人類成為一個多行星物種,也可以如世界末日般摧毀人類。

研究表明,超過30%的人工智能專家認為,實現(xiàn)人工通用智能的后果沒有更壞,只有最壞。要想預(yù)防災(zāi)難性的后果,最有力的武器就是了解人工智能系統(tǒng)的工作路徑,以便能夠運用制衡機制。

3.jpg

圖源:unsplash

· 解決有關(guān)人工智能的爭議需要依據(jù)和解釋

隨著過去兩個世紀人權(quán)和自由的發(fā)展,現(xiàn)行法律法規(guī)已要求在敏感領(lǐng)域要有一定程度的可解釋性。法律論證和推理領(lǐng)域也涉及可解釋性的界限問題。

人工智能應(yīng)用程序替代了一些傳統(tǒng)職業(yè),但這并不意味著它們的操控者不需要給出解釋。他們必須遵守同樣的規(guī)則,對服務(wù)軟件做出解釋。一般的法律原則要求在發(fā)生法律糾紛時操控者對自動決策給出解釋。例如,一輛特斯拉自動駕駛汽車撞上行人的情況。

但是,一般規(guī)定原則并不是強制性解釋的唯一理由,也有一些當(dāng)代的法律法規(guī)創(chuàng)造了不同形式的解釋權(quán)。歐盟的“通用數(shù)據(jù)保護條例”(GDPR)已經(jīng)定義了解釋權(quán),即個人接受自動化決策時,需要對人工智能系統(tǒng)的邏輯進行合理的解釋。

在美國,公民有權(quán)獲得對其信貸申請遭拒的解釋。事實上,正如前文圖中所預(yù)見的那樣,這一權(quán)利迫使信用評分公司在對其客戶評分時采用回歸模型(更具解釋力),以便他們能夠提供強制性解釋。

· 消除人工智能系統(tǒng)中的歷史偏差需要解釋性

從歷史上看,人類對于不同群體的歧視從未停止,這也反映在收集的數(shù)據(jù)中。開發(fā)人員訓(xùn)練人工智能模型時,會把人工智能中帶有偏見和歧視的因素輸入到歷史數(shù)據(jù)中。如果我們的觀察有種族偏見,模型在做預(yù)測時也會投射出這些偏見。

巴特利(Bartlett)的研究表明,在美國,至少有6%的少數(shù)族裔的信貸申請因為純粹的歧視而遭受拒絕。因此,用這些有偏見的數(shù)據(jù)來訓(xùn)練信用申請系統(tǒng)將會對少數(shù)族裔產(chǎn)生毀滅性的影響。作為社會中一員,我們必須了解算法如何工作,人類如何能夠消除偏見,以便保證社會自由、平等和博愛。

· 自動化的商業(yè)決策需要可靠性和信任

從財務(wù)角度來看,可解釋性也是有意義的。利用人工智能系統(tǒng)為公司的銷售和營銷工作推薦特定方案時,你可能想知道其推薦理由。而決策者要對方案負責(zé),所以必須清楚采取該方案的原因。這對于實體企業(yè)和金融企業(yè)都具有重要意義,尤其是在金融市場,一個錯誤的決策會讓公司損失慘重。

4.jpg

圖源:unsplash

人們需要可解釋AI的原因來自不同的學(xué)科和領(lǐng)域,包括社會學(xué)、哲學(xué)、法律、倫理學(xué)和商業(yè)界,這足以見得這種需求的廣泛性和急迫性。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論