從數(shù)學(xué)悖論中折射出的AI極限

科技體
深度學(xué)習(xí)是一種用于模式識(shí)別的人工智能技術(shù),這是一種正全面進(jìn)入科學(xué)計(jì)算領(lǐng)域的成功技術(shù)。我們常在許多令人矚目的新聞標(biāo)題中看到它的身影,比如說(shuō)它能夠比醫(yī)生更準(zhǔn)確地診斷疾病,又比如說(shuō)它能通過(guò)自動(dòng)駕駛預(yù)防交通事故等等。然而,許多深度學(xué)習(xí)系統(tǒng)是不值得信任的,它們很容易被愚弄。

人工智能的致命弱點(diǎn)

深度學(xué)習(xí)是一種用于模式識(shí)別的人工智能技術(shù),這是一種正全面進(jìn)入科學(xué)計(jì)算領(lǐng)域的成功技術(shù)。我們常在許多令人矚目的新聞標(biāo)題中看到它的身影,比如說(shuō)它能夠比醫(yī)生更準(zhǔn)確地診斷疾病,又比如說(shuō)它能通過(guò)自動(dòng)駕駛預(yù)防交通事故等等。然而,許多深度學(xué)習(xí)系統(tǒng)是不值得信任的,它們很容易被愚弄。

這使得人工智能系統(tǒng)就像一些過(guò)度自信的人類一樣,常常具有遠(yuǎn)超其實(shí)際能力的自信。而人類還比較善于發(fā)現(xiàn)自己的錯(cuò)誤,但許多人工智能根本無(wú)法知道自己在什么時(shí)候犯了錯(cuò)。對(duì)人工智能系統(tǒng)來(lái)說(shuō),有時(shí)意識(shí)到自己犯了錯(cuò)甚至比產(chǎn)生一個(gè)正確的結(jié)果還要困難。

這種不穩(wěn)定性是現(xiàn)代人工智能的致命弱點(diǎn),也是一個(gè)悖論。這個(gè)悖論可以追溯到20世紀(jì)的兩位數(shù)學(xué)巨匠——圖靈(Alan Turing)和哥德?tīng)枺↘urt Gdel)。20世紀(jì)初,數(shù)學(xué)家們正試圖證明數(shù)學(xué)是統(tǒng)一科學(xué)的終極語(yǔ)言。然而,圖靈和哥德?tīng)柊l(fā)現(xiàn)了數(shù)學(xué)核心的一個(gè)悖論:某些數(shù)學(xué)命題的真?zhèn)问遣豢赡鼙蛔C明的,而有些計(jì)算問(wèn)題也無(wú)法用算法來(lái)解決。

到了20世紀(jì)末,數(shù)學(xué)家斯蒂芬·斯梅爾(Steve Smale)提出了18個(gè)當(dāng)時(shí)未解數(shù)學(xué)問(wèn)題的清單,其中的最后一問(wèn)所探討的就是人類和機(jī)器的智能極限。這個(gè)問(wèn)題至今沒(méi)有得到解決,不過(guò)它將圖靈和哥德?tīng)栕钕忍岢龅你U搸肓巳斯ぶ悄艿氖澜纾簲?shù)學(xué)存在固有的基本極限,類似地,人工智能算法也有無(wú)法解決的問(wèn)題。

人工智能的固有極限

一項(xiàng)新的研究表明,人工智能普遍存在固有的極限,而這種極限可歸結(jié)于這個(gè)長(zhǎng)達(dá)世紀(jì)之久的數(shù)學(xué)悖論。研究人員通過(guò)擴(kuò)展哥德?tīng)柡蛨D靈提出的方法,展示了計(jì)算神經(jīng)網(wǎng)絡(luò)的算法所存在的極限。他們提出了一種分類理論,描述了在特定條件下,可以訓(xùn)練神經(jīng)網(wǎng)絡(luò)來(lái)提供可信的人工智能系統(tǒng)的情況。

研究結(jié)果被發(fā)表在了近期的《美國(guó)國(guó)家科學(xué)院院刊》上。新研究指出,穩(wěn)定、精確的神經(jīng)網(wǎng)絡(luò)存在問(wèn)題,且沒(méi)有算法可以產(chǎn)生這樣的網(wǎng)絡(luò)。只有在特定的情況下,算法才能計(jì)算出穩(wěn)定、精確的神經(jīng)網(wǎng)絡(luò)。

神經(jīng)網(wǎng)絡(luò)是人工智能領(lǐng)域最先進(jìn)的工具,之所以稱之為“神經(jīng)網(wǎng)絡(luò)”,是因?yàn)樗菍?duì)大腦神經(jīng)元之間的聯(lián)系的一種大致模擬。在新研究中,研究人員表示雖然在某些情況下,良好的神經(jīng)網(wǎng)絡(luò)可以存在,但由于這種悖論的存在,我們無(wú)法創(chuàng)建一個(gè)固有可靠的神經(jīng)網(wǎng)絡(luò)。換句話說(shuō),無(wú)論我們用于構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)有多么準(zhǔn)確,都永遠(yuǎn)無(wú)法獲得構(gòu)建這個(gè)神經(jīng)網(wǎng)絡(luò)所需的完美信息。

與此同時(shí),無(wú)論對(duì)多少數(shù)據(jù)的進(jìn)行訓(xùn)練,也都不可能計(jì)算出良好的現(xiàn)有神經(jīng)網(wǎng)絡(luò)。無(wú)論一個(gè)算法能訪問(wèn)多少數(shù)據(jù),它都不會(huì)生成所需的網(wǎng)絡(luò)。這一點(diǎn)與圖靈的觀點(diǎn)類似:無(wú)論計(jì)算能力和運(yùn)行時(shí)間如何,都存在無(wú)法解決的計(jì)算問(wèn)題。

研究人員表示,并不是所有的人工智能都有固有缺陷。在某些情況下,人工智能犯錯(cuò)誤是完全沒(méi)有問(wèn)題的,但它需要誠(chéng)實(shí)面對(duì)這些問(wèn)題。然而,這并不是我們?cè)谠S多系統(tǒng)中所看到的情況。

理解人工智能的基礎(chǔ)

當(dāng)我們嘗試一些東西發(fā)現(xiàn)它不起作用時(shí),可能會(huì)加點(diǎn)其他東西希望它能起作用,然而如果當(dāng)加到一定程度時(shí)仍不能得到想要的,我們就會(huì)選擇嘗試不同的方法。理解不同方法具有各自的極限是很重要的。現(xiàn)在,人工智能正處于其實(shí)際成功遠(yuǎn)遠(yuǎn)領(lǐng)先其理論和對(duì)其理解的階段,因此我們急需能夠理解人工智能計(jì)算基礎(chǔ)來(lái)彌補(bǔ)這一差距。

2345截圖20211028093243.png

當(dāng)20世紀(jì)的數(shù)學(xué)家發(fā)現(xiàn)不同的悖論時(shí),他們并沒(méi)有停止對(duì)數(shù)學(xué)的研究。他們必須找到新的道路,因?yàn)樗麄兠靼灼渲械臉O限。相應(yīng)地,在人工智能領(lǐng)域,這或許意味著需要改變路徑或開(kāi)發(fā)新的路徑,從而構(gòu)建出能以可靠且透明的方式解決問(wèn)題的,并同時(shí)了解它們的極限的系統(tǒng)。

研究人員的下一個(gè)階段是將近似理論、數(shù)值分析和計(jì)算基礎(chǔ)結(jié)合起來(lái),來(lái)確定哪些神經(jīng)網(wǎng)絡(luò)是可以通過(guò)算法計(jì)算的,以及哪些神經(jīng)網(wǎng)絡(luò)是可以變得穩(wěn)定和可信的。正如哥德?tīng)柡蛨D靈提出的關(guān)于數(shù)學(xué)和計(jì)算機(jī)極限的悖論帶來(lái)的豐富的基礎(chǔ)理論,也許類似的基礎(chǔ)理論可能會(huì)在人工智能中開(kāi)花結(jié)果。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無(wú)評(píng)論