如何應(yīng)對人工智能幻覺?

將人工智能產(chǎn)生的不準(zhǔn)確信息描述為幻覺,是隱喻性地借鑒了這個(gè)概念。機(jī)器人可能并不夢想成為電子羊,但可能會制造出這樣的想法:它們存在于合適的環(huán)境中。這個(gè)詞最早出現(xiàn)在一次面部和手勢識別會議的論文中,后來被廣泛應(yīng)用。

本文來自千家網(wǎng)。

人工智能現(xiàn)在可以對看似怪異的人類問題做出回應(yīng)。但有時(shí),人工智能會給出答案。這些虛構(gòu)的反應(yīng)是真實(shí)的幻覺,還是別的什么?

1.png

要點(diǎn):

研究發(fā)現(xiàn),93%的受訪者認(rèn)為,人工智能幻覺可能會以某種方式導(dǎo)致實(shí)際傷害。

雖然ChatGPT可能是一種快捷工作方式,但更多人與Siri和Alexa交談,就好像是值得信賴的顧問一樣。

人工智能的反應(yīng)有可能影響人類生存的幾乎所有方面。

去年11月,當(dāng)OpenAI推出聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器(ChatGPT)時(shí),立即受到了世界各地用戶的測試。ChatGPT被視為一種革命性的研究工具和有趣的新奇事物。

一些人認(rèn)為它很有用——事實(shí)證明,人工智能聊天機(jī)器人擅長從不同的來源收集信息,并將其綜合成一種對話式的、易于理解的格式。但也有許多人發(fā)現(xiàn)自己面對的是不合邏輯的結(jié)論,甚至是徹頭徹尾的謊言。許多回應(yīng)都很滑稽——例如,盡管該平臺收集了公眾人物的出生和死亡日期,但無法明確說明其已經(jīng)死亡。

但也有令人不安的。ChatGPT發(fā)明了醫(yī)學(xué)研究,甚至將其與其他不相關(guān)論文的DOI(數(shù)字對象標(biāo)識符)聯(lián)系起來。這些令人困惑的結(jié)果被稱為人工智能幻覺——大型語言模型(LLM)生成的信息與現(xiàn)實(shí)的關(guān)系很脆弱。其中一些所謂的幻覺似乎完全是捏造的,而另一些則似乎是虛構(gòu)的,借鑒了已證實(shí)的事實(shí),但卻用垃圾來填補(bǔ)空白。

LLM以這種方式失敗的原因人們知之甚少。目前的觀點(diǎn)表明,無論如何稱呼,這些不準(zhǔn)確的反應(yīng)總是會出現(xiàn)在人工智能系統(tǒng)中,而人類的反饋對于確保它們不會完全脫軌至關(guān)重要。

此外,用于描述這些失敗的語言也越來越受到爭議。這些真的是人類經(jīng)歷過的幻覺嗎?如何才能糾正呢?

什么是人工智能幻覺?

根據(jù)2015年一篇關(guān)于精神病的調(diào)查文章:“幻覺被定義為在沒有相應(yīng)的外部或軀體刺激的情況下的感覺知覺,并根據(jù)其發(fā)生的感覺域進(jìn)行描述。無論是否了解幻覺的本質(zhì),幻覺都可能發(fā)生。”

將人工智能產(chǎn)生的不準(zhǔn)確信息描述為幻覺,是隱喻性地借鑒了這個(gè)概念。機(jī)器人可能并不夢想成為電子羊,但可能會制造出這樣的想法:它們存在于合適的環(huán)境中。這個(gè)詞最早出現(xiàn)在一次面部和手勢識別會議的論文中,后來被廣泛應(yīng)用。

在ChatGPT這樣的系統(tǒng)中,這些幻覺可以以各種形式出現(xiàn)。ChatGPT會對用戶輸入的提示做出反應(yīng)。正如Tidio的研究所述,它們可能直接與提示相矛盾,包括矛盾的句子或事實(shí),甚至完全捏造來源。在其他情況下,如在術(shù)語的原始用法中,它們也可以是視覺的,以視頻或圖像形式,或聽覺的。

人工智能幻覺有很多種類型,但所有這些都?xì)w結(jié)為同一個(gè)問題:混合和匹配它們接受過訓(xùn)練的數(shù)據(jù),以生成一些全新的錯(cuò)誤的東西。

這些幻覺反應(yīng)通常但并非總是表面上合理。這些模型旨在生成易于用戶理解的材料,因此即使是錯(cuò)誤的信息也會以自信、實(shí)事求是的方式呈現(xiàn)。因此,即使是幻覺也會被呈現(xiàn)得如同現(xiàn)實(shí)一樣。

真的是幻覺嗎?

機(jī)器產(chǎn)生的虛擬反應(yīng)和人類的感官現(xiàn)象之間的類比是顯而易見的:兩者都會產(chǎn)生不以現(xiàn)實(shí)為基礎(chǔ)的信息。就像經(jīng)歷幻覺的人可能會看到生動逼真的圖像或聽到讓人想起真實(shí)聽覺現(xiàn)象的聲音一樣,LLM可能會在其“頭腦”中產(chǎn)生看似真實(shí)但并非真實(shí)的信息。

然而,最近發(fā)表在《精神分裂癥公報(bào)》上的一篇文章對這種隱喻性的構(gòu)建提出了質(zhì)疑。作者聲稱:“這是一個(gè)不精確的比喻?;糜X是一個(gè)醫(yī)學(xué)術(shù)語,用來描述在沒有外部刺激的情況下產(chǎn)生的感覺知覺。人工智能模型不具備感官知覺,即使它們犯了錯(cuò)誤,也不會在沒有外部刺激的情況下發(fā)生。相反,訓(xùn)練人工智能模型的數(shù)據(jù)可以被視為外部刺激,引發(fā)(偶爾錯(cuò)誤的)反應(yīng)的提示也可以被視為外部刺激。”

他們進(jìn)一步認(rèn)為,使用“幻覺”一詞是對那些患有精神疾病并經(jīng)歷過真正幻覺的人的侮辱。他們建議使用“不合邏輯的”或“不相關(guān)的反應(yīng)”來代替。

還有‘人工智能誤解’、‘人工智能捏造’或‘人工智能謬誤’等選項(xiàng),人們會毫不猶豫地將其稱為幻覺。

然而,這些術(shù)語遠(yuǎn)沒有引起人們的共鳴,也不太可能引起人們對這個(gè)問題的關(guān)注。一些觀察家,包括IBM對該問題的總結(jié)的作者,堅(jiān)持認(rèn)為,盡管“幻覺”一詞不精確,但其使用相對準(zhǔn)確,并且具有隱喻意義。

為何會出現(xiàn)AI幻覺?

雖然人工智能幻覺的最終原因尚不清楚,但已經(jīng)出現(xiàn)了一些潛在的解釋。

這些現(xiàn)象通常與設(shè)計(jì)和測試期間數(shù)據(jù)提供不足有關(guān)。如果一開始就將有限數(shù)量的數(shù)據(jù)輸入模型,即使查詢依賴于對不同類型數(shù)據(jù)的理解,模型也將依賴該數(shù)據(jù)來生成未來的輸出。這稱為過度擬合,即模型針對某種類型的數(shù)據(jù)進(jìn)行了高度調(diào)整,但無法適應(yīng)新的數(shù)據(jù)類型。模型學(xué)到的概括對于原始數(shù)據(jù)集可能非常有效,但不適用于不相關(guān)的數(shù)據(jù)集。

當(dāng)模型沒有完全考慮詞義和語義結(jié)構(gòu)的變化時(shí),其本身也可能是一個(gè)問題。矢量編碼映射單詞和句子結(jié)構(gòu)的不同含義,試圖避免這些事件。如果模型不理解同義詞所產(chǎn)生的不同含義以及不同的部署方式,其就更有可能給出無意義或不準(zhǔn)確的響應(yīng)。

為什么人工智能幻覺是一個(gè)問題?

Tidio的研究對974人進(jìn)行了調(diào)查,發(fā)現(xiàn)93%的人認(rèn)為人工智能的幻覺可能會以某種方式導(dǎo)致實(shí)際傷害。與此同時(shí),近四分之三的人相信人工智能能為其提供準(zhǔn)確的信息——這是一個(gè)明顯的矛盾。

每天都有數(shù)百萬人使用人工智能。雖然ChatGPT可能對許多人而言是一種好奇,或者是一種快捷工作的方式,像許多學(xué)生試圖將ChatGPT撰寫的論文冒充為自己論文的例子,或更多的人與Siri和Alexa交談,就好像是值得信賴的顧問一樣。從家庭維修到醫(yī)療建議,用戶會求助于這些聲音悅耳的人工智能功能。通常,都會得到理性的、精心構(gòu)建的回應(yīng)。

但如果不這樣做?責(zé)任在哪里?與用戶一起信任人工智能?開發(fā)商沒有預(yù)見到這些情況?或者根本不存在——可以說漂浮在云中,仿佛不受其所影響的物質(zhì)現(xiàn)實(shí)的束縛?

人工智能的反應(yīng)有可能影響人類生存的幾乎所有方面,從選舉到有關(guān)大流行等社會危機(jī)的信息,再到法律體系。

近一半的Tidio受訪者認(rèn)為,應(yīng)該為開發(fā)者提供更強(qiáng)有力的立法指導(dǎo)方針,確保人工智能運(yùn)動的傲慢行為不會侵犯人類生存和呼吸的權(quán)利。

人工智能平臺已經(jīng)產(chǎn)生了相應(yīng)的不準(zhǔn)確和有偏見的信息。6月,紐約一家律師事務(wù)所代表其客戶提交了一起航空傷害訴訟的先例,結(jié)果證明其完全是由ChatGPT制造的,結(jié)果被處以5,000美元的罰款。2016年,Microsoft的Tay聊天機(jī)器人開始生成種族主義推文,導(dǎo)致該企業(yè)將其關(guān)閉。

許多試圖使用ChatGPT為其研究收集參考資料的醫(yī)學(xué)研究人員也表達(dá)了擔(dān)憂?!蹲匀弧冯s志《精神分裂癥》八月份的一篇社論對ChatGPT傾向于制作虛構(gòu)論文來支持一項(xiàng)主張的行為提出了嚴(yán)厲的控訴。在五次提到可能與抗精神病治療相關(guān)的特定大腦區(qū)域中,有三次完全是捏造的——這是人工智能幻覺的一個(gè)相當(dāng)元的例子,因?yàn)榫癫】赡軙?dǎo)致真正的幻覺。

一項(xiàng)更大規(guī)模的研究發(fā)現(xiàn),在ChatGPT生成的178條參考文獻(xiàn)中,28條根本不存在,41條不包含準(zhǔn)確的DOI。

如果人工智能用于實(shí)際醫(yī)療,醫(yī)生經(jīng)常需要返回文獻(xiàn)來尋找罕見或難以診斷的疾病的答案,這些類型的結(jié)果實(shí)際上可能是生死攸關(guān)的問題。

這些發(fā)現(xiàn)表明,LLM尚未準(zhǔn)備好進(jìn)行可能對現(xiàn)實(shí)世界造成嚴(yán)重有害影響的應(yīng)用。

如何減輕人工智能幻覺?

Tidio的研究發(fā)現(xiàn),近三分之一的LLM用戶直觀地發(fā)現(xiàn)了人工智能幻覺,近三分之二的人最終交叉引用了結(jié)果來確定。后一種趨勢在短期內(nèi)可能是一種可取之處——大多數(shù)人都知道,不要盲目地相信這些平臺。

人工智能平臺開發(fā)人員繼續(xù)使用此類人工輸入來訓(xùn)練其模型。一種已經(jīng)顯示出前景的方法被稱為過程監(jiān)督。OpenAI現(xiàn)在正在使用其來完善ChatGPT。過程監(jiān)督不是簡單地獎(jiǎng)勵(lì)正確答案(稱為結(jié)果監(jiān)督),而是微調(diào)用于實(shí)現(xiàn)結(jié)果的邏輯中的每個(gè)步驟。

其他研究建議擴(kuò)大這一范圍——將對反應(yīng)的分析進(jìn)行眾包,從而以指數(shù)方式提高人類對人工智能系統(tǒng)的反饋水平。當(dāng)然,這可能會很混亂。人類很容易有意無意地提供不準(zhǔn)確的信息,就像其傾向于糾正錯(cuò)誤一樣。偏見仍將是一個(gè)持續(xù)存在的問題。

在更廣泛地使用人工智能平臺之前,使用更廣泛的數(shù)據(jù)集也有助于減少幻覺反應(yīng)。如果模型熟悉廣泛的數(shù)據(jù),那么當(dāng)面臨挑戰(zhàn)其能力的問題時(shí),就不太可能失敗。并且這些數(shù)據(jù)集應(yīng)該不斷更新,確保模型敏捷并不斷主動學(xué)習(xí)。

確保偏見和事實(shí)核查機(jī)制從一開始就融入并積極維護(hù),也有助于確保答復(fù)的保真度。因此,積極激發(fā)模型產(chǎn)生幻覺,然后嘗試對其進(jìn)行逆向工程,可以揭示其最初發(fā)生的原因。2023年5月的一篇論文中引入的大型語言模型幻覺評估(HaluEval)基準(zhǔn)試圖做到這一點(diǎn),并教會模型識別自己的幻覺。這是一個(gè)棘手的命題,因?yàn)樽粉橪LM的邏輯可能非常具有挑戰(zhàn)性。

人工智能幻覺有好處嗎?

一些人認(rèn)為,人工智能的幻覺可能并不總是一件壞事,盡管其可能會導(dǎo)致錯(cuò)誤的結(jié)論,但也可能會導(dǎo)致不同的思維和概念之間以前未知的聯(lián)系,然后這些聯(lián)系可以被人類研究。

這在創(chuàng)意領(lǐng)域可能特別有用。藝術(shù)家、建筑師和游戲設(shè)計(jì)師也許能夠利用機(jī)器的奇怪輸出,并將其轉(zhuǎn)化為實(shí)用的創(chuàng)新:新的視覺模式、建筑效率、復(fù)雜游戲系統(tǒng)中的情節(jié)曲折。

這些現(xiàn)象,最終可能對日常用戶和開發(fā)人員也有幫助。

盡管如此,當(dāng)我們探索人工智能前沿時(shí),仍需保持高度謹(jǐn)慎。對機(jī)器生成的幻象的好奇已經(jīng)滲透到我們的日常生活中,這是很自然的,但我們必須確保下一個(gè)數(shù)字海市蜃景不會將我們帶入深淵。

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論