如何確保人工智能服務(wù)于人類?

人工智能是我們這個(gè)時(shí)代的流行語。特別是隨著ChatGPT等生成式AI應(yīng)用程序的出現(xiàn),AI大受歡迎,成為了技術(shù)大辯論的核心話題。

本文來自微信公眾號(hào)“大數(shù)據(jù)分析和應(yīng)用”,作者/于澗。

人工智能是我們這個(gè)時(shí)代的流行語。特別是隨著ChatGPT等生成式AI應(yīng)用程序的出現(xiàn),AI大受歡迎,成為了技術(shù)大辯論的核心話題。

所有人都在談?wù)撓馛hatGPT這樣的生成式AI應(yīng)用程序的影響以及利用它們的能力是否公正。然而,面對(duì)這場完美風(fēng)暴,圍繞AI一詞的種種謊言和誤解突然隨之激增。您可能已經(jīng)聽過很多這樣的謊言和誤解了。

不妨深入研究這些謊言,戳穿它們,以了解AI的真正本質(zhì)。

與普遍的看法相反,AI一點(diǎn)也不智能?,F(xiàn)在大多數(shù)人確實(shí)認(rèn)為基于AI的模型很智能。這可能是由于“人工智能”這個(gè)名稱中含有“智能”一詞。

但是智能是什么意思呢?智能是生物體獨(dú)有的一種特征,其定義是獲取并運(yùn)用知識(shí)和技能的一種能力。這意味著智能使生物體能夠與周圍環(huán)境相互作用,從而學(xué)會(huì)如何生存。

另一方面,AI是一種機(jī)器模擬,旨在模仿這種自然智能的某些方面。我們接觸的大多數(shù)AI應(yīng)用程序(尤其是在商業(yè)和在線平臺(tái)領(lǐng)域)都依賴機(jī)器學(xué)習(xí)。

這些是專門的AI系統(tǒng),使用大量數(shù)據(jù)進(jìn)行特定任務(wù)的訓(xùn)練。它們擅長完成指定的任務(wù),無論是玩游戲、翻譯語言還是識(shí)別圖像。

然而一旦超出其預(yù)期范圍,它們通常是無用的。在一系列任務(wù)中擁有類似人類智能的AI這個(gè)概念被稱為通用AI,我們離實(shí)現(xiàn)這個(gè)里程碑事件還很遙遠(yuǎn)。

科技巨頭們常常競相吹噓自家的AI模型的規(guī)模有多龐大。

Llama 2開源LLM以強(qiáng)大的700億參數(shù)版本讓世人感到驚訝,而谷歌的Palma擁有5400億參數(shù),OpenAI最近發(fā)布的ChatGPT4更是擁有1.8萬億參數(shù)。

然而,LLM的成百上千億個(gè)參數(shù)不一定意味著有更好的性能。數(shù)據(jù)的質(zhì)量和訓(xùn)練方法常常是決定模型性能和準(zhǔn)確性的更關(guān)鍵因素。斯坦福大學(xué)的Alpaca實(shí)驗(yàn)已經(jīng)證明了這點(diǎn),一個(gè)簡單的使用70億參數(shù)的基于Llama的LLM其性能可以與多達(dá)1760億參數(shù)的ChatGPT 3.5相媲美。

所以并非始終是越大就越好!優(yōu)化LLM的大小及其相應(yīng)性能將使這些模型在本地得到更廣泛的使用,并讓我們可以將它們集成到日常設(shè)備中。

一個(gè)常見的誤解是,AI是神秘的黑盒子,缺乏任何透明度。實(shí)際上,雖然AI系統(tǒng)可能很復(fù)雜,仍然相當(dāng)不透明,但業(yè)界正在努力提高其透明度和問責(zé)制。

監(jiān)管機(jī)構(gòu)要求有道德、負(fù)責(zé)任地使用AI?!端固垢H斯ぶ悄芡该鞫葓?bào)告》和《歐洲人工智能法案》等重要舉措旨在促使企業(yè)提高AI透明度,并為各國政府在這個(gè)新興領(lǐng)域制定法規(guī)提供基礎(chǔ)。

透明AI已成為AI社區(qū)的一個(gè)核心討論話題,涵蓋眾多問題,比如允許個(gè)人確定AI模型全面測試的流程和理解AI決策背后基本原理的流程。

這就是為什么全球各地的數(shù)據(jù)專業(yè)人士已經(jīng)在研究使AI模型更加透明的方法。

所以雖然這個(gè)謊言可能部分正確,但顯然不能作為常識(shí)。

許多人認(rèn)為AI系統(tǒng)是完美的,不會(huì)出錯(cuò)。事實(shí)絕非如此。與任何系統(tǒng)一樣,AI的表現(xiàn)取決于其訓(xùn)練數(shù)據(jù)的質(zhì)量。這些數(shù)據(jù)常常是由人類創(chuàng)建或管理的。如果這些數(shù)據(jù)含有偏見,AI系統(tǒng)會(huì)在不經(jīng)意間將偏見固化下來。

麻省理工學(xué)院(MIT)的一個(gè)團(tuán)隊(duì)分析了多個(gè)廣泛使用的預(yù)訓(xùn)練語言模型后發(fā)現(xiàn),將性別與某些職業(yè)和情緒關(guān)聯(lián)時(shí)存在明顯的偏見。比如說,空姐或秘書等角色主要與女性特質(zhì)聯(lián)系在一起,而律師和法官與男性特質(zhì)聯(lián)系在一起。該團(tuán)隊(duì)在情感方面觀察到了同樣的行為。

其他發(fā)現(xiàn)的偏見與種族有關(guān)。隨著LLM進(jìn)入醫(yī)療保健領(lǐng)域,有人開始擔(dān)心,它們可能會(huì)承襲基于種族的有害的醫(yī)療實(shí)踐,反映出訓(xùn)練數(shù)據(jù)中固有的偏見。

人工干預(yù)至關(guān)重要,需要監(jiān)督和糾正這些缺點(diǎn),確保AI的可靠性。關(guān)鍵在于使用具有代表性、無偏見的數(shù)據(jù),并進(jìn)行算法審計(jì)以消除這些偏見。

最普遍的擔(dān)憂之一是,AI將導(dǎo)致大規(guī)模失業(yè)。

然而歷史表明,雖然技術(shù)可能會(huì)淘汰某些工作,但同時(shí)也會(huì)造就新的行業(yè)和機(jī)會(huì)。

比如說,世界經(jīng)濟(jì)論壇預(yù)測,雖然到2025年AI可能會(huì)取代8500萬個(gè)工作崗位,但也將創(chuàng)造9700萬個(gè)新崗位。

隨著AI不斷發(fā)展并融入到我們的日常生活中,辨別真?zhèn)沃陵P(guān)重要。

只有有了清晰的認(rèn)識(shí),我們才能充分利用AI的潛力,負(fù)責(zé)任地應(yīng)對(duì)其挑戰(zhàn)。

只有對(duì)AI的實(shí)際范圍有清晰的了解,我們才可以向前邁進(jìn),確保這項(xiàng)技術(shù)服務(wù)于人類。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無評(píng)論