如何監(jiān)管像ChatGPT和Bard這樣的生成式AI機(jī)器人?

極客君
研究表明,通用人工智能工具的廣泛應(yīng)用為監(jiān)管機(jī)構(gòu)帶來(lái)新的挑戰(zhàn),他們可能難以應(yīng)對(duì)。實(shí)際上,如何監(jiān)管OpenAI的聊天機(jī)器人ChatGPT這樣的生成式AI工具,已經(jīng)成為一個(gè)困擾世界各國(guó)政策制定者的問(wèn)題。

本文來(lái)自極客網(wǎng),作者:極客君。

研究表明,通用人工智能工具的廣泛應(yīng)用為監(jiān)管機(jī)構(gòu)帶來(lái)新的挑戰(zhàn),他們可能難以應(yīng)對(duì)。實(shí)際上,如何監(jiān)管OpenAI的聊天機(jī)器人ChatGPT這樣的生成式AI工具,已經(jīng)成為一個(gè)困擾世界各國(guó)政策制定者的問(wèn)題。

360截圖16251112669372.png

ChatGPT可以通過(guò)關(guān)鍵字生成任何類型的內(nèi)容,并接受輸入大量知識(shí)的訓(xùn)練。其解決方案將涉及評(píng)估風(fēng)險(xiǎn),尤其是其中的某些內(nèi)容,應(yīng)該受到嚴(yán)密的監(jiān)控。

在ChatGPT推出后的兩個(gè)月,這款A(yù)I聊天機(jī)器人就成為了歷史上用戶增長(zhǎng)最快的消費(fèi)產(chǎn)品,僅在今年1月的活躍用戶就超過(guò)1億人。這促使全球大型科技公司關(guān)注或加快AI系統(tǒng)的推出,并為對(duì)話式AI領(lǐng)域帶來(lái)了新的生機(jī)。

微軟正在其瀏覽器、搜索引擎和更廣泛的產(chǎn)品系列中嵌入對(duì)話式AI;谷歌計(jì)劃在聊天機(jī)器人Bard以及Gmail和谷歌云中的其他集成方面做同樣的事情;百度等其他科技巨頭也在推出自己的聊天機(jī)器人;Jasper和Quora等初創(chuàng)企業(yè)也在將生成式AI和對(duì)話式AI帶入主流消費(fèi)者和企業(yè)市場(chǎng)……

生成式AI加速監(jiān)管需求

廣泛的錯(cuò)誤信息和難以發(fā)現(xiàn)的網(wǎng)絡(luò)釣魚(yú)電子郵件為AI的應(yīng)用帶來(lái)真正風(fēng)險(xiǎn),如果將其用于醫(yī)療信息,則會(huì)導(dǎo)致誤診和醫(yī)療事故。如果用于填充模型的不是多樣化的數(shù)據(jù),也有很高的偏差風(fēng)險(xiǎn)。

雖然微軟已經(jīng)有了一個(gè)更準(zhǔn)確的重新訓(xùn)練的模型,而且AI21公司等提供商正在努力驗(yàn)證生成的內(nèi)容與實(shí)時(shí)數(shù)據(jù)的對(duì)比,但生成AI“看起來(lái)真實(shí)但完全不準(zhǔn)確”的響應(yīng)的風(fēng)險(xiǎn)仍然很高。

歐盟內(nèi)部市場(chǎng)專員Thierry Breton近日表示,即將出臺(tái)的歐盟AI法案將包括針對(duì)ChatGPT和Bard等生成型AI系統(tǒng)的條款。

“正如ChatGPT所展示的那樣,AI解決方案可以為企業(yè)和公民提供巨大的機(jī)會(huì),但也可能帶來(lái)風(fēng)險(xiǎn)。這就是為什么我們需要一個(gè)堅(jiān)實(shí)的監(jiān)管框架,以確?;诟哔|(zhì)量數(shù)據(jù)的值得信賴的AI。”他說(shuō)。

AI開(kāi)發(fā)需要合乎道德

分析軟件提供商SAS在一份名為《AI與負(fù)責(zé)任創(chuàng)新》報(bào)告中概述了AI帶來(lái)的一些風(fēng)險(xiǎn)。報(bào)告的作者Kirk Borne博士說(shuō):“AI已經(jīng)變得如此強(qiáng)大、如此普遍,以至于越來(lái)越難以分辨其生成內(nèi)容的真假和好壞。采用這項(xiàng)技術(shù)的速度明顯快于監(jiān)管的步伐。”

SAS英國(guó)和愛(ài)爾蘭地區(qū)數(shù)據(jù)科學(xué)主管Iain Brown博士表示,政府和行業(yè)都有責(zé)任確保AI被用于有益而非有害的方面。這包括使用道德框架來(lái)指導(dǎo)AI模型的開(kāi)發(fā),并嚴(yán)格治理,以確保這些模型做出公平、透明和公平的決策。我們可以將AI模型與挑戰(zhàn)者模型進(jìn)行對(duì)比,并在新數(shù)據(jù)可用時(shí)對(duì)其進(jìn)行優(yōu)化。”

其他專家認(rèn)為,軟件開(kāi)發(fā)商將被要求降低軟件所代表的風(fēng)險(xiǎn),只有風(fēng)險(xiǎn)最高的活動(dòng)才會(huì)面臨更嚴(yán)格的監(jiān)管措施。

美國(guó)瑞格律師事務(wù)所(Ropes&Gray)數(shù)據(jù)、隱私和網(wǎng)絡(luò)安全助理Edward Machin表示,像ChatGPT這樣看似一夜之間出現(xiàn)的技術(shù),其應(yīng)用速度將快于監(jiān)管法規(guī),這是不可避免的情況,尤其是在AI這樣已經(jīng)很難監(jiān)管的領(lǐng)域。

他表示:“盡管對(duì)這些技術(shù)的監(jiān)管政策將會(huì)出臺(tái),監(jiān)管方法和監(jiān)管時(shí)機(jī)仍有待觀察。AI系統(tǒng)的供應(yīng)商將會(huì)首當(dāng)其沖,但進(jìn)口商和分銷商(至少在歐盟)也將承擔(dān)潛在的義務(wù)。這可能會(huì)使一些開(kāi)源軟件開(kāi)發(fā)者陷入困境。開(kāi)源開(kāi)發(fā)者和其他下游各方的責(zé)任將如何處理,可能會(huì)對(duì)這些人進(jìn)行創(chuàng)新和研究的意愿產(chǎn)生寒蟬效應(yīng)。”

版權(quán)、隱私和GDPR法規(guī)

此外Machin認(rèn)為,除了對(duì)AI的整體監(jiān)管之外,關(guān)于其生成內(nèi)容的版權(quán)和隱私也存在問(wèn)題。例如,目前尚不清楚開(kāi)發(fā)人員是否能夠輕松地(如果有的話)處理個(gè)人的刪除或更正請(qǐng)求,也不清楚他們?nèi)绾文軌蛞砸环N可能違反第三方網(wǎng)站服務(wù)條款的方式從他們的網(wǎng)站抓取大量數(shù)據(jù)。

在艾倫·圖靈研究所從事AI監(jiān)管工作的紐卡斯?fàn)柎髮W(xué)法律、創(chuàng)新和社會(huì)專業(yè)的教授Lilian Edwards表示,其中一些模型將受到GDPR法規(guī)的監(jiān)管,這可能會(huì)導(dǎo)致發(fā)布刪除訓(xùn)練數(shù)據(jù)甚至算法本身的命令。如果網(wǎng)站所有者失去了AI搜索的流量,這也可能意味著從互聯(lián)網(wǎng)大規(guī)模抓取數(shù)據(jù)的終結(jié),目前這種抓取是谷歌等搜索引擎的發(fā)展動(dòng)力。

他指出,最大的問(wèn)題是這些AI模型的通用性質(zhì)。這使得它們難以根據(jù)歐盟AI法案進(jìn)行監(jiān)管,該法案是根據(jù)面臨的風(fēng)險(xiǎn)起草的,因?yàn)楹茈y判斷最終用戶將用這項(xiàng)技術(shù)做什么。歐盟委員會(huì)正試圖增加規(guī)則來(lái)管理這類技術(shù)。

加強(qiáng)算法透明度可能是一種解決方案。Edwards說(shuō):“大型科技公司將開(kāi)始游說(shuō)監(jiān)管機(jī)構(gòu),他們說(shuō),‘你們不能把這些義務(wù)強(qiáng)加給我們,因?yàn)槲覀儫o(wú)法想象未來(lái)的每一種風(fēng)險(xiǎn)或用途’。有一些處理這個(gè)問(wèn)題的方法對(duì)大型科技公司或多或少有所幫助,包括讓底層算法更加透明。我們正處在困難時(shí)刻,需要獲得激勵(lì)措施朝著開(kāi)放和透明的方向發(fā)展,以便更好地理解AI如何做出決策和生成內(nèi)容。”

她還說(shuō):“這和人們?cè)谑褂酶鼰o(wú)聊的技術(shù)時(shí)遇到的問(wèn)題是一樣的,因?yàn)榧夹g(shù)是全球性的,而居心不良的人無(wú)處不在,因此進(jìn)行監(jiān)管非常困難。通用AI的行為很難匹配AI法規(guī)。”

AI咨詢服務(wù)商DragonFly首席技術(shù)官Adam Leon Smith表示:“全球監(jiān)管機(jī)構(gòu)越來(lái)越意識(shí)到,如果不考慮AI技術(shù)的實(shí)際使用情況,就很難監(jiān)管。準(zhǔn)確度和偏差要求只能在使用的背景下考慮,在大規(guī)模采用之前,也很難考慮到風(fēng)險(xiǎn)、權(quán)利和自由要求。”

“監(jiān)管機(jī)構(gòu)可以強(qiáng)制要求AI技術(shù)提供商提供透明度和日志記錄。然而,只有為特定目的而操作和部署大型語(yǔ)言模型(LLM)系統(tǒng)的用戶才能了解風(fēng)險(xiǎn),并通過(guò)人工監(jiān)管或持續(xù)監(jiān)控實(shí)施緩解措施。”他補(bǔ)充道。

AI監(jiān)管迫在眉睫

歐盟委員會(huì)內(nèi)部曾經(jīng)對(duì)于AI監(jiān)管進(jìn)行了大規(guī)模辯論,數(shù)據(jù)監(jiān)管機(jī)構(gòu)對(duì)此必須認(rèn)真應(yīng)對(duì)。最終,Leon Smith認(rèn)為,隨著監(jiān)管機(jī)構(gòu)越來(lái)越關(guān)注這一問(wèn)題,AI提供商將開(kāi)始列出“不得使用”該技術(shù)的目的,包括在用戶登錄之前發(fā)布法律免責(zé)聲明,將其置于基于風(fēng)險(xiǎn)的監(jiān)管行動(dòng)范圍之外。

Leon Smith稱,目前管理AI系統(tǒng)的最佳實(shí)踐幾乎沒(méi)有涉及大型語(yǔ)言模型,這是一個(gè)發(fā)展極其迅速的新興領(lǐng)域。而在這個(gè)領(lǐng)域有很多工作需要做,很多公司提供這些技術(shù)并沒(méi)有幫助定義它們。

OpenAI首席技術(shù)官M(fèi)ira Muratti也稱,生成式AI工具需要受到監(jiān)管,“對(duì)于我們這樣的公司來(lái)說(shuō),以一種可控和負(fù)責(zé)任的方式讓公眾意識(shí)到這一點(diǎn)很重要。”但她也表示,除了監(jiān)管AI供應(yīng)商之外,還需要對(duì)AI系統(tǒng)進(jìn)行更多的投入,包括來(lái)自監(jiān)管機(jī)構(gòu)和政府的投入。”

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無(wú)評(píng)論