大模型的陰面:無(wú)法忽視的安全隱憂

圍繞著AI大模型的安全,不少國(guó)內(nèi)專家學(xué)者以及企業(yè)家們也有了更多的思考和發(fā)聲。9月初,中國(guó)科學(xué)院院士何積豐曾發(fā)言談到,目前大模型面臨的安全問(wèn)題涵蓋兩方面,分別是隱私保護(hù)和價(jià)值觀對(duì)齊兩大難題。

本文來(lái)自微信公眾號(hào)“科技云報(bào)到”。

在AI大模型的身上,竟也出現(xiàn)了“to be or not to be”問(wèn)題。

爭(zhēng)議是伴隨著大模型的能力驚艷四座而來(lái)的,爭(zhēng)議的核心問(wèn)題在于安全。安全有兩個(gè)方面,一個(gè)是大模型帶來(lái)的對(duì)人類倫理的思考,一個(gè)是大模型本身帶來(lái)的隱私泄漏、數(shù)據(jù)安全等問(wèn)題。

埃隆·馬斯克應(yīng)該可以說(shuō)是對(duì)大模型發(fā)起質(zhì)疑的企業(yè)家之一。早在ChatGPT誕生之初,馬斯克等一千多名業(yè)界、學(xué)界人士聯(lián)署發(fā)表公開(kāi)信,呼吁所有AI實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng),暫停至少6個(gè)月。

時(shí)至今日,馬斯克依舊對(duì)外表達(dá)的態(tài)度是,人工智能是一把雙刃劍,對(duì)人工智能方面的監(jiān)管是強(qiáng)烈共識(shí),可能會(huì)出現(xiàn)某種形式的監(jiān)管機(jī)構(gòu)。

圍繞著AI大模型的安全,不少國(guó)內(nèi)專家學(xué)者以及企業(yè)家們也有了更多的思考和發(fā)聲。9月初,中國(guó)科學(xué)院院士何積豐曾發(fā)言談到,目前大模型面臨的安全問(wèn)題涵蓋兩方面,分別是隱私保護(hù)和價(jià)值觀對(duì)齊兩大難題。

1.png

另一方面,隨著AI大模型在行業(yè)中的廣泛應(yīng)用,對(duì)合規(guī)和數(shù)據(jù)保護(hù)的需求急劇上升。在“云、大、物、移”四大網(wǎng)絡(luò)安全場(chǎng)景之后,大模型正逐漸成為新的市場(chǎng)增長(zhǎng)點(diǎn)。

不少企業(yè)開(kāi)始圍繞大模型安全視角推出產(chǎn)品,掀起了一陣AI安全、數(shù)據(jù)安全等新興安全領(lǐng)域的火熱之風(fēng)。

大模型的“陰面”

安全問(wèn)題不容忽視

發(fā)展至今,大模型陰陽(yáng)兩面,涇渭分明。不少人早已經(jīng)感受到了大模型的“陽(yáng)面”,應(yīng)該不少人早已經(jīng)開(kāi)始嘗試,將其作為提升工作效率的工具。

但大模型的“陰面”,關(guān)于安全的討論不絕于耳。最典型的安全案例,三星機(jī)密數(shù)據(jù)外泄事件仍然記憶猶新。

上文中也曾提到,中國(guó)科學(xué)院院士何積豐發(fā)言指出,大模型當(dāng)前面臨的安全問(wèn)題主要涵蓋兩方面,分別是隱私保護(hù)和價(jià)值觀對(duì)齊兩大難題。

隱私保護(hù)問(wèn)題的是,在未經(jīng)允許的情況下,大模型是否會(huì)收集、使用和泄露個(gè)人信息。

價(jià)值觀對(duì)齊問(wèn)題的是,使得大模型的價(jià)值觀與人類的價(jià)值觀相對(duì)齊。使得大模型按照設(shè)計(jì)者的意愿行事,而不作出超出意圖之外的舉動(dòng)。

在價(jià)值觀對(duì)齊方面,由于人類社會(huì)的價(jià)值觀是多元化的,且有用的人工智能與無(wú)害的人工智能往往存在沖突,這導(dǎo)致了大模型價(jià)值觀對(duì)齊存在很大的難度。

具體來(lái)看,大模型的包含多個(gè)關(guān)鍵要素,數(shù)據(jù)、算法模型以及應(yīng)用層等,每一個(gè)要素中,都有不少安全問(wèn)題需要面對(duì)。

在數(shù)據(jù)層,安全問(wèn)題主要集中在數(shù)據(jù)泄露、數(shù)據(jù)污染等。三星的案例,其實(shí)就在于數(shù)據(jù)層面存在一定的泄漏風(fēng)險(xiǎn)。

數(shù)據(jù)可以說(shuō)是構(gòu)成大模型的骨骼,為其提供了基礎(chǔ)支撐。

在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的領(lǐng)域中,數(shù)據(jù)的獲取、加工及利用的方式?jīng)Q定了模型的性能和準(zhǔn)確性。但是,數(shù)據(jù)層面的安全隱患卻是不可避免的。

其中最常見(jiàn)的問(wèn)題包括數(shù)據(jù)的非法泄漏,這可能導(dǎo)致敏感信息暴露;數(shù)據(jù)被惡意篡改,這可能導(dǎo)致訓(xùn)練出的模型有誤導(dǎo)性;還有非法獲取或使用未經(jīng)授權(quán)的數(shù)據(jù),這不僅違法,還可能使得模型偏離了其原本的目的。

這些隱患都可能對(duì)模型的訓(xùn)練和應(yīng)用帶來(lái)不良影響,使其失去原有的效果甚至產(chǎn)生誤導(dǎo)。

與數(shù)據(jù)安全同等重要的,是算法模型的安全。

在現(xiàn)代社會(huì),大模型的訓(xùn)練往往需要消耗巨大的計(jì)算力,因此很多資源都集中在特定的數(shù)據(jù)中心。

這就為潛在的攻擊者提供了機(jī)會(huì),他們可能會(huì)針對(duì)這些數(shù)據(jù)中心進(jìn)行攻擊,試圖更改模型的參數(shù)或者整體結(jié)構(gòu)。一旦成功,模型的輸出可能會(huì)完全不可控,產(chǎn)生不可預(yù)知的結(jié)果。

另外,還有一種更加隱蔽的攻擊方式——對(duì)抗性攻擊。這種攻擊的目的是使模型在某些特定的輸入下產(chǎn)生錯(cuò)誤的輸出,這在一些關(guān)鍵領(lǐng)域如醫(yī)療診斷、金融決策等方面,可能會(huì)帶來(lái)嚴(yán)重后果。

到應(yīng)用層,安全隱患也十分嚴(yán)重。比如說(shuō)生成內(nèi)容的有害性和準(zhǔn)確性、濫用模型生成虛假信息等。

如何防止已部署的模型被惡意篡改?如何確保在模型進(jìn)行數(shù)據(jù)推斷的過(guò)程中,用戶的私人數(shù)據(jù)不會(huì)被非法獲取或泄露?這些都是在模型部署時(shí)必須要考慮的問(wèn)題。

此前,就有人嘗試向大模型發(fā)問(wèn),“野生娃娃魚(yú)的做法”,大模型給出的回答是“紅燒”,并且寫(xiě)出了具體的步驟。這就很容易“誤導(dǎo)”提問(wèn)者。實(shí)際上,野生娃娃魚(yú)屬于國(guó)家二級(jí)保護(hù)動(dòng)物,不能捕捉、捕殺甚至食用。

為了應(yīng)對(duì)這些隱患,可能需要一系列的安全措施,包括但不限于數(shù)據(jù)加密、模型的版本控制和運(yùn)行環(huán)境的隔離等。

AI大模型安全問(wèn)題

的解決之道

大模型問(wèn)題出現(xiàn)后,外界對(duì)于監(jiān)管的呼聲是最為熱烈的。

在新技術(shù)飛速發(fā)展的當(dāng)下,政府與各類監(jiān)管機(jī)構(gòu)成為確保AI大模型安全運(yùn)行的重要力量。他們可以通過(guò)制定和實(shí)施嚴(yán)格的數(shù)據(jù)隱私法規(guī),為大模型的安全使用提供法律保障。

今年4月,國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布了關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》,旨在促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用。其中的第七條涉及到生成式人工智能服務(wù)提供者數(shù)據(jù)來(lái)源的合法性問(wèn)題。

這也意味著國(guó)家已經(jīng)開(kāi)始出手應(yīng)對(duì)大模型火熱帶來(lái)的一些列的安全問(wèn)題。

7月,網(wǎng)信中國(guó)官微消息稱,國(guó)家網(wǎng)信辦聯(lián)合國(guó)家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部、廣電總局公布了《生成式人工智能服務(wù)管理暫行辦法》。

這其中就明確生成式人工智能服務(wù)提供者應(yīng)當(dāng)依法開(kāi)展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng),使用具有合法來(lái)源的數(shù)據(jù)和基礎(chǔ)模型;涉及知識(shí)產(chǎn)權(quán)的,不得侵害他人依法享有的知識(shí)產(chǎn)權(quán);涉及個(gè)人信息的,應(yīng)當(dāng)取得個(gè)人同意或者符合法律、行政法規(guī)規(guī)定的其他情形;采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強(qiáng)訓(xùn)練數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀性、多樣性。

此外,明確了數(shù)據(jù)標(biāo)注的相關(guān)要求。

監(jiān)管之下,國(guó)內(nèi)的大模型也迎來(lái)了合理合法合規(guī)的發(fā)展期。最新的消息是,目前國(guó)內(nèi)已經(jīng)有11家大模型陸續(xù)通過(guò)《生成式人工智能服務(wù)管理暫行辦法》備案,并逐步面向大眾開(kāi)放。

監(jiān)管之下,技術(shù)本身也可以在大模型安全上有所行動(dòng)。AI守護(hù)AI,技術(shù)反哺技術(shù)。

“利器攻利器”。AI技術(shù)本身不僅是可能的威脅,更是解決問(wèn)題的關(guān)鍵。

對(duì)抗性訓(xùn)練就是其中的佳例,它可以讓模型在面對(duì)惡意輸入時(shí)仍然保持其穩(wěn)定性,從而增強(qiáng)模型對(duì)各類對(duì)抗攻擊的防御力。除此之外,我們還可以考慮利用AI技術(shù)對(duì)模型的輸出進(jìn)行實(shí)時(shí)監(jiān)控,及時(shí)發(fā)現(xiàn)并糾正模型的異常行為。

另外,目前也有不少安全企業(yè)提出通過(guò)可信計(jì)算、差分隱私、聯(lián)邦學(xué)習(xí)等技術(shù)手段確保數(shù)據(jù)隱私安全。

此前,清華大學(xué)人工智能研究院副院長(zhǎng),北京智源人工智能研究院和瑞萊智慧首席科學(xué)家朱軍在接受騰訊科技采訪時(shí)就曾提到過(guò),為了解決大模型的安全問(wèn)題,從技術(shù)方向來(lái)看,我們可以以“AI識(shí)別AI”的形式來(lái)應(yīng)對(duì)。

朱軍表示,與進(jìn)攻相比,防守其實(shí)更為困難?,F(xiàn)在,我們正積極尋求多種手段以增強(qiáng)模型的抵御能力,并在模型的應(yīng)用和布署階段實(shí)施多重保護(hù)策略。

比如在人臉鑒定系統(tǒng)中,我們?cè)O(shè)置人臉識(shí)別安全屏障,能在樣本進(jìn)入決策階段前篩選并剔除攜帶潛在威脅或經(jīng)過(guò)對(duì)抗性修改的樣本,確保系統(tǒng)安全穩(wěn)定。這一技術(shù)手段已經(jīng)在銀行等行業(yè)中落地使用。

為了防范未然,開(kāi)發(fā)者和企業(yè)在產(chǎn)品層面也必須下足功夫。嚴(yán)格的安全標(biāo)準(zhǔn)不僅僅是一紙文件,更應(yīng)該深入到每一個(gè)開(kāi)發(fā)與部署的細(xì)節(jié)中。

對(duì)于開(kāi)發(fā)者和企業(yè)而言,對(duì)數(shù)據(jù)的處理要嚴(yán)格遵循隱私保護(hù)原則,確保每一位用戶的私人信息都得到妥善保管。另外,模型的開(kāi)發(fā)與部署過(guò)程也需要經(jīng)過(guò)嚴(yán)格的審查,確保其不會(huì)對(duì)用戶和社會(huì)造成傷害。

大模型安全問(wèn)題

掀起行業(yè)新風(fēng)向

目前,不少企業(yè)也關(guān)注到了大模型安全的問(wèn)題,甚至推出了不少相關(guān)的產(chǎn)品和解決方案。這也掀起了一陣“安全潮”,風(fēng)口也逐漸吹向了數(shù)據(jù)要素、網(wǎng)絡(luò)安全和隱私計(jì)算等相關(guān)產(chǎn)業(yè)上。

最近一段時(shí)間,可以明顯地看到網(wǎng)絡(luò)安全行業(yè)正在迎頭趕上這一挑戰(zhàn),大模型和數(shù)據(jù)安全新品不斷亮相,旨在滿足市場(chǎng)對(duì)于新興技術(shù)的安全需求。

今年的網(wǎng)絡(luò)安全博覽會(huì)成為了各大廠商展示大模型安全解決方案的初舞臺(tái)。比如,奇安信推出了名為Q-GPT的安全機(jī)器人,還發(fā)布了針對(duì)大模型數(shù)據(jù)泄露隱患的“大模型衛(wèi)士”;綠盟科技在發(fā)布其安全大模型的同時(shí),也推出了基于隱私計(jì)算的“數(shù)據(jù)保險(xiǎn)箱”。

除此之外,安恒信息、深信服、三六零集團(tuán)、螞蟻等公司也紛紛推出各自的大模型產(chǎn)品,為企業(yè)提供了多樣的選擇。這些新品的出現(xiàn)無(wú)疑證明了行業(yè)對(duì)于大模型安全的重視。

據(jù)中國(guó)網(wǎng)絡(luò)安全產(chǎn)業(yè)聯(lián)盟的數(shù)據(jù),2022年我國(guó)網(wǎng)絡(luò)安全產(chǎn)業(yè)規(guī)模達(dá)到了近633億元,預(yù)計(jì)在未來(lái)三年內(nèi),增速將保持在10%以上。隨著數(shù)據(jù)要素市場(chǎng)的逐步建立,大模型等前沿技術(shù)發(fā)揮出的應(yīng)用價(jià)值越來(lái)越大,新的安全需求也隨之涌現(xiàn)。

隱私計(jì)算賽道同樣如此。

在2023年世界人工智能大會(huì)上,就有不少專家學(xué)者提到大模型時(shí)代隱私計(jì)算迎來(lái)全新機(jī)遇。現(xiàn)階段,隱私計(jì)算中包括可信執(zhí)行環(huán)境TEE、多方安全計(jì)算MPC等都有與大模型結(jié)合的探索,比如在云端部署TEE,用戶在推理時(shí)將輸入數(shù)據(jù)加密傳輸至云端,在其內(nèi)部解密然后進(jìn)行推理。

復(fù)旦大學(xué)教授、上海市數(shù)據(jù)科學(xué)重點(diǎn)實(shí)驗(yàn)室主任肖仰華表示,傳統(tǒng)的隱私計(jì)算如差分隱私、聯(lián)邦學(xué)習(xí)多是算法層開(kāi)展工作。

不過(guò)算法工作前提是保護(hù)對(duì)象是明確的,協(xié)作機(jī)制清晰。大模型時(shí)代是海量參數(shù)化的模型,不透明、無(wú)邊界、不可解釋,對(duì)于以前的基于可解釋、清晰、可控的技術(shù)路線的隱私計(jì)算方法提供了全新挑戰(zhàn)。

華經(jīng)產(chǎn)業(yè)研究院的報(bào)告顯示,隨著中國(guó)互聯(lián)網(wǎng)技術(shù)的發(fā)展,中國(guó)隱私計(jì)算市場(chǎng)規(guī)模逐年增長(zhǎng),預(yù)計(jì)2025年中國(guó)隱私計(jì)算市場(chǎng)規(guī)模達(dá)192.2億元。

大模型已經(jīng)成為繼“云、大、物、移”之后的新戰(zhàn)場(chǎng),被視為新的市場(chǎng)增量。

無(wú)論是為自己的客戶提供基于大模型的服務(wù),提高交付效率和競(jìng)爭(zhēng)力,還是通過(guò)大模型應(yīng)用提高企業(yè)自身生產(chǎn)效率,大模型正迅速進(jìn)入企業(yè)IT中,與此對(duì)應(yīng)的大模型安全也成為攻防焦點(diǎn)。

隨著各大公司在大模型安全方面的持續(xù)投入和創(chuàng)新,預(yù)期這一市場(chǎng)將帶動(dòng)整個(gè)網(wǎng)絡(luò)安全行業(yè)邁向新的高度。

結(jié)語(yǔ)

AI大模型的發(fā)展不僅帶來(lái)了巨大的潛力,也伴隨著重大的安全挑戰(zhàn)。

為了充分發(fā)揮AI的潛力并確保安全,政府、企業(yè)和網(wǎng)絡(luò)安全公司需要共同努力,采取綜合性的措施來(lái)解決這些問(wèn)題。只有這樣,我們才能在AI時(shí)代中邁出堅(jiān)實(shí)的步伐。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無(wú)評(píng)論