人工智能的頭號威脅:投毒攻擊

隨著掌管數(shù)字生活入口的萬億美元俱樂部企業(yè)——蘋果公司跳入人工智能(AI)賽道,AI技術民主化的大幕正式拉開,同時也將AI安全問題推向輿論的風口浪尖。

640 (1).png

本文來自微信公眾號“GoUpSec”。

隨著掌管數(shù)字生活入口的萬億美元俱樂部企業(yè)——蘋果公司跳入人工智能(AI)賽道,AI技術民主化的大幕正式拉開,同時也將AI安全問題推向輿論的風口浪尖。

根據(jù)瑞銀本周一的智能手機調查報告,在中國以外的智能手機用戶中,只有27%的人對提供生成式AI功能的設備感興趣,價格和隱私才是用戶最關心的問題。顯然,用戶最關心的不是AI帶來的效率和體驗,而是隱私和AI安全的新威脅。

AI面臨的頭號威脅:投毒攻擊

近日,美國國家標準與技術研究院(NIST)發(fā)出警告稱,隨著人工智能技術的快速普及,越來越多的黑客將發(fā)起“投毒攻擊”,AI應用的安全性將面臨嚴峻考驗。

投毒攻擊是針對人工智能(AI)系統(tǒng)的一種惡意行為,黑客通過操縱輸入數(shù)據(jù)或直接修改模型來影響AI系統(tǒng)的輸出。

過去,業(yè)界針對AI系統(tǒng)的“投毒攻擊”并不重視,軟件公司Splunk曾在《2024年安全狀態(tài)報告》指出:“AI中毒仍然是一種可能性,但尚未普及。”

但是安全專家們警告CISO加強戒備,因為有跡象表明黑客正越來越多地瞄準AI系統(tǒng),尤其是通過破壞數(shù)據(jù)或模型來進行投毒攻擊,各種規(guī)模和類型的企業(yè)都可能成為攻擊目標。

咨詢公司Protiviti透露,該公司的一家客戶企業(yè)近日遭遇了投毒攻擊:黑客試圖通過投喂惡意輸入數(shù)據(jù)來操縱該公司AI系統(tǒng)的輸出結果。

Protiviti指出:“所有企業(yè),無論是內部開發(fā)的AI模型還是使用第三方AI工具,都面臨投毒攻擊風險。”

四種主要的投毒攻擊

NIST在2024年1月的一份報告中強調了投毒攻擊的危險性:“中毒攻擊非常強大,可導致AI系統(tǒng)的可用性或完整性受到破壞。”

NIST將投毒攻擊劃分為以下四大類型:

可用性投毒:無差別地影響整個機器學習模型,相當于針對AI系統(tǒng)的拒絕服務攻擊。

目標投毒:黑客在少數(shù)目標樣本上誘導機器學習模型產生錯誤的預測結果。

后門投毒:通過在訓練時在一部分圖像中添加小的觸發(fā)補丁并更改其標簽,可以影響圖像分類器,以在實際使用時激活錯誤行為。

模型投毒:直接修改訓練后的機器學習模型以注入惡意功能,使其在特定情況下表現(xiàn)異常。

NIST和安全專家指出,除了中毒攻擊,AI系統(tǒng)還面臨隱私泄露以及直接和間接提示注入等多種攻擊。

NIST研究團隊主管ApostolVassilev表示:“企業(yè)部署AI會引入全新的攻擊面,我們已經(jīng)看到了學術界和其他研究人員展示的漏洞利用。隨著AI技術的普及,黑客攻擊的價值也隨之增加,這也是為什么我們會看到更嚴重的漏洞利用,我們已經(jīng)看到相關案例的增加。”

AI投毒攻擊可來自內部或外部

安全專家表示,中毒攻擊既可能由內部人員發(fā)起,也可能由外部黑客發(fā)起,這與傳統(tǒng)的網(wǎng)絡攻擊類似。

FTIConsulting管理董事DavidYoussef表示,國家級黑客可能是最大的風險之一,因為他們有能力和資源投資于這類攻擊。

專家指出,黑客發(fā)起AI投毒攻擊的動機與傳統(tǒng)網(wǎng)絡攻擊類似,例如為了造成破壞或損失,以及獲取機密數(shù)據(jù)或勒索金錢。

主要目標:AI廠商

雖然任何使用AI的企業(yè)和機構都可能成為受害者,但IEEE高級成員和Hyperproof的CISOKayneMcGladrey表示,黑客更有可能瞄準制造和訓練AI系統(tǒng)的科技公司。

最近的一個案例暴露了AI技術供應鏈上游的潛在巨大風險??萍脊綣Frog的研究人員發(fā)現(xiàn),約有100個惡意機器學習模型被上傳到公開的AI模型庫HuggingFace。

研究人員指出,這些惡意模型可能允許攻擊者在加載模型時向用戶機器注入惡意代碼,可能會迅速破壞大量用戶環(huán)境。

CISO應該怎么做?

根據(jù)ISC2今年2月份的調查,很多CISO并未做好應對AI風險的準備。報告發(fā)現(xiàn),超過1100名受訪者中,75%表示中度至極度擔心人工智能會被用于網(wǎng)絡攻擊或其他惡意活動,其中深度偽造、虛假信息和社會工程是網(wǎng)絡專業(yè)人士最擔心的三大問題。

盡管人們對此高度擔憂,但只有60%的人表示,他們有信心帶領組織安全采用AI。此外,41%的人表示,他們在保護AI和ML技術方面幾乎沒有或根本沒有專業(yè)知識。與此同時,只有27%的人表示,他們的組織制定了有關AI安全和道德使用的正式政策。

ISC2首席信息安全官JonFrance表示:“一般的CISO并不擅長AI開發(fā),也沒有將AI技能作為核心競爭力。”

安全專家建議,防御投毒攻擊需要采用多層防御策略,包括強大的訪問和身份管理程序、安全信息和事件管理(SIEM)系統(tǒng)以及異常檢測工具。此外,還需要良好的數(shù)據(jù)治理實踐以及對AI工具的監(jiān)控和監(jiān)督。

NIST在《對抗性機器學習》報告中也提供了詳細的緩解策略和關于投毒攻擊的詳細信息。

最后,一些安全領導者強烈建議CISO在團隊中增加接受過AI安全培訓的專業(yè)人才(普通SOC團隊無法評估訓練數(shù)據(jù)集和AI模型),并與其他高管合作,識別和理解與AI工具相關的風險(包括中毒攻擊),制定風險緩解策略。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論