人工智能的陰暗面:如何讓人工智能值得信賴

千家網(wǎng)
人工智能也有一個往往無法解決的陰暗面,特別是因為當前的機器學習和人工智能平臺,市場上還沒有提供一致或全面的工具來保護企業(yè)組織和個人的權(quán)益。人工智能企業(yè)而言,更糟糕的是,根據(jù)Gartner的一項調(diào)查,消費者認為,使用或提供AI的組織在出現(xiàn)問題時應(yīng)負責任。

安全和隱私問題是采用人工智能的最大障礙,這是有充分的理由。良性和惡意行為者都可以威脅AI模型和數(shù)據(jù)的性能、公平、安全與隱私。

隨著AI逐漸成為主流并轉(zhuǎn)向他們承諾一系列好處,這是企業(yè)不能忽略的發(fā)展趨勢。實際上,在最近的2020年Gartner新興技術(shù)發(fā)展曲線圖中,所列技術(shù)中有三分之一以上與AI有關(guān)。

同時,人工智能也有一個往往無法解決的陰暗面,特別是因為當前的機器學習和人工智能平臺,市場上還沒有提供一致或全面的工具來保護企業(yè)組織和個人的權(quán)益。人工智能企業(yè)而言,更糟糕的是,根據(jù)Gartner的一項調(diào)查,消費者認為,使用或提供AI的組織在出現(xiàn)問題時應(yīng)負責任。

實施應(yīng)對威脅的安全措施以保護AI投資符合每個組織的利益。對AI的威脅和攻擊不僅損害AI模型的安全性和數(shù)據(jù)安全性,而且損害模型的性能和結(jié)果。

犯罪分子通常會以兩種方式攻擊AI,技術(shù)人員可以采取行動來減輕此類威脅,但首先讓我們探討AI的三大核心風險。

人工智能的安全、責任和社會風險

使用AI的組織面臨三種風險。隨著AI越來越普及并嵌入到關(guān)鍵的企業(yè)運營中,安全風險正在上升。例如,自動駕駛汽車的AI模型中可能存在導致致命事故的錯誤。

由于使用敏感客戶數(shù)據(jù)的AI模型越來越多地影響著影響客戶的決策,因此責任風險正在增加。例如,錯誤的AI信用評分會阻礙消費者獲得貸款,從而導致財務(wù)和聲譽損失。

隨著“不負責任的AI”通過做出既不透明也不容易理解的偏見決策,給消費者帶來不利和不公平的后果,社會風險正在增加。即使是輕微的偏差也會導致算法的嚴重錯誤行為。

罪犯通常如何攻擊AI

上述風險可能是由犯罪分子攻擊AI的兩種常見方式造成的:惡意輸入,騷擾和調(diào)查攻擊。

對AI模型的惡意輸入可以采取對抗性AI、操縱數(shù)字輸入或惡意物理輸入的形式。對抗性AI可能會使用AI生成的聲音以社會工程學人類的形式出現(xiàn),該聲音可用于任何類型的犯罪,被認為是網(wǎng)絡(luò)釣魚的“新”形式。例如,去年3月,犯罪分子使用AI合成語音模仿了CEO的語音,并要求將243000美元的資金以欺詐方式轉(zhuǎn)移到自己的帳戶中。

調(diào)查攻擊涉及犯罪分子向組織的AI模型發(fā)送調(diào)查,以了解其工作方式,并且可能以黑匣子或白匣子的形式出現(xiàn)。具體來說,黑匣子查詢攻擊確定了不常見的擾動輸入,以用于所需的輸出,例如財務(wù)收益或避免檢測。一些學者已經(jīng)能夠通過操縱輸出來欺騙領(lǐng)先的翻譯模型,從而導致翻譯不正確。

白盒查詢攻擊會重新生成訓練數(shù)據(jù)集以重現(xiàn)類似的模型,這可能會導致有價值的數(shù)據(jù)被盜。這樣的一個例子是,語音識別供應(yīng)商成為新的外國供應(yīng)商偽造他們的技術(shù)然后出售它的受害者,這導致外國供應(yīng)商能夠基于被盜的IP搶占市場份額。

最新的安全支柱使AI值得信賴

對于IT領(lǐng)導者而言,承認其組織中對AI的威脅至關(guān)重要,以便評估和支持他們現(xiàn)有的現(xiàn)有安全支柱(以人為中心和企業(yè)安全控制)和新的安全支柱(AI模型的完整性和AI數(shù)據(jù))完整性)。

AI模型的完整性鼓勵組織探索對員工的對抗培訓,并通過企業(yè)安全控制來減少攻擊面。將區(qū)塊鏈用于AI模型的起源和跟蹤以及用于訓練該模型的數(shù)據(jù)也屬于這一支柱,作為組織使AI更加值得信賴的一種方式。

AI數(shù)據(jù)完整性側(cè)重于數(shù)據(jù)異常分析(如分布模式和異常值)以及數(shù)據(jù)保護(如差異性隱私或合成數(shù)據(jù)),以應(yīng)對對AI的威脅。

為了保護AI應(yīng)用程序的安全,專注于安全技術(shù)和基礎(chǔ)架構(gòu)的技術(shù)專業(yè)人員應(yīng)執(zhí)行以下操作:

通過進行威脅評估并應(yīng)用嚴格的訪問控制以及對訓練數(shù)據(jù)、模型和數(shù)據(jù)處理組件的監(jiān)視,可以最大程度地減少開發(fā)和生產(chǎn)期間AI應(yīng)用的攻擊面。

通過解決四個特定于AI的方面來增強用于保護軟件開發(fā)生命周期(SDLC)的標準控件:模型開發(fā)過程中的威脅,AI模型中缺陷的檢測,對第三方預訓練模型的依賴以及公開的數(shù)據(jù)管道。

通過保護和維護最新,高質(zhì)量并且包含對抗性樣本的數(shù)據(jù)存儲庫,防御所有數(shù)據(jù)管道中的數(shù)據(jù)中毒。越來越多的開源和商業(yè)解決方案可用于提高針對數(shù)據(jù)中毒,對抗性輸入和模型泄漏攻擊的魯棒性。

除非欺詐者被人發(fā)現(xiàn)并隨后對該欺詐者的系統(tǒng)進行取證,否則很難證明AI模型何時遭到攻擊。同時,企業(yè)不會簡單地停止使用AI,因此確保其安全對于在企業(yè)中成功實施AI至關(guān)重要。將安全性改造到任何系統(tǒng)中的成本要比從一開始就內(nèi)置它要高得多,因此請立即保護您的AI。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論