用人工智能打擊人工智能

R. Colin Johnson
用于欺詐檢測的“大銅鈴”是一種驗證器,可以及時識別并實時標(biāo)注“Fake”。但不幸的是,其結(jié)果很可能招來欺詐者的人工智能報復(fù),旨在實時愚弄驗證者。

動畫《成龍歷險記》中“老爹”這一角色曾有一句名言:“要用魔法擊敗魔法。”隨著AI技術(shù)的發(fā)展以及部分濫用,這句話也被應(yīng)用在了人工智能上,一場新的軍備競賽開始了:人工智能vs人工智能。

人工智能在打擊未遂信用卡欺詐方面取得了重大進(jìn)展:我們大多數(shù)人都收到過信用卡發(fā)卡機(jī)構(gòu)發(fā)來的消息,以確認(rèn)網(wǎng)絡(luò)犯罪分子的未遂購買行為。利用機(jī)器學(xué)習(xí)來編譯“合成身份”(Synthetic identities),顯示其信用卡持有人的通常行為模式,金融機(jī)構(gòu)可以實時發(fā)現(xiàn)異常行為。然而不幸的是,網(wǎng)絡(luò)罪犯同樣也利用人工智能創(chuàng)建自己的合成身份,產(chǎn)生的結(jié)果也足夠真實,足以愚弄發(fā)現(xiàn)異常行為的人工智能。

這場人工智能之戰(zhàn)——也是打擊網(wǎng)絡(luò)安全欺詐者,正在假新聞、假視頻和假音頻的戰(zhàn)壕中展開。就這樣,一場新的軍備競賽開始了:人工智能vs人工智能。

Jupiter Research的Steffen Sorrell表示,合成身份是信用卡欺詐“容易實現(xiàn)的目標(biāo)”。根據(jù)Jupiter Research最新的在線支付欺詐報告,到2024年,合成身份推動在線支付欺詐給壞人造成2000億美元的損失。對好人來說,這也將推動欺詐檢測市場同期達(dá)到100億美元,高于今年的85億美元。

“在線欺詐發(fā)生在高度發(fā)達(dá)的、存在分工的生態(tài)系統(tǒng)中,”位于美國愛達(dá)荷州博伊西的基于ID的反欺詐企業(yè)Kount Inc的人工智能科學(xué)主管Josh Johnston說,網(wǎng)絡(luò)犯罪分子專門從事不同類型的犯罪,從手動“刷卡”到用人工智能創(chuàng)建合成身份。Johnston說:“還有一些人針對慈善機(jī)構(gòu)和數(shù)字商品商戶等軟目標(biāo)測試被盜的卡號和憑證,以確保它們沒有被取消。”他聲稱,在暗網(wǎng)的網(wǎng)絡(luò)黑市中,用不了一美元就可以買到具有準(zhǔn)確姓名、地址和CVV(卡片驗證值)的大額信用卡卡號。

Johnston說:“欺詐者可以購買這些驗證卡的清單,并通過任意數(shù)量的在線計劃從中獲利。“這些犯罪分子大量使用人工智能,他們也像合法開發(fā)者一樣,在互聯(lián)網(wǎng)論壇上分享軟件工具和技巧。”

根據(jù)Johnston的說法,這些大量Fake使用了所有類型的人工智能和其他自動化技術(shù),從通過組合真實姓名和隨機(jī)數(shù)字來生成并注冊真實的電子郵件地址的小程序,到通過結(jié)合多個真實人物的信息來創(chuàng)建合成身份的大型機(jī)器學(xué)習(xí)程序。如果欺詐檢測器檢查一個合成身份,它們通常會發(fā)現(xiàn)一個虛假的電子郵件賬戶、Facebook頁面、以及其他顯示合成身份細(xì)節(jié)的互聯(lián)網(wǎng)形象已經(jīng)被欺詐者記錄下來。

因此,網(wǎng)絡(luò)安全程序員的欺詐檢測技能和黑帽黑客的欺詐創(chuàng)造技能形成了交鋒。

這些欺詐創(chuàng)造技能不僅用于信用卡詐騙,還擴(kuò)展到圖像和語音識別領(lǐng)域,在這些領(lǐng)域中,這些工具被反過來用于制造假新聞、假視頻和假音頻。事實上,據(jù)Juniper Research的Nick Maynard稱,使用假音頻的匯款欺詐比在線支付欺詐增長得更快。他表示,到2024年,這一領(lǐng)域的損失預(yù)計將增長130%。

Maynard說:“機(jī)器學(xué)習(xí)對于遏制欺詐越來越重要。”

Deepfake是一場打地鼠游戲,因為每一種人工智能(無論是好的還是壞的)都會暫時占據(jù)上風(fēng)。“這是一場貓捉老鼠的游戲,”Johnston說,他用一個變量來衡量成敗,該變量他稱之為“摩擦”,這種變量會減緩一方或另一方的速度,直到一種新形式的“潤滑”可以讓一方領(lǐng)先于另一方。

“欺詐者會對摩擦做出反應(yīng),就像互聯(lián)網(wǎng)上的合法用戶一樣。當(dāng)我們占了上風(fēng),給欺詐者造成太多摩擦?xí)r,他們就會轉(zhuǎn)向一個不受欺詐檢測器保護(hù)的軟目標(biāo)。一個好的欺詐解決方案會增加壞人的摩擦,減少好客戶的摩擦。然而,一方的進(jìn)步,會導(dǎo)致另一方面的策略發(fā)生轉(zhuǎn)變。”

Johnston說,當(dāng)互聯(lián)網(wǎng)剛剛出現(xiàn)的時候,網(wǎng)上就沒有什么值得盜竊的東西,因此欺詐者大多在網(wǎng)上測試信用卡,然后通過親自購買商品來變現(xiàn)而獲利。如今,在線交易對壞人來說,和對我們其他人一樣方便。信用卡內(nèi)置安全芯片的普遍采用,使得面對面交易成為欺詐者的一大風(fēng)險,其結(jié)果是,欺詐活動越來越多地轉(zhuǎn)移到網(wǎng)上。因此,Johnston表示,欺詐檢測人工智能正在使用更詳細(xì)的分析。

Johnston稱:“在不放棄農(nóng)場的情況下,我們在2020年成功防欺詐的方法依賴于跨越大型數(shù)據(jù)集來尋找欺詐的固有模式。壞人可以竊取你所有的秘密,但他們無法模仿你的品味、行為和歷史。歸根結(jié)底,欺詐者不得不通過欺詐手段才能拿到有價值的東西,只要有正確的數(shù)據(jù),我們就能分辨出欺詐者和好客戶。”

假新聞/假視頻/假音頻

人工智能已經(jīng)被用來自動創(chuàng)建假新聞故事。例如,OpenAI的原型GPT-2文本生成系統(tǒng)使用機(jī)器學(xué)習(xí)來翻譯文本、回答問題和編寫假新聞。當(dāng)“唐納德·特朗普意外地……俄羅斯已向美國宣戰(zhàn)”這句話被輸入GPT-2后,它就創(chuàng)造了下面這則假新聞故事:

在唐納德·特朗普意外向空中發(fā)射導(dǎo)彈后,俄羅斯向美國宣戰(zhàn)。俄羅斯表示,已經(jīng)“確定導(dǎo)彈的彈道,并將采取必要措施,確保俄羅斯民眾和該國戰(zhàn)略核力量的安全。”白宮方面稱,它對俄羅斯違反《中程導(dǎo)彈條約》的行為表示“極為關(guān)切”。

更多關(guān)于GPT-2產(chǎn)生假新聞的細(xì)節(jié),可以在OpenAI網(wǎng)站上的樣本中找到。

紐約州立大學(xué)水牛城分校(University at Buffalo)科學(xué)與工程學(xué)教授David Doermann說,“像OpenAI這樣的開源聯(lián)盟正在向我們展示未來的欺詐行為可能是什么樣子的:使用自動化工具可以擴(kuò)展到大規(guī)模攻擊。目前,F(xiàn)ake占據(jù)了上風(fēng),但是我們需要縮小差距,以便我們能夠迅速超越它們。這種情況變得很像惡意軟件,黑客利用的每個新漏洞,都由網(wǎng)絡(luò)安全程序員來修補(bǔ)。有朝一日,對于造假者來說,可能會因為成本太過高昂而無法繼續(xù)追求下去,但更有可能的是,這將是一場拉鋸戰(zhàn),沒有明確的贏家。”

同時,根據(jù)Doermann的說法,好人需要教育公眾,對互聯(lián)網(wǎng)上的一切要持保留態(tài)度;如果聽起來太好(或太壞)而不像是真的,那么它可能就是真的。Doermann說,“這并不是一項不可能完成的任務(wù)。例如,現(xiàn)在大多數(shù)人都知道,不要點擊來源不明的附件,媒體也知道如何在垃圾郵件到達(dá)收件箱之前識別出來并過濾掉它們,”同樣,已知的贗品甚至可能的贗品也可以貼上這樣的標(biāo)簽,以提醒人們不要太當(dāng)真。在某些情況下,比如兒童色情制品,贗品可以完全被過濾掉,而不會侵犯第一修正案的權(quán)利。

聯(lián)合國區(qū)域間犯罪和司法研究所(United Nations International Crime and Justice Research Institute,UNICRI)人工智能和機(jī)器人中心負(fù)責(zé)人Irakli Beridze對此表示贊同。“Deepfake只是‘被操控’新聞問題的一個新維度。”Beridze說,“這項技術(shù)一直存在,但直到最近才被‘民主化’,通過眾多的應(yīng)用程序變得更容易使用,使那些沒有什么技術(shù)訣竅的人,也能創(chuàng)造出自己的Deepfake。Deepfake的蔓延帶來了影響深遠(yuǎn)的挑戰(zhàn),它有可能會威脅到國家安全,包括威脅到選舉和公共安全,以及破壞外交教、民主、公共話語和新聞業(yè)。”

據(jù)Beridze稱,許多組織都在努力開發(fā)軟件,以便更容易識別出Deepfake。她和Doermann聲稱,識別Deepfake的技術(shù)工具已存在,只需進(jìn)一步開發(fā)即可成為“交鑰匙”的解決方案。與此同時,雙方都認(rèn)為,需要做更多的工作來降低普通消費者的輕信率。正如垃圾郵件問題在公眾意識中提到提高一樣,對Deepfake的認(rèn)識也需要提高。Beridze稱之為“對消費者資深的批判性分析”。

就在去年,聯(lián)合國區(qū)域間犯罪和司法研究所在海牙舉行的“和平、正義與安全”黑客松(Hackathon for Peace,Justice and Security)會議上提出了一個Deepfake的挑戰(zhàn)。比賽要求參賽者創(chuàng)建用于檢測被操縱視頻的工具,這些工具可用于支持執(zhí)法、安全機(jī)構(gòu)、司法、媒體和公眾。

Beridze說:“獲勝團(tuán)隊提出了一個用于圖像分類的神經(jīng)網(wǎng)絡(luò)架構(gòu)和一個簡化用戶交互的Web應(yīng)用程序。這個解決方案作為概念的技術(shù)證明,隨后在2019年的技術(shù)研討會上得到了完善。到2020年,我們將積極努力,將這項技術(shù)從概念驗證推廣到全面應(yīng)用。”

但是,Beridze警告說,對于Deepfake這個問題還沒有快速的解決辦法。他解釋說,技術(shù)變化的步伐越來越快,需要更全面的的解決方案來監(jiān)控技術(shù)進(jìn)步和使用技術(shù)的Deepfake,從而通過預(yù)測明年的更先進(jìn)技術(shù)來領(lǐng)先于看不見的問題。

Beridze稱,“這是一個需要多方利益相關(guān)者和跨部門合作的循環(huán)過程。在這方面,聯(lián)合國中心的目標(biāo)之一是增加和促進(jìn)與整個公共部門、工業(yè)界、學(xué)術(shù)界以及相關(guān)安全實體、情報機(jī)構(gòu)和反恐機(jī)構(gòu)等利益相關(guān)者的知識共享和關(guān)系建設(shè),以幫助當(dāng)局跟上步伐。在這樣做的時候,我們?yōu)橹贫?、部署和使用合法、可信、尊重人?quán)、民主、正義和法治的解決方案提供指導(dǎo)。”

假視頻和假音頻是由不良的人工智能驅(qū)動的最新欺詐創(chuàng)新??梢哉f,公眾對這類假新聞的認(rèn)識始于2016年大選年,當(dāng)時“假新聞”成為一個流行詞。大多數(shù)政治視頻都是明顯的Deepfake,知識一次性的模仿,只不過是用“愚人節(jié)”版的演講取代了政客們的嘴唇。然而,通過使用機(jī)器學(xué)習(xí)重新利用人工智能面部識別工具,程序員創(chuàng)造了即使是最老練的觀眾也能愚弄的Deepfake假視頻。

Doermann曾經(jīng)是美國國防高等研究計劃署(Defense Advance Research Project Agency,DARPA)MediFor(媒體取證,Media Forensics)計劃的項目經(jīng)理,他表示,DARPA已經(jīng)為政府機(jī)構(gòu)獲得的圖像開發(fā)了自動取證工具,這些工具曾經(jīng)是手動的,需要專家級別才能使用,但后來被安裝到了執(zhí)行認(rèn)證的人工智能中。

“早在Deepfake成為公眾問題之前,我們就開發(fā)出了檢測Deepfake的人工智能工具。我們擔(dān)心恐怖分子和外國政府的假情報來源,我們的目標(biāo)是將人類專家用來識別Deepfake的方法完全自動化。這樣,理想情況下,政府收集的每一種基于圖像的媒體都可以理所當(dāng)然的通過我們的鑒定器來鑒定。”Doermann說。

MediFor正在進(jìn)行中,但已經(jīng)進(jìn)入將其基礎(chǔ)研究結(jié)果整合到最終自動化工具中的階段。與此同時,一個名為SemaFor(語義取證)的新項目接過了基礎(chǔ)研究的接力棒。SemaFor的目標(biāo)是獲取被識別為假圖像,并應(yīng)用人工智能歸因算法來推斷媒體的來源,同時使用特征算法來確定Deepfake是出于惡意目的(比如造謠活動)還是處于良性目的(如娛樂)。

對公眾而言,第一批與真正的總統(tǒng)競選視頻難以區(qū)分的Deepfake視頻很可能會在2020年美國總統(tǒng)大選期間浮出水面。假音頻已經(jīng)被網(wǎng)絡(luò)犯罪分子成功用于匯款欺詐。例如,《華爾街日報》(The Wall Street Journal)報道稱,一通模仿公司首席執(zhí)行官聲音的Deepfake電話欺騙了該公司,誘騙該公司將24.3萬美元匯給了網(wǎng)絡(luò)罪犯。Deepfake最終被發(fā)現(xiàn),但這些錢早已通過電匯網(wǎng)絡(luò)消失,當(dāng)局無法追查。

用于欺詐檢測的“大銅鈴”是一種驗證器,可以及時識別并實時標(biāo)注“Fake”。但不幸的是,其結(jié)果很可能招來欺詐者的人工智能報復(fù),旨在實時愚弄驗證者。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論