AI前沿防御:揭秘OpenAI如何挫敗全球網(wǎng)絡(luò)犯罪活動(dòng)

閆志坤編譯
今年,OpenAI在全球范圍內(nèi)成功阻止了超過20起利用人工智能進(jìn)行網(wǎng)絡(luò)犯罪的惡意活動(dòng)。這些活動(dòng)包括開發(fā)惡意軟件、撰寫網(wǎng)站文章、生成社交媒體賬戶傳記,以及為虛假賬戶創(chuàng)建AI生成的個(gè)人資料圖片。盡管黑客不斷嘗試?yán)肙penAI的模型,但目前尚未看到這些行為在制造新型惡意軟件或吸引大量受眾方面取得顯著進(jìn)展。

本文來自微信公眾號(hào)“數(shù)世咨詢”,【編譯】閆志坤。

微信圖片_20241014163150.png

今年,OpenAI在全球范圍內(nèi)成功阻止了超過20起利用人工智能進(jìn)行網(wǎng)絡(luò)犯罪的惡意活動(dòng)。這些活動(dòng)包括開發(fā)惡意軟件、撰寫網(wǎng)站文章、生成社交媒體賬戶傳記,以及為虛假賬戶創(chuàng)建AI生成的個(gè)人資料圖片。盡管黑客不斷嘗試?yán)肙penAI的模型,但目前尚未看到這些行為在制造新型惡意軟件或吸引大量受眾方面取得顯著進(jìn)展。

01 干擾政治選舉的新手段

OpenAI表示,黑客想利用人工智能技術(shù)擾亂了與美國、盧旺達(dá)以及程度較小的印度和歐盟選舉有關(guān)的社交媒體內(nèi)容,所幸的是這些網(wǎng)絡(luò)內(nèi)容均未吸引到病毒式傳播或持續(xù)的受眾。例如以色列商業(yè)公司STOIC(也稱為Zero Zeno)的公關(guān)行為,該公司在社交媒體上對(duì)印度大選發(fā)表評(píng)論,正如Meta和OpenAI在今年5月初披露的那樣。

02 網(wǎng)絡(luò)攻擊行為案例分析

1.典型網(wǎng)絡(luò)攻擊行為

OpenAI發(fā)現(xiàn)的一些典型網(wǎng)絡(luò)攻擊行為如下:

  • SweetSpecter利用其AI模型進(jìn)行LLM偵察、漏洞研究、腳本撰寫、異常檢測規(guī)避和開發(fā)。據(jù)觀察,它還針對(duì)OpenAI員工進(jìn)行了魚叉式網(wǎng)絡(luò)釣魚嘗試(未成功),以傳播SugarGh0st RAT。
  • Cyber Av3ngers是隸屬于伊朗伊斯蘭革命衛(wèi)隊(duì)(IRGC)的一個(gè)組織,它利用其人工智能模型對(duì)可編程邏輯控制器進(jìn)行研究。
  • Storm-0817是一個(gè)伊朗黑客,它使用其AI模型來調(diào)試能夠收集敏感信息的Android惡意軟件、通過Selenium抓取Instagram個(gè)人資料的工具以及將LinkedIn個(gè)人資料翻譯成波斯語。

2.賬號(hào)封鎖與影響力行動(dòng)

同時(shí),OpenAI表示已采取措施封鎖多個(gè)賬號(hào)群,其中包括兩個(gè)與代號(hào)為A2Z和Stop News的影響力行動(dòng)有關(guān)的賬號(hào),這些賬號(hào)生成英語和法語內(nèi)容,隨后發(fā)布在多個(gè)網(wǎng)站和各個(gè)平臺(tái)的社交媒體賬號(hào)上。

“[Stop News]對(duì)圖像的使用異常豐富,”研究人員Ben Nimmo和Michael Flossman表示。“其許多網(wǎng)絡(luò)文章和推文都附有使用DALL·E生成的圖像。這些圖像通常為卡通風(fēng)格,并使用明亮的色調(diào)或戲劇性的色調(diào)來吸引注意力。”

OpenAI Bet Bot和Corrupt Comment還發(fā)現(xiàn)的另外兩個(gè)網(wǎng)絡(luò)分別使用OpenAI的API與用戶進(jìn)行對(duì)話并向他們發(fā)送賭博網(wǎng)站的鏈接,以及制造隨后發(fā)布在平臺(tái)上的評(píng)論。

近兩個(gè)月前,OpenAI禁止了一組與伊朗秘密影響行動(dòng)Storm-2035有關(guān)的賬戶,這些賬戶利用ChatGPT生成內(nèi)容,其中包括關(guān)注即將到來的美國總統(tǒng)大選的內(nèi)容。

尼莫和弗洛斯曼寫道:“黑客最常使用我們的模型來執(zhí)行特定中間階段的任務(wù)——在他們獲得互聯(lián)網(wǎng)訪問、電子郵件地址和社交媒體賬戶等基本工具之后,但在他們通過一系列分發(fā)渠道在互聯(lián)網(wǎng)上部署社交媒體帖子或惡意軟件等‘成品’之前。”

03 人工智能的濫用風(fēng)險(xiǎn)

盡管生成式人工智能被濫用于欺詐和深度偽造操作,網(wǎng)絡(luò)安全公司Sophos在上周發(fā)布的一份報(bào)告中表示,該技術(shù)還可能被濫用,通過目標(biāo)電子郵件傳播定制的虛假信息。這意味著濫用人工智能模型來編造政治競選網(wǎng)站、人工智能生成的跨政治派別的角色,以及根據(jù)競選要點(diǎn)專門針對(duì)他們的電子郵件信息發(fā)送虛假信息,從而實(shí)現(xiàn)新的自動(dòng)化水平,從而可以大規(guī)模傳播錯(cuò)誤信息。

研究人員Ben Gelman和Adarsh Kyadige表示:“這意味著用戶只需稍加配置就可以生成任何內(nèi)容,從良性的競選材料到故意誤導(dǎo)的信息和惡意威脅。”

“任何真正的政治運(yùn)動(dòng)或候選人都有可能支持任何政策,即使他們并不同意。像這樣的故意誤導(dǎo)可能會(huì)讓人們支持他們并不支持的候選人,或者不同意他們認(rèn)為自己喜歡的候選人。”

*本文為閆志坤編譯,原文地址:https://thehackernews.com/2024/10/openai-blocks-20-global-malicious.html

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無評(píng)論