冷眼看雷軍AI配音惡搞,這熱鬧還看得下去嗎?

未來(lái),隨著AI技術(shù)的進(jìn)一步發(fā)展,我們可能會(huì)面臨更加復(fù)雜的倫理和安全問題。但同時(shí),我們也看到了積極的趨勢(shì):檢測(cè)技術(shù)在不斷進(jìn)步,法律法規(guī)在逐步完善,公眾意識(shí)在持續(xù)提高。只有保持警惕,不斷創(chuàng)新,我們才能在享受AI技術(shù)便利的同時(shí),有效管控其帶來(lái)的風(fēng)險(xiǎn)。

本文來(lái)自安全牛。

國(guó)慶長(zhǎng)假期間,一系列利用AI技術(shù)克隆小米公司創(chuàng)始人雷軍聲音的惡搞視頻在社交媒體平臺(tái)上迅速傳播。這些視頻在短時(shí)間內(nèi)獲得了大量點(diǎn)擊和轉(zhuǎn)發(fā),許多網(wǎng)友表示自己仿佛"被AI雷軍追著罵了一個(gè)假期"。在10月7日,雷軍在社交媒體上以三個(gè)發(fā)怒的表情表達(dá)了自己對(duì)此事的不滿。

大部分人都抱著圍觀的心態(tài)對(duì)待雷軍AI配音惡搞事件,但整件事情細(xì)思極恐。AI生成技術(shù)在展示令人驚嘆的創(chuàng)新潛力的同時(shí),也暴露了嚴(yán)重的安全隱患。

今天雷軍被惡搞了,每個(gè)人、每個(gè)機(jī)構(gòu)都有可能成為下一個(gè)受害者;今天雷軍的損失只是被惡搞了,更為嚴(yán)重的可能是財(cái)產(chǎn)、聲譽(yù)的損失,甚至危及國(guó)家安全。

 微信圖片_20241011134520.jpg

雷軍AI配音惡搞事件背后的隱藏威脅

雷軍AI配音惡搞事件雖然表面上看似一場(chǎng)惡作劇,但其實(shí)際影響遠(yuǎn)遠(yuǎn)超出了簡(jiǎn)單的娛樂效果。從網(wǎng)絡(luò)安全的角度來(lái)看,這一事件揭示了AI技術(shù)在社會(huì)應(yīng)用中的深層次問題和潛在風(fēng)險(xiǎn)。

個(gè)人隱私與數(shù)字身份安全威脅

在數(shù)字時(shí)代,個(gè)人隱私和數(shù)字身份的保護(hù)已經(jīng)成為一個(gè)重要議題。AI聲音克隆技術(shù)的濫用直接威脅到了個(gè)人的數(shù)字身份安全。

聲音作為生物特征的一種,一直被認(rèn)為是相對(duì)安全的個(gè)人識(shí)別方式。然而,AI聲音克隆的發(fā)展使得這一觀念受到了挑戰(zhàn)。上半年,OpenAI展示了其語(yǔ)音生成模型Voice Engine,僅憑一段15秒的音頻樣本,它就能夠生成與說(shuō)話者高度相似且富有感情的自然語(yǔ)音。這意味著,任何在公開場(chǎng)合發(fā)表演講或在網(wǎng)上發(fā)布視頻的人,都可能成為AI克隆技術(shù)潛在的受害目標(biāo)。

在雷軍AI配音惡搞事件中,雷軍的數(shù)字身份被他人隨意操控和濫用。這不僅侵犯了個(gè)人權(quán)益,也動(dòng)搖了數(shù)字社會(huì)的信任基礎(chǔ)。

信息真實(shí)性的挑戰(zhàn)

AI生成的高度逼真內(nèi)容正在模糊真實(shí)與虛假的界限,這對(duì)信息的真實(shí)性構(gòu)成了嚴(yán)重挑戰(zhàn)。在AI技術(shù)的加持下,虛假信息可以以極其逼真的方式呈現(xiàn)。這意味著,我們正面臨著一個(gè)"后真相"時(shí)代,事實(shí)的重要性被情感共鳴和個(gè)人信念所取代。

在雷軍AI配音惡搞事件中,雖然大多數(shù)人意識(shí)到這是惡搞,但仍有部分人將其視為真實(shí)。這種情況如果發(fā)生在更敏感的話題上,很可能引發(fā)社會(huì)恐慌。

2023年3月,一張AI生成的教皇方濟(jì)各穿著時(shí)尚白色羽絨服的照片在網(wǎng)上瘋傳。盡管很快被證實(shí)是假的,但這張照片被許多網(wǎng)友瘋狂轉(zhuǎn)發(fā),引發(fā)了關(guān)于宗教領(lǐng)袖形象的廣泛討論。

社會(huì)信任體系的動(dòng)搖

信任是社會(huì)運(yùn)轉(zhuǎn)的基礎(chǔ)。然而,AI深度偽造技術(shù)的廣泛應(yīng)用正在動(dòng)搖這一基礎(chǔ)。隨著深度偽造內(nèi)容的增多,公眾可能會(huì)對(duì)所有在線內(nèi)容產(chǎn)生懷疑。

在俄羅斯-烏克蘭沖突中,曾出現(xiàn)一段據(jù)稱是烏克蘭總統(tǒng)澤連斯基呼吁軍隊(duì)投降的視頻。盡管這段視頻很快被證實(shí)是深度偽造的,但它仍在社交媒體上廣泛傳播,造成了短暫的恐慌和混亂。這個(gè)案例展示了深度偽造技術(shù)如何被用來(lái)操縱公眾輿論,破壞社會(huì)信任。

法律監(jiān)管的滯后性

現(xiàn)有的法律框架在應(yīng)對(duì)AI帶來(lái)的新型安全威脅時(shí)顯得力不從心。現(xiàn)有的隱私保護(hù)、知識(shí)產(chǎn)權(quán)和誹謗法律在應(yīng)對(duì)AI生成內(nèi)容時(shí)面臨諸多挑戰(zhàn)。例如,在確定AI生成內(nèi)容的法律責(zé)任時(shí),由誰(shuí)來(lái)承擔(dān)責(zé)任?是開發(fā)AI技術(shù)的公司,還是使用這項(xiàng)技術(shù)的個(gè)人?

同時(shí),互聯(lián)網(wǎng)的全球性使得AI深度偽造的影響可以迅速跨越國(guó)界。然而,各國(guó)法律的差異增加了跨境執(zhí)法的難度,現(xiàn)有國(guó)際框架在處理 AI 相關(guān)跨境知識(shí)產(chǎn)權(quán)糾紛時(shí)面臨的嚴(yán)峻挑戰(zhàn)。

技術(shù)倫理的再思考

AI技術(shù)的快速發(fā)展遠(yuǎn)遠(yuǎn)超過了相關(guān)的倫理規(guī)范和法律法規(guī)。如何在技術(shù)創(chuàng)新和社會(huì)責(zé)任之間找到平衡,成為當(dāng)前社會(huì)面臨的重要課題。

長(zhǎng)期以來(lái),人們傾向于認(rèn)為技術(shù)是中立的,問題在于使用者。然而,AI技術(shù)的發(fā)展正在挑戰(zhàn)這一觀點(diǎn)。麻省理工學(xué)院的倫理學(xué)家Wendell Wallach指出,AI系統(tǒng)的設(shè)計(jì)本身就包含了價(jià)值判斷,因此我們需要在技術(shù)開發(fā)的早期階段就考慮倫理問題。

AI深度偽造帶來(lái)的網(wǎng)絡(luò)安全威脅

AI深度偽造技術(shù)不僅限于聲音克隆,還包括視頻、圖像等多個(gè)領(lǐng)域。這些技術(shù)的發(fā)展和應(yīng)用正在給網(wǎng)絡(luò)安全帶來(lái)一系列新的挑戰(zhàn)。

身份盜用與欺詐的加劇

AI深度偽造技術(shù)為身份盜用和欺詐行為提供了強(qiáng)大的工具,使得這類犯罪變得更加難以識(shí)別和防范。

一是社交工程攻擊的升級(jí)。傳統(tǒng)的社交工程攻擊主要依賴于文字和簡(jiǎn)單的圖像偽造。而AI深度偽造技術(shù)的出現(xiàn),使得攻擊者可以創(chuàng)建更加逼真的虛假身份,增加了攻擊的成功率。

二是生物特征認(rèn)證系統(tǒng)變得脆弱。AI 深度偽造技術(shù)可以生成高度逼真的虛假生物特征信息,對(duì)廣泛應(yīng)用的生物特征認(rèn)證(如人臉識(shí)別、聲紋識(shí)別)構(gòu)成了直接威脅。

虛假信息的泛濫

AI技術(shù)使得大規(guī)模生成和傳播虛假信息變得更加容易,這不僅影響個(gè)人判斷,還可能危及社會(huì)穩(wěn)定。

AI可以快速生成看似真實(shí)的新聞文章、圖片和視頻,這些內(nèi)容被稱為"深度假新聞"。這些虛假信息的傳播速度往往快于真相。美國(guó)麻省理工學(xué)院的一份報(bào)告指出,假新聞在社交媒體的傳播速度是真實(shí)新聞的6倍。

在歐美國(guó)家,AI深度偽造技術(shù)還可能被用于制作虛假的政治人物言論或行為,影響選民的判斷。

網(wǎng)絡(luò)釣魚攻擊的升級(jí)

AI技術(shù)使得網(wǎng)絡(luò)釣魚攻擊變得更加精準(zhǔn)和難以識(shí)別。AI可以通過分析大量數(shù)據(jù),生成高度個(gè)性化的釣魚郵件。與此同時(shí),AI語(yǔ)音克隆技術(shù)為語(yǔ)音釣魚攻擊提供了新的工具。這樣,網(wǎng)絡(luò)犯罪分子在釣魚活動(dòng)中可以顯得更可信,更容易從受害者那里獲取隱私信息或財(cái)產(chǎn)等。

商業(yè)安全的新威脅

深度偽造技術(shù)的濫用可能對(duì)經(jīng)濟(jì)安全造成重大威脅,包括金融欺詐、市場(chǎng)操縱和商業(yè)信譽(yù)損害等。

比如,被用于制造虛假信息,影響金融市場(chǎng)走勢(shì),造成嚴(yán)重的經(jīng)濟(jì)損失和市場(chǎng)動(dòng)蕩。美國(guó)證券交易委員會(huì)(SEC)在2023年曾對(duì)兩家在投資流程中使用人工智能做出了虛假和誤導(dǎo)性聲明的投資咨詢公司采取了執(zhí)法行動(dòng)。

還可能被用來(lái)制造虛假的商業(yè)丑聞或產(chǎn)品缺陷,嚴(yán)重?fù)p害企業(yè)聲譽(yù)和品牌價(jià)值。還可能生成大量看似真實(shí)的產(chǎn)品評(píng)論,影響消費(fèi)者決策。

勒索威脅的加劇

AI深度偽造技術(shù)為犯罪分子提供了新的勒索工具。犯罪分子可能使用AI技術(shù)創(chuàng)建看似真實(shí)的綁架視頻,向受害者家屬勒索。他們還有可能威脅發(fā)布AI生成的虛假但有損聲譽(yù)的內(nèi)容,以此勒索個(gè)人或企業(yè)。

司法證據(jù)可信度的降低

AI深度偽造技術(shù)的存在使得數(shù)字證據(jù)的可靠性受到質(zhì)疑,可能影響司法公正。隨著AI技術(shù)的發(fā)展,區(qū)分真實(shí)和偽造的數(shù)字證據(jù)變得越來(lái)越困難。于是"騙子的紅利"出現(xiàn),也就是說(shuō),只有在不當(dāng)行為被曝光后,當(dāng)事人才指出證據(jù)是AI偽造的。這種現(xiàn)象增加了司法程序的復(fù)雜性。

隱私泄露的新維度

AI深度偽造技術(shù)為隱私侵犯提供了新的途徑。AI技術(shù)可以創(chuàng)建個(gè)人的"數(shù)字分身",即在虛擬環(huán)境中高度仿真的個(gè)人形象和行為模式。這種技術(shù)雖然在某些場(chǎng)景下可被積極應(yīng)用,但也可能被濫用。例如,未經(jīng)授權(quán)使用他人的數(shù)字分身進(jìn)行商業(yè)活動(dòng)或不當(dāng)行為。

AI深度偽造技術(shù)可能被用于創(chuàng)建從未存在過的私密內(nèi)容,如合成的裸照或私密視頻。這種被稱為"深度隱私"侵犯的行為,對(duì)受害者造成的心理傷害可能比傳統(tǒng)的隱私泄露更為嚴(yán)重。

技術(shù)、法律、社會(huì)協(xié)同,構(gòu)建 AI 深度偽造防護(hù)網(wǎng)

面對(duì)AI深度偽造帶來(lái)的多重安全威脅,我們需要從技術(shù)、法律、社會(huì)等多個(gè)層面采取綜合措施:

技術(shù)對(duì)抗

技術(shù)手段是應(yīng)對(duì)AI深度偽造最直接的方法,主要包括檢測(cè)和認(rèn)證兩個(gè)方向。

其一,深度偽造檢測(cè)技術(shù)。深度學(xué)習(xí)算法不僅可以用來(lái)生成深度偽造內(nèi)容,也可以用來(lái)識(shí)別它們。目前,多家科技公司和研究機(jī)構(gòu)都在開發(fā)視覺特征分析、音頻分析和多模態(tài)分析等深度偽造檢測(cè)技術(shù)。其中多模態(tài)分析結(jié)合視覺、音頻、文本等多種信息進(jìn)行綜合分析,提高檢測(cè)準(zhǔn)確性。

其二,內(nèi)容認(rèn)證系統(tǒng)。除了被動(dòng)檢測(cè),主動(dòng)認(rèn)證也是一個(gè)重要方向。

區(qū)塊鏈技術(shù):利用區(qū)塊鏈的不可篡改特性,為原始內(nèi)容創(chuàng)建數(shù)字指紋。Adobe公司的Content Authenticity Initiative就是基于這一理念,旨在為每個(gè)數(shù)字創(chuàng)作建立可追溯的來(lái)源。

數(shù)字水?。涸谠純?nèi)容中嵌入不可見的數(shù)字水印,用于后續(xù)的身份驗(yàn)證。

其三,內(nèi)容審核工具。比如,微軟推出Azure AI Content Safety的AI內(nèi)容審核工具,在Azure AI服務(wù)內(nèi)置了內(nèi)容審核功能,自動(dòng)過濾可能有害或不當(dāng)?shù)腁I生成內(nèi)容。

法律監(jiān)管

法律框架的完善是遏制AI深度偽造濫用的重要保障,要優(yōu)化相關(guān)的立法流程、明確平臺(tái)責(zé)任、開始跨境執(zhí)法合作。

當(dāng)前,世界各地的監(jiān)管機(jī)構(gòu)都在積極推動(dòng):

在美國(guó),截至2024年1月,全美50州共提出211項(xiàng)與人工智能相關(guān)的法案,其中一半關(guān)注深度偽造。例如,加利福尼亞州通過了多項(xiàng)AI監(jiān)管法案,其中包括禁止在選舉前60天內(nèi)制作或分發(fā)與政治人物相關(guān)的欺騙性深度偽造內(nèi)容。

在歐盟,《人工智能法案》要求相關(guān)方對(duì)于深度偽造的內(nèi)容進(jìn)行披露和標(biāo)記。

在我國(guó),2023年8月發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》,要求生成式AI服務(wù)提供者采取措施防范虛假信息生成傳播。

隨著相關(guān)案件的增多,司法實(shí)踐也在不斷積累經(jīng)驗(yàn)。比如,在深度偽造相關(guān)案件中,如何分配舉證責(zé)任這個(gè)關(guān)鍵問題的答案逐漸明細(xì);法院在判定深度偽造案件的賠償金額時(shí),開始考慮技術(shù)傳播的廣泛性和持久性。

行業(yè)自律

科技行業(yè)的自我約束和積極行動(dòng)是應(yīng)對(duì)AI深度偽造威脅的重要組成部分。

早在2016年,電氣電子工程師學(xué)會(huì)(IEEE)就發(fā)起"倫理化人工智能設(shè)計(jì)"全球倡議,并發(fā)布《人工智能設(shè)計(jì)的倫理準(zhǔn)則》白皮書。

許多科技巨頭已經(jīng)建立了自己的AI倫理委員會(huì)。例如,微軟設(shè)立了負(fù)責(zé)任人工智能辦公室和人工智能、倫理與工程研究委員會(huì),負(fù)責(zé)制定和實(shí)施AI倫理準(zhǔn)則。此外,谷歌、IBM、阿里巴巴、百度等都設(shè)有類似的機(jī)構(gòu)。

教育與宣傳

提高公眾的媒體素養(yǎng)和AI意識(shí)是長(zhǎng)期而有效的策略。

強(qiáng)化媒體素養(yǎng)教育,多個(gè)國(guó)家開始將媒體素養(yǎng)納入基礎(chǔ)教育課程。例如,芬蘭不僅將媒介素養(yǎng)教育納入國(guó)家課綱,還從幼兒園開始進(jìn)行相關(guān)教育,以培養(yǎng)兒童從早期就具備識(shí)別和抵制虛假信息的能力,成為抵御虛假信息的"模范生"。

提高公眾的AI意識(shí)。一方面舉辦公眾科普活動(dòng)提高公眾對(duì)AI技術(shù)的認(rèn)知;另一方面強(qiáng)化社交媒體宣傳。

社會(huì)協(xié)作

應(yīng)對(duì)AI深度偽造威脅需要社會(huì)各界的共同努力。形成多方參與的監(jiān)督機(jī)制,一方面推動(dòng)“政府-企業(yè)-學(xué)術(shù)界”的合作,另一方面引導(dǎo)公民社會(huì)的參與。非政府組織在深度偽造識(shí)別和報(bào)告方面可以發(fā)揮重要作用。

跨國(guó)合作

鑒于AI深度偽造的全球性影響,國(guó)際合作變得越來(lái)越重要。其中,情報(bào)共享和聯(lián)合研究室行之有效的辦法。

比如,亞馬遜、谷歌、微軟、TikTok和OpenAI等20家科技公司今年2月在慕尼黑安全會(huì)議期間表示,將共同努力打擊旨在誤導(dǎo)選民的內(nèi)容制作和傳播,如在圖片中添加水印。

個(gè)人防護(hù)

盡管系統(tǒng)性的解決方案很重要,但個(gè)人的防護(hù)意識(shí)和能力同樣不可或缺。

一是關(guān)注數(shù)字身份保護(hù)。避免在公開場(chǎng)合發(fā)布過多的語(yǔ)音內(nèi)容,謹(jǐn)慎使用面部識(shí)別解鎖功能,特別是在金融等高安全性要求的應(yīng)用中。

二是養(yǎng)成信息驗(yàn)證習(xí)慣。養(yǎng)成從多個(gè)可靠來(lái)源驗(yàn)證重要信息的習(xí)慣,并學(xué)習(xí)使用一些簡(jiǎn)單的在線驗(yàn)證工具

三是強(qiáng)化隱私設(shè)置管理。定期檢查并更新社交媒體賬號(hào)的隱私設(shè)置,并堅(jiān)持?jǐn)?shù)據(jù)最小化原則,只分享必要的個(gè)人信息。

未來(lái),隨著AI技術(shù)的進(jìn)一步發(fā)展,我們可能會(huì)面臨更加復(fù)雜的倫理和安全問題。但同時(shí),我們也看到了積極的趨勢(shì):檢測(cè)技術(shù)在不斷進(jìn)步,法律法規(guī)在逐步完善,公眾意識(shí)在持續(xù)提高。只有保持警惕,不斷創(chuàng)新,我們才能在享受AI技術(shù)便利的同時(shí),有效管控其帶來(lái)的風(fēng)險(xiǎn)。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無(wú)評(píng)論