AI詐騙近在眼前,我們該怎么防?

AI給我們帶來的危害,卻近在眼前。而且,對大多數(shù)人而言,他們只有在親身經(jīng)歷后,才知道自己也是一個受害者。

本文來自企鵝號“學(xué)術(shù)頭條”。

任何技術(shù),都是一把雙刃劍。人工智能(AI)又可能給我們帶來哪些危害呢?

當(dāng)前,無論是科學(xué)家、企業(yè)家、媒體,還是我們身邊的其他人,一直在討論AI的長期危害,比如可能讓打工人丟掉飯碗、超越或取代人類的思維,甚至讓人類失去對文明的控制等等。

然而,AI給我們帶來的危害,卻近在眼前。而且,對大多數(shù)人而言,他們只有在親身經(jīng)歷后,才知道自己也是一個受害者。

360截圖16251112669372.png

近日,“一公司老板遭遇AI換臉詐騙,10分鐘被騙430萬元”的新聞一度登上了各大新聞網(wǎng)站的熱搜。據(jù)被害人透露,詐騙人通過AI換臉和擬聲技術(shù),成功佯裝為他的好友,然后對其進(jìn)行詐騙,“當(dāng)時是給我打了視頻的,我在視頻中也確認(rèn)了面孔和聲音,所以才放松了戒備。”

盡管這一事件讓人們對“AI換臉”詐騙有了更多的認(rèn)識,但實(shí)際上,“AI換臉”的例子遠(yuǎn)不止這些,直播間賣貨的當(dāng)紅明星、一些不雅視頻中的面孔等等,都可能是不法分子利用AI技術(shù)制造的騙局。

另外,不法分子也會在盜取他人微信賬號后利用AI技術(shù)提取語音文件,通過轉(zhuǎn)發(fā)微信語音進(jìn)行詐騙。

問題是,我們在享受AI技術(shù)帶來的便利時,該如何應(yīng)對“AI換臉”等新型詐騙?

去年12月,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部聯(lián)合發(fā)布了《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,其中提到:深度合成服務(wù)提供者對使用其服務(wù)生成或編輯的信息內(nèi)容,應(yīng)當(dāng)添加不影響使用的標(biāo)識。提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內(nèi)容功能的服務(wù)的,應(yīng)當(dāng)進(jìn)行顯著標(biāo)識,避免公眾混淆或者誤認(rèn)。

本月初,某短視頻平臺也發(fā)布了“關(guān)于人工智能生成內(nèi)容的平臺規(guī)范暨行業(yè)倡議”,明確禁止利用生成式人工智能技術(shù)創(chuàng)作、發(fā)布侵權(quán)內(nèi)容,包括但不限于肖像權(quán)、知識產(chǎn)權(quán)等,一經(jīng)發(fā)現(xiàn),平臺將嚴(yán)格處罰。

360截圖16251112669372.png

上文提到的換臉直播,可能涉嫌侵犯相關(guān)明星藝人的肖像權(quán),如果涉及直播帶貨等商業(yè)行為,會成為加重情節(jié)。值得注意的是,即便只是娛樂,不涉及盈利行為,只要未經(jīng)肖像權(quán)人同意,換臉直播也屬于侵權(quán)。

那么,就個人而言,又該如何警惕“AI換臉”等新型詐騙呢?

5月24日,中國互聯(lián)網(wǎng)協(xié)會發(fā)文警示,“面對利用AI技術(shù)的新型騙局,廣大公眾需提高警惕,加強(qiáng)防范!”具體而言,我們應(yīng)該做好個人信息安全第一責(zé)任人,以及在遠(yuǎn)程轉(zhuǎn)賬時務(wù)必進(jìn)行多重驗(yàn)證,把好“錢袋子”。

360截圖16251112669372.png

360截圖16251112669372.png

而對行業(yè)而言,澎湃特約評論員熊志認(rèn)為,必須盡快立規(guī),明確信息保護(hù)紅線,加強(qiáng)對技術(shù)服務(wù)商行為的規(guī)范引導(dǎo),只有AI換臉、AI擬聲等在每一個環(huán)節(jié)有據(jù)可依、嚴(yán)格授權(quán),提升造假詐騙難度,才能更好保護(hù)每個人的信息和財產(chǎn)安全。

最后,如果你感覺你正在遭受或已經(jīng)遭受了AI換臉、AI擬聲等詐騙,一定要學(xué)會用“法”打敗“AI魔法”。當(dāng)然,最好的應(yīng)對方法便是,選擇不去相信。

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論