當(dāng)人臉識別對準(zhǔn)執(zhí)法者,AI的應(yīng)用邊界博弈

腦極體
當(dāng)AI技術(shù)正在帶來欣欣向榮的智能產(chǎn)業(yè)之時,我們有感于AI可以應(yīng)用的范圍之廣,也感慨于AI普及速度之快。這其中一個非常重要的原因,就在于AI的開發(fā)門檻在大幅降低。

1.jpeg

圖片來源@視覺中國

當(dāng)AI技術(shù)正在帶來欣欣向榮的智能產(chǎn)業(yè)之時,我們有感于AI可以應(yīng)用的范圍之廣,也感慨于AI普及速度之快。這其中一個非常重要的原因,就在于AI的開發(fā)門檻在大幅降低。

驕陽之下,必生陰影。當(dāng)AI正在進(jìn)入尋常百姓家的同時,AI技術(shù)也可能在那些不法之徒手中變身惡龍,釋放規(guī)模更大、后果更嚴(yán)重的人性之惡。

還記得去年那個可以“一鍵脫衣”的DeepNude軟件么,因為觸犯用戶隱私也觸及道德底線而在爆火之后被馬上禁止。但這項技術(shù)卻被很多人盯上,也給了很多黑產(chǎn)以靈感。

據(jù)報道,最近一個DeepNude2.0版本的應(yīng)用程序在Telegram APP上出現(xiàn),同樣也是主打“一鍵脫衣”的功能。與1.0版本有一定技術(shù)門檻不同的是,原先還需要用戶安裝完整軟件和完整的神經(jīng)網(wǎng)絡(luò)框架,做好設(shè)置調(diào)試等操作才能得到一張“裸照”,而現(xiàn)在只需從手機(jī)里上傳一張照片,不需要任何技術(shù)和專門的硬件支持,就能把照片中的目標(biāo)“一鍵脫衣”。

2.jpeg

據(jù)發(fā)現(xiàn)這一軟件的安全公司稱,當(dāng)時已經(jīng)產(chǎn)生了至少68萬名女性的“假裸照”,這意味著大量普通人正在遭受AI所帶來的隱私和名譽(yù)的危害。受害者的“照片”不僅有可能被不法分子用來牟利,如果同時泄露更多社交信息,還有潛在的勒索威脅。

我們不得不面對AI在應(yīng)用中的這一問題:“AI for Good”還是“AI for Evil”,更為復(fù)雜的是,一些AI技術(shù)應(yīng)用,比如人臉識別,也正陷入到了新的博弈困境,比如,人臉識別技術(shù)能否成為普通人對抗強(qiáng)者的工具,還是說,這些AI應(yīng)用必須徹底禁止就行?

這恐怕并不容易能夠立刻做出回答。

人臉識別,反過來對準(zhǔn)了執(zhí)法者

“我們正在逼近小人物也能對付大人物的技術(shù)門檻。”

這是下面事件里的開發(fā)者的立場。他所指的技術(shù)正是人臉識別。而事件的起因是,今年因為非裔男子佛洛依德之死所引發(fā)的全美大抗議。

事件之后,美國俄勒岡州波特蘭市爆發(fā)了持續(xù)數(shù)月的抗議游行,聯(lián)邦特工和波特蘭警方加入到曠日持久的阻擊和鎮(zhèn)壓當(dāng)中。從之前的新聞看來,警方不僅使用了催淚瓦斯,甚至在沖突后出現(xiàn)了槍擊,一人因槍擊死亡的事件。

3.jpeg

一名參與了持續(xù)抗疫的開發(fā)者Christopher Howell則堅持認(rèn)為,“我們必須明確責(zé)任,需要知道事件中誰做了什么。”他所指的就是要對警方身份進(jìn)行識別和行為進(jìn)行確認(rèn)。

Howell是一個熟悉神經(jīng)網(wǎng)絡(luò)算法的開發(fā)者,他們當(dāng)時正好也拍攝了很多警察執(zhí)法的照片。為了防止濫用警力,或警察違規(guī)執(zhí)法,原本警員制服上的名字可以告訴公眾人們他們的身份,但是在這場示威游行中,波特蘭市警察局允許了身穿制服的警察可以遮擋住自己的名字。

因此,Howell才使用了人臉識別技術(shù),連同政府官網(wǎng)、社交媒體和新聞報道中搜集到的警員照片,來辨認(rèn)這些執(zhí)法警察。

而幾乎同時,9月初波特蘭市議會開始公開討論,是否出臺一項立法以全面禁止使用人臉識別技術(shù),該法案將主要禁止警員利用摘下抗議者面罩或者用監(jiān)視攝像頭拍下并識別這些人的身份,也阻止企業(yè)和其他組織使用該技術(shù)識別未知人員的身份。

該法案征求意見期間,Howell反映了他用人臉識別技術(shù)來識別波特蘭警員的事情,這件事讓波特蘭官方感到非常不爽。經(jīng)過討論,該法案也得到了市議會的通過,但Howell個人可以繼續(xù)開展該項目。

這確實出人意料。代表執(zhí)法者的官方被禁止使用人臉技術(shù)來對準(zhǔn)民眾,而民眾個人則有權(quán)利用人臉識別技術(shù)來對抗執(zhí)法者。

Howell的做法并非孤例。原本執(zhí)法部門可以通過政府?dāng)?shù)據(jù)庫中的照片或者通過人臉識別技術(shù)公司Clearview AI從公共互聯(lián)網(wǎng)中獲得的照片,來利用人臉識別技術(shù)發(fā)現(xiàn)犯罪分子,而現(xiàn)在一些激進(jìn)人士反過來用這一技術(shù)對付執(zhí)法部門,用來揭露行為不當(dāng)?shù)膱?zhí)法人員的身份。

去年,一名抗議者Colin Cheung試圖通過警員在網(wǎng)上的照片來識別其身份,因為其在Facebook公開發(fā)布了該項目的視頻而被捕。

白俄羅斯的一個技術(shù)專家則通過YouTube演示了如何使用人臉識別技術(shù)來識別那些暴力執(zhí)法的蒙面警察,其過程也是通過社交媒體上的警員照片進(jìn)行對比而獲得。當(dāng)然,這位專家已經(jīng)逃到了美國洛杉磯。

通過Howell的案例我們看到,只要具有一定AI開發(fā)經(jīng)驗的普通人,都可以利用那些開放的圖像識別軟件,進(jìn)行人臉識別技術(shù)的開發(fā),比如Howell就用了谷歌的TensorFlow,幫助他構(gòu)建機(jī)器學(xué)習(xí)模型。

這就是技術(shù)門檻降低帶給“小人物對抗大人物”的底氣。但是這樣真的好嗎?

濫用人臉識別:一場無人勝出的博弈

我們知道,波特蘭市議會出臺的這一項禁止政府使用人臉識別技術(shù)的法律,其根源正是來自于今年6月在全美開啟的一項關(guān)于“人臉識別技術(shù)是否要禁止”的大爭論。

為聲援全美掀起的“BLM”(黑命貴)抗議活動,微軟、IBM、亞馬遜為代表的科技企業(yè)紛紛表示拒絕向美國警方提供人臉識別技術(shù)服務(wù),其中IBM公司直接宣稱放棄人臉識別業(yè)務(wù),激進(jìn)可見一般。6月底,美國計算機(jī)協(xié)會(ACM)的技術(shù)政策小組呼吁,以記錄在案的種族和性別偏見為由,公開敦促美國立法者立即中止企業(yè)和政府部門使用人臉識別。

其實,在此之前,舊金山、波士頓等城市都以性別偏見和錯誤識別為由,已經(jīng)禁止使用人臉識別技術(shù)用于警察執(zhí)法。而現(xiàn)在,美國參眾兩院的議員推動,美國多個州的地方議會和政府也開始相繼討論和禁止用于執(zhí)法的人臉識別技術(shù)。

雖然警方的人臉識別的軟件之前存在缺陷,出現(xiàn)過錯誤識別和逮捕嫌疑人的情況,但是技術(shù)的問題似乎應(yīng)該通過改進(jìn)技術(shù)來解決,現(xiàn)在為了政治正確,他們把這項技術(shù)也直接推翻。

而另一面,我們也看到,小人物也獲得了對付大人物的“屠龍術(shù)”。激進(jìn)抗議者為了獲得警察的身份數(shù)據(jù)也可謂是不遺余力。

在引入人臉識別技術(shù)之前,一些反監(jiān)視組織采取了眾包的辦法,就是依靠網(wǎng)絡(luò)用戶去識別那些有警察暴力執(zhí)法視頻中的警員身份,或者直接上傳穿制服的警員照片,最后通過那些可以搜索到的記錄執(zhí)法人員的公共數(shù)據(jù)庫,來找到警員的姓名、徽章編號。

現(xiàn)在,這些開源的數(shù)據(jù)庫正在成為像Howell這樣的開發(fā)者獲得警員身份照片的途徑,而人臉識別技術(shù)又能快速判定現(xiàn)在執(zhí)法行動中警員的身份。

這當(dāng)然是給受到暴力執(zhí)法之苦的民眾予以起訴這些執(zhí)法警員的有利途徑,但是同時人臉識別技術(shù)的應(yīng)用有可能導(dǎo)致被更激進(jìn)的人員濫用。因為這些警員也會有私人生活,也會攜帶家人和孩子出行。一旦有些人可以使用這一工具追蹤這些警員,那么很可能讓這些警員和家人處在更加危險的境地。

普通民眾擔(dān)心官方濫用人臉識別技術(shù),因為錯誤識別和種族偏見而蒙受不公待遇,而現(xiàn)在執(zhí)法者卻因為可能濫用的人臉識別技術(shù),被激進(jìn)者跟蹤或報復(fù)。

為了凸顯這一矛盾,最近一個法國藝術(shù)家Paolo Cirio在網(wǎng)絡(luò)發(fā)起了一個名為“Capture”的展覽活動,公布了1000張法國警員的臉部照片,這是從互聯(lián)網(wǎng)和一些參加抗議活動的攝影師那里獲得的照片。他匯總了這些照片之后,聲稱這是開發(fā)一款人臉識別應(yīng)用程序的第一步。

4.jpeg

緊接著,他就收到了來自法國內(nèi)政部的壓力,隨即他撤下了照片。這位藝術(shù)家的立場恰恰是要禁止人臉識別。他希望官方能夠意識到人臉識別技術(shù)帶給人們的壓力,無論是民眾還是執(zhí)法者。而現(xiàn)在官方的做法只是在解決“提出問題的人”,而非去解決問題。

那么,人臉識別技術(shù)就在這樣的沖突中真的無解了嗎?

濫用無解,合規(guī)有道

正如人類幾乎難以阻止AI技術(shù)被用于色情、黑產(chǎn)等灰色地帶,我們也不應(yīng)因噎廢食地放棄AI技術(shù)用于正常的日常社會生產(chǎn)生活當(dāng)中。

現(xiàn)在我們看到,人臉識別技術(shù)已經(jīng)廣泛應(yīng)用到面部解鎖、身份認(rèn)證、面部支付、門禁、通行、安防等領(lǐng)域,不僅給個人生活帶來極大的便利,也給社會環(huán)境提供了更為安全的保障。正如亞馬遜的表態(tài)一樣,他們并未放棄人臉識別技術(shù),而且還會在找尋失蹤兒童上面跟政府進(jìn)行合作,而微軟也希望在聯(lián)邦政府出臺更為嚴(yán)格的監(jiān)管法律之后再重新合作。

當(dāng)然,人臉識別技術(shù)在危及隱私和身份信息安全方面也一直被人們所詬病。

不過,技術(shù)的問題應(yīng)該用技術(shù)的辦法來解決。正如美國的人臉識別技術(shù)在有色人種的識別率差的問題,在好幾年前就已經(jīng)暴露出來,而現(xiàn)在應(yīng)該通過訓(xùn)練樣本等手段的改進(jìn)而改變識別率,而非因為有過“翻車”事件就直接去掉,可謂印證了中國這句“波洗澡水,把孩子也一起潑掉了”的老話。

技術(shù)問題解決,更應(yīng)該強(qiáng)調(diào)的是監(jiān)管問題。

在一個人人皆媒體的時代,誰都將成為社會事件的記錄者。正如弗洛依德事件中,我們看到警方在有意掩蓋現(xiàn)場執(zhí)法過程,而圍觀群眾則將整個事件從各個角度都拍了下來,因此才引起全網(wǎng)的軒然大波。

5.jpeg

如果在沒有攝像機(jī)執(zhí)法,沒有路人圍觀拍攝的情況下,警方一定是強(qiáng)勢的解釋方,真相可能就此被掩蓋。所以,無論從掌握的攝像頭的拍攝數(shù)據(jù)和民眾信息,還是現(xiàn)場的執(zhí)法權(quán),政府和警方都擁有絕對的優(yōu)勢,那么,官方在使用人臉識別技術(shù)的時候,就必須要嚴(yán)格遵守程序正義和結(jié)果的可溯源,在執(zhí)法中的交叉錄像、執(zhí)法后的證據(jù)固定,事后的結(jié)論公布等都要對當(dāng)事方要透明公開。如果中間出現(xiàn)疏漏,當(dāng)事人可由此提請申訴。

而對于民眾而言,人臉識別技術(shù)的使用也必須有一定的邊界,其使用的人臉識別數(shù)據(jù)必須要有合法的來源,其識別軟件必須要嚴(yán)格控制其擴(kuò)散途徑,一旦隨意擴(kuò)散該工具和數(shù)據(jù),從而造成相關(guān)法律風(fēng)險,發(fā)明者和使用者都需要付出相關(guān)的代價。

個人的無商業(yè)或者無違法目的的使用是一回事,而一旦用于謀利或犯罪就是另一回事。其中的邊界相當(dāng)敏感,未來需要更多的案例和更多的博弈出現(xiàn)。

正好最近看到一個非常正向的人臉識別應(yīng)用。杭州市的一個初二學(xué)生,剛剛發(fā)明了一種可以進(jìn)行人臉識別和語音提醒功能的“智能項圈”,其發(fā)明的初衷是為了幫助家中患有阿爾茨海默癥的老人,可以通過項圈的攝像頭識別出眼前的親人,可以通過紫外線傳感器來識別室內(nèi)室外,提醒老人回家。

6.jpeg

特別是人臉識別技術(shù),其中的數(shù)據(jù)只包含了老人的幾位親人,自然也就不涉及濫用非法數(shù)據(jù)的問題,因為涉及少數(shù)家里人的照片,絕對的安全可靠。無論這款產(chǎn)品能否有實際的商業(yè)應(yīng)用前景,但是從“AI for Good”的角度來看,其AI應(yīng)用的合規(guī)性和公益性是毋庸置疑的。

尼采曾經(jīng)說過:與惡龍纏斗過久,自身亦成為惡龍。AI技術(shù)其實既不是那個英雄,也不是那條惡龍。最關(guān)鍵的還是使用這一工具的人類,我們究竟要用AI技術(shù)把自己鍛造成為一個英雄,還是變身成為一頭惡龍,可能就是在人心的一念之間。

當(dāng)然,最終能夠守護(hù)人間秩序的,仍然要靠著逐漸完備的法律制度來保障。只不過這個過程需要各方參與者共同去向積極方向努力。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論