當AI有了“自由意志”

腦極體

11.jpeg

圖片來源 視覺中國

在人工智能呈現(xiàn)一番欣欣向榮的景象之時,這項技術(shù)的問題和潛在威脅也正在顯現(xiàn)。是時候認真探討一下AI技術(shù)的“價值觀”問題了。

很多人最近一定注意到,有關(guān)AI的負面新聞頻頻上頭條,而且還帶有很強的魔幻色彩。

11月20號,韓國13歲的天才圍棋少女金恩持承認了她在9月底的一場在線圍棋比賽中作弊,使用了AI推薦的棋譜,約等于斷送了自己的職業(yè)生涯。11月27日,伊朗核武器專家法赫里扎遭到一挺由AI控制的自動機槍的襲擊而身亡,這意味著精準的人臉識別技術(shù)作為AI武器已經(jīng)參與到人間的殺戮當中。

22.jpeg

說回國內(nèi),前一段時間有人帶頭盔去售樓處看房,就是為避免被房地產(chǎn)商進行精準的人臉識別,而被當做“熟客”來“宰殺”,人臉識別濫用問題已擺在我們面前。

更荒誕的是,最近曝出一個房產(chǎn)中介就利用政府機構(gòu)的在線服務(wù)的流程,輕而易舉地讓售房者在不知情的狀況下通過人臉識別系統(tǒng)把房子過戶給了買家,自己套取了交易款。原本為民提供便利的AI服務(wù)成了別有用心者的幫兇。

“殺人者人也,非刀也”,這是我們?yōu)?ldquo;工具無道德價值”做辯護的古老理由,也是人類確證自己具有獨一無二的道德價值的傲嬌說辭。同樣這一理由似乎也可以為上面這些AI的負面案例做解釋,可以說這里的AI技術(shù)也都只是人類應(yīng)用的工具,真正始作俑者的還是人類。

這樣說似乎無可厚非,正如一切技術(shù)的發(fā)明帶給人類巨大福祉的同時,也可能帶來災(zāi)禍一樣,反之亦然。比如諾貝爾發(fā)明的炸藥可以開礦搬山也可以投入戰(zhàn)場屠戮生靈,核技術(shù)可以用來制造原子彈毀天滅地也可以用來做核電站造福大眾。理性樂觀派總是相信人類可以通過技術(shù)進步創(chuàng)造一個美麗新世界,并克服技術(shù)產(chǎn)生的種種負面效應(yīng)。

不過,我們需要注意的是,這一次人工智能技術(shù)革命的不同之處在于它將真正重塑人類。以往的任何一場技術(shù)革命只是增強了人類在體力、腦力等方面的專項能力,但這一次AI將直接抵達人的核心本質(zhì)——那個所謂撐起人尊嚴和價值的“自由意志”。

大多數(shù)人會將這種宏大議題當作杞人憂天的無稽之談,因為“狼來了”的故事人們已經(jīng)聽過多次。很多大人物對于人工智能威脅人類地位的告誡,也有種“口嫌體正直”的意味,無不在自己的領(lǐng)域內(nèi)推動AI技術(shù)的進化和使用。

但是作為人類社會基石的“自由意志”本身已經(jīng)從腦神經(jīng)科學(xué)和社會學(xué)上被嚴重挑戰(zhàn),而人工智能在模擬和指導(dǎo)人類決策的能力又在大幅提升,這樣我們就將接近這個人類命運改變的交匯點:人的自由被還原為一種可計算的生理機制,AI的計算能力又超過人類的計算能力。

這時,我們也就如同溫水中的青蛙,只能黯然接受“被煮熟”的命運安排。在AI技術(shù)正在日漸暴露出這些無傷大雅的問題之時,我們?nèi)匀灰幸环N對AI的警惕。

那就是AI擁有“自由意志”之時,可以做到價值中立嗎?

技術(shù)的價值中立難成立,AI亦然

在關(guān)于“技術(shù)是否價值中立”的探討中,現(xiàn)在的人們大多會傾向于“技術(shù)中立”的觀點。

我們通常認為一項技術(shù)的道德價值在于使用它的人,比如決定一把刀是用來烹飪還是用來行兇的關(guān)鍵是手握這把刀的那個人的想法;而一項技術(shù)的價值大小也不在于它自身而在于使用它的人的用途,比如在電影《上帝也瘋狂》里,非洲原始部落的人們獲得了一個完整的可樂玻璃瓶,這個在現(xiàn)代社會平平無奇的消費品,從一開始被當做無所不能的神物到后面變成引發(fā)族群紛爭的魔鬼。這個可樂瓶的價值在土著人手里就經(jīng)歷了天壤之別的變化。

33.jpeg

這一假設(shè)的好處就是維護了人的尊嚴,選擇什么樣的技術(shù)用來做什么樣的事情,都是我們自己的選擇,最終的后果都要由我們來負責。

但實際上真的如此嗎?

從最初的人類開始掌握生火和放火這一項最初級技術(shù)的時候,一個部落中的女性就能釋放出超出她體力數(shù)以萬倍的能量,因為一把火就能燒出一大片森林,他們就能收獲這片土地里沒有來得及逃跑的生靈的肉類,后面還可以開墾出一片又一片的農(nóng)田。想想今天的亞馬遜雨林,在全球化的消費貿(mào)易網(wǎng)絡(luò)中,被巴西農(nóng)民幾乎燒毀殆盡來栽種糧食作物?;鸨旧硎菬o目的的,但是使用火的人是知曉火的特性和威力,也能控制火的范圍和用途。人類之火,與天然之火的不同之處在于,火本身已經(jīng)包含了人類的意志和目的。

44.jpeg

而在更常見的人臉識別領(lǐng)域,則出現(xiàn)了明顯的性別和種族歧視的算法偏見。根據(jù)美國NIST(國家標準及技術(shù)研究院)在2019年12月的一份報告,在美國人臉識別系統(tǒng)中,黑人的人臉識別錯誤率是白種人的100倍,與黃種人相比,黑人人臉的識別錯誤率也是前者的10倍,而在執(zhí)法機關(guān)的人臉圖片庫中,識別錯誤率最高的是美國原住民。另外,女性和老人的臉部也更難以識別。這一研究的數(shù)據(jù)來源是美國簽證申請和過境數(shù)據(jù)庫中的1800萬張人臉照片,并測試了189種人臉識別算法,研究結(jié)果代表了絕大部分商業(yè)應(yīng)用算法的結(jié)果。

今年上映的一部《編碼偏見》的流媒體影片正揭露了這一問題,人工智能正在接管著關(guān)于人們的信息、安全、機會甚至自由等權(quán)力的時候,如果人們不改正這些算法中存在的偏見和歧視,那么AI技術(shù)會必然創(chuàng)造一個更加糟糕的世界,比如被錯誤識別并逮捕的少數(shù)族裔青年、被算法判斷為能力不足的女性員工,被垃圾信息所包圍的少年。

當然,這還只是AI技術(shù)不夠好的一種表現(xiàn)。很多人覺得我們可以不斷調(diào)整算法,增大數(shù)據(jù)樣本就可以解決這些低級錯誤、算法歧視等問題。假如偏見可以消除、算法可以優(yōu)化,我們又將迎來一個怎樣的局面呢?

二、AI技術(shù)很可能會由于數(shù)據(jù)的規(guī)模聚集和技術(shù)競賽的排他性,掌握在少數(shù)技術(shù)公司和政府手中,幫助擁有技術(shù)特權(quán)的人群和組織獲得難以撼動的權(quán)力和財富,從而鞏固這一趨勢。

我們不能說AI技術(shù)一定會助長極權(quán)和壟斷,但是我們正在看到這樣的苗頭出現(xiàn)。

普通大眾不僅通過在互聯(lián)網(wǎng)上的各種操作交出了自己的習(xí)慣偏好和消費數(shù)據(jù),而且現(xiàn)在還在通過可穿戴設(shè)備等信息來獲取我們的生理指標數(shù)據(jù)。如果任何一個AI算法系統(tǒng)能夠同時擁有這兩種數(shù)據(jù),并且對其建立起相對應(yīng)的相關(guān)性,那么,這一系統(tǒng)將真正全面獲得操縱人心的能力。

正由于我們?nèi)祟惖娜魏螞Q策可以轉(zhuǎn)化為各種生理、心理和行為的各種數(shù)據(jù),而我們又想通過AI技術(shù)來洞悉這一切背后的因果鏈條,那么AI將有極大地可能完成人類的這一使命,如果往好處走,AI將代替人類的智力釋放出前所未有的生產(chǎn)力,如果往壞處走,AI技術(shù)也將產(chǎn)生無法想象的破壞力。

55.jpeg

比如,在核冬天的威懾之后,AI武器的發(fā)展將使得精準殺戮成為可能,雖然在一定意義上可以避免大規(guī)模的熱武器沖突,但是每個國家都將在這種無孔不入的AI武器或殺手機器人的威脅下產(chǎn)生十足的敵意。如果這些AI武器一旦被極端組織掌握,更有可能成為挑起事端的大殺器。再比如更有可能的一個趨勢是,AI算法只是代表了少數(shù)特權(quán)階層的意志,而大部分人淪為供AI進化的數(shù)據(jù)源。

盡管來說,AI直接統(tǒng)治人類既無可能,但AI被人類用壞,成為塑造人類不平等的幫兇是極有可能的。

現(xiàn)在,我們更重要的是,放棄對AI技術(shù)客觀中立性的幻想,也要警惕AI算法對于我們決策的強大操縱力,同時又得致力于推動人工智能的普惠,才是接下來要做的事情。

對AI的自由意志保留拒絕的權(quán)利

我們這里只是指明了一個問題:人工智能是存在價值觀的,其價值觀的來源并非來自于突然的“自我覺醒”,而是從人這里繼承了相應(yīng)的價值觀,“復(fù)刻”了人的所謂“自由意志”。

當AI算法不夠強大的時候,其可能繼承人類的認知錯誤和偏見,但當AI算法足夠強大的時候,其也并不會變得“客觀中立”,而是體現(xiàn)了人類工具理性推向極致的價值觀,那就是更集中的權(quán)力、更多的財富、不斷自我強化和升級。

這一價值觀反作用到普通的人類個體身上,可能有兩個結(jié)果,一種是與AI算法協(xié)同進化,在智識上甚至生理上不斷升級自己,成為掌控AI的發(fā)展趨向的超級人類;一種是無法理解AI技術(shù)運行邏輯,也沒有辦法參與自主決策的大眾,將自己的生活決策交給算法。

因為人的生物學(xué)的進化速度實在難以趕上AI計算能力的增長,人類的知識只能以線性循環(huán)的方式一代又一代傳授,而AI則是以指數(shù)級方式累計增長,這就決定了大多數(shù)人只能交付出自己的決策機制,而由AI來判斷我們的各種想法的成功概率。

而在今天,這一問題已以一種很隱蔽的方式呈現(xiàn)著。正如很多人認為自己要聽從自己內(nèi)心的聲音,但是我們卻并不知道這些內(nèi)心的需求哪些是我們的“自由意志”想要的,哪些是被各種價值體系所塑造的。而我們知道AI算法從每一個廣告推薦、每一個內(nèi)容篩選、每一次自拍美顏、每一次你的行為追蹤下,就已經(jīng)開始為你進行需求的植入了。

在人工智能狂飆突進的這幾年當中,我們其實已經(jīng)過分站在“AI將造福人類”的宏大敘事當中,畢竟我們對于這一新型技術(shù)產(chǎn)業(yè)寄予了太多的希望。但是我們看到現(xiàn)在針對個人隱私領(lǐng)域上馬的AI應(yīng)用,正在竭盡所能地掌握人們的全方位數(shù)據(jù),但其實我們并未對這一趨勢做好準備。

最近我們也注意到,由于一些行業(yè)和場景中人臉識別技術(shù)被大量濫用,一些地方的相關(guān)部門開始推出整治規(guī)范,要求拆除這些AI設(shè)備。未來,這場關(guān)于人工智能的應(yīng)用邊界博弈的拉鋸戰(zhàn)還將一直持續(xù)下去。

但未來的長期博弈中,我們哪怕犧牲一點便利性,也要在讓度自己的選擇權(quán),交給人工智能來處理的時候,保持足夠的冷靜,同時對AI擁有“Say No”的力量。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論