算法權(quán)力和算法統(tǒng)治,算法背后什么人?

陳根
算法以大數(shù)據(jù)為基礎(chǔ),經(jīng)由智能媒體對信息進(jìn)行傳播,算法傳播顛覆了傳統(tǒng)的傳播規(guī)則和傳播邊界,使得服務(wù)用戶成為傳播的根本動因。在注意力經(jīng)濟的驅(qū)使下,它逐漸成為受商業(yè)利益和政治目的驅(qū)動的自動化過程。

2021年的今天,算法正以越來越激進(jìn)的方式影響著我們的生活。

隨著移動互聯(lián)網(wǎng)的廣泛普及與智能手機功能的深度開發(fā),以人工編輯為核心的傳統(tǒng)分發(fā)模式逐漸衰落,以算法為核心的智能分發(fā)模式興盛崛起。“算法型”分發(fā)模式的出現(xiàn)和普遍應(yīng)用,意味著人類開始運用人工智能大規(guī)模地解決信息分發(fā)問題,人類社會信息分發(fā)也從“人找信息”轉(zhuǎn)向“信息找人”。

但主體的讓渡也導(dǎo)致了越來越多問題的出現(xiàn)。要知道,“算法型”信息分發(fā)更多地建立在對于人們的直接興趣和“無意注意”的信息需求的挖掘上,它帶來的直接后果是:忽略人們必需的那些非直接興趣和需要“有意注意”的信息,導(dǎo)致“信息繭房”、算法偏見、假新聞泛濫等問題的出現(xiàn)。

更重要的是,算法并非是單純中立的。受到商業(yè)偏好的影響,在價值和利益的天平上,所謂的算法更容易成為利益的砝碼。當(dāng)我們今天接收的信息都是基于算法,甚至信息的產(chǎn)生也是基于算法所得出的結(jié)論,我們看似民主、自由的社會與思想,其實在根本上已經(jīng)被算法“專制”所統(tǒng)治。當(dāng)“算法為王”的價值觀念已成為平臺的增長極之時,對算法的導(dǎo)向糾偏也迫在眉睫。

2345截圖20211028093243.png

被算法控制的信息世界

算法以大數(shù)據(jù)為基礎(chǔ),經(jīng)由智能媒體對信息進(jìn)行傳播,算法傳播顛覆了傳統(tǒng)的傳播規(guī)則和傳播邊界,使得服務(wù)用戶成為傳播的根本動因。在注意力經(jīng)濟的驅(qū)使下,它逐漸成為受商業(yè)利益和政治目的驅(qū)動的自動化過程。

基于算法的傳播呈現(xiàn)出可計算的特質(zhì),后臺將每個用戶內(nèi)容消費的行為數(shù)據(jù),比如用戶瀏覽時長、轉(zhuǎn)發(fā)、評論等,個體屬性數(shù)據(jù)以及社交關(guān)系數(shù)據(jù)進(jìn)行大數(shù)據(jù)的統(tǒng)計和分析,進(jìn)而挖掘用戶的愛好習(xí)慣和社交興趣網(wǎng)絡(luò),最終生成精準(zhǔn)的用戶畫像,像用戶推送最具個性化需求的信息。

算法推薦讓編輯篩選模式下的“人找信息”變?yōu)?ldquo;信息找人”,用戶成為了算法架構(gòu)或程序編碼的價值落點。資訊分發(fā)的價值判斷機制則從由編輯判斷轉(zhuǎn)變?yōu)橛蓹C器來決定,由此把信息內(nèi)容的推送交給了“算法把關(guān)”。

算法推薦的優(yōu)勢顯而易見。一方面,算法推薦在互聯(lián)網(wǎng)時代高效對接了受眾需求和信息。算法通過對社交推薦機制進(jìn)行二次過濾,優(yōu)化推薦結(jié)果,從而提升了互聯(lián)網(wǎng)內(nèi)容推送的精準(zhǔn)度。例如,各類平臺都可以根據(jù)用戶的社交行為、地理位置、職業(yè)、年齡等推斷出用戶的興趣點,并判斷這些興趣的重要程度或者先后順序進(jìn)行推送,從而實現(xiàn)個性化信息推送。

另一方面,個性化推送下,通過對數(shù)據(jù)的挖掘,原來被忽視的大量長尾信息得以被挖掘。這些非主流、個性化的產(chǎn)品需求,經(jīng)過散落在社會各個角落中的用戶的積累,能夠更好地適配不同的長尾信息。這使得信息價值不再有統(tǒng)一的標(biāo)準(zhǔn),不再有重要性的絕對的高低之分。

算法讓信息和人能夠精準(zhǔn)和高效地匹配,這也成為互聯(lián)網(wǎng)信息流動的核心邏輯。甚至可以說,機器算法在一定程度上決定著信息的意義、信息的流向以及受眾對信息感知的方式。雖然算法掀起了傳播領(lǐng)域的一場革命,但隨著算法日漸接管了人們的信息來源,算法背后存在的隱患也逐漸凸顯。

比如,算法通過精確的個性化描述打造了個性化的社區(qū),形成了新的人際交往形式——“圈群文化”。隨著圈子的粘性增強,圈子不可避免地會出現(xiàn)排他性。因此,社交媒體在運營的后期往往會出現(xiàn)“文化邊界”。于是,人們在自己選擇的圈子里活動,久而久之終于形成了“信息繭房”。

很大程度上,這是一種“自我”設(shè)限——用戶就像蠶一樣被自己吐的絲禁錮在自己制造的“信息繭房”里。長期生活在“信息繭房”之中,無疑會令用戶越來越沉溺于自己的回音,在信息繭房中越陷越深。“數(shù)據(jù)化”的人將會失去對整個社會的理解與全局批判的能力,甚至?xí)斐扇后w“極化”現(xiàn)象。

再比如,算法在描繪社會現(xiàn)實的同時也體現(xiàn)出現(xiàn)實中的偏見,算法依賴于大數(shù)據(jù)。顯然,大數(shù)據(jù)并非中立。于是,它們可能有利于白人男性,而不利于女性、老年人、單親父母、有色人種、非英語居民等。

事實證明,新生的人工智能推特機器人可以在幾個小時內(nèi)成為白人至上主義者,自動生成的標(biāo)簽將非裔美國人的照片標(biāo)記為大猩猩。在亞馬遜公司開發(fā)的一款用于篩選簡歷的算法中,也曾意外“培養(yǎng)”出歧視女性應(yīng)聘者的偏好。顯然,算法從受相同偏見影響的內(nèi)容中學(xué)習(xí)到更多偏見,這些認(rèn)知偏見經(jīng)網(wǎng)上廣泛傳播后導(dǎo)致更為廣泛的社會沖突。

當(dāng)然,不論是信息繭房,還是技術(shù)偏見,都是我們能看到的最直接的算法帶來的社會問題。除此之外,更重要的是受到商業(yè)偏好的影響,控制著算法的利益市場,使得算法日益淪為利益的砝碼,造成幾千年來人類社會所追求與構(gòu)建的民主、自由的社會受到挑戰(zhàn)和損傷。

2345截圖20211028093243.png

算法背后的利益市場

當(dāng)前,隨著算法在信息的管理與分發(fā)領(lǐng)域占據(jù)了支配地位,并逐漸在把關(guān)機制中代替了傳統(tǒng)媒體把關(guān)人的角色,開始發(fā)揮主導(dǎo)作用。

然而,算法由各個互聯(lián)網(wǎng)平臺組織設(shè)計,我們將信息的把關(guān)交給算法時,也就意味著交給了算法背后的利益市場。在完全自由的信息市場中,算法作為一種壟斷性技術(shù),通過技術(shù)的方式,實現(xiàn)對信息產(chǎn)品生產(chǎn)和消費的控制。

傳統(tǒng)媒體時代,人們能夠主動選擇信息;而在算法時代里,信息的選擇則由算法進(jìn)行分配,將所有信息“對號入座”,根據(jù)用戶需求的數(shù)據(jù)決定把關(guān)的強弱,即用戶需求越多,就給予越多的信息資源。這種把關(guān)機制的運行導(dǎo)致信息成為一味迎合用戶市場的純粹的消費品,失去其本身的價值意義。

事實上,在互聯(lián)網(wǎng)剛出現(xiàn)之時,人們也曾憧憬過:網(wǎng)絡(luò)空間代替城市空間接管公共領(lǐng)域,創(chuàng)造前所未有的理想公共領(lǐng)域的可能。所謂公共領(lǐng)域,用德國著名哲學(xué)家哈貝馬斯的話說,就是指“政治權(quán)力之外,作為民主政治基本條件的公民自由討論公共事務(wù)、參與政治的活動空間”。

畢竟那個時候,人們所看到的,都是算法運用的無可比擬的優(yōu)勢——立足于大數(shù)據(jù)之上,算法通過對海量數(shù)據(jù)樣本的全盤分析可能得以窺探事物的全貌,避免人類因有限的觀察體驗而產(chǎn)生的局限性,可以更為準(zhǔn)確地反映客觀世界,并盡力排除人的主觀因素的影響,由此作出更為科學(xué)的判斷。

人們渴望通過公共領(lǐng)域,得以展現(xiàn)自我,用社會的規(guī)則知識填補先驗知識的缺陷,并與他人建立現(xiàn)實的聯(lián)系。然而,雖然互聯(lián)網(wǎng)極大地促進(jìn)了公共討論的發(fā)展,看似具備公共領(lǐng)域的基本特征,但顯然這只是表象——它不是公共領(lǐng)域,政治權(quán)力與大企業(yè)完全有能力迫使互聯(lián)網(wǎng)按照自己的意愿發(fā)展。

所謂的算法權(quán)力,正是指其背后潛藏著的控制算法設(shè)計和研發(fā)過程的資本的權(quán)力,技術(shù)權(quán)力只是表征而已。資本驅(qū)動下的算法權(quán)力倘若缺少必要的規(guī)制,勢必傾向于將利益置于人的價值的之上。早在2015年,F(xiàn)acebook就因其人工智能推薦內(nèi)容存在政治偏見,飽受用戶對的指責(zé)。

2018年3月,F(xiàn)acebook更是爆發(fā)了轟動全球的“Facebook數(shù)據(jù)門”事件,8700萬Facebook用戶的個人數(shù)據(jù)被出賣給一家叫做“劍橋分析”的公司。這家公司操縱這些數(shù)據(jù),最終成功地通過選舉程序,使得英國脫歐、特朗普上臺。從本質(zhì)上看,正是Facebook為了自己的利益而不正當(dāng)使用了算法。

更值得注意的是,算法決策在公權(quán)力領(lǐng)域的運用還表明,算法權(quán)力嵌入了傳統(tǒng)公權(quán)力的運行,這可能使技術(shù)和權(quán)力產(chǎn)生合謀而存在權(quán)力濫用的風(fēng)險。并且,算法權(quán)力可能會使既有的權(quán)力制約機制在一定程度上失靈。

在公共權(quán)力的長期運作過程中,算法的“技術(shù)合理性”又使其蒙上了可以巧妙避開民主監(jiān)督的面紗。算法對公權(quán)力領(lǐng)域的介入挑戰(zhàn)了傳統(tǒng)的權(quán)力專屬原則和正當(dāng)程序原則,難以對其實施有效的權(quán)力控制,而失范的權(quán)力最終必將導(dǎo)致個體權(quán)利的減損。

算法的背后是誰?算法到底代表著誰的思想與目的?可能是控制新聞輿論的政黨,可能是控制著互聯(lián)網(wǎng)平臺的決策者,也可能是構(gòu)建算法的工程師在構(gòu)建過程中加入了自己想實現(xiàn)的一種“統(tǒng)治”思想。

因此,當(dāng)前我們?nèi)祟愃媾R的挑戰(zhàn),尤其是在人工智能時代,在算法統(tǒng)治的時代,我們的信息或許越來越便利的同時,我們?nèi)祟悗浊晁谧穼さ拿裰?、獨立、左右將會在算?ldquo;統(tǒng)治”下,而這種“統(tǒng)治”的背后,則是控制算法的利益市場。

2345截圖20211028093243.png

算法的統(tǒng)治

專制主義是一種平等的結(jié)構(gòu),除了統(tǒng)治者,其他人都是平等的,因為他們沒有實質(zhì)的政治權(quán)力。統(tǒng)治者的權(quán)力不受法律的制約——中國古代的封建王朝,太陽王路易十四治下的法國波旁王朝,是典型的專制主義政體——盡管律令具有一定的權(quán)威性,但皇權(quán)掌握著最高司法解釋權(quán)與裁判權(quán)。

極權(quán)主義相反,雖然蔑視成文法,但它比任何政府形式都更服從法律的力量。與常識不同,它沒有使權(quán)力從屬于某個人的利益,而是隨時準(zhǔn)備犧牲每一個人的利益,來執(zhí)行它認(rèn)定的歷史法則和自然法則。阿倫特把極權(quán)主義的本質(zhì)概括為反文明的、反制度的、反功利的與反責(zé)任的,而這些特點,正在算法時代里上演。

極權(quán)主義是反文明的。極權(quán)主義的野蠻行徑,體現(xiàn)在其運用恐怖進(jìn)行統(tǒng)治的方面。恐怖不是簡單的暴力,不完全依賴于低效的肉體消滅,它是一種肉體與精神層面的全面摧毀和控制。通過恐怖,宣告?zhèn)€人因為不符合歷史需要被剔除;通過恐怖,使人整齊劃一,失去個性與獨立性。

極權(quán)主義是反制度的,它是一種“為擴張而擴張”運動。極權(quán)主義的興起與民族國家的衰落是同一過程,為了使運動進(jìn)行下去,需要模糊國家疆域的邊界,樹立一批又一批敵人,將聚焦于內(nèi)部的矛盾轉(zhuǎn)移到外部。

極權(quán)主義是反功利的,它用意識形態(tài)代替功利計算。這種意識形態(tài)聲稱能夠解釋一切,提供一整套關(guān)于自然與歷史的邏輯,從而建立統(tǒng)治的合法性。

極權(quán)主義還是反責(zé)任的,它是一種宿命論。這種宿命論以理性主義為基石,聲稱發(fā)現(xiàn)了自然與歷史規(guī)律,以“民族復(fù)興”等現(xiàn)代神話取代傳統(tǒng)宗教,用歷史進(jìn)步的目的代替?zhèn)€人的道德觀念。

阿倫特對極權(quán)主義的思考,不只是為了挖掘出構(gòu)成極權(quán)主義意識形態(tài)與政治制度的因素,更是要提出重建現(xiàn)代性的可能方案。她的第一本著作《極權(quán)主義的起源》,正是以政治哲學(xué)這個視角審視極權(quán)主義興起過程的:現(xiàn)代反猶主義表現(xiàn)了公共領(lǐng)域的變質(zhì),西歐民族國家的帝國主義政策使公共領(lǐng)域瓦解,納粹德國和斯大林時期蘇聯(lián)的極權(quán)主義政治意味著了公共領(lǐng)域的最終崩潰。

今天由算法支配的市場,呈現(xiàn)出來的正是這樣的邏輯。雖然極權(quán)主義作為一種政體已經(jīng)終結(jié),但是公共領(lǐng)域被破壞的陰影猶在——資本的商品交換邏輯滲透到了公共領(lǐng)域,大眾傳媒的商業(yè)化制造了虛假的公共性,審美的庸俗化和娛樂化則消解了社會的批判意識。

消費、技術(shù)與知識崇拜席卷一切,一方面,我們越來越重視商品的符號性,通過消費獲得身份認(rèn)同;另一方面,我們把技術(shù)、知識這種間接經(jīng)驗看作認(rèn)識世界、了解世界的主要方式。

我們認(rèn)可的價值與觀念越來越多地來自算法的信息分發(fā)而非自我實踐,我們也越來越多地放棄了自發(fā)的、具有想象力的,能夠體現(xiàn)人類尊嚴(yán)和自由的行動,取而代之的是被設(shè)計好的、批量生產(chǎn)的、可預(yù)期與控制的行為,包括人生價值和意義。

當(dāng)前,算法的興起和異化顯然已經(jīng)折射出技術(shù)存在的風(fēng)險與非理性,而目前規(guī)制算法的具體法律規(guī)則付之闕如,放任算法的發(fā)展很可能將人類社會導(dǎo)向令人惴惴不安的境地。好在雖然算法有著人類無法想象的計算能力和速度,但這并不意味著算法超出人類的理解范疇,更不意味著人類對此沒有充分的規(guī)制能力。

柏拉圖提出過一個著名的“洞穴隱喻”:洞穴中的囚徒們頭只能看見火光投射到洞壁上的陰影,因而將洞壁上的陰影當(dāng)作現(xiàn)實本身。當(dāng)其中一個囚徒被解除了桎梏,走到太陽下,他會因為光線的強烈刺激感受到劇烈的痛苦,但他終究能夠看到太陽本身。正是人的獨特的價值指引著人們?nèi)プ穼ふ嫔泼赖纳?,人類文明才能夠雋永地存在和發(fā)展。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論