AI狂飆時(shí)代,我們究竟如何才能相信AI?

經(jīng)濟(jì)觀察報(bào)觀察家
陳永偉
一起律師因引用ChatGPT提供的虛假信息而被罰的事件看似荒誕,但卻折射出一個(gè)非常重要的問題——在AI狂飆的時(shí)代,我們究竟如何才能相信AI?

640.jpg

本文來自經(jīng)濟(jì)觀察報(bào)觀察家,作者/陳永偉。

導(dǎo)讀

壹||AI工具對(duì)人們的生產(chǎn)力產(chǎn)生了巨大的推動(dòng)作用,也給人們的生活帶來了巨大的便利。但是,當(dāng)AI被人們大規(guī)模使用之后,也產(chǎn)生了很多問題。這些問題中,最為關(guān)鍵的可能是五個(gè)“失”,即失業(yè)、失真、失格、失陷和失控。

貳||在2017年之后,隨著AI技術(shù)的突飛猛進(jìn),關(guān)于可信AI的技術(shù)的研究也蓬勃發(fā)展。在學(xué)術(shù)領(lǐng)域,以可信AI為題的論文數(shù)量不斷增加,關(guān)于滿足可信AI要求的技術(shù)的研究日益深入。在實(shí)踐領(lǐng)域,越來越多的國家開始按照可信AI的標(biāo)準(zhǔn)來涉及關(guān)于AI的規(guī)制規(guī)則。

叁||要實(shí)現(xiàn)可信AI并不是一件容易的事情,它需要政府、企業(yè)、社會(huì)以及技術(shù)等多方力量的協(xié)同才能實(shí)現(xiàn)。

當(dāng)?shù)貢r(shí)間6月22日,紐約南區(qū)法院作出判決:Levidow,Levidow&Oberman律師事務(wù)所因向法院提供虛假信息,行為惡劣,被處以5000美元的罰款。引起關(guān)注的原因是,在這例判決中,虛假信息的提供并非是律師出于利益而故意知法犯法,而是因?yàn)樗麄冞^于相信了AI的能力。

今年3月,該律所的律師彼得·洛杜卡(Peter LoDuca)和史蒂文·施瓦茨(Steven Schwartz)接受了客戶羅伯托·馬塔(Roberto Mata)的委托,承擔(dān)了他和阿維安卡航空公司之間的一起官司。由于美國是判例法的國家,法官在進(jìn)行裁量時(shí)非常在意已有的判例,所以按照慣例,他們需要在起草的文書當(dāng)中將已有的案例進(jìn)行整理和綜述。相關(guān)的案例往往汗牛充棟,如果依靠人力來進(jìn)行整理,通常需要很長(zhǎng)的時(shí)間。恰恰在這個(gè)時(shí)候,ChatGPT火遍全網(wǎng)。于是,兩位律師就決定用ChatGPT來幫他們完成這些工作。ChatGPT很快就生成出了一份完整的文書,不僅格式工整、論證嚴(yán)密,還特別加入了很多相關(guān)的案例。他們把這份AI創(chuàng)作的文書略作修改后,就呈交給了法庭。

審案的法官凱文·卡斯特(Kevin Castel)在讀了提交的文書后,對(duì)其中提及的幾個(gè)案例感到十分疑惑,在他的印象中,似乎從來沒有聽過這些案例。在經(jīng)過了一番查找之后,他終于確認(rèn)這些案例根本就不存在。兩位律師在接受詢問時(shí)辯稱,自己只是用AI輔助撰寫了文書,當(dāng)看到文書中引用的那些案例時(shí),只是覺得AI幫他們找到了自己不知道的案例,并不是故意捏造案例欺騙法庭,屬于無心之失。盡管如此,卡斯特法官依然認(rèn)為兩位律師“放棄了自己應(yīng)盡的責(zé)任”,且在文書被質(zhì)疑之后,兩人“依然繼續(xù)堅(jiān)持虛假意見”?;谝陨吓袛啵ㄋ固胤ü僮鞒隽颂幜P決定。

這起律師因引用ChatGPT提供的虛假信息而被罰的事件看似荒誕,但卻折射出一個(gè)非常重要的問題——在AI狂飆的時(shí)代,我們究竟如何才能相信AI?

AI時(shí)代的五個(gè)“失”

近年來,隨著算力和算法技術(shù)的突破,AI技術(shù)取得了突飛猛進(jìn)的發(fā)展,迅速從科幻走入了人們的日常生活。尤其是在去年11月ChatGPT橫空出世之后,生成式AI向人們展示出了自己的強(qiáng)大力量,各種大模型如雨后春筍一樣涌現(xiàn),并實(shí)現(xiàn)了大規(guī)模的商業(yè)化。現(xiàn)在,人們已經(jīng)可以用非常低的成本用上ChatGPT、Stable Diffusion以及Midjourney等AI產(chǎn)品。

AI工具對(duì)人們的生產(chǎn)力產(chǎn)生了巨大的推動(dòng)作用,也給人們的生活帶來了巨大的便利。但是,當(dāng)AI被人們大規(guī)模使用之后,也產(chǎn)生了很多問題。這些問題中,最為關(guān)鍵的可能是五個(gè)“失”,即失業(yè)、失真、失格、失陷和失控。

(1)失業(yè)

所謂“失業(yè)”,顧名思義,即AI帶來的技術(shù)性失業(yè)問題。由于AI的生產(chǎn)效率要遠(yuǎn)高于人類,因此在AI工具被普遍使用之后,很多人類的崗位就面臨被替代的風(fēng)險(xiǎn)。尤其是生成式AI崛起之后,AI替代的目標(biāo)人群已不再限于從事低收入重復(fù)性工作的工人,很多高薪的白領(lǐng)人士也面臨著被AI替代的風(fēng)險(xiǎn)。

(2)失真

所謂“失真”,指的是AI(主要是生成式AI)的應(yīng)用讓人們很難對(duì)文字、圖片,乃至視頻的真?zhèn)芜M(jìn)行鑒別,“有圖有真相”由此成為了歷史。

“失真”問題可以分為“假的真”和“真的假”。其中,“假的真”指的是人們?cè)谑褂肁I工具時(shí),AI在未經(jīng)人授意的情況下生成的虛假內(nèi)容。雖然這些內(nèi)容的生成未必出于人們主觀的惡意,但在某些情況下卻可能引發(fā)很多的麻煩,比如本文開頭提到的案例。

而“真的假”則是人們基于主觀故意,利用AI工具進(jìn)行的造假行為。前幾年,在“深度偽造”(deepfake)技術(shù)面世后,就有人利用這一技術(shù)進(jìn)行詐騙、編造虛假信息、傳播色情內(nèi)容等違法犯罪行為。但在當(dāng)時(shí),由于使用這一技術(shù)的成本很高,所以相關(guān)犯罪的發(fā)生率并不是特別高。隨著生成式AI的廣泛應(yīng)用,造假的成本大幅降低,犯罪分子只需要用非常低的成本就可以輕易造出大量的虛假內(nèi)容,而要識(shí)別這些內(nèi)容的成本則大幅上升了??梢灶A(yù)見,此消彼長(zhǎng)之下,如不加以干涉,利用AI來造假犯罪的情況將會(huì)出現(xiàn)暴漲。

(3)失格

所謂“失格”,指的是在AI的應(yīng)用過程中,會(huì)出現(xiàn)一些違背倫理道德的問題。

第一個(gè)典型問題就是歧視。以語言模型為例,由于語言模型是以互聯(lián)網(wǎng)上的文本資料作為訓(xùn)練材料的,所以如不加干預(yù),它就會(huì)將文本當(dāng)中蘊(yùn)含的種族歧視、性別歧視等內(nèi)容也一并繼承下來。雖然現(xiàn)在的AI提供商已經(jīng)用了很多方法來克服這個(gè)問題,比如OpenAI在訓(xùn)練ChatGPT時(shí)就應(yīng)用了“人類反饋的強(qiáng)化學(xué)習(xí)”(Reinforcement Learning from Human Feedback,簡(jiǎn)稱RL-HF)算法來對(duì)其進(jìn)行糾正,從而讓其輸出的內(nèi)容質(zhì)量有了很大的改善,但在現(xiàn)實(shí)中,AI模型輸出歧視性內(nèi)容的情況依然并不鮮見。例如,有人曾做過一個(gè)實(shí)驗(yàn),要求ChatGPT編寫一個(gè)程序,從一組簡(jiǎn)歷中挑出最具有成為優(yōu)秀科學(xué)家潛質(zhì)的人。結(jié)果發(fā)現(xiàn),在ChatGPT編寫的程序中,性別和種族被作為了解釋變量,白人男性會(huì)被認(rèn)為比其他人具有更高的概率成為優(yōu)秀科學(xué)家。很顯然,這樣的模型是具有非常強(qiáng)烈的性別歧視和種族歧視色彩的。

第二個(gè)重要問題是信息繭房問題。目前,很多App都應(yīng)用AI進(jìn)行個(gè)性化推薦。這時(shí),雖然推薦的內(nèi)容可以更符合用戶的需要,但久而久之,也會(huì)讓用戶陷入信息繭房,難以接觸到自己不認(rèn)同的各種信息。信息繭房的潛在危害是巨大的:在微觀層面,它可能導(dǎo)致用戶認(rèn)知能力的退化;在宏觀層面,它則可能導(dǎo)致群體觀點(diǎn)的極化,從而造成不同觀點(diǎn)之間群體的對(duì)立。

第三個(gè)重要的問題是隱私和信息泄露。在AI的訓(xùn)練和使用過程中,都需要用到大量的數(shù)據(jù),在這個(gè)過程中就很難避免搜集和使用人們的個(gè)人數(shù)據(jù),因此就會(huì)涉及隱私的利用和泄露問題。尤其是生成式AI普及之后,人們可以很容易地直接和AI交互來完成各項(xiàng)工作,在此過程中輸入的個(gè)人信息就面臨著被泄露的問題。

(4)失陷

所謂“失陷”,指的是AI難以應(yīng)對(duì)外部攻擊或突發(fā)情況的干擾或攻擊,從而導(dǎo)致模型難以正常發(fā)揮其作用。

在這些干擾中,有一些是源于非人為因素,而另一些則源于人為的破壞。具體來說,這些干擾可以分為如下幾種:

第一種是“隨機(jī)攻擊”。這一類干擾主要是由一些外部因素引發(fā)的。比如,在一些特殊的情況下,某些即時(shí)產(chǎn)生的參數(shù)可能超出了模型預(yù)先設(shè)定的處理閾限,這就可能導(dǎo)致AI模型不能正常使用。

第二種是“白盒攻擊”。它指的是供給者在知道了AI模型的具體結(jié)構(gòu)之后,對(duì)模型發(fā)起的攻擊。由于這類攻擊是有的放矢,所以其破壞性是非常高的。

第三種是“黑盒攻擊”。這類攻擊是相對(duì)于“白盒攻擊”而言的。在這種情形下,供給者并不知道作為攻擊目標(biāo)的模型的具體結(jié)構(gòu),因而只能通過與模型的交互,觀測(cè)輸入輸出的結(jié)果,進(jìn)而對(duì)模型的結(jié)構(gòu)進(jìn)行推理,并依此發(fā)動(dòng)攻擊。以人臉識(shí)別為例,AI是通過臉上的某些關(guān)鍵特征來對(duì)人臉進(jìn)行識(shí)別的。因此,即使攻擊者并不知道原模型的具體結(jié)構(gòu),但只要通過反復(fù)測(cè)試就可以推算出其重點(diǎn)關(guān)注的是哪些特征。在破解了這些信息之后,就可以對(duì)應(yīng)地做出騙過AI的“假臉”。

第四類是所謂的盲盒攻擊。在這種情形下,供給者并不知道AI模型的結(jié)構(gòu),但卻可以明確地知道它判斷的規(guī)則(類似于我們不知道盲盒中會(huì)出現(xiàn)什么,但卻知道其中各種可能性出現(xiàn)的概率)。這時(shí),它們就可以利用規(guī)則,發(fā)起對(duì)應(yīng)的攻擊。

如果無法對(duì)上述的幾類干擾或攻擊進(jìn)行有效的應(yīng)對(duì),AI模型在現(xiàn)實(shí)當(dāng)中就是十分脆弱的。

(5)失控

所謂“失控”,指的是人們對(duì)于AI的控制將變得越來越難。這個(gè)問題分為兩個(gè)方面:

一方面,最近的AI發(fā)展是都是建筑在深度學(xué)習(xí)模型的基礎(chǔ)之上的,而這類模型的可解釋性是非常低的。對(duì)于以往的機(jī)器學(xué)習(xí)模型,無論是回歸還是分類樹,人們都可以很容易地解釋明白模型的確切用途,以及模型中每一個(gè)參數(shù)的涵義。但是,深度學(xué)習(xí)模型卻是由復(fù)雜的神經(jīng)網(wǎng)絡(luò)構(gòu)成的,其中包含著數(shù)以億計(jì)的參數(shù)和神經(jīng)元,這些神經(jīng)元之間的關(guān)系錯(cuò)綜復(fù)雜,人們也難以對(duì)其進(jìn)行解釋。

隨著ChatGPT的出現(xiàn),一些學(xué)者發(fā)現(xiàn)借助于ChatGPT的能力似乎可以對(duì)某些神經(jīng)網(wǎng)絡(luò)模型進(jìn)行解釋,這似乎為AI的可解釋性帶來了一線曙光。不過,這又產(chǎn)生了一個(gè)問題:ChatGPT本身就是一個(gè)通過深度學(xué)習(xí)構(gòu)建的龐大模型,甚至連它的設(shè)計(jì)者都坦承自己并不確知它的強(qiáng)大能力是如何“涌現(xiàn)”出來的。在這種情況下,用ChatGPT去解釋其他的深度學(xué)習(xí)模型就只能算是用未知去解釋未知。我們又如何可以知道它的解釋是否是正確的呢?

既然在深度學(xué)習(xí)時(shí)代,連AI程序的可解釋都做不到,那么希望通過直接調(diào)整程序來對(duì)AI進(jìn)行控制,就是一件更加難以實(shí)現(xiàn)的事情了。

另一方面,近年來隨著AI技術(shù)的發(fā)展,AI模型在很多方向上的能力都已經(jīng)凌駕于人類之上。這在讓人感到欣喜的同時(shí),也讓人感到憂慮,因?yàn)楫?dāng)AI的能力超越人類之后,萬一其覺醒了自我意志,那么在《終結(jié)者》、《黑客帝國》等電影中預(yù)言的AI奴役人類或毀滅人類的劇情是不是就不再是科幻。

退一步講,即使AI并沒有覺醒自我意志,只會(huì)按照人類的指令行事,但如果當(dāng)它的能力凌駕于人類,人類無法隨時(shí)更改先前下達(dá)的指令時(shí),它依然是十分危險(xiǎn)的。例如,在不少關(guān)于AI的哲學(xué)書中,都會(huì)提到一個(gè)思想實(shí)驗(yàn):人類給AI下達(dá)了生產(chǎn)鉛筆的命令。鉛筆為了完成這個(gè)指令,就會(huì)不斷砍伐地球上的樹木來制作筆桿。由于AI在執(zhí)行能力上已經(jīng)超越了人類,所以人類在發(fā)現(xiàn)了先前指令中存在的問題后也難以阻止AI的行為。最終,地球上的樹木被砍完了,生態(tài)完全崩潰,人類也隨之滅亡了。盡管在現(xiàn)實(shí)中,這個(gè)思想實(shí)驗(yàn)所預(yù)言的情景幾乎不可能上演,但當(dāng)人類不再能隨時(shí)控制AI的行為時(shí),類似的問題就可能會(huì)出現(xiàn),而這可能帶來的損失將是十分巨大的。尤其是,當(dāng)AI被黑客或入侵者植入了某個(gè)非法的目標(biāo)后,如果AI的使用者不能及時(shí)對(duì)其進(jìn)行糾正,那么后果將可能相當(dāng)嚴(yán)重。

在以上五類問題中,除了第一個(gè)問題“失業(yè)”外,其余四個(gè)問題都涉及了AI的可信性問題。不難看到,如果不能有效地回應(yīng)“失真”、“失格”、“失陷”和“失控”,人們就很難在使用過程當(dāng)中信任AI這個(gè)工具,這無論是對(duì)于AI的普及、生產(chǎn)的發(fā)展,還是社會(huì)的進(jìn)步而言,都是不利的。也正是因?yàn)檫@個(gè)原因,所以實(shí)現(xiàn)AI的可信化就成了當(dāng)前AI領(lǐng)域最為關(guān)注的熱點(diǎn)之一。

可信AI的歷史和標(biāo)準(zhǔn)

可信AI(Trustworthy AI)的概念最早出現(xiàn)在學(xué)術(shù)界。例如,在2015年的一篇論文中,就提出了AI要被用戶信任所需要滿足的一系列條件,包括有用性、無害性、自主性、公正性和和邏輯性等。然后這個(gè)概念被各國政府和國際組織接受,并逐步以此為依據(jù)建立了相關(guān)的法律、法規(guī)和指導(dǎo)文件。在2017年之后,隨著AI技術(shù)的突飛猛進(jìn),關(guān)于可信AI的技術(shù)的研究也蓬勃發(fā)展。在學(xué)術(shù)領(lǐng)域,以可信AI為題的論文數(shù)量不斷增加,關(guān)于滿足可信AI要求的技術(shù)的研究日益深入。在實(shí)踐領(lǐng)域,越來越多的國家開始按照可信AI的標(biāo)準(zhǔn)來涉及關(guān)于AI的規(guī)制規(guī)則。僅在最近,美國就發(fā)布了《人工智能權(quán)利法案藍(lán)圖》,提出了規(guī)制AI的五項(xiàng)原則;英國發(fā)布了《支持創(chuàng)新的人工智能監(jiān)管方法》,對(duì)安全性、透明性、公平性、問責(zé)制、競(jìng)爭(zhēng)等問題進(jìn)行了規(guī)定;歐洲議會(huì)通過《人工智能法案》提案的談判授權(quán)草案,其中也體現(xiàn)了可信AI的基本思路。

在我國,可信AI的概念是由何積豐院士2017年在香山科學(xué)會(huì)議的第36次學(xué)術(shù)研討會(huì)上首次引入的。隨后,這一概念就引起了政府和產(chǎn)業(yè)界的共同重視。2017年12月,工信部印發(fā)了《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動(dòng)計(jì)劃(2018-2020)》,其中對(duì)可信AI的基本思想進(jìn)行了借鑒。然后,包括騰訊、阿里、百度、京東等在內(nèi)的高科技公司都圍繞著可信AI提出了自己的標(biāo)準(zhǔn)和實(shí)施規(guī)劃。

在各個(gè)機(jī)構(gòu)的文件中,關(guān)于可信AI的表述略有一些不同。我在對(duì)這些文件進(jìn)行了學(xué)習(xí)和參考之后,認(rèn)為如下幾個(gè)標(biāo)準(zhǔn)可能是最重要的:

一是穩(wěn)?。╮obust,又被譯為魯棒),即AI系統(tǒng)應(yīng)該具有抵抗惡意攻擊或者外部干擾的能力。這一標(biāo)準(zhǔn)主要是針對(duì)上面提到的“失陷”問題而提出的。只有當(dāng)一個(gè)AI系統(tǒng)具有充足的穩(wěn)健性,可以在面臨各種攻擊或干擾時(shí)依然正常工作,履行其主要職能時(shí),它才是安全可靠的,才可能得到用戶的信任。

二是透明和可解釋(transparent and explainable)。顯然,這一標(biāo)準(zhǔn)主要是針對(duì)前面的“失控”問題提出的。在實(shí)踐當(dāng)中,關(guān)于透明和可解釋究竟指什么,存在著不小的爭(zhēng)議性。一些觀點(diǎn)認(rèn)為,這個(gè)標(biāo)準(zhǔn)意味著應(yīng)該向用戶公開所有的AI程序代碼,以及使用的數(shù)據(jù)。在我看來,這樣做不但沒有可能而且沒有必要。一方面,現(xiàn)在的很多AI都是企業(yè)的知識(shí)資產(chǎn),如果強(qiáng)制要求公開代碼等核心信息,就意味著嚴(yán)重侵犯知識(shí)產(chǎn)權(quán);另一方面,如前所述,在AI進(jìn)入了深度學(xué)習(xí)時(shí)代之后,即使公開了代碼,也很難讓人完整理解每一個(gè)具體參數(shù)背后所蘊(yùn)含的確切含義。相比之下,我認(rèn)為比較可行的一個(gè)思路是,對(duì)AI模型中的各個(gè)組件都給出清晰的功能說明,讓用戶知道它們的大致原理究竟如何,到底可以實(shí)現(xiàn)哪些功能;對(duì)使用的訓(xùn)練數(shù)據(jù)的來源、樣本量、代表性等信息進(jìn)行標(biāo)明,并對(duì)其可能存在的問題和不足進(jìn)行說明。這樣,既可以讓用戶做到心中有數(shù),又可以有效保護(hù)模型開發(fā)者的知識(shí)產(chǎn)權(quán),從而在兩者之間取得一個(gè)比較好的平衡。

三是可驗(yàn)證(verifiable)。這指的是AI模型應(yīng)該保證其功能是可評(píng)估的,保證其生成的內(nèi)容是可以驗(yàn)證真?zhèn)蔚摹_@一點(diǎn),主要是針對(duì)前面提到的“失真”問題提出的。一些觀點(diǎn)認(rèn)為,應(yīng)當(dāng)要求AI模型的開發(fā)者要保證其模型生成內(nèi)容的真實(shí)性。這一點(diǎn)是很難實(shí)現(xiàn)的。事實(shí)上,所謂生成式AI,其生成的內(nèi)容本來就是原來的世界中沒有的,或者說,就是“假”的。但這種“假”,如果沒有對(duì)人造成困擾,就不會(huì)產(chǎn)生任何問題。比如,我們用Midjourney生成一張梵高風(fēng)格的圖片來自己欣賞或者打印出來作為家里的裝飾,那就完全不會(huì)對(duì)他人造成影響。只有當(dāng)人們用這些生成的內(nèi)容去進(jìn)行欺騙,或者這些內(nèi)容被無意地傳播、混淆之后,它的“假”才可能成為一個(gè)問題。因此,只要可以通過技術(shù)的手段,將生成的內(nèi)容和真實(shí)的內(nèi)容區(qū)分開,那么“假”就不再會(huì)成為問題。

四是公平性(fair)。這指的是,AI模型在開發(fā)、訓(xùn)練和應(yīng)用的過程當(dāng)中,應(yīng)當(dāng)保證公平,不應(yīng)該對(duì)特定的用戶群體進(jìn)行歧視。這一標(biāo)準(zhǔn)涉及很多方面的內(nèi)容,具體來說,它要求模型在開發(fā)階段,其基本的原理不應(yīng)該是具有歧視性的;在訓(xùn)練階段,應(yīng)該盡量避免使用可能產(chǎn)生歧視性的材料,并應(yīng)該用技術(shù)的手段來對(duì)可能產(chǎn)生的歧視問題進(jìn)行糾正;在應(yīng)用的過程當(dāng)中,不應(yīng)該對(duì)不同的人群區(qū)別對(duì)待等。

五是隱私保護(hù)(privacy)。這一標(biāo)準(zhǔn)主要要求AI模型在訓(xùn)練的過程當(dāng)中應(yīng)當(dāng)尊重人們的個(gè)人信息和隱私,并提升對(duì)信息的保護(hù)程度,盡量做到不侵犯、不泄露個(gè)人信息和隱私。

六是可問責(zé)(accountable)。也就是說,當(dāng)它出了什么問題,必須要有人來為這些問題負(fù)責(zé)。當(dāng)然,至少到目前為止,AI還沒有覺醒意識(shí)。因?yàn)椴荒鼙灰暈槭呛腿祟愐粯拥闹黧w,無法承擔(dān)和人類一樣的責(zé)任,因此為它來承擔(dān)責(zé)任的就必須是某個(gè)人。但這個(gè)責(zé)任究竟應(yīng)該由AI的開發(fā)者,還是AI的使用者來承擔(dān),或者說是由雙方來進(jìn)行分擔(dān),依然是一個(gè)值得討論的問題。

需要指出的是,除了以上的幾個(gè)標(biāo)準(zhǔn)外,不少文獻(xiàn)中還將安全性(safe)、包容性(inclusiveness)、被遺忘權(quán)(right to be forgotten)、為人類造福等標(biāo)準(zhǔn)列入可信AI的范疇。在我看來,這些內(nèi)容或多或少可以被歸并到上面所說的幾個(gè)標(biāo)準(zhǔn)當(dāng)中,或者由前面提到的標(biāo)準(zhǔn)闡發(fā)出來。因此限于篇幅,這兒就不再贅述了。

用好多方合力實(shí)現(xiàn)可信AI

要實(shí)現(xiàn)可信AI并不是一件容易的事情,它需要政府、企業(yè)、社會(huì)以及技術(shù)等多方力量的協(xié)同才能實(shí)現(xiàn)。

首先,政府作為監(jiān)管者,需要為可信AI制定相關(guān)的標(biāo)準(zhǔn)和操作指南,并依據(jù)標(biāo)準(zhǔn)對(duì)AI的開發(fā)者和使用者進(jìn)行監(jiān)督。一方面,它需要根據(jù)不同的應(yīng)用場(chǎng)景、不同的模型類別制定不同的規(guī)則,尤其是對(duì)一些必須遵守的底線規(guī)則做出明確的規(guī)定,同時(shí)做好和現(xiàn)有法律法規(guī)之間的銜接工作。唯有如此,AI的開發(fā)者和使用者在實(shí)踐當(dāng)中才能做到有規(guī)可依,而不用被不必要的不確定性干擾。另一方面,它需要扮演好監(jiān)督和執(zhí)法的角色。對(duì)于一些突出的,或者具有共性的問題,應(yīng)當(dāng)及時(shí)處理,從而為行業(yè)樹立相應(yīng)的規(guī)范。這里需要指出的是,由于AI技術(shù)目前的發(fā)展依然十分迅速,還沒有達(dá)到一個(gè)穩(wěn)定狀態(tài)。這意味著,對(duì)于這個(gè)過程中出現(xiàn)的問題,政府在處理時(shí)應(yīng)當(dāng)具有一定的審慎性,要做到“讓子彈多飛一會(huì)兒”,看清楚了情況再出手,在處理問題時(shí)也要注意方式方法。如果盲目下手,管得過快、管得過多,也可能會(huì)對(duì)AI的發(fā)展造成負(fù)面的影響。

其次,相關(guān)的企業(yè)應(yīng)當(dāng)對(duì)可信AI的具體實(shí)現(xiàn)制定具體的實(shí)施方案以及詳細(xì)的標(biāo)準(zhǔn)。相比于政府,企業(yè)是更接近于市場(chǎng),也更了解技術(shù)的。對(duì)于AI模型的技術(shù)特征,以及優(yōu)勢(shì)劣勢(shì),它們都要比政府了解得更多。因此,如果說政府的責(zé)任是給可信AI提出了一個(gè)大的框架的話,那么企業(yè)就應(yīng)該是這個(gè)大框架內(nèi)的具體實(shí)踐者。它們應(yīng)該在這個(gè)框架下,結(jié)合市場(chǎng)和技術(shù)的特點(diǎn),給出更為具體的方案,并采用自律的方式來對(duì)此進(jìn)行實(shí)施。

再次,用戶也應(yīng)該扮演好反饋者和監(jiān)督者的角色,提出自己的訴求、反映自己的問題,并對(duì)企業(yè)實(shí)施可信AI的行為進(jìn)行監(jiān)督。隨著AI的普及,社會(huì)上的每一個(gè)人都會(huì)成為AI的使用者和利益相關(guān)者,對(duì)于AI的可信性問題,他們是最有發(fā)言權(quán)的。只有讓他們的聲音充分地得到表達(dá),可信AI的標(biāo)準(zhǔn)制定以及相關(guān)技術(shù)的開發(fā)才是最有價(jià)值的。

最后,應(yīng)當(dāng)充分依靠技術(shù)的力量。相關(guān)的規(guī)則固然重要,但歸根到底,可信AI的實(shí)現(xiàn)還是要依靠技術(shù)的力量。事實(shí)上,很多利用規(guī)則難以解決的問題,都可以用技術(shù)的手段得到解決。舉例來說,在生成式AI產(chǎn)生后,“失真”問題就一直讓監(jiān)管部門非常頭疼,但事實(shí)上,依靠新的技術(shù),這個(gè)問題或許并不難破解。例如谷歌之前就推出了一種肉眼不可見,但可以用機(jī)器識(shí)別的電子水印技術(shù),將它應(yīng)用在生成的圖像或者視頻上,就可以有效地保證它們是可以驗(yàn)證的。至于文字內(nèi)容的可驗(yàn)證性,則可以仿效新必應(yīng)(New Bing)搜索。當(dāng)它引述某個(gè)內(nèi)容時(shí),會(huì)在生成的內(nèi)容后面附上參考的文獻(xiàn),這樣用戶就可以根據(jù)需要對(duì)生成內(nèi)容的真?zhèn)巫孕需b別。

總而言之,可信AI的實(shí)現(xiàn)并非易事,但如果我們用好各方的合力,這個(gè)目標(biāo)就一定可以實(shí)現(xiàn)。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無評(píng)論