人工智能何以向善

在過去幾年中,涌現(xiàn)了許多關(guān)于可信賴AI的良好治理指南。這些AI治理框架中的大多數(shù)在基本原則的定義上存在相同之處,包括隱私和數(shù)據(jù)治理、問責(zé)制和可審計(jì)性、穩(wěn)健性和安全性、透明度和可解釋性、公平和非歧視、監(jiān)督和促進(jìn)人類價(jià)值。

2345截圖20211028093243.png

人工智能和機(jī)器學(xué)習(xí)正以前所未有的速度發(fā)展。這就提出了一個(gè)問題:如何以負(fù)責(zé)任和合乎道德的方式使用AI/ML系統(tǒng),值得用戶和社會的信任?

隨著政府當(dāng)局在這個(gè)復(fù)雜領(lǐng)域加強(qiáng)執(zhí)法、規(guī)則制定和立法,組織了解當(dāng)前適用于AI的隱私要求、即將出現(xiàn)的隱私要求以及可用于為AI和ML(機(jī)器學(xué)習(xí))應(yīng)用程序構(gòu)建合規(guī)數(shù)據(jù)保護(hù)計(jì)劃的資源至關(guān)重要。

人工智能治理發(fā)展

在過去幾年中,涌現(xiàn)了許多關(guān)于可信賴AI的良好治理指南。這些AI治理框架中的大多數(shù)在基本原則的定義上存在相同之處,包括隱私和數(shù)據(jù)治理、問責(zé)制和可審計(jì)性、穩(wěn)健性和安全性、透明度和可解釋性、公平和非歧視、監(jiān)督和促進(jìn)人類價(jià)值。

公共組織制定負(fù)責(zé)任的人工智能框架的一些突出例子包括聯(lián)合國教科文組織關(guān)于人工智能倫理的建議、中國使用人工智能的倫理準(zhǔn)則、歐洲委員會的報(bào)告“走向人工智能系統(tǒng)的監(jiān)管”、經(jīng)合組織人工智能原則和倫理歐盟委員會成立的人工智能高級別專家組制定的可信賴人工智能指南。

除此之外,人們還可以找到無數(shù)公司的自我監(jiān)管舉措。此外,工業(yè)界與學(xué)術(shù)界和非營利組織聯(lián)手推進(jìn)人工智能的負(fù)責(zé)任使用;例如,在人工智能伙伴關(guān)系或人工智能全球伙伴關(guān)系中。ISO/IEC、IEEE和NIST等標(biāo)準(zhǔn)化機(jī)構(gòu)也提供指導(dǎo)。

目前的治理舉措主要采取聲明的形式,不具約束力。但同時(shí),現(xiàn)有的各種隱私法已經(jīng)在很大程度上規(guī)范了人工智能系統(tǒng)的負(fù)責(zé)使用。

隱私監(jiān)管機(jī)構(gòu)在人工智能治理中的突出作用也體現(xiàn)在新加坡個(gè)人數(shù)據(jù)保護(hù)委員會發(fā)布的人工智能治理框架模型、英國信息專員辦公室在開發(fā)人工智能審計(jì)框架方面的廣泛工作,以及發(fā)布了關(guān)于人工智能治理框架的指南。香港個(gè)人資料私隱專員公署對人工智能的道德發(fā)展和使用。

隱私法規(guī)和負(fù)責(zé)任的人工智能

負(fù)責(zé)任的人工智能原則之一明確提到了“隱私”。這讓人想起將一般隱私原則(全球隱私和數(shù)據(jù)保護(hù)的支柱)應(yīng)用于處理個(gè)人數(shù)據(jù)的AI/ML系統(tǒng)的義務(wù)。這包括確保收集限制、數(shù)據(jù)質(zhì)量、目的規(guī)范、使用限制、問責(zé)制和個(gè)人參與。

可信賴的人工智能原則,如透明度和可解釋性、公平和非歧視、人工監(jiān)督、數(shù)據(jù)處理的穩(wěn)健性和安全性,通常與特定的個(gè)人權(quán)利和相應(yīng)隱私法的規(guī)定相關(guān)。

2345截圖20211028093243.png

關(guān)于歐盟GDPR,解釋權(quán)就是這種情況(Arts 1(1),12,13,14,15(1)(h),22(3),Recital 71),公平原則(第5(1)(a)條,第75條)、人為監(jiān)督(第22條)、穩(wěn)健性(第5(1)d條)和處理安全性(第5(1)(f)、25、32條)。中國的PIPL或英國GDPR等其他隱私法包括與這些負(fù)責(zé)任的人工智能原則相關(guān)的類似規(guī)定。

在美國,聯(lián)邦貿(mào)易委員會根據(jù)FTC法案第5條、美國公平信用報(bào)告法案以及平等信用機(jī)會法案要求AI開發(fā)人員和使用算法的公司承擔(dān)責(zé)任。在其2016年報(bào)告和2020年和2021年的指導(dǎo)方針中,F(xiàn)TC毫無疑問地表明,人工智能的使用必須是透明的,包括向消費(fèi)者解釋算法決策,并確保決策是公平和經(jīng)驗(yàn)合理的。

不了解源自隱私法規(guī)的人工智能系統(tǒng)的合規(guī)性要求不僅會給受影響的個(gè)人帶來風(fēng)險(xiǎn)。公司可能面臨巨額罰款,甚至被迫刪除數(shù)據(jù)、模型和算法。

違法案例

去年年底,澳大利亞信息專員辦公室發(fā)現(xiàn)Clearview AI在未經(jīng)同意的情況下收集圖像和生物特征數(shù)據(jù)違反了澳大利亞隱私法。不久之后,根據(jù)與澳大利亞OAIC的聯(lián)合調(diào)查,英國ICO宣布出于同樣的原因,它打算處以超過1700萬英鎊的潛在罰款。此外,三個(gè)加拿大隱私當(dāng)局以及法國的CNIL下令Clearview AI停止處理并刪除收集到的數(shù)據(jù)。

歐洲數(shù)據(jù)保護(hù)機(jī)構(gòu)在2021年追查了其他幾起AI/ML系統(tǒng)侵犯隱私的案件。

2021年12月,荷蘭數(shù)據(jù)保護(hù)局宣布對荷蘭稅務(wù)和海關(guān)總署處以275萬歐元的罰款,理由是其違反了GDPR,原因是ML算法以歧視性方式處理申請人的國籍。該算法系統(tǒng)地將雙重國籍識別為高風(fēng)險(xiǎn),導(dǎo)致這些人的索賠更有可能被標(biāo)記為欺詐。

在2021年8月的另一個(gè)具有里程碑意義的案例中,意大利的DPA加蘭特對食品配送公司Foodinho和Deliveroo分別處以約300萬美元的罰款,理由是它們違反了GDPR,因?yàn)槠溆糜诠芾沓丝偷乃惴ㄈ狈ν该鞫?、公平性和?zhǔn)確信息。監(jiān)管機(jī)構(gòu)還發(fā)現(xiàn),這些公司的數(shù)據(jù)最小化、安全性和隱私設(shè)計(jì)和默認(rèn)保護(hù)缺乏,數(shù)據(jù)保護(hù)影響評估也缺失。

在2021年初的類似案件中,阿姆斯特丹地方法院裁定拼車公司Uber和Ola Cabs不符合GDPR的透明度要求,并侵犯了要求人工干預(yù)的權(quán)利。荷蘭DPA的調(diào)查正在進(jìn)行中。

在美國,F(xiàn)TC最近的命令明確表明,在開發(fā)模型或算法時(shí)不遵守隱私要求的風(fēng)險(xiǎn)很高。

在Everalbum的問題上,F(xiàn)TC不僅關(guān)注向用戶披露收集的生物特征信息并獲得同意的義務(wù),還要求非法獲取的數(shù)據(jù),以及使用這些數(shù)據(jù)開發(fā)的模型和算法,被刪除或銷毀。

有了這個(gè),F(xiàn)TC從2019年開始在其Cambridge Analytica訂單中遵循其方法,其中還要求刪除或銷毀不僅有問題的數(shù)據(jù),而且還要求刪除或銷毀所有工作產(chǎn)品,包括全部或部分源自的任何算法或方程式數(shù)據(jù)。

挑戰(zhàn)—不可解釋黑盒

盡管有責(zé)任不執(zhí)行法規(guī)要求的負(fù)責(zé)任的人工智能原則,但仍有許多懸而未決的問題。盡管有很多關(guān)于同意和適當(dāng)通知用戶的法律指導(dǎo),但對AI公平性和可解釋性等要求的法律解釋和實(shí)際實(shí)施仍處于起步階段。共同點(diǎn)是,沒有一種萬能的方法來評估各種用例中值得信賴的AI原則。

AI可解釋性或透明度旨在打開所謂的ML模型“黑盒”。圍繞可解釋人工智能的整個(gè)人工智能研究領(lǐng)域已經(jīng)出現(xiàn)。解釋ML模型的含義有很多答案。為了向監(jiān)管機(jī)構(gòu)或用戶解釋個(gè)人預(yù)測,基于結(jié)果的事后本地模型很常見。在這里,可以在由黑盒模型的樣本和輸出組成的數(shù)據(jù)集上訓(xùn)練代理模型(或元模型)以近似其預(yù)測。任何解釋都應(yīng)適應(yīng)接收器的理解,并包括對系統(tǒng)設(shè)計(jì)選擇的參考,以及部署它的基本原理。

2345截圖20211028093243.png

人工智能公平是另一個(gè)不斷發(fā)展的領(lǐng)域,涵蓋了一個(gè)非常復(fù)雜的問題。偏見、歧視和公平是高度針對具體情況的。在數(shù)學(xué)、計(jì)算機(jī)科學(xué)、法律、哲學(xué)和經(jīng)濟(jì)學(xué)的各個(gè)學(xué)科之間和內(nèi)部,存在許多公平的定義,并且差異很大。一些隱私監(jiān)管機(jī)構(gòu)已經(jīng)發(fā)布了明確的指導(dǎo)方針。根據(jù)ICO,公平意味著個(gè)人數(shù)據(jù)需要以人們合理預(yù)期的方式處理,而不是以對他們產(chǎn)生不合理不利影響的方式使用。同樣,F(xiàn)TC解釋說,根據(jù)FTC法案,如果一種做法弊大于利,就會被認(rèn)為是不公平的。另一方面,在GDPR的背景下對公平原則的定義仍然很少。.同時(shí),許多組織不確定如何在實(shí)踐中避免偏見。一般來說,偏差可以通過預(yù)處理(在訓(xùn)練算法之前)、處理中(在模型訓(xùn)練期間)和后處理(預(yù)測中的偏差校正)來解決。

AI可解釋性和公平性只是負(fù)責(zé)任的AI領(lǐng)域中眾多快速發(fā)展的原則中的兩個(gè)。正如歐盟ENISA在最近的一份報(bào)告中所強(qiáng)調(diào)的那樣,其他領(lǐng)域,例如保護(hù)AI/ML算法也需要提高意識和保障措施。另一個(gè)挑戰(zhàn)是不同原則之間的權(quán)衡。一些可信度屬性之間可能會出現(xiàn)緊張關(guān)系,例如透明度和隱私,或隱私和公平。

實(shí)際舉措

對于隱私專業(yè)人士來說,從數(shù)據(jù)治理和風(fēng)險(xiǎn)管理的角度來處理該主題以確保問責(zé)制可能是一個(gè)良好的開端。與計(jì)算機(jī)工程、數(shù)據(jù)科學(xué)、安全、產(chǎn)品開發(fā)、用戶體驗(yàn)設(shè)計(jì)、合規(guī)性、營銷和新興的人工智能倫理學(xué)家等其他團(tuán)隊(duì)共同設(shè)計(jì)適當(dāng)?shù)娜斯ぶ悄苤卫砹鞒淌谴_保人工智能/機(jī)器學(xué)習(xí)系統(tǒng)能夠處理個(gè)人數(shù)據(jù)會在整個(gè)ML流程中考慮隱私要求。

內(nèi)部政策應(yīng)確保人工參與處理數(shù)據(jù)質(zhì)量、數(shù)據(jù)注釋、訓(xùn)練數(shù)據(jù)準(zhǔn)確性測試、算法(重新)驗(yàn)證、基準(zhǔn)評估和外部審計(jì)。也可以考慮使用外部透明度標(biāo)準(zhǔn),例如最近由IEEE或英國發(fā)布的標(biāo)準(zhǔn)。

數(shù)據(jù)保護(hù)影響評估或隱私影響評估可以通過與負(fù)責(zé)任的人工智能相關(guān)的其他問題來增強(qiáng)。通過這種方式,可以識別和控制使用人工智能可能給個(gè)人帶來的權(quán)利和自由風(fēng)險(xiǎn)。在這里,應(yīng)該評估算法和數(shù)據(jù)集中的偏見或不準(zhǔn)確可能對個(gè)人造成的任何損害,并記錄使用AI/ML算法的比例。PIA可以描述權(quán)衡取舍,例如統(tǒng)計(jì)準(zhǔn)確性和數(shù)據(jù)最小化之間的權(quán)衡,并記錄任何決策的方法和基本原理。

此外,組織可以考慮保護(hù)隱私的機(jī)器學(xué)習(xí)解決方案或使用合成數(shù)據(jù)。雖然它們不會取代負(fù)責(zé)任的人工智能和隱私政策、全面的模型風(fēng)險(xiǎn)管理以及模型可解釋性或偏差檢測的方法和工具的使用,但它們在設(shè)計(jì)人工智能架構(gòu)時(shí)加強(qiáng)了隱私優(yōu)先的方法。

挪威DPA在一份致力于在ML算法中使用個(gè)人數(shù)據(jù)的報(bào)告中強(qiáng)調(diào)了這些方法:“與使用AI的組織特別相關(guān)的兩個(gè)新要求是設(shè)計(jì)隱私要求和DPIA。”

在這種情況下,負(fù)責(zé)任的人工智能原則的關(guān)鍵問題也可以考慮在內(nèi)。起點(diǎn)可以是歐盟AI-HLEG提出的清單,也可以是人工智能伙伴關(guān)系編制的清單??鐚W(xué)科討論和部署用于負(fù)責(zé)任的AI、AI公平和AI可解釋性(如LIME、SHAP或LORE)的工具包可以進(jìn)一步促進(jìn)相互理解和對用戶的透明度。

進(jìn)一步的非技術(shù)方法可以包括成立一個(gè)道德人工智能委員會、內(nèi)部培訓(xùn)、團(tuán)隊(duì)組成的多樣化,或分析數(shù)據(jù)收集機(jī)制以避免偏見。其他組織已經(jīng)開始發(fā)布AI可解釋性聲明。無論采用何種方法,組織都必須向消費(fèi)者提供必要的信息,以防AI/ML系統(tǒng)產(chǎn)生不利行為以及評分的使用和后果。

未來展望

確保值得信賴的AI和ML的原則將在未來幾年的大量法律中得到體現(xiàn)。在全球范圍內(nèi),經(jīng)合組織統(tǒng)計(jì)了60個(gè)國家的700項(xiàng)人工智能政策舉措。

隨著新的歐盟人工智能法案,高風(fēng)險(xiǎn)人工智能系統(tǒng)將受到明確監(jiān)管。在美國,拜登政府宣布制定“人工智能權(quán)利法案”。除了即將為FTC提供的額外5億美元資金外,F(xiàn)TC還申請了關(guān)于隱私和人工智能的規(guī)則制定權(quán)。此外,新的加州隱私保護(hù)局可能會負(fù)責(zé)在2023年之前發(fā)布管理人工智能的法規(guī),預(yù)計(jì)這將產(chǎn)生深遠(yuǎn)的影響。

隨著執(zhí)法力度的加大和新法規(guī)的出臺,確保人工智能系統(tǒng)的隱私合規(guī)將成為負(fù)責(zé)任地使用人工智能的最低要求。隨著未來的發(fā)展,人工智能應(yīng)用程序現(xiàn)在必須滿足隱私要求,這一點(diǎn)很重要。共同努力和對AI/ML生態(tài)系統(tǒng)的良好理解將極大地幫助為這些新的發(fā)展做準(zhǔn)備。

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論