人工智能倫理:首席信息官應(yīng)問的五個問題

安信安全
安信安全
許多首席信息官已開始在用戶可能看不到的領(lǐng)域(例如自動化倉庫)中采用人工智能技術(shù)。但是特別是當(dāng)首席信息官希望將人工智能的使用擴(kuò)展到更多面向客戶的領(lǐng)域時,他們必須意識需要回答一些道德問題,否則就有可能成為責(zé)任的一部分。

采用人工智能工具的IT領(lǐng)導(dǎo)者如今面臨承擔(dān)責(zé)任、隱私保護(hù),以及保持倫理道德的難題。人們需要關(guān)注引發(fā)人工智能倫理爭論的五個問題。

很多人已經(jīng)意識到,人工智能(AI)以多種方式改善了人們的工作和生活。人工智能系統(tǒng)已經(jīng)應(yīng)用在呼叫中心,用于自動駕駛汽車,并通過快餐店的自助服務(wù)臺接受訂單。而在未來的日子里,人工智能和機(jī)器學(xué)習(xí)將成為更加突出的技術(shù),顛覆各行業(yè)領(lǐng)域的發(fā)展。當(dāng)人們將工作和生活中的大部分事情交給機(jī)器實(shí)施時,需要了解哪種道德規(guī)范正在推動人工智能的應(yīng)用和發(fā)展,以及誰在定義其發(fā)展之路。

許多首席信息官已開始在用戶可能看不到的領(lǐng)域(例如自動化倉庫)中采用人工智能技術(shù)。但是特別是當(dāng)首席信息官希望將人工智能的使用擴(kuò)展到更多面向客戶的領(lǐng)域時,他們必須意識需要回答一些道德問題,否則就有可能成為責(zé)任的一部分。

以下是五個需要回答的問題,來揭示倫理道德如何影響人工智能系統(tǒng),以及首席信息官現(xiàn)在需要意識到爭論這些問題的原因。

1.可以讓機(jī)器承擔(dān)責(zé)任嗎?

2019年,Uber公司開發(fā)的自動駕駛汽車在亞利桑那州坦佩市一條街道上撞死一名行人,因?yàn)檫@輛自動駕駛汽車未將其識別為行人,因?yàn)樾腥藳]有經(jīng)過人行橫道。作為人類駕駛員,將會意識到是這是一名亂穿馬路的行人,并采取措施及時躲避,那么此次事件,誰應(yīng)該為這個疏忽負(fù)責(zé)?

亞利桑那州一家法院裁定,由于坐在車中的“安全駕駛員”疏忽大意而導(dǎo)致沒有及時處理而獲罪,但終有一天汽車真正實(shí)現(xiàn)無人駕駛。在這種情況下,Uber公司需要為此負(fù)責(zé)嗎?這是激光雷達(dá)技術(shù)的問題嗎?如果忘記了對違章行為的解釋,那是編寫代碼的程序員的問題嗎?

盡管自動駕駛汽車被認(rèn)為比疲勞、醉酒或分心的人類駕駛員安全得多,但還是會造成人員傷亡,那么會有多少?根據(jù)美國交通部公路交通安全管理局的調(diào)查數(shù)據(jù),2017年全球平均每行駛1億公里就有1.16人死亡。相比之下,Waymo公司開發(fā)的自動駕駛汽車自從2009年推出以來已行駛了1000萬英里。如果沒有數(shù)十億公里的安全測試,就不可能知道自動駕駛汽車的安全性。

無人駕駛汽車造成的每一次傷亡事件都可能向責(zé)任方提起訴訟,那么是否每家租車公司和汽車公司都會卷入這種訴訟浪潮中?

為什么首席信息官應(yīng)該關(guān)心這個問題:因?yàn)椴捎萌斯ぶ悄?,?zé)任模型可能會轉(zhuǎn)移到生產(chǎn)者而不是消費(fèi)者。對于那些執(zhí)行這些解決方案的人來說,需要研究這可能如何影響其業(yè)務(wù),以便為此做好充分的準(zhǔn)備。

2.可以解釋無法解釋的原因嗎?

人工智能和機(jī)器學(xué)習(xí)模型的任務(wù)是做出對人們生活有重大影響的關(guān)鍵決策??梢愿嬖V領(lǐng)導(dǎo)者該雇用哪個求職者,或者告訴法官可以判處罪犯什么樣的刑罰。因此面臨的問題是如何解釋做出這樣決定的原因。

深度學(xué)習(xí)模型是通過神經(jīng)網(wǎng)絡(luò)進(jìn)行工作,這些神經(jīng)網(wǎng)絡(luò)將接收的輸入數(shù)據(jù)處理成為結(jié)果。人們無法輕易地通過這一系列的決定來了解是如何做出的。當(dāng)無法解釋為什么一名犯人因?yàn)榉竿环N罪行被判兩個月的刑期,而另一名犯人被判一年的刑期時,這成為一個問題。

這一點(diǎn)在現(xiàn)實(shí)世界中失敗了,因?yàn)榉N族偏見逐漸滲透到司法程序中的人類決策中。這種偏差會不知不覺地通過數(shù)據(jù)集傳遞給人工智能模型。因此問責(zé)是關(guān)鍵。

為什么首席信息官應(yīng)該關(guān)心這個問題:因?yàn)槊總€人都想知道人工智能軟件是如何得出結(jié)論的,尤其是當(dāng)這個決定看起來是錯誤的時候。神經(jīng)網(wǎng)絡(luò)使得回答這些問題變得困難。人們可以輸入模型輸入以查看獲得的輸出結(jié)果,但是很大程度上是由人類來解釋機(jī)器的工作,而不是具有確定性。而目前,人們必須接受這樣的事實(shí)。

3.人工智能世界中是否存在隱私?

而在未來,家中的冰箱會提醒人們需要補(bǔ)充牛奶。而在超市,經(jīng)過餅干貨架時,會突然出現(xiàn)一個虛擬廣告牌,宣布奧利奧餅干正在打折。當(dāng)瀏覽貨架時,會在每件商品旁邊彈出營養(yǎng)信息。像《少數(shù)派報告》這樣的科幻電影很快將成為現(xiàn)實(shí)。

雖然這種信息的爆炸式增長和便利性受到人們的歡迎,但實(shí)現(xiàn)這樣事實(shí)的工具卻存在爭議。大多數(shù)人都意識到,每次打開手機(jī),都會放棄一定程度的隱私權(quán)。人工智能加劇了這種情況,人們對此感到擔(dān)憂。調(diào)研機(jī)構(gòu)Genpact公司最近發(fā)布的一份研究報告發(fā)現(xiàn),71%的消費(fèi)者擔(dān)心人工智能會繼續(xù)侵犯他們的隱私。面部識別軟件越來越先進(jìn),可以從人群中提取人臉特征。有些國家已經(jīng)在部署面部識別系統(tǒng)來跟蹤和控制某些群體,這只是監(jiān)控范圍更加廣泛的一個方面。

盡管有人堅(jiān)決反對這項(xiàng)技術(shù),但卻不一定知道哪些公司或政府正在積極使用面部識別技術(shù)。一些科技公司正在避免產(chǎn)生這種爭議,像Clearview這樣的其他公司則向美國執(zhí)法機(jī)構(gòu)出售人工智能面部識別軟件。

為什么首席信息官應(yīng)該關(guān)心這個問題:Facebook和谷歌公司在數(shù)據(jù)隱私方面遇到了麻煩,監(jiān)管機(jī)構(gòu)正越來越多地管理寬松的數(shù)據(jù)隱私標(biāo)準(zhǔn)。在組織收集客戶的大量數(shù)據(jù),并使用人工智能和機(jī)器學(xué)習(xí)之類的工具從這些數(shù)據(jù)中提取更多信息時,需要將客戶隱私放在其思考的最前沿。否則,當(dāng)這成為技術(shù)上所有問題的起源時,將會面臨訴訟和處罰。

4.能夠控制惡意攻擊嗎?

無論技術(shù)有什么崇高的意圖,總有一些人會嘗試?yán)盟\取私利。人工智能也不例外。黑客已經(jīng)在使用它來進(jìn)行復(fù)雜的網(wǎng)絡(luò)釣魚攻擊,并針對各種組織進(jìn)行惡意的網(wǎng)絡(luò)攻擊。

僵尸網(wǎng)絡(luò)正在積極嘗試通過在社交媒體網(wǎng)絡(luò)上傳播虛假和誤導(dǎo)性信息來影響政治選舉。這些大量虛假宣傳活動在2016年美國總統(tǒng)大選期間是如此有效,以至于有人質(zhì)疑它是否會影響最終選舉結(jié)果。社交媒體公司已經(jīng)承諾加強(qiáng)對其網(wǎng)絡(luò)的監(jiān)管,希望在有害信息誤導(dǎo)廣大受眾之前,能夠及時刪除或標(biāo)記錯誤信息。

有些甚至使用人工智能技術(shù)來改變?nèi)藗儗ΜF(xiàn)實(shí)的看法。Deepfake是人工智能生成的視頻或音頻記錄,偽造一些人員的言行。例如通過發(fā)布埃隆·馬斯克的視頻評論特斯拉(Tesla)公司不能實(shí)現(xiàn)季度盈利的預(yù)期,從而壓低股價。而視覺威脅情報機(jī)構(gòu)Sensity公司表示,Deepfake的實(shí)例數(shù)量預(yù)計(jì)每六個月翻一番,不久將成為一種主流。如果無法采用取證技術(shù)來化解這一技術(shù)帶來的問題,那么Deepfake將會造成毀滅性的后果。

為什么首席信息官應(yīng)該關(guān)心這個問題:網(wǎng)絡(luò)安全形勢越來越復(fù)雜。人工智能為黑客提供了一個可怕的新工具。從確保網(wǎng)絡(luò)安全到冒充企業(yè)首席執(zhí)行官,人們需要了解這些威脅并及時應(yīng)對。

5.誰為人工智能倫理負(fù)責(zé)?

所有這些問題都有一個共同的線索,那就是,誰來負(fù)責(zé)建立和執(zhí)行人工智能系統(tǒng)的道德標(biāo)準(zhǔn)?

谷歌公司和微軟公司等科技巨頭表示,政府部門應(yīng)介入制定適當(dāng)監(jiān)管人工智能的法律。要達(dá)成共識并非易事,并且需要來自眾多利益相關(guān)者的投入,以確保社會所面臨的問題不會傳遞到人工智能模型中。到目前為止,這種責(zé)任已經(jīng)落到了外部監(jiān)督者和一些科技公司敢于表態(tài)的員工身上。在遭到員工連續(xù)數(shù)月的抗議之后,谷歌公司取消了其軍用無人機(jī)人工智能項(xiàng)目。

為此,許多公司都任命首席道德官來幫助指導(dǎo)業(yè)務(wù)部門進(jìn)入這一新的領(lǐng)域。

為什么首席信息官要問這個問題:在國家和國際層面上制定人工智能法規(guī)還有很長的路要走。人類必須自我監(jiān)督如何使用人工智能。具有爭議的人工智能實(shí)現(xiàn)將會面臨更多的障礙。有問題的做法最終將被發(fā)現(xiàn)。當(dāng)這種情況發(fā)生時,企業(yè)將被迫做出反應(yīng),而不是積極主動地制定和實(shí)施合乎倫理道德的人工智能政策。

在實(shí)現(xiàn)真正具有倫理首先的人工智能之前,還有很長的路要走。通過提出這些棘手的問題,可以確定人們希望人工智能在生活和組織中扮演的角色,現(xiàn)在正逢其時,如今每天在讓人工智能解決更重要的問題,這就是人們發(fā)現(xiàn)自己陷入這些哲學(xué)問題的原因。如果愿意詢問和探索,那么答案就在那里。

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論