推動還是暫停: CIO們就人工智能最理想的發(fā)展路徑各抒己見

隨著人工智能的炒作周期和隨后的反彈全面展開,IT領(lǐng)導(dǎo)者發(fā)現(xiàn)自己在企業(yè)中使用人工智能方面處于一個微妙的轉(zhuǎn)折點。

本文來自微信公眾號“計算機(jī)世界”。

隨著人工智能的炒作周期和隨后的反彈全面展開,IT領(lǐng)導(dǎo)者發(fā)現(xiàn)自己在企業(yè)中使用人工智能方面處于一個微妙的轉(zhuǎn)折點。

在Elon Musk和備受尊敬的人工智能先驅(qū)Geoffrey Hinton發(fā)出嚴(yán)厲警告后,IT領(lǐng)導(dǎo)人正在向全球各地的機(jī)構(gòu)、咨詢公司和律師尋求關(guān)于未來道路的建議。

Elon Musk等科技界CEO最近關(guān)于人工智能潛在危險的警告性言論表明,我們在弱化創(chuàng)新的負(fù)面影響方面做得不夠,"Atti Riazi是Hearst公司高級副總裁兼CIO。他說:“作為創(chuàng)新者,我們有義務(wù)負(fù)責(zé)任地進(jìn)行創(chuàng)新,了解技術(shù)對人類生活、社會和文化的影響。”

這一觀點得到了許多IT領(lǐng)導(dǎo)人的贊同。他們認(rèn)為,盡管在自由市場社會中,創(chuàng)新是不可避免的,特別是在這個數(shù)字轉(zhuǎn)型的時代,更應(yīng)該得到鼓勵,但只有在正確的規(guī)則和條例的保障下,才能防止企業(yè)的災(zāi)難或更糟。

Bob McCowan是Regeneron制藥公司的CIO。他表示:“我同意暫??赡苓m合某些行業(yè)或某些高風(fēng)險的使用案例,但在此之外的更多場景里,我們應(yīng)該向前推進(jìn),快速探索這些工具提供的機(jī)會。”

McCowan補充說:“許多董事會成員都在質(zhì)疑是否應(yīng)該采用這些技術(shù),或者它們是否會產(chǎn)生太多的風(fēng)險。我認(rèn)為這兩者兼而有之。忽視它或關(guān)閉它,你將錯過重要的機(jī)會,但在沒有控制措施的情況下允許予員工不受限制的訪問,也可能使你的組織面臨風(fēng)險。”

雖然人工智能工具已經(jīng)使用多年,但最近向大眾發(fā)布的ChatGPT激起了相當(dāng)多的爭議,讓許多CIO,以及他們的董事會,按下暫停鍵以考慮如何下一步推進(jìn)。還有一些CIO對行業(yè),乃至人類可能因此面臨的風(fēng)險非常重視。

金融業(yè)監(jiān)管局(FINRA)是一個向美國證券交易委員會報告的重要監(jiān)管機(jī)構(gòu),Steve Randich是該局的CIO。他說:“每一天,我都在擔(dān)心這個問題。”Randich指出,他最近看到的一張圖表指出,人工智能程序的“心理”能力剛剛超過了一只老鼠,而10年后將超過全人類的能力。他說:“我的擔(dān)憂值得重視,特別是如果人工智能程序可以被不良行為者影響,并且能夠入侵,例如在核密碼方面。”

麻省理工學(xué)院Sloan管理學(xué)院的高級講師George Westerman認(rèn)為,全球企業(yè)的高管們正在向麻省理工學(xué)院Sloan管理學(xué)院和其他機(jī)構(gòu)咨詢有關(guān)使用生成性人工智能的道德、風(fēng)險和潛在責(zé)任。不過,Westerman認(rèn)為,大多數(shù)CIO已經(jīng)與他們的高層管理人員和董事會進(jìn)行了接觸,而且生成性人工智能本身并沒有帶來企業(yè)和他們的高管今天尚未遵循的新法律責(zé)任。

Westerman在談到首席信息官在人工智能影響下的個人法律風(fēng)險時表示:“我希望,就像公司的所有其他高管一樣,你的業(yè)務(wù)也有法律保障。”但Westerman指出,為個人利益不適當(dāng)?shù)厥褂迷摷夹g(shù)是例外。

在生成性人工智能方面迎頭趕上

同時,ChatGPT的發(fā)布也給監(jiān)管部門的監(jiān)督工作帶來沖擊。歐盟原本計劃在上個月頒布其人工智能法案,但鑒于許多人擔(dān)心政策在生效前就已經(jīng)過時,所以在ChatGPT發(fā)布后選擇了延遲發(fā)布。而隨著歐盟委員會及其相關(guān)管理機(jī)構(gòu)努力理清生成性人工智能的影響,歐洲和美國的公司高管們也正在認(rèn)真對待這些警鐘。

國家電網(wǎng)公司(National Grid)的集團(tuán)首席信息和數(shù)字官Adriana Karaboutis說:“隨著人工智能成為我們的一個關(guān)鍵部分,狹義的人工智能變成了一般的人工智能。誰會成為責(zé)任人?技術(shù)負(fù)責(zé)人,無生命的機(jī)器模型?批準(zhǔn)/改變訓(xùn)練模型的人類干預(yù)者?技術(shù)正在快速發(fā)展,但圍繞它的控制和道德規(guī)范卻沒有。這是一場追逐游戲。為此,同時在企業(yè)中管理人工智能的是監(jiān)督企業(yè)和組織風(fēng)險的CxO。鑒于人工智能的興起,CTO/CTO/CDO/CISO不再是信息風(fēng)險的所有者。IT依靠CEO和所有CxO,這意味著必須擁有企業(yè)文化和對人工智能的巨大利益以及風(fēng)險的認(rèn)識。”

總部位于斯德哥爾摩的電信公司Ericsson的副總裁兼企業(yè)自動化和人工智能負(fù)責(zé)人Rickard Wieselfors指出,Ericsson看到了生成性人工智能的巨大上升空間,并正在投資創(chuàng)建多種生成性人工智能模型,包括大型語言模型。

他說:“人工智能行業(yè)內(nèi)有一種健全的自我批評,我們正在非常認(rèn)真地對待負(fù)責(zé)任的人工智能。在訓(xùn)練中使用的文本或源代碼的知識產(chǎn)權(quán)方面,面臨許多沒有答案的問題。此外,在查詢模型、偏見、事實錯誤、缺乏完整性、顆粒度或缺乏模型準(zhǔn)確性方面的數(shù)據(jù)泄漏,肯定會限制你可以使用模型的內(nèi)容。巨大的能力帶來巨大的責(zé)任,我們支持并參與當(dāng)前的自我批評精神和對人工智能可能給世界帶來的哲學(xué)反思。”

一些CIO,如Choice酒店的Brian Kirkland,正在監(jiān)測這項技術(shù),但不認(rèn)為生成性人工智能已經(jīng)完全準(zhǔn)備好用于商業(yè)用途。

Kirkland表示:“我確實認(rèn)為,對行業(yè)來說,重要的是確保他們了解使用生成性人工智能技術(shù)的風(fēng)險、回報和影響,比如ChatGPT。數(shù)據(jù)所有權(quán)和生成的內(nèi)容存在風(fēng)險,必須加以理解和管理,以避免對公司產(chǎn)生負(fù)面影響。與此同時,還有很多上升空間和機(jī)會需要考慮。當(dāng)有能力將私人數(shù)據(jù)集與這些系統(tǒng)中的公共數(shù)據(jù)安全、可靠地合并時,上升空間將非常大。在人工智能和機(jī)器學(xué)習(xí)如何通過從生成的人工智能內(nèi)容到復(fù)雜而有意義的商業(yè)分析和決策來實現(xiàn)商業(yè)價值方面,將會發(fā)生巨大的變化。”

沒有人建議完全控制這樣一項強(qiáng)大的、有機(jī)會改變生活的技術(shù)。

在Gartner最近對2500多名高管的調(diào)查中,45%的人表示,圍繞ChatGPT的關(guān)注使他們增加了對人工智能的投資。超過70%的人認(rèn)為他們的企業(yè)目前正在探索生成性人工智能,19%的人正在進(jìn)行試點或生產(chǎn)使用,聯(lián)合利華和CarMax等公司的項目已經(jīng)顯示出前景。

在5月15日開始的麻省理工學(xué)院Sloan CIO會議上,Irving Wladawsky-Berger將主持一個關(guān)于進(jìn)入生成性人工智能領(lǐng)域的潛在風(fēng)險和回報的小組討論。最近,他還剛剛主持了一場關(guān)于該技術(shù)的會前討論。

這位前IBM的長期研究員和目前麻省理工學(xué)院斯隆分校的附屬研究員說:“我們今天都對生成性人工智能感到興奮。”他同時引用了由于人工智能而預(yù)期的基因組學(xué)的重大進(jìn)展。

但Wladawsky-Berger指出,采用該技術(shù)的人所需的盡職調(diào)查將不是一項簡單的任務(wù)。他說:“這需要大量的工作。我們必須弄清楚什么是有效的,什么是安全的,以及要做哪些試驗。這就是最需要時間的部分。”

小組的另一位CIO,Zoetis的首席數(shù)字和技術(shù)官Wafaa Mamilli說,生成性人工智能正在給制藥公司增加治愈人類慢性疾病的信心。

她說:“由于生成性人工智能技術(shù)和計算能力在遺傳研究上的進(jìn)步,現(xiàn)在在美國和美國以外的國家、日本和歐洲都有試驗,目標(biāo)是治愈糖尿病。”

護(hù)欄和指南:生成式人工智能的基本要素

華爾街已經(jīng)注意到了行業(yè)對生成性人工智能的迅速擁抱。根據(jù)IDC的數(shù)據(jù),2022年是對生成性人工智能初創(chuàng)企業(yè)投資的破紀(jì)錄的一年,股權(quán)融資超過26億美元。

IDC最近關(guān)于生成性人工智能的幾份報告之中指出,“無論是用Jasper.ai創(chuàng)造內(nèi)容,用Midjourney創(chuàng)造圖像,還是用Azure OpenAI服務(wù)進(jìn)行文本處理,都有一個生成性人工智能的基礎(chǔ)模型來促進(jìn)你的業(yè)務(wù)的各個方面”。

Regeneron公司的McCowan指出,CIO們已經(jīng)有設(shè)置防護(hù)的辦法,以便安全地推進(jìn)生成性人工智能試點。

McCowan說:“至關(guān)重要的是,你要有政策和準(zhǔn)則來管理那些計劃使用這些技術(shù)的人的訪問和行為,并提醒你的員工保護(hù)知識產(chǎn)權(quán)、PII(可識別個人身份的信息),以及重申被分享的東西可能會成為公共信息。”

他說:“讓你的創(chuàng)新者和你的律師一起找到一個基于風(fēng)險的使用這些工具的模式,并清楚你可能暴露哪些數(shù)據(jù),以及你對這些解決方案的輸出有哪些權(quán)利。開始使用風(fēng)險較小的用例的技術(shù),并從每次迭代中學(xué)習(xí)。開始吧,否則你會失去機(jī)會。”

Forrester Research分析師David Truog指出,在企業(yè)開始試點并在生產(chǎn)中使用生成性人工智能之前,人工智能領(lǐng)導(dǎo)者給生成性人工智能貼上警示標(biāo)簽是正確的。但他也有信心能做到這一點。

Truog說:“我不認(rèn)為停止或暫停人工智能是正確的方式。更務(wù)實和建設(shè)性的道路是明智地選擇專門的人工智能可以提供幫助的用例,嵌入深思熟慮的護(hù)欄,并刻意做好隔離。這將成為一個起點。”

一家咨詢公司的DevOps IT負(fù)責(zé)人指出,CIO在使用生成性人工智能時可以通過幾種方式來降低風(fēng)險,包括像風(fēng)險投資家那樣思考;清楚地了解技術(shù)的價值;在測試之前確定道德和法律方面的考慮;進(jìn)行實驗,但不急于投資;以及從客戶的角度考慮影響。

Rod Cope是總部位于明尼阿波利斯的Perforce公司CIO。他說:“聰明的CIO會組建監(jiān)督委員會或與外部顧問合作,他們可以指導(dǎo)組織完成實施工作,并幫助制定指導(dǎo)方針,促進(jìn)負(fù)責(zé)任的使用。雖然投資于人工智能為企業(yè)提供了巨大的價值,但將其實施到你的技術(shù)堆棧中需要深思熟慮,以保護(hù)你、你的組織和你的客戶。”

雖然生成性人工智能的興起肯定會影響人類的工作,但一些IT領(lǐng)導(dǎo)者,如管理服務(wù)提供商MetTel的首席技術(shù)官Ed Fox,認(rèn)為這種影響可能被夸大了,盡管每個人都可能不得不適應(yīng)或落伍。

Fox表示:“在這次生成性人工智能的覺醒過程中,一些人將會失去工作,但不會多到某些人預(yù)測的程度。”

不過,如果有一個主題是肯定的,那就是對大多數(shù)CIO來說,謹(jǐn)慎行事是最好的前進(jìn)道路。參與其中也是如此。

Wipro谷歌業(yè)務(wù)集團(tuán)總經(jīng)理Tom Richer表示,CIO必須在“扼殺創(chuàng)新的嚴(yán)格法規(guī)和確保人工智能開發(fā)和使用負(fù)責(zé)任的指導(dǎo)方針之間取得平衡。”他正在與母校Cornell大學(xué)及其人工智能倡議合作,以便能謹(jǐn)慎應(yīng)對未來變化。

Richer表示:“CIO和IT高管必須意識到生成人工智能的潛在風(fēng)險和好處,并與該領(lǐng)域的專家合作,制定負(fù)責(zé)任的使用策略。這種合作需要大學(xué)、大型科技公司、智庫和政府研究中心參與,為人工智能技術(shù)的開發(fā)和部署制定最佳實踐和指導(dǎo)方針。”

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論