2020年全球48%的CIO將部署AI,AI/ML格局發(fā)生重大變化

賢集網(wǎng)
當(dāng)前,企業(yè)正在努力生產(chǎn)可擴(kuò)展性和可靠性兼具的模型。編寫模型的人員不一定考慮到模型安全性以及性能,并且也不一定是模型部署的專家。一旦機(jī)器學(xué)習(xí)模型成為主流和關(guān)鍵應(yīng)用程序不可或缺的一部分,這將不可避免地導(dǎo)致對于主流應(yīng)用程序服務(wù)攻擊的模型。

根據(jù)Gartner的一項(xiàng)調(diào)查,到2020年底,全球48%的CIO將部署AI。盡管人們對AI和ML持樂觀態(tài)度,但我仍然持懷疑態(tài)度。在可以預(yù)見的未來,我認(rèn)為沒有任何發(fā)明會(huì)真正導(dǎo)致生產(chǎn)率和生活水平發(fā)生巨大變化。等待AI/ML格局發(fā)生重大變化的企業(yè)將錯(cuò)過一些小的發(fā)展。

以下是一些趨勢,目前可能尚未引起注意,但長期來看會(huì)產(chǎn)生重大影響:

1、專用硬件和云服務(wù)提供商正在改變格局

對于企業(yè)而言,熱議內(nèi)部部署和云計(jì)算的日子已經(jīng)一去不復(fù)返了。今天,即使是保守的公司也正在談?wù)撛坪烷_源。這也難怪云平臺(tái)正在改進(jìn)其產(chǎn)品以包括AI / ML服務(wù)。

隨著ML解決方案的要求越來越高,CPU和RAM的數(shù)量不再是加速或擴(kuò)展的唯一方法。針對算法優(yōu)化的專用硬件比以往任何時(shí)候都要多,無論是GPU、TPU還是“晶圓級引擎”。行業(yè)也向著使用定制化程度更高的硬件解決AI / ML問題的轉(zhuǎn)變將加速。企業(yè)的CPU將主要用于解決最基本的問題。使用ML / AI的通用計(jì)算基礎(chǔ)架構(gòu)面臨被淘汰的風(fēng)險(xiǎn),對于企業(yè)而言這個(gè)原因就足以促使其切換到云平臺(tái)。

專用芯片和硬件的增加也將促使基于這些硬件算法的改進(jìn)。盡管新的硬件/芯片可能允許使用以前被認(rèn)為是慢或者不可能的AI / ML解決方案,但仍需要重寫許多當(dāng)前為通用硬件提供動(dòng)力的開源工具,以便從新的芯片中受益。最近的算法改進(jìn)示例包括Sideways,通過并行化訓(xùn)練步驟來加快DL訓(xùn)練;以及Reformer,用于優(yōu)化內(nèi)存使用和計(jì)算能力。

2、針對隱私及其周圍出現(xiàn)的創(chuàng)新解決方案

我還預(yù)見到,對數(shù)據(jù)隱私的關(guān)注將逐漸轉(zhuǎn)向?qū)L模型隱私的關(guān)注。如今AI隱私的關(guān)注重點(diǎn)放在了如何收集數(shù)據(jù)以及如何使用數(shù)據(jù)上。但是ML模型并不是真正的黑匣子??梢愿鶕?jù)一段時(shí)間內(nèi)的輸出推斷模型輸入,這將導(dǎo)致隱私泄露。數(shù)據(jù)和模型隱私方面的挑戰(zhàn)將迫使企業(yè)采用聯(lián)邦學(xué)習(xí)解決方案。

去年,Google發(fā)布了TensorFlow Privacy,該框架在差異化的隱私原理下工作,并且添加噪聲以使輸入模糊不清。通過聯(lián)邦學(xué)習(xí),用戶的數(shù)據(jù)永遠(yuǎn)不會(huì)離開其設(shè)備/機(jī)器。這些機(jī)器學(xué)習(xí)模型足夠智能,并且只需要占用很小的內(nèi)存,可以在智能手機(jī)上運(yùn)行并從本地?cái)?shù)據(jù)中學(xué)習(xí)。

通常,使用用戶提供的數(shù)據(jù)是為了提供更加個(gè)性化的體驗(yàn)。例如,Google Mail基于用戶的鍵入行為來提供自動(dòng)建議。數(shù)據(jù)及模型如何才能不僅有助于改善個(gè)人體驗(yàn),還可以幫助更廣泛的人群呢?人們愿意分享他們訓(xùn)練好的模型(而非數(shù)據(jù))以造福他人嗎?

這里有一個(gè)有趣的商機(jī):向用戶支付模型參數(shù)費(fèi)用,這些參數(shù)來自對本地設(shè)備上數(shù)據(jù)的訓(xùn)練,并使用本地計(jì)算能力來訓(xùn)練模型(例如,在手機(jī)相對空閑時(shí))。

3、穩(wěn)健的模型部署變得至關(guān)重要

當(dāng)前,企業(yè)正在努力生產(chǎn)可擴(kuò)展性和可靠性兼具的模型。編寫模型的人員不一定考慮到模型安全性以及性能,并且也不一定是模型部署的專家。一旦機(jī)器學(xué)習(xí)模型成為主流和關(guān)鍵應(yīng)用程序不可或缺的一部分,這將不可避免地導(dǎo)致對于主流應(yīng)用程序服務(wù)攻擊的模型。

我們已經(jīng)看到了一些技術(shù)不高的例子,例如:使特斯拉加速而不是減速、切換車道、突然停車或在沒有合適觸發(fā)的情況下打開雨刮器。想像一下此類攻擊可能對高度依賴AI / ML的金融系統(tǒng),醫(yī)療設(shè)備等產(chǎn)生的影響會(huì)如何?

當(dāng)前,對抗性攻擊僅限于學(xué)術(shù)界,以更好地了解模型的含義。但是在不久的將來,對模型的攻擊將是“牟取暴利”,這將由想要展示其性能有所提高的競爭對手或可能會(huì)勒索您的惡意黑客驅(qū)使。例如,當(dāng)今新的網(wǎng)絡(luò)安全工具依靠AI/ML來識別諸如網(wǎng)絡(luò)入侵和病毒之類的威脅。如果能夠觸發(fā)虛假威脅警報(bào)要怎么辦?識別真實(shí)與虛假警報(bào)的相關(guān)成本是多少?

為了應(yīng)對此類威脅,企業(yè)需要更加重視模型驗(yàn)證以確保其穩(wěn)健性。一些企業(yè)已經(jīng)在使用對抗性網(wǎng)絡(luò)來測試深度神經(jīng)網(wǎng)絡(luò)。如今,我們會(huì)聘請外部專家來審核網(wǎng)絡(luò)安全性,以及物理安全性等。與此相似,我們將看到模型測試和模型安全專家的新市場的出現(xiàn),他們將進(jìn)行測試、認(rèn)證,并可能承擔(dān)模型故障的某些責(zé)任。

接下來怎么樣?

渴望通過AI投資來實(shí)現(xiàn)增長的企業(yè)需要重新審視對其數(shù)據(jù)的影響。我在上面概述的趨勢強(qiáng)調(diào)了企業(yè)在生產(chǎn)中圍繞其AI / ML解決方案實(shí)施強(qiáng)大治理的必要性。但也要注意,假設(shè)您的AI / ML模型是穩(wěn)健的,也可能是冒險(xiǎn)的,尤其是當(dāng)它們給平臺(tái)提供商留有擺布可能的時(shí)候。因此,小的需求是讓內(nèi)部專家了解模型為何起作用或不起作用。這將是需要保持的趨勢。

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論