AIGC前行道路上的7個(gè)“減速帶”

極客AI
大多數(shù)大型AI模型依賴于大規(guī)模并行計(jì)算,這些計(jì)算可以通過GPU或TPU專用芯片來加速。充分發(fā)揮AI模型的潛力需要采用大量IT硬件,但成本高昂。

本文來自極客網(wǎng),作者:極客AI。

當(dāng)AI聊天機(jī)器人破繭而出時(shí),很多人感到驚喜或驚訝。

這些大型語言模型擅長自我學(xué)習(xí),并且能用各種語言和風(fēng)格與人類進(jìn)行交流。其生成的藝術(shù)模型幾乎可以生成人們能想到的任何事物;能夠回答人們可以提出各種問題,甚至越古怪越好;科學(xué)家們正在訓(xùn)練AI作曲、探索太空,以及執(zhí)行傳統(tǒng)上由人類完成的重復(fù)性任務(wù)(這讓很多人擔(dān)心他們的工作崗位會(huì)被替代)。

360截圖16251112669372.png

盡管取得了驚人的成果,但AI呈現(xiàn)出來的嚴(yán)重問題卻只是冰山一解。也許人們還沒有注意到,也許仍然處于敬畏的狀態(tài)。然而別無選擇,我們只能努力解決AI帶來的現(xiàn)實(shí)和道德困境。當(dāng)AI帶來的奇跡和夢(mèng)想開始消退時(shí),人們不能忽視阻礙AI發(fā)展的七個(gè)“減速帶”。

1、資源稀缺

大多數(shù)大型AI模型依賴于大規(guī)模并行計(jì)算,這些計(jì)算可以通過GPU或TPU專用芯片來加速。充分發(fā)揮AI模型的潛力需要采用大量IT硬件,但成本高昂。

每家廠商及個(gè)人都希望采用更多的IT硬件,在過去的幾年,由于供不應(yīng)求,芯片和IT硬件的成本飆升。更糟糕的是,越來越多的人正在使用云計(jì)算服務(wù),導(dǎo)致云計(jì)算平臺(tái)容量擴(kuò)展的速度難以滿足需求。

硬件并不是成功推出AI所需的唯一稀缺資源。運(yùn)行大型AI模型還需要大量電力,但并不是每個(gè)國家或地區(qū)都能充分供應(yīng)。在地緣政治沖突和主要采用可再生能源電力的地區(qū),能夠以可預(yù)測(cè)的價(jià)格獲得足夠的電力是一項(xiàng)挑戰(zhàn)。為了彌補(bǔ)損失,一些云計(jì)算提供商正在提高某些地區(qū)的云服務(wù)價(jià)格。

2、AI倫理

人類總是知道在某些場(chǎng)合避免爭論一些問題,然而AI需要學(xué)習(xí)如何在各種情況下處理此類問題。一些大型語言模型被編程為對(duì)提出的問題轉(zhuǎn)移話題或者拒絕回答,但一些用戶總是很執(zhí)著,當(dāng)這樣的用戶注意到AI在回避一些棘手的問題,例如引發(fā)種族或性別偏見的問題時(shí),他們會(huì)立即尋找繞過這些護(hù)欄的方法進(jìn)行提問。

隨著時(shí)間的推移,AI數(shù)據(jù)偏差和數(shù)據(jù)不足是可以糾正的問題,但與此同時(shí),惡作劇和濫用的可能性也是巨大的。雖然讓AI發(fā)表仇恨言論很糟糕,但當(dāng)人們開始使用AI來探索現(xiàn)實(shí)生活決策的道德含義時(shí),就會(huì)變得更加復(fù)雜。

3、AI勞動(dòng)力待遇不平等

許多AI項(xiàng)目依靠人類的反饋來指導(dǎo)它們的學(xué)習(xí)。通常情況下,一個(gè)大規(guī)模的AI項(xiàng)目需要大量的人員來構(gòu)建訓(xùn)練集,并隨著模型規(guī)模的增長調(diào)整大型語言模型的行為。對(duì)于許多項(xiàng)目來說,只有在貧窮國家向訓(xùn)練人員支付更低工資的情況下,才能在經(jīng)濟(jì)效益上可行。

這引發(fā)了人們對(duì)于AI公平和公正的深入辯論,但沒有人能夠?yàn)殚_發(fā)大型AI項(xiàng)目找到經(jīng)濟(jì)可行的解決方案。正如寶石行業(yè)人士并不考慮從事采礦這一棘手而危險(xiǎn)的工作一樣,AI行業(yè)也沒有簡單可行的勞動(dòng)力成本解決方案。

4、糟糕的反饋循環(huán)

以虛假新聞和評(píng)論的形式出現(xiàn)的虛假信息已經(jīng)存在了一段時(shí)間,無論是處于政治考量還是獲取利潤目的,虛假信息總有市場(chǎng)生存空間。然而阻止不良行為者的AI算法異常復(fù)雜,需要大量維護(hù),大模型供應(yīng)商不見得會(huì)花大力氣來解決這個(gè)問題。

可以想象一下,當(dāng)AI開始被用來制造虛假信息時(shí)會(huì)發(fā)生什么情況:一方面,虛假信息的數(shù)量將呈指數(shù)級(jí)增長;另一方面,有的AI系統(tǒng)很有可能會(huì)選擇假信息并將其反饋到訓(xùn)練語料庫中。如此,病毒式傳播的錯(cuò)誤信息將會(huì)對(duì)人們的社交網(wǎng)絡(luò)帶來不利影響,糟糕的反饋循環(huán)可能會(huì)破壞知識(shí)和信息。

5、法律法規(guī)

AI通過復(fù)制大量的文本和圖像來學(xué)習(xí)它們所知道的一切。在大多數(shù)情況下,創(chuàng)造這些數(shù)據(jù)的人類從未被告知,他們的成果可能被價(jià)值數(shù)十億美元的AI模型所盜用。

當(dāng)這些人的工作被AI取代時(shí)會(huì)發(fā)生什么?他們可能去找律師處理許可、版權(quán)和剽竊知識(shí)的問題。人們可能會(huì)通過訓(xùn)練AI學(xué)習(xí)相關(guān)的判例法規(guī),但是,可以在幾毫秒內(nèi)做出裁決的AI法官要比一個(gè)需要數(shù)年時(shí)間權(quán)衡問題的人類法官更可怕。

還有另外一種場(chǎng)景:當(dāng)AI錯(cuò)誤地評(píng)價(jià)某一歷史事件或當(dāng)今流行文化時(shí),可能只會(huì)令人反感,但不會(huì)直接傷害到任何人。但是當(dāng)AI說出一些貶損某人的話時(shí),實(shí)際上成為了一種誹謗。很容易想象,如果AI誹謗某人時(shí),假設(shè)這個(gè)人雇傭律師進(jìn)行訴訟,那么AI本身需承擔(dān)責(zé)任嗎?還是擁有它的公司承擔(dān)責(zé)任?

6、死亡與毀滅

現(xiàn)在好像并沒有顯著的例子表明,被壞人利用的AI就像科幻電影中的惡棍那樣邪惡。眾所周知,自動(dòng)駕駛汽車和工廠的機(jī)器會(huì)犯錯(cuò),但到目前為止,似乎還沒有惡意事件發(fā)生。然而對(duì)于AI來說,人們似乎還不知道如何解釋它造成嚴(yán)重傷害或死亡的可能性,以至于AI威脅論始終縈繞在人們的耳邊。

7、期望值過高

人們通常認(rèn)為AI的思維方式可能和人類一樣,但這可能是錯(cuò)誤的。真正的問題是,AI具有截然不同的智能形式,還沒有被人們理解。作為一個(gè)新物種,人們對(duì)AI的獨(dú)特優(yōu)勢(shì)和劣勢(shì)還有很多需要了解的地方。

與此同時(shí),AI也被人們的樂觀情緒所炒作和鼓舞,以至于它永遠(yuǎn)無法實(shí)現(xiàn)人們的夢(mèng)想。只要是人們的想法和希望超越現(xiàn)實(shí),那么AI領(lǐng)域的發(fā)展注定會(huì)讓人失望,這可能會(huì)極大地阻礙AI的持續(xù)發(fā)展。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無評(píng)論