目前,人們對(duì)于生成式模型的關(guān)注還主要在于以O(shè)penAI和谷歌為代表的人工智能巨頭運(yùn)行在云端服務(wù)器的模型,這些模型需要巨大的算力,并且一般運(yùn)行在GPU上。
在數(shù)字化的風(fēng)潮中,云計(jì)算像巨人一般矗立,其脊梁是無數(shù)微小而強(qiáng)大的“細(xì)胞”——芯片。這些不起眼的硅片,卻支撐起了虛擬化世界的龐大體系。而現(xiàn)今,一場(chǎng)由GPU主導(dǎo)的變革正在悄然興起,它不僅重塑著數(shù)據(jù)中心的內(nèi)部結(jié)構(gòu),更是在推進(jìn)整個(gè)云計(jì)算界的地殼運(yùn)動(dòng)。
在新的管制規(guī)則下,算力芯片的“國(guó)產(chǎn)替代”思路將讓位于“國(guó)產(chǎn)突破”。這次禁運(yùn)可能會(huì)促進(jìn)資源向AI芯片的顛覆性技術(shù)集中。
ChatGPT意外掀起的一波AI革命,帶火了AI芯片市場(chǎng)。而英偉達(dá)旗下A100和H100兩款A(yù)I芯片,正是ChatGPT這樣的大語言模型的核心動(dòng)力。
有數(shù)據(jù)統(tǒng)計(jì),中國(guó)當(dāng)下10億參數(shù)規(guī)模的大模型已經(jīng)超百個(gè)。然而行業(yè)蜂擁而上的大模型“煉丹”卻面臨著高端GPU一卡難求的無解題。算力成本高企,缺算力、缺資金也成為了擺在行業(yè)面前最直觀的問題。
盡管部署大量GPU是擴(kuò)展算力的最直接途徑,但與此同時(shí)傳統(tǒng)的互聯(lián)方案還是創(chuàng)造了巨大的I/O瓶頸,嚴(yán)重影響了GPU的性能利用率,導(dǎo)致更多的時(shí)間花在了等待數(shù)據(jù)而不是處理數(shù)據(jù)上。