戴爾和超微表示,通過直接在機架上的 GPU 上使用液體冷卻,他們可以將數(shù)據(jù)中心的功耗降低三分之一。機架供應(yīng)商告訴《EE Times》,通過取代當(dāng)今數(shù)據(jù)中心的主要解決方案空氣冷卻,液體冷卻將使數(shù)據(jù)中心運營商能夠?qū)⒏嗟木性谟嬎闵希皇强照{(diào)上。
蘇姿豐預(yù)測AI芯片后續(xù)美好的未來,數(shù)據(jù)中心人工智能加速器的市場將在2028年增長至5000億美元,而這個數(shù)字在2023年時為450億美元。在更早之前,蘇姿豐曾預(yù)測全球數(shù)據(jù)中心人工智能加速器市場規(guī)模將在2027年達到4000億美元。無論是哪一項數(shù)據(jù)預(yù)測,都足以顯示目前全球AI發(fā)展高漲的情緒。
AMD最新發(fā)布的旗艦AI芯片-AMD Instinct MI325X GPU的內(nèi)存容量是H200的1.8倍,內(nèi)存帶寬、FP16和FP8峰值理論算力都達到了H200的1.3倍。
隨著數(shù)據(jù)中心規(guī)模的不斷擴大和計算能力的增強,數(shù)據(jù)中心內(nèi)部的熱點問題逐漸成為制約其穩(wěn)定運行的關(guān)鍵因素。熱點問題不僅影響數(shù)據(jù)中心的能效,還可能導(dǎo)致硬件損壞和業(yè)務(wù)中斷。因此,探索和應(yīng)用下一代冷卻技術(shù)對于解決數(shù)據(jù)中心熱點問題具有重要意義。
過去的數(shù)據(jù)中心——在一片綠地上建立起來,遠離它所支持的城市企業(yè)——不再是滿足當(dāng)今人工智能(AI)和高性能計算應(yīng)用需求的唯一途徑。
在算力領(lǐng)域,產(chǎn)業(yè)發(fā)展提質(zhì)增效向新,全國在用算力中心機架總規(guī)模超過830萬標(biāo)準(zhǔn)機架,算力總規(guī)模達246 EFLOPS,位居世界前列。
我們數(shù)據(jù)消費量的無限擴張以及對基于云服務(wù)的需求,再加上生成式 AI 的光明前景,意味著人們對強大而安全的數(shù)據(jù)存儲、更快的數(shù)據(jù)傳輸、更大的計算強度和更高的數(shù)據(jù)中心效率從未想過到如此迫切。
隨著數(shù)據(jù)中心和算力需求的快速增長,高效散熱解決方案成為行業(yè)發(fā)展的關(guān)鍵。未來蘭洋科技將作為液冷產(chǎn)業(yè)的標(biāo)桿企業(yè),基于先進的浸沒式液冷技術(shù),圍繞綠色數(shù)據(jù)中心、通信基站、儲能等領(lǐng)域持續(xù)開展技術(shù)創(chuàng)新與產(chǎn)品迭代,加快推動數(shù)實融合,賦能數(shù)字產(chǎn)業(yè)綠色發(fā)展。
AI和機器學(xué)習(xí)技術(shù)的迅猛發(fā)展,尤其是大語言模型(LLM)的興起,對計算資源和數(shù)據(jù)傳輸速度提出了更高的要求,從而激發(fā)了對更高帶寬解決方案的迫切需求。
隨著全球數(shù)據(jù)需求的快速增長,數(shù)據(jù)中心已成為現(xiàn)代數(shù)字經(jīng)濟的重要基礎(chǔ)設(shè)施。然而,數(shù)據(jù)中心的運營需要大量的能源和水資源,特別是用于冷卻服務(wù)器的過程中。
是否以及如何最好地使用人工智能(AI)已成為近幾個月來最兩極分化的爭論之一。人工智能應(yīng)用的興起引發(fā)了一些人對加強監(jiān)管的呼吁,而另一些人則認(rèn)為人工智能是未來提高生產(chǎn)力和創(chuàng)新的明確手段。
超大規(guī)模云計算數(shù)據(jù)中心對數(shù)字經(jīng)濟至關(guān)重要,隨著新的數(shù)據(jù)中心設(shè)施的宣布,以及可持續(xù)性和技術(shù)的不斷進步,超大規(guī)模云計算數(shù)據(jù)中心的快速擴張仍在繼續(xù)。