OpenAI斷供API,國產(chǎn)大模型替代方案低成本遷移

隨著OpenAI停止對中國提供API服務(wù),國內(nèi)大模型公司紛紛行動,上線“遷移計劃”。如智譜,該公司第一時間在官微宣布,面向OpenAI API用戶提供特別搬家計劃,幫助用戶切換至國產(chǎn)大模型,其GLM大模型號稱全面對標(biāo)OpenAI產(chǎn)品體系,且全鏈路技術(shù)自研、安全可控。

本文來自微信公眾號“電子發(fā)燒友網(wǎng)”,作者/李彎彎。

日前,不少國內(nèi)API開發(fā)者收到了來自O(shè)penAI的郵件。郵件稱,從7月9日起采取額外措施,阻止來自非支持國家和地區(qū)列表中的地區(qū)的API流量。根據(jù)OpenAI官網(wǎng),支持訪問API服務(wù)的國家和地區(qū)列表中總計188個國家和地區(qū),不包括中國內(nèi)地與中國香港。

這意味著,OpenAI宣布終止對中國開發(fā)者提供API服務(wù)。OpenAI終止對中國提供API服務(wù),對一些通過接入OpenAI API做大模型或應(yīng)用的企業(yè)會有影響,不過這對國產(chǎn)大模型的長遠(yuǎn)發(fā)展卻也有積極意義,它反而促進(jìn)國產(chǎn)大模型的自主研發(fā),并帶來更多應(yīng)用機(jī)會。

國產(chǎn)大模型紛紛推出替代方案

隨著OpenAI停止對中國提供API服務(wù),國內(nèi)大模型公司紛紛行動,上線“遷移計劃”。如智譜,該公司第一時間在官微宣布,面向OpenAI API用戶提供特別搬家計劃,幫助用戶切換至國產(chǎn)大模型,其GLM大模型號稱全面對標(biāo)OpenAI產(chǎn)品體系,且全鏈路技術(shù)自研、安全可控。

具體來看,智譜為開發(fā)者提供1.5億Token(5000萬GLM-4+1億GLM-4-Air),從OpenAI到GLM的系列遷移培訓(xùn)。對于高用量客戶,智譜提供與OpenAI使用規(guī)模對等的Token贈送計劃(不設(shè)上限),以及與OpenAI對等的并發(fā)規(guī)模,匹配高等級會員政策,專屬搬家顧問及5人天技術(shù)專家支持,備案培訓(xùn)和輔助。

百度智能云千帆推出大模型普惠計劃,稱讓用戶0成本切換至國內(nèi)調(diào)用量第一的大模型平臺,場景更豐富、模型更全面、工具鏈更完整易用、更安全可靠。

具體來看,即日起為新注冊企業(yè)用戶提供0元調(diào)用服務(wù):文心旗艦?zāi)P褪状蚊赓M,贈送ERNIE3.5旗艦?zāi)P?000萬Tokens包,主力模型ERNIE Speed/ERNIE Lite和輕量模型ERNIE Tiny持續(xù)免費;針對OpenAI遷移用戶額外贈送與OpenAI使用規(guī)模對等的ERNIE3.5旗艦?zāi)P蚑okens包。

同時,該計劃還支持0元訓(xùn)練、0元遷移、0元服務(wù)。0元訓(xùn)練:免費模型精調(diào)訓(xùn)練服務(wù)0元遷移:零成本SDK遷移工具;0元服務(wù):專家服務(wù)(遷移&使用指導(dǎo))。

騰訊云宣布,即日起至2024年7月31日24時,將為新遷移企業(yè)用戶免費贈送1億騰訊混元大模型tokens(標(biāo)記),并提供免費專屬遷移工具和服務(wù)。目前,騰訊云提供混元Pro、Standard、Lite等多個不同版本和尺寸的模型,用戶可任意選擇。

阿里云百煉宣布,將為OpenAI API用戶提供最具性價比的中國大模型替代方案,并為中國開發(fā)者提供2200萬免費tokens和專屬遷移服務(wù)。根據(jù)斯坦福最新公布的大模型測評榜單HELM MMLU,Qwen2-72B得分為0.824,與GPT-4并列全球第四。通義千問GPT4級主力模型Qwen-plus在阿里云百煉上的調(diào)用價格為0.004元/千tokens,僅為GPT-4的50分之一。

由李開復(fù)創(chuàng)立的AI大模型獨角獸公司零一萬物也發(fā)起“Yi API二折平替計劃”,面向OpenAI用戶推出平滑遷移至Yi系列大模型的服務(wù)。據(jù)介紹,目前注冊使用Yi API的新客戶,零一萬物立即贈送100元額度,幫助用戶完成平穩(wěn)過渡;平臺充值還將贈送50%到賬額度,上不封頂。此外,零一萬物API還將提供Prompt兼容調(diào)優(yōu)服務(wù)支持。

百川智能宣布特別推出OpenAI零成本遷移計劃,將為參與用戶免費贈送1千萬token,同時宣布Assitants API免費使用。據(jù)介紹,目前百川智能開放平臺接口已完全兼容OpenAI API,支持零成本遷移,功能更豐富。借助百川技術(shù)專家隨時答疑,開發(fā)者五分鐘即可完成Api遷移。

少不了算力芯片的支持

國產(chǎn)大模型紛紛推出替代方案,這背后少不了需要算力芯片的支持。目前國內(nèi)大模型訓(xùn)練基本使用英偉達(dá)GPU,英偉達(dá)的GPU因其強(qiáng)大的并行處理能力和高效的計算性能,被廣泛應(yīng)用于深度學(xué)習(xí)、機(jī)器學(xué)習(xí)等需要大量計算資源的領(lǐng)域。

如阿里通義千問大模型,它包含多個不同規(guī)模的版本,Qwen-1.8B、Qwen-7B、Qwen-14B和Qwen-72B等,據(jù)了解,阿里通義千問大模型主要使用英偉達(dá)Tesla A100、Tesla A800、Tesla H100等GPU芯片,這些GPU具有較大的顯存和強(qiáng)大的計算能力,能夠滿足大模型訓(xùn)練的需求。

百度文心一言主要基于英偉達(dá)的A100 GPU完成其高效的深度學(xué)習(xí)計算任務(wù)。A100 GPU采用了NVIDIA最新的Ampere架構(gòu),被廣泛應(yīng)用在各種AI模型和高性能計算場景中。A100 GPU在文心一言的構(gòu)建和運行過程中,執(zhí)行大規(guī)模并行處理任務(wù),特別是在語義理解、語境關(guān)聯(lián)及文本生成等領(lǐng)域內(nèi)。

除此之外,百度也兼容其他公司的GPU,在英偉達(dá)A100、H100等訓(xùn)練AI用GPU遭遇進(jìn)口管制的情況下,百度采用了將來自不同供應(yīng)商的GPU集成到統(tǒng)一的計算集群中的策略,以訓(xùn)練大語言模型。

字節(jié)跳動大模型在訓(xùn)練過程中也是主要使用英偉達(dá)的GPU。據(jù)悉,字節(jié)跳動在2023年向英偉達(dá)訂購了超過10億美元的GPU產(chǎn)品,目前已經(jīng)采購了10萬塊A100與H800加速卡,這兩款GPU均屬于英偉達(dá)的高性能計算產(chǎn)品線,非常適合用于深度學(xué)習(xí)、大模型訓(xùn)練等任務(wù)。

另外,像智譜、百川智能等也主要使用英偉達(dá)的GPU。智譜AI通過與優(yōu)刻得等公司的合作,利用英偉達(dá)GPU構(gòu)建超千卡規(guī)模的推理集群,以滿足其大模型在文本、圖片、視頻等多場景下的大規(guī)模實時推理需求。

百川智能與鴻博股份的全資子公司英博數(shù)科合作,后者向百川智能提供的智算服務(wù)器,其單臺所提供的算力規(guī)模和性能不低于英偉達(dá)H系列8卡智算服務(wù)器所有的同等算力。這意味著百川智能大模型的訓(xùn)練過程中,將直接使用到英偉達(dá)高性能的GPU資源。

除了使用英偉達(dá)GPU之外,一些國產(chǎn)大模型的訓(xùn)練和運行也使用國內(nèi)的算力芯片,如華為、科大訊飛、月之暗面等。同時,海光信息、天數(shù)智芯、摩爾線程、沐曦、景嘉微等都已經(jīng)推出和搭建可以支持大模型訓(xùn)練和推理的芯片、系統(tǒng)和智算集群。

寫在最后

總的來說,OpenAI停止對中國開發(fā)者提供API服務(wù),對于目前一些調(diào)用通過接入OpenAI API做大模型和AI應(yīng)用的企業(yè)來說有所影響,不過,國內(nèi)不少大模型廠商已經(jīng)紛紛推出替代方案,雖然目前國產(chǎn)大模型較OpenAI有一定差距,不過隨著更多的被使用,長遠(yuǎn)來看國產(chǎn)大模型將會逐步實現(xiàn)突破。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論