大語言模型會(huì)不會(huì)取代程序員?

LLM給軟件開發(fā)界的承諾是有望將碼農(nóng)變成架構(gòu)師。然而,并非所有LLM都天生一樣;值得探討的是,為什么一開始就涌現(xiàn)出了較小巧的LLM。

640 (1).png

本文來自微信公眾號(hào)“人工智能與物聯(lián)網(wǎng)”,作者/chris han。

生成式人工智能(GenAI)會(huì)取代人類程序員嗎?恐怕不會(huì)。不過,使用GenAI的人類可能會(huì)取代程序員。但是如今有這么多的大語言模型Large Language Model(LLM),實(shí)際效果不一而足。如果您在努力跟上所有LLM,并非只有您一個(gè)人,我們目睹一場(chǎng)激烈的LLM競(jìng)賽。“LLM會(huì)搶走我的工作嗎?”,嚇到了不少軟件開發(fā)者。

但這種擔(dān)心真的有道理嗎?關(guān)于人類程序員已死的說法可能夸大其辭了。事實(shí)上,開發(fā)者應(yīng)該詢問的更適當(dāng)?shù)膯栴}不是“LLM會(huì)搶走我的工作嗎?”,而是“我該使用哪個(gè)LLM?”

太龐大了,編程沒法成功

LLM給軟件開發(fā)界的承諾是有望將碼農(nóng)變成架構(gòu)師。然而,并非所有LLM都天生一樣;值得探討的是,為什么一開始就涌現(xiàn)出了較小巧的LLM。

更強(qiáng)大的主流模型(比如GPT-4和Claude 2)仍然只能勉強(qiáng)解決不到5%的實(shí)際GitHub問題。ChatGPT仍然存在嚴(yán)重的幻覺問題:假變量,或者甚至十多年前就已經(jīng)被棄用的概念。此外,它讓沒用的內(nèi)容看起來很有用。您可以嘗試?yán)?ldquo;提示工程”來擺脫這些沒用的內(nèi)容,但是有益的上下文數(shù)量存在一個(gè)最佳平衡點(diǎn)——太多會(huì)導(dǎo)致更混亂更隨機(jī)的結(jié)果,白白耗費(fèi)了更多的處理能力。

LLM編程方面更大的問題是信任。在過去,主流LLM不加區(qū)別地吸收網(wǎng)上的一切內(nèi)容,就像一個(gè)大型數(shù)字吸塵器,至于它們從哪里獲取數(shù)據(jù)缺乏透明度。哪怕一家公司交付的代碼中僅僅1%含有另一家公司的受版權(quán)保護(hù)的代碼,這也是個(gè)問題。您可以想象噩夢(mèng)般的召回場(chǎng)景:交付的產(chǎn)品沒有無線傳輸功能來挑出可疑代碼。

不過,LLM格局正在迅速改變。

LLM對(duì)于編碼夠?qū)I(yè)嗎?

當(dāng)Meta在今年早些時(shí)候宣布對(duì)其Code Llama 70B進(jìn)行更新時(shí),感覺這是大受歡迎的嘗試,有望解決主流LLM對(duì)編碼缺乏關(guān)注的問題。它有三種不同大小的版本:70億個(gè)參數(shù)、130億個(gè)參數(shù)和340億個(gè)參數(shù)。它還使用代碼的5000億個(gè)token和與代碼相關(guān)的數(shù)據(jù)進(jìn)行訓(xùn)練,包含10萬個(gè)token的龐大上下文窗口。

從理論上講,其中最令人興奮的是Code Llama Python,這是專門為Python設(shè)計(jì)的Code Llama版本——主要是由于它代表了LLM未來的發(fā)展方向。與Meta的大型科技同行開發(fā)的一些模型不同,這個(gè)模型完全致力于為一種特定的語言編程,使用Python代碼的大約1000億個(gè)額外的token進(jìn)行訓(xùn)練。業(yè)界更加需要的正是針對(duì)特定用例的這種級(jí)別的定制建模。

不管LLM變得有多好,對(duì)于程序員來說,有一條原則應(yīng)該始終不變:像對(duì)待自己編寫的代碼一樣對(duì)待每一段代碼。請(qǐng)同行評(píng)審,詢問同事“這是好的代碼嗎?”。永遠(yuǎn)不要盲目相信代碼。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無評(píng)論