開源AI并不透明?開源倡議組織給出新的定義

一個開源AI系統(tǒng)可以用于任何目的,而無需獲得許可,且研究人員應該能夠檢查該AI系統(tǒng)的組件并研究其工作原理。同時,研究人員還可以出于任何目的修改系統(tǒng),包括更改其輸出,并與他人共享,用于任何目的。

本文來自極客網(wǎng)。

長期以來,研究人員對開源人工智能(Open-source AI)的定義一直存在分歧。近期,自詡為開源仲裁者的開源倡議組織(OSI)日前發(fā)布開源AI的新定義,希望能幫助立法者制定法規(guī),保護消費者免受AI風險的影響。

640 (1).png

OSI邀請了70名研究人員、律師、政策制定者、活動家以及Meta、谷歌和亞馬遜等大型科技公司的代表,共同為開源AI提可行的定義。

OSI聲稱,“一個開源AI系統(tǒng)可以用于任何目的,而無需獲得許可,且研究人員應該能夠檢查該AI系統(tǒng)的組件并研究其工作原理。同時,研究人員還可以出于任何目的修改系統(tǒng),包括更改其輸出,并與他人共享,用于任何目的。”此外,該標準還試圖為給定模型的訓練數(shù)據(jù)、源代碼和權重定義一個透明度級別。”

按此標準,OpenAI和Anthropic對它們的模型、數(shù)據(jù)集和算法保密,使它們成為明顯的AI閉源系統(tǒng)。同時,Meta Llama和谷歌的免費訪問模型也不是真正的開源AI模型,因為許可證限制了用戶對模型的使用,而且訓練數(shù)據(jù)集也沒有公開。

AI模型構建和共享平臺Hugging Face的應用政策研究員Avijit Ghosh說,“眾所周知,企業(yè)在推廣營銷他們的模型時會濫用這個術語。”他表示,將模型描述為開源可能會使它們被認為更值得信賴,即使研究人員無法獨立調查它們是否真的開源。

Mozilla高級顧問、OSI進程的參與者Ayah Bdeir表示,開源定義的某些部分相對容易達成一致,包括需要揭示模型權重(幫助確定AI模型如何產(chǎn)生輸出的參數(shù))。審議的其他部分爭議更大,尤其是訓練數(shù)據(jù)應該如何公開的問題。

訓練數(shù)據(jù)的來源缺乏透明度,導致大型AI公司遭到大量訴訟。從OpenAI等大型語言模型提供商到Suno等音樂生成器,這些公司除了表示它們包含“可公開訪問的信息”之外,沒有透露太多關于訓練集的信息。

一些開源支持者認為開源模型應該公開他們所有的訓練集。Bdeir表示,由于版權和數(shù)據(jù)所有權等問題,這一標準很難執(zhí)行。

最終,OSI主導的新的定義要求開源模型提供有關訓練數(shù)據(jù)的信息,以達到“熟練人員可以使用相同或類似的數(shù)據(jù)重新創(chuàng)建實質上等同的系統(tǒng)”的程度。雖然這并不是一個全面共享所有訓練數(shù)據(jù)集的籠統(tǒng)要求,但它也比當今許多專有模型甚至表面上的開源模型更進一步。

Bdeir說:“堅持一種在意識形態(tài)上原始的金本位制,而實際上這種制度任何人都無法有效實現(xiàn),最終會適得其反。”她補充說,OSI正在計劃制定某種執(zhí)行機制,該機制將標記那些被描述為開源但不符合其定義的模型。

該組織還計劃發(fā)布一份符合新定義的AI模型清單。雖然沒有得到證實,但Bdeir預計,一些規(guī)模相對較小的模型將會出現(xiàn)在名單上,包括Eleuther的Pythia、Ai2的OLMo,以及開源團體LLM360的模型。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論