AI,想說(shuō)“愛(ài)”你不容易

歐陽(yáng)曉紅
AI,想說(shuō)“愛(ài)”你不容易,說(shuō)偏了是“哀”,說(shuō)重了是“礙”,不偏不倚才是“愛(ài)”。

640 (1).png

本文來(lái)自微信公眾號(hào)“經(jīng)濟(jì)觀察報(bào)”,作者/歐陽(yáng)曉紅。

果不其然,離開(kāi)OpenAI(美國(guó)人工智能研究公司)僅一個(gè)月后,Ilya Sutskever(伊利亞·蘇茨克弗)就推出了自己的新公司:Safe Superintelligence Inc.(SSI)。

蘇茨克弗是人工智能領(lǐng)域杰出人物,曾是OpenAI的聯(lián)合創(chuàng)始人。“我正在創(chuàng)辦一家新公司,我們將一心一意追求安全的超級(jí)智能,只有一個(gè)重點(diǎn)、一個(gè)目標(biāo)和一款產(chǎn)品。”6月19日,他在X(推特)上的一篇推文中寫道。

AI,想說(shuō)“愛(ài)”你不容易,說(shuō)偏了是“哀”,說(shuō)重了是“礙”,不偏不倚才是“愛(ài)”。

斯坦福大學(xué)HAI最新的《2024年人工智能指數(shù)報(bào)告》(第七版)指出,盡管AI技術(shù)進(jìn)步迅速,但在負(fù)責(zé)任AI方面,評(píng)估標(biāo)準(zhǔn)和實(shí)踐的統(tǒng)一性仍然存在不足。主要開(kāi)發(fā)者使用不同的負(fù)責(zé)任AI基準(zhǔn),這使得系統(tǒng)性比較各大AI模型的風(fēng)險(xiǎn)和限制變得困難。

01

“技術(shù)領(lǐng)域是一個(gè)復(fù)雜事物的王國(guó),這些事物相互作用,創(chuàng)造出新設(shè)備和新類型的設(shè)備。”全球科技領(lǐng)域知名的觀察者凱文·凱利在《失控》中探討了技術(shù)進(jìn)化的復(fù)雜性和不可預(yù)測(cè)性。他認(rèn)為技術(shù)的發(fā)展類似于生物進(jìn)化,具有自組織和不可控的特性,這提醒人們?cè)诩夹g(shù)進(jìn)步中要保持警惕和責(zé)任感。

《2024年人工智能指數(shù)報(bào)告》指出,一項(xiàng)關(guān)于負(fù)責(zé)任的人工智能全球調(diào)查顯示,公司最關(guān)心的人工智能相關(guān)問(wèn)題包括隱私、安全和可靠性。相關(guān)組織已開(kāi)始采取措施降低這些風(fēng)險(xiǎn)。然而,在全球范圍內(nèi),大多數(shù)公司迄今為止只降低了其中的一部分風(fēng)險(xiǎn)。

SSI的設(shè)立旨在解決AI安全性這一“最重要的技術(shù)問(wèn)題”。它的設(shè)立反映出AI領(lǐng)域?qū)Π踩蛡惱韱?wèn)題的高度關(guān)注。根據(jù)《2024年人工智能指數(shù)報(bào)告》,盡管AI技術(shù)進(jìn)步迅速,但在負(fù)責(zé)任AI方面,評(píng)估標(biāo)準(zhǔn)和實(shí)踐的統(tǒng)一性仍然存在不足。

分析人士認(rèn)為,SSI由前OpenAI首席科學(xué)家蘇茨克弗創(chuàng)立,他在AI領(lǐng)域有著深厚的學(xué)術(shù)背景和豐富的經(jīng)驗(yàn)。此外,與他合作的團(tuán)隊(duì)成員包括前蘋果AI負(fù)責(zé)人Daniel Gross(丹尼爾·格羅斯)和前OpenAI工程師Daniel Levy(丹尼爾·萊維),這確保了該公司擁有強(qiáng)大的技術(shù)實(shí)力和領(lǐng)導(dǎo)力。SSI專注于開(kāi)發(fā)安全的超智能AI,避免了多線產(chǎn)品開(kāi)發(fā)的復(fù)雜性和商業(yè)壓力。這種專注或能使公司能夠集中資源和精力,確保在實(shí)現(xiàn)安全AI方面取得實(shí)質(zhì)性進(jìn)展。

此外,SSI強(qiáng)調(diào)透明度,通過(guò)公開(kāi)其研究方法和結(jié)果,促進(jìn)AI社區(qū)的信任和合作。該公司承諾定期發(fā)布透明的進(jìn)展報(bào)告,并邀請(qǐng)獨(dú)立第三方進(jìn)行審查,這或有助于保持公司的權(quán)威性和可信度。

不僅如此,SSI積極參與AI領(lǐng)域的標(biāo)準(zhǔn)化工作,與其他公司和研究機(jī)構(gòu)合作制定統(tǒng)一的評(píng)估標(biāo)準(zhǔn)和基準(zhǔn),這不僅有助于提升該公司在行業(yè)內(nèi)的聲譽(yù),還能推動(dòng)整個(gè)AI領(lǐng)域朝著負(fù)責(zé)任和安全的方向發(fā)展。

在資金和獨(dú)立運(yùn)營(yíng)方面,盡管SSI尚未公開(kāi)其資金來(lái)源,包括注冊(cè)資本金額和詳細(xì)股東結(jié)構(gòu)等信息,但創(chuàng)始團(tuán)隊(duì)明確表示,他們將選擇性地接受投資,以確保資金來(lái)源與公司的長(zhǎng)遠(yuǎn)安全目標(biāo)一致。這種獨(dú)立運(yùn)營(yíng)模式有助于該公司避免短期商業(yè)壓力的干擾;同時(shí),SSI建立嚴(yán)格的內(nèi)部審計(jì)和外部監(jiān)督機(jī)制,確保公司始終遵循其安全和責(zé)任承諾,這有助于維持其獨(dú)立性和使命的一致性。

眾所周知,SSI創(chuàng)始人蘇茨克弗在AI學(xué)術(shù)界和行業(yè)內(nèi)都有重要貢獻(xiàn)。由亞歷克斯·克里熱夫斯基(Alex Krizhevsky)、蘇茨克弗和杰弗里·辛頓(Geoffrey Hinton)于2012年發(fā)表的題為“Image Net Classification with Deep Convolutional Neural Networks”的學(xué)術(shù)論文,在神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)領(lǐng)域具有劃時(shí)代的意義,被認(rèn)為是現(xiàn)代深度學(xué)習(xí)革命的開(kāi)端之一。有觀點(diǎn)認(rèn)為,SSI的研究和開(kāi)發(fā)工作有望繼續(xù)對(duì)AI領(lǐng)域產(chǎn)生深遠(yuǎn)影響,進(jìn)一步提升公司的權(quán)威性。

那么,如何確保超級(jí)智能(Superintelligence)與人類價(jià)值觀保持一致,又該如何融入人類價(jià)值觀?

02

通用人工智能(AGI)尚未實(shí)現(xiàn),超級(jí)智能則更遙遠(yuǎn);但有時(shí)候,改變也許只在一念之間。

盡管蘇茨克弗、格羅斯、萊維等聯(lián)名表示“超級(jí)智能觸手可及,構(gòu)建安全超級(jí)智能是我們這個(gè)時(shí)代最重要的技術(shù)問(wèn)題”。

他們堅(jiān)稱SSI是他們的使命、他們的名字和他們的整個(gè)產(chǎn)品路線圖,是他們唯一的關(guān)注點(diǎn)。他們的團(tuán)隊(duì)、投資者和商業(yè)模式都致力于實(shí)現(xiàn)SSI。同時(shí),他們正在組建一支精干的團(tuán)隊(duì),由世界上最優(yōu)秀的工程師和研究人員組成,專注于SSI,不做其他任何事情。

他們說(shuō):“如果您是這樣的人,我們將為您提供一個(gè)機(jī)會(huì),讓您從事畢生的工作,幫助解決我們這個(gè)時(shí)代最重要的技術(shù)挑戰(zhàn)?,F(xiàn)在是時(shí)候了。加入我們。”

無(wú)疑,在通往安全超級(jí)智能的道路上應(yīng)對(duì)各種挑戰(zhàn)是一項(xiàng)復(fù)雜的任務(wù)。它涵蓋跨學(xué)科合作、國(guó)際標(biāo)準(zhǔn)化等諸多方面。如AI開(kāi)發(fā)者、倫理學(xué)家、社會(huì)科學(xué)家和法律專家需要緊密合作,以確保技術(shù)的發(fā)展符合倫理和法律標(biāo)準(zhǔn)。此外,我們還需推動(dòng)全球范圍內(nèi)的標(biāo)準(zhǔn)化,制定統(tǒng)一的AI倫理和安全標(biāo)準(zhǔn),以規(guī)范超級(jí)智能的開(kāi)發(fā)和應(yīng)用。

邏輯上,AI開(kāi)發(fā)過(guò)程需將人類的核心價(jià)值觀(如公正、隱私、安全等)嵌入算法設(shè)計(jì)中,同時(shí)確保不同背景和文化的人參與AI開(kāi)發(fā)和決策過(guò)程,以反映廣泛的人類價(jià)值觀。

例如公司內(nèi)部設(shè)立倫理委員會(huì),負(fù)責(zé)監(jiān)督和指導(dǎo)AI開(kāi)發(fā)過(guò)程中的價(jià)值觀融入,以及建立用戶反饋機(jī)制,廣泛收集公眾意見(jiàn),確保AI系統(tǒng)符合社會(huì)期望和價(jià)值觀。此外是開(kāi)發(fā)更先進(jìn)的AI控制和監(jiān)測(cè)技術(shù),如可解釋性AI(Explainable AI)和可控性算法(Controllability Algorithms)。

同時(shí),相關(guān)政策法規(guī)需要完善,以引導(dǎo)AI技術(shù)向安全和可控的方向發(fā)展。例如,AI開(kāi)發(fā)公司需要遵循一定的安全和倫理標(biāo)準(zhǔn),并進(jìn)行合規(guī)檢查。

據(jù)媒體報(bào)道,SSI并非唯一一家追求安全超級(jí)智能的公司。多個(gè)研究小組和組織都積極參與這項(xiàng)關(guān)鍵任務(wù)。Alphabet(谷歌母公司)的子公司Deep Mind也是該領(lǐng)域的領(lǐng)軍企業(yè)。Deep Mind的研究重點(diǎn)是構(gòu)建安全且有益的AGI,尤其注重將AI目標(biāo)與人類價(jià)值觀相結(jié)合。

03

不過(guò),理想豐滿,現(xiàn)實(shí)骨感。

技術(shù)快速發(fā)展的同時(shí),會(huì)不可避免地出現(xiàn)技術(shù)濫用和不道德行為的現(xiàn)象。

在AI時(shí)代初期,一些機(jī)構(gòu)和個(gè)人教授利用AI技術(shù)“爬蟲”,或以培訓(xùn)“數(shù)據(jù)分析”為名傳授非法手段,從中牟利。這些行為不僅違反法律,還嚴(yán)重?fù)p害了個(gè)人隱私和信息安全。

對(duì)此,有人建議,政府和相關(guān)機(jī)構(gòu)需要進(jìn)一步完善法律法規(guī),加強(qiáng)對(duì)非法技術(shù)培訓(xùn)和數(shù)據(jù)濫用行為的監(jiān)管。同時(shí),我們應(yīng)該提高公眾意識(shí),通過(guò)各種渠道向公眾普及相關(guān)法律知識(shí)和防范技術(shù)濫用的措施,以便公眾能夠更好地保護(hù)自己的隱私和數(shù)據(jù)安全。此外,行業(yè)需要加強(qiáng)自律和推動(dòng)技術(shù)的標(biāo)準(zhǔn)化和規(guī)范化,確保技術(shù)開(kāi)發(fā)和應(yīng)用過(guò)程中的倫理和安全問(wèn)題得到充分重視。

值此關(guān)鍵過(guò)渡期,我們需要平衡技術(shù)進(jìn)步與倫理責(zé)任,通過(guò)多方面的努力,確保技術(shù)發(fā)展服務(wù)于社會(huì)的長(zhǎng)遠(yuǎn)利益,而不是被濫用。

人工智能與經(jīng)濟(jì)的融合引發(fā)了許多引人關(guān)注的問(wèn)題。一些人預(yù)測(cè)人工智能將推動(dòng)生產(chǎn)力的提高,但其影響程度仍不確定。一個(gè)主要問(wèn)題是勞動(dòng)力大規(guī)模流失的可能性——工作將在多大程度上被自動(dòng)化或者被人工智能增強(qiáng)?各行各業(yè)的企業(yè)已經(jīng)在以各種方式利用人工智能,但世界一些地區(qū)正見(jiàn)證著對(duì)這一變革性技術(shù)的投資流入。此外,投資者的興趣似乎正在轉(zhuǎn)向特定的人工智能子領(lǐng)域,如自然語(yǔ)言處理和數(shù)據(jù)管理。

益普索的一項(xiàng)調(diào)查顯示,在過(guò)去一年中,認(rèn)為人工智能將在未來(lái)三至五年內(nèi)極大地影響他們生活的人數(shù)比例從60%上升至66%。此外,52%的人對(duì)人工智能產(chǎn)品和服務(wù)表示不安,這一比例比2022年上升了13個(gè)百分點(diǎn)。在美國(guó),有調(diào)研數(shù)據(jù)指出,52%的美國(guó)人表示對(duì)人工智能的擔(dān)憂多于興奮,這一比例比2022年的38%有所上升。

不過(guò),重點(diǎn)是“極端的人工智能風(fēng)險(xiǎn)難以分析。”《2024年人工智能指數(shù)報(bào)告》指出,在過(guò)去的一年里,人工智能學(xué)者和從業(yè)者就應(yīng)該關(guān)注算法歧視等直接的模型風(fēng)險(xiǎn)還是潛在的長(zhǎng)期生存威脅展開(kāi)了激烈的爭(zhēng)論。要區(qū)分哪些說(shuō)法有科學(xué)依據(jù)并應(yīng)該為政策制定提供依據(jù)已經(jīng)變得非常困難。與生存威脅的理論性質(zhì)相比,已經(jīng)存在的短期風(fēng)險(xiǎn)具有切實(shí)性,這加劇了這一困難。

同時(shí),《2024年人工智能指數(shù)報(bào)告》指出,新推出的基礎(chǔ)模型透明度指數(shù)顯示,人工智能開(kāi)發(fā)人員缺乏透明度,特別是在訓(xùn)練數(shù)據(jù)和方法的披露方面。這種缺乏開(kāi)放性阻礙了進(jìn)一步了解人工智能系統(tǒng)的穩(wěn)健性和安全性的努力。

你還記得去年11月的OpenAI“宮斗”嗎?當(dāng)時(shí)的追問(wèn)是——道德的指南針指向何處?本質(zhì)上,該事件的走向取決于OpenAI首席科學(xué)家——蘇茨克弗的最終選擇。

如果說(shuō)構(gòu)建SSI是AI時(shí)代最重要的技術(shù)問(wèn)題,那么“如何確保技術(shù)的發(fā)展與社會(huì)的倫理和價(jià)值觀相一致”則是這個(gè)新時(shí)代的終極拷問(wèn)。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無(wú)評(píng)論