ChatGPT令人著迷,但仍沒有解決AI聊天機器人“捏造事實”的缺陷

極客君
ChatGPT這種能言善辯的新型聊天機器人最近成為了互聯(lián)網(wǎng)的寵兒。它展示了對話式人工智能有多么吸引人,即使生成了一些胡編亂造的內(nèi)容。

本文來自極客網(wǎng),作者:極客君。

ChatGPT這種能言善辯的新型聊天機器人最近成為了互聯(lián)網(wǎng)的寵兒。它展示了對話式人工智能有多么吸引人,即使生成了一些胡編亂造的內(nèi)容。

由初創(chuàng)公司OpenAI開發(fā)的ChatGPT自從上周發(fā)布以來已經(jīng)得到業(yè)界人士的高度關注。一些早期用戶已經(jīng)在網(wǎng)上發(fā)布了他們的實驗截圖,驚嘆于它能夠生成幾乎任何主題的短文,可以模仿寫作,回答復雜的編碼問題等等。有人預測,這項服務將使傳統(tǒng)的搜索引擎和家庭作業(yè)變得過時。

QQ截圖20221206141445.png

和許多人一樣,Abacus首席執(zhí)行官Bindu Reddy最近也正在關注ChatGPT。該公司是一家人工智能開發(fā)商,已經(jīng)在探索如何使用ChatGPT來幫助編寫技術文檔。Reddy說,“我們已經(jīng)進行了測試,并且效果很好。”

AI聊天機器人不新鮮,ChatGPT有何優(yōu)勢?

ChatGPT核心的人工智能實際上并不是什么新鮮事物。這是一種名為GPT-3的人工智能模型的一個版本,它根據(jù)從網(wǎng)絡上收集的大量文本中提取的模式生成文本。該模型作為一種商業(yè)API可供程序員使用。

事實表明,在某些時候,它可以很好地回答問題和生成文本。但要讓服務以一種特定的方式做出響應,就需要精心制作正確的提示,以將其輸入到軟件中。

ChatGPT之所以脫穎而出,是因為它可以接受一個自然措辭的問題,并使用GPT-3的一個新變體GPT-3.5來回答它。這一調(diào)整釋放了一種新的能力,為強大的人工智能模型提供了一個引人注目的新界面,幾乎任何人都可以使用。OpenAI免費開放了這項服務,而且它的小故障也很有趣,這也推動了聊天機器人的應用,例如類似于一些使用人工智能創(chuàng)建圖像的工具被證明是制作表情包的理想工具。

OpenAI并沒有發(fā)布關于如何為其文本生成軟件提供更加自然的新界面的全部細節(jié),但該公司在一篇博客中分享了一些信息。其開發(fā)團隊將編寫的答案作為訓練數(shù)據(jù)輸入GPT-3.5,然后使用一種被稱為強化學習的模擬獎懲形式來推動模型為示例問題提供更好的答案。

斯坦福大學教授克里Christopher Potts表示,OpenAI之前展示過的用于幫助ChatGPT回答問題的方法,似乎是幫助人工智能以一種更具有相關性的方式處理語言的重要一步。盡管他認為這可能會使他的研究工作更加復雜,但他也說,“這讓我開始思考,在那些要求簡短回答作業(yè)的課程上,我該怎么做。”

麻省理工學院研究人工智能和語言的助理教授Jacob Andreas表示,該系統(tǒng)似乎有可能擴大能夠使用人工智能語言工具的人群。他說:“ChatGPT在一個熟悉的界面上呈現(xiàn)的內(nèi)容,會導致人們應用一種習慣應用于與其互動的其他代理(人類)的心理模型。”

ChatGPT有潛力,但仍沒解決該領域固有缺陷

在一項技術上添加一個漂亮的新界面也可能是一種炒作。盡管具有潛力,ChatGPT也顯示出困擾文本生成工具的缺陷。

在過去的幾年,OpenAI和其他公司已經(jīng)證明,經(jīng)過大量圖像或文本訓練的人工智能算法可以取得令人印象深刻的成就。但是,因為它們純粹是使用統(tǒng)計的方式模仿人類制作的圖像和文本,而不是真正地學習世界是如何運作的,因此這些程序也容易捏造事實,并重復使用ChatGPT中仍然存在的仇恨言論和偏見。該系統(tǒng)的早期用戶已經(jīng)發(fā)現(xiàn),該服務可能就某個特定主題編造出看起來很有說服力的廢話。

雖然ChatGPT的設計顯然是為了防止用戶說出不快的事情或推薦任何非法或令人討厭的內(nèi)容,但仍然可能表現(xiàn)出可怕的偏見。用戶還表示,可以繞過它的控制,例如告訴ChatGPT生成一個討論如何接管世界的電影劇本,這提供了一種避免拒絕回答此類計劃的直接請求的方法。Andreas說:“他們顯然試圖采取一些防護措施,但很難到位。這似乎仍然是一個尚未解決的問題。”

表面上能言善辯、知識淵博的聊天機器人,如果能自信地制造謊言,可能會讓那些尚未解決的問題變得更麻煩。

自從全球第一個聊天機器人在1966年誕生以來,研究人員已經(jīng)注意到,即使是其對話能力并不完善也能鼓勵人們將其擬人化,并對這種軟件產(chǎn)生信任。今年7月,谷歌的一名工程師被停職,其原因是他聲稱自己正在測試的一款基于類似ChatGPT技術的人工智能聊天程序可能具有感知能力。即使大多數(shù)人抵制這種邏輯上的飛躍,人工智能程序也可以用來誤導人們,或者讓他們陷入錯誤信任的困境。

一些語言算法專家警告說,像ChatGPT這樣的聊天機器人可能會誘使人們使用可能造成傷害的工具。華盛頓大學語言學教授Emily Bender說:“每當有新的模型問世,人們就會被其炒作所吸引。”

Bender表示,ChatGPT的不可靠性使其在執(zhí)行現(xiàn)實任務中存在一些問題。例如,盡管有人建議它可以取代谷歌搜索,作為回答事實問題的一種方式,但它經(jīng)常生成令人信服的廢話,這顯然并不合格。OpenAI此前曾表示,曾要求客戶使用過濾系統(tǒng)來保持GPT-3的一致性,但事實證明它們有時并不完美。

麻省理工學院的Andreas表示,ChatGPT界面的成功現(xiàn)在給設計者帶來了新的挑戰(zhàn)。他說:“看到人們與這些人工智能工具互動,真是太棒了。但我們?nèi)绾螌嶋H地向他們傳達這個模型能做什么,不能做什么?”

Reddy也了解ChatGPT的局限性,但仍對其發(fā)展?jié)摿Ω械脚d奮。她預計,終有一天,這樣的工具不僅有用,而且足夠令人信服,可以為人類提供某種形式的陪伴,“ChatGPT可能會成為一個偉大的心理治療師。”

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論