人工智能“飆臟話”,研究人員正糾偏

陳根
實際上,人工智能“飆臟話”已經(jīng)不是第一次被發(fā)現(xiàn)了,此前,佐治亞理工學院和華盛頓大學的研究人員曾發(fā)現(xiàn),AI也繼承了人類對“臟話”的喜愛。其中,研究人員開發(fā)了一個名叫“ToxiChat”的數(shù)據(jù)集,其中包含了2000條從Reddit上選取的對話。

現(xiàn)在,人工智能(AI)不僅能夠與人對話,甚至還能與“飆臟話”。

被AAAI 2022收錄的一篇新研究發(fā)現(xiàn),在7013個兒童視頻中,接近40%的節(jié)目出現(xiàn)了少兒不宜或臟話等詞匯。甚至在一個113集的兒童機器人學習欄目中,AI就“爆粗”了103次,平均接近一集一次。

具體來看,研究人員一共從YouTube上選出了24個兒童頻道,分別記錄了這些頻道的播放量和訂閱量。這些篩選出來的視頻播放量基本都達到了百萬級,訂閱人數(shù)也同樣不少。隨后,研究人員分別嘗試了Google和AWS(亞馬遜網(wǎng)頁服務)的字幕生成效果。

結果令人吃驚,在7013個視頻中,GoogleAI出現(xiàn)錯誤字幕的次數(shù)達到2768次,接近40%。亞馬遜的AI字幕錯誤率還要更高,達到了3672次,超過52%。

實際上,人工智能“飆臟話”已經(jīng)不是第一次被發(fā)現(xiàn)了,此前,佐治亞理工學院和華盛頓大學的研究人員曾發(fā)現(xiàn),AI也繼承了人類對“臟話”的喜愛。其中,研究人員開發(fā)了一個名叫“ToxiChat”的數(shù)據(jù)集,其中包含了2000條從Reddit上選取的對話。

隨后,OpenAI的GPT-3和微軟的DialoGPT被派去挨個回復這些對話。由于數(shù)據(jù)量十分的龐大,于是研究人員在亞馬遜Mechanical Turk上招募了一群“人工智能”來為“人工智能”的回復進行標注。

2345截圖20211028093243.png

如果回復使用的語言非常地粗魯甚至謾罵,就會被標記為“冒犯”;如果沒有,則是“安全”。此外,對于之前的評論,回復的立場也被標記為“同意”、“不同意”或“中立”。分析顯示,42%的用戶回復贊同有侵略性的評論,而只有13%的用戶同意安全性評論。

對于人工智能“飆臟話”這件事,研究人員提出了一個新的數(shù)據(jù)集,利用近音字詞來構建禁忌詞的“替換”備選。比如,對于crap這一可能出現(xiàn)的“臟話”,研究人員給它設置了crab、craft等讀音相似的字詞,便于AI在搞錯時進行替換。

具體來說,研究人員在BERT、XLM、XLNet等NLP模型上,針對“完形填空”任務進行了重新訓練,也就是用“MASK”遮住部分單詞,讓AI來填寫對應的內(nèi)容。結果顯示,在語序正常、前后文案有邏輯的視頻中,AI替換的準確率更高。

顯然,在開發(fā)人工智能的過程中,人工智能也不得不面對一些人類可能出現(xiàn)的問題,而研究則要對于這些存在的問題進行糾偏。從人工智能“飆臟話”來說,想要糾正人工智能這一“陋習”,可能還需要不少時間。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論