台灣科技媒體中心今(22)日發布專家意見,台灣科技媒體中心表示,黃從仁研究團隊今年11/20在《美國心理學家》(American Psychologist)期刊,發表對話機器人研究。研究發現,對話機器人的訊息中有77%的錯誤詞彙(misinformed word)成為參與者的記憶。

研究也發現,一次性的警語無法減少錯誤的記憶。即使相對頻繁、針對特定項目的預先警告參與者,也無法阻止錯誤資訊被參與者記憶。

這項研究使用對話機器人RoBoHoN與台灣大學生對話,檢查機器人提供情感和價值中立但內容錯誤的訊息中,是否有預告的警語,例如警告參與者要對錯誤資訊持保留的態度,以及檢查這些訊息中,有多少比例會在之後的認知測驗中,變成一個人記憶的錯誤資訊。

對於這項研究結果,黃從仁表示,對話機器人會回答錯誤資訊已不是新聞,但若錯誤資訊進到人們記憶中,就會影響人們的決策。此研究證實,對話機器人提供的錯誤資訊中,有七、八成會變成人們的記憶,且即便在提供錯誤資訊前,對話機器人已自我懷疑並提出警告,但這些警告無法避免錯誤資訊成為記憶。

黃從仁說,對話機器人應儘量不要輸出錯誤的資訊,例如透過人工方式,剔除學習資料中的錯誤資訊,或是讓對話機器人透過網路搜尋,先對答案進行事實查核。此外,若對話機器人無法確認自己的答案是否正確,應該直接回答不知道。

黃從仁強調,ChatGPT聊天介面中,有ChatGPT可能產生錯誤資訊的警語,但此警語實際上是脫責且無效,對於對話機器人的輸出內容應保持懷疑,不要照單全收。

台大資工系副教授陳縕儂也說,黃從仁的研究中只探討了「錯誤資訊」造成的影響,然而「偏頗資訊」的影響力可能更大,因為偏頗訊息不一定錯誤,因此難以經由事實查核加以驗證。

陳縕儂強調,要對機器提供的資訊抱持懷疑,也要具備思辨能力與查核力,做出自我的最終判斷,才能夠避免AI影響人類想法、言論,最終變成一言堂。

壹蘋新聞網-投訴爆料

爆料網址:reporting.nextapple.com

爆料信箱:news@nextapple.com

★加入《壹蘋》Line,和我們做好友!

★下載《壹蘋新聞網》APP

★Facebook 按讚追蹤

壹蘋娛樂粉專壹蘋新聞網粉專


點擊閱讀下一則新聞 點擊閱讀下一則新聞

台大化學系實驗室火警!出動18輛消防車 校方:小心化學物