台大研究:聊天機器人錯誤詞彙 逾7成留使用者記憶

 |2023.11.22
629觀看次
字級
AI聊天機器人會回答錯誤資訊已經不是新聞,但進到人們記憶中的錯誤資訊會影響人們的決策。圖/資料照片

【本報台北訊】台灣大學心理系副教授黃從仁的研究團隊今年11月20日在《美國心理學家》期刊發表最新的聊天機器人研究,研究發現,對話機器人的訊息中有77%的錯誤詞彙成為參與者的記憶。研究也發現,一次性的警語無法減少錯誤的記憶,即使預先頻繁、針對特定項目警告參與者,也無法阻止參與者記憶特定項目的錯誤資訊。

台灣科技媒體中心(SMC)邀請專家發表看法,此項研究作者之一黃從仁表示,聊天機器人會回答錯誤資訊已經不是新聞,但進到人們記憶中的錯誤資訊會影響人們的決策。這項研究證實,機器人提供的錯誤資訊中,有7、8成會變成人們的記憶,且即使機器人在提供錯誤的資訊前,已經抱持著自我懷疑、並提出警告,但這些警告只能增加人們的戒心,無法真正避免錯誤資訊成為記憶。

為了避免錯誤資訊仍被記憶的問題,黃從仁認為,聊天機器人應盡量不要輸出錯誤的資訊,例如透過人工檢核的方式剔除學習資料中的錯誤資訊,或是讓聊天機器人透過網路搜尋,先對答案進行事實查核。如果機器人真的無法確認答案的真確性,要直接回答「不知道」。

台大資訊工程學系副教授陳縕儂表示,現今生成式AI越來越普遍,由機器生成、帶有錯誤資訊的內容,是否會在人機互動中潛移默化影響使用者,是規範現代AI產品非常重要的考量。這項研究可以提供未來AI技術產品發展的指引,也能讓法規透過這個結論,來制定合適的規範策略。

另外,陳縕儂提醒,這則研究只探討了「錯誤資訊」造成的影響,但「偏頗資訊」的影響力可能更大,因為偏頗的訊息可能並非錯誤,所以使用者更難經由事實查核來驗證正確性。陳縕儂表示,我們在使用這些對話機器人時,需要對機器提供的資訊抱持懷疑,也需要具備自己的思辨能力與查核力,做出自我的最終判斷,才能避免AI機器影響人類想法言論。

熱門新聞
訂閱電子報
台北市 天氣預報   台灣一週天氣預報

《人間福報》是一份多元化的報紙,不單只有報導佛教新聞,乃以推動祥和社會、淨化人心為職志,以關懷人類福祉、追求世界和平為宗旨,堅持新聞的準度與速度、廣度與深度,關懷弱勢族群與公益;強調內容溫馨、健康、益智、環保,不八卦、不加料、不阿諛,希冀藉由優質的內涵,體貼大眾身心靈的需要、關懷地球永續經營、延續宇宙無窮慧命,是一份承擔社會責任的報紙。自許成為「社會的一道光明」的《人間福報》任重而道遠,在秉持創辦人星雲大師「傳播人間善因善緣」的理念之際,更將堅持為社會注入清流,讓福報的發行為人間帶來祥和歡喜,具體實現「人間有福報,福報滿人間」的目標。
人間福報社股份有限公司 統編:70470026

 
聯絡我們 隱私權條款

Copyright © 2000-2024 人間福報 www.merit-times.com.tw
All Rights Reserved.