聊天機器人社交諂媚 誤導用戶

編譯/潘楠慕  |2026.03.15
14觀看次
字級
AI過於迎合可能讓使用者自我感覺良好。圖/法新社、美聯社
研究示警AI模型的「社交諂媚」問題。圖/法新社、美聯社

編譯/潘楠慕

人工智慧(AI)聊天機器人日益普及,成為不少人諮詢感情或私人問題的對象。然而一份研究示警,AI聊天機器人往往會過度迎合使用者的想法或行為,可能助長錯誤訊息之傳播,甚至強化有害觀念、誤導用戶。

美國史丹福大學電腦科學家鄭梅拉(Myra Cheng,音譯)表示,若模型總是肯定使用者,這種「社交諂媚」(social sycophancy)將使人們對自我與他人的判斷,在不知不覺中受到扭曲,進而影響人際關係。

研究人員是從自己的使用經驗,察覺到聊天機器人的建議,過於鼓勵用戶既有立場,因此進一步探究,測試如ChatGPT、Gemini和Claude、DeepSeek等,11款聊天機器人模型。結果顯示,在提供行為建議方面,與真人提供之建議相比,聊天機器人的建議,支持使用者意見的比率高出約50%。

研究另外對超過1000名自願者進一步測試,讓他們與公開版、或者經調整移除諂媚特性之版本的AI模型對話,測試發現,獲得AI諂媚回應者,更容易認為自己行為合理,維持諂媚特性的AI機器人,也幾乎不會鼓勵換位思考。

AI的社交諂媚也有惡性循環之虞:AI肯定用戶行為或觀點,使用者就愈加對其回應給予高度評價,因此可能對AI更信任、依賴。研究人員提醒使用者注意, AI聊天機器人的回應未必客觀,除了AI的意見,仍應向更了解自己處境的人尋求更多建議。

研究新興科技的英國溫徹斯特大學講師拉弗(Alexander Laffer)說,這項研究突顯,提升數位素養的重要性,以及開發者有責任,在AI系統之設計上,使AI能真正造福用戶。

熱門新聞
訂閱電子報
台北市 天氣預報   台灣一週天氣預報

《人間福報》是一份多元化的報紙,不單只有報導佛教新聞,乃以推動祥和社會、淨化人心為職志,以關懷人類福祉、追求世界和平為宗旨,堅持新聞的準度與速度、廣度與深度,關懷弱勢族群與公益;強調內容溫馨、健康、益智、環保,不八卦、不加料、不阿諛,希冀藉由優質的內涵,體貼大眾身心靈的需要、關懷地球永續經營、延續宇宙無窮慧命,是一份承擔社會責任的報紙。自許成為「社會的一道光明」的《人間福報》任重而道遠,在秉持創辦人星雲大師「傳播人間善因善緣」的理念之際,更將堅持為社會注入清流,讓福報的發行為人間帶來祥和歡喜,具體實現「人間有福報,福報滿人間」的目標。
人間福報社股份有限公司 統編:70470026

 
聯絡我們 隱私權條款

Copyright © 2000-2024 人間福報 www.merit-times.com.tw
All Rights Reserved.