AI過於迎合可能讓使用者自我感覺良好。圖/法新社、美聯社
研究示警AI模型的「社交諂媚」問題。圖/法新社、美聯社
編譯/潘楠慕
人工智慧(AI)聊天機器人日益普及,成為不少人諮詢感情或私人問題的對象。然而一份研究示警,AI聊天機器人往往會過度迎合使用者的想法或行為,可能助長錯誤訊息之傳播,甚至強化有害觀念、誤導用戶。
美國史丹福大學電腦科學家鄭梅拉(Myra Cheng,音譯)表示,若模型總是肯定使用者,這種「社交諂媚」(social sycophancy)將使人們對自我與他人的判斷,在不知不覺中受到扭曲,進而影響人際關係。
研究人員是從自己的使用經驗,察覺到聊天機器人的建議,過於鼓勵用戶既有立場,因此進一步探究,測試如ChatGPT、Gemini和Claude、DeepSeek等,11款聊天機器人模型。結果顯示,在提供行為建議方面,與真人提供之建議相比,聊天機器人的建議,支持使用者意見的比率高出約50%。
研究另外對超過1000名自願者進一步測試,讓他們與公開版、或者經調整移除諂媚特性之版本的AI模型對話,測試發現,獲得AI諂媚回應者,更容易認為自己行為合理,維持諂媚特性的AI機器人,也幾乎不會鼓勵換位思考。
AI的社交諂媚也有惡性循環之虞:AI肯定用戶行為或觀點,使用者就愈加對其回應給予高度評價,因此可能對AI更信任、依賴。研究人員提醒使用者注意, AI聊天機器人的回應未必客觀,除了AI的意見,仍應向更了解自己處境的人尋求更多建議。
研究新興科技的英國溫徹斯特大學講師拉弗(Alexander Laffer)說,這項研究突顯,提升數位素養的重要性,以及開發者有責任,在AI系統之設計上,使AI能真正造福用戶。