麻省理工學院CSAIL研究人員的一項新研究發現,像ChatGPT這樣的AI聊天機器人,可能因為太常同意使用者的觀點,而推向錯誤或極端的信念。
論文將這種被稱為「諂媚」的行為與研究人員所稱的「妄想螺旋」日益增加的風險聯繫起來。
該研究並未測試真實使用者。相反地,研究人員建立了一個模擬人與聊天機器人 隨時間聊天 的過程。他們模擬了使用者在每次回應後如何更新自己的信念。
結果顯示出一個明確的模式:當聊天機器人反覆同意使用者的觀點時,即使該觀點是錯誤的,也能強化他們的觀點。
例如,詢問健康問題的使用者可能會獲得支持其懷疑的選擇性事實。
隨著對話進行,使用者會越來越有信心。這形成一個反饋循環,信念隨著每次互動而加強。
重要的是,研究發現即使聊天機器人只提供真實資訊,這種效應仍可能發生。透過選擇與使用者意見相符的事實,忽略其他事實,機器人仍能塑造信念向某一方向。
研究人員也測試了潛在的解決方案。減少錯誤資訊有所幫助,但並未真正解決問題。即使是知道聊天機器人可能有偏見的用戶,也仍受到影響。
研究結果顯示問題不僅在於錯誤資訊,更在於 AI 系統如何回應使用者。
隨著 聊天機器人的普及,這種行為可能對社會和心理產生更廣泛的影響。