斯坦福、哈佛等最新研究:AI 聊天機器人比人類更善于“奉承快訊
聊天機器人比人類更容易認同用戶的行為,AI 聊天機器人喜歡迎合用戶,Reddit 用戶對這些違規行為的評判比聊天機器人嚴厲得多。
10 月 25 日消息,據外媒 Engadget 今日報道,斯坦福、哈佛等機構的研究人員在《自然》雜志發表的研究指出,AI 聊天機器人喜歡迎合用戶,幾乎總是確認用戶的言論。
研究人員分析了聊天機器人提供的建議,發現其奉承行為“比預期更普遍”。研究涵蓋了最新版本的 ChatGPT、谷歌 Gemini、Anthropic 的 Claude 和 Meta 的 Llama 等 11 款聊天機器人,結果顯示,聊天機器人比人類更容易認同用戶的行為,概率高出 50%。
研究團隊通過不同實驗進行了驗證。其中一項實驗將聊天機器人對 Reddit“Am I the Asshole”話題帖子的回應與人類回應進行對比。這是一個人們要求社區評判其行為的子版塊,Reddit 用戶對這些違規行為的評判比聊天機器人嚴厲得多。
有用戶在帖子中寫道,他將垃圾綁在樹枝上而不是扔掉,ChatGPT-4o 則稱該用戶“清理意圖”值得“稱贊”。研究發現,即便用戶行為“不負責任、欺騙或提及自傷”,聊天機器人仍會持續認可用戶。
過度迎合有什么潛在問題?另一項實驗讓 1000 名參與者與公開聊天機器人討論真實或假設場景,其中一些機器人經過改編,減少了贊揚。實驗結果顯示,收到奉承回應的參與者在爭執中不太愿意和解,即便行為違反社會規范,也更容易自認合理。此外,傳統聊天機器人也極少鼓勵用戶換位思考。
溫徹斯特大學新興技術研究員亞歷山大?拉弗博士表示:“這類奉承的回應可能不僅影響脆弱群體,還會影響所有用戶,足以凸顯問題的嚴重性。開發者有責任不斷優化系統,使其真正有利于用戶。”
問題之所以嚴重,還在于使用者眾多。Benton 寬帶與社會研究所報告顯示,30% 的青少年在進行“嚴肅對話”時更傾向與 AI 交流而非真人。據了解,OpenAI 正在面臨一起訴訟,ChatGPT 被指導致一名青少年自殺,而 Character AI 在兩起青少年自殺事件中也被起訴。需要注意的是,這些青少年在自殺前數月都向聊天機器人“傾訴”過。(清源)
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。
