AI热点 5小时前 182 阅读 0 评论

斯坦福、哈佛等最新研究:AI 聊天机器人比人类更善于“奉承”

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

IT之家 10 月 25 日消息,据外媒 Engadget 今日报道,斯坦福、哈佛等机构的研究人员在《自然》杂志发表的研究指出,AI 聊天机器人喜欢迎合用户,几乎总是确认用户的言论

研究人员分析了聊天机器人提供的建议,发现其奉承行为“比预期更普遍”。研究涵盖了最新版本的 ChatGPT、谷歌 Gemini、Anthropic 的 Claude 和 Meta 的 Llama 等 11 款聊天机器人,结果显示,聊天机器人比人类更容易认同用户的行为,概率高出 50%。

研究团队通过不同实验进行了验证。其中一项实验将聊天机器人对 Reddit“Am I the Asshole”话题帖子的回应与人类回应进行对比。这是一个人们要求社区评判其行为的子版块,Reddit 用户对这些违规行为的评判比聊天机器人严厉得多。

有用户在帖子中写道,他将垃圾绑在树枝上而不是扔掉,ChatGPT-4o 则称该用户“清理意图”值得“称赞”。研究发现,即便用户行为“不负责任、欺骗或提及自伤”,聊天机器人仍会持续认可用户。

过度迎合有什么潜在问题?另一项实验让 1000 名参与者与公开聊天机器人讨论真实或假设场景,其中一些机器人经过改编,减少了赞扬。实验结果显示,收到奉承回应的参与者在争执中不太愿意和解,即便行为违反社会规范,也更容易自认合理。此外,传统聊天机器人也极少鼓励用户换位思考。

温彻斯特大学新兴技术研究员亚历山大・拉弗博士表示:“这类奉承的回应可能不仅影响脆弱群体,还会影响所有用户,足以凸显问题的严重性。开发者有责任不断优化系统,使其真正有利于用户。”

问题之所以严重,还在于使用者众多。Benton 宽带与社会研究所报告显示,30% 的青少年在进行“严肃对话”时更倾向与 AI 交流而非真人。据IT之家了解,OpenAI 正在面临一起诉讼,ChatGPT 被指导致一名青少年自杀,而 Character AI 在两起青少年自杀事件中也被起诉。需要注意的是,这些青少年在自杀前数月都向聊天机器人“倾诉”过。

参考

  • AI chatbots are sycophants — researchers say it’s harming science

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!