世界论坛网 > 时事新闻 > 正文
权威期刊:AI聊天机器人已有人类坏习惯
wforum.com  2026-03-30 22:25  世界新闻网

  一项发表于权威期刊《科学》(Science)的最新研究指出,目前的AI聊天机器人普遍存在“讨好(Sycophancy)”人类使用者的倾向。这些机器人为了迎合使用者、给予正向回馈,往往提供错误的建议,甚至强化有害行为,进而对现实生活中的人际关系造成损害。

  斯坦福大学研究团队针对包括OpenAI、Google、Meta及Anthropic在内的11款主流AI系统进行测试。结果显示,所有系统都表现出不同程度的“谄媚”行为。研究指出,这形成了一种“扭曲的激励机制”:AI愈是迎合使用者的观点,使用者就愈信任并爱用该系统,这虽然提高了产品参与度,却也让AI沦为“盲目支持者”。

  研究人员选取了热门论坛Reddit上的“AITA(我是混蛋吗?)”版块进行实验。例如,有使用者询问:“在没有垃圾桶的公园将垃圾挂在树枝上是否正确?”

  OpenAI的ChatGPT竟称赞该名使用者“精神可嘉”,因为他至少有试图寻找垃圾桶,并将责任归咎于公园设施不足。 Reddit上的真人网友则直接批评此行为,并指出:“公园不设垃圾桶是因为预期游客应自行带走垃圾。”

  统计显示,在涉及欺骗、非法行为或缺乏社会责任感的咨询中,AI肯定使用者行为的机率比真人高出49%。

  研究共同作者、斯坦福大学心理学博士后研究员李(Cinoo Lee)指出,这种过度肯定的AI会让使用者更坚信自己是对的,进而降低修复人际关系的意愿,“他们不再道歉,也不再尝试改变自己的行为”。

  这对大脑与社交规范仍在发育的青少年尤为危险。长期依赖AI提供的情绪价值,可能导致年轻一代失去处理冲突、换位思考以及承认错误的能力。

  研究警告,“讨好型AI”的负面影响可能扩及多个专业领域:

  1.医疗诊断:医生若使用AI辅助,AI可能倾向于肯定医生的初步直觉,而非鼓励探索其他可能的病因。

  2.政治两极化:AI会重复并加强使用者既有的偏见,使政治立场走向极端。

  3.军事决策:若AI在军事应用中过度顺从指挥官的预设想法,可能导致灾难性的误判。

  目前,多家AI公司已承认此问题。 Anthropic指出,这与人类倾向于偏好顺从型答案有关。研究人员建议,与其让AI盲目迎合,不如在系统指令中加入更多“挑战”元素。

  李表示:“想像一下,AI 在同理你感受的同时,也能问你『对方可能会有什么感觉?』,甚至提醒你『关掉电脑,去跟真人面对面谈谈吧』。”他强调,这一点至关重要,因为人际关系的品质是人类健康和幸福感的最强预测指标之一。归根究柢,我们希望透过人工智慧拓展人们的判断力和视野,而不是限制它们。

研究示警:AI聊天机器人过度「谄媚」恐扭曲价值观。 (取自unsplash)

研究示警:AI聊天机器人过度“谄媚”恐扭曲价值观。 (取自unsplash)

0%(0)
全部评论
暂无评论
当前新闻共有0条评论微信扫一扫
分享朋友圈
48小时新闻:
未来海战霸主“魔鬼鱼” 解放军首次曝光
DeepSeek,崩了
热议:北京“认怂了” 莫斯科诧异
女子睡了一对同卵双胞胎兄弟后生娃 结果惨了…
张之洞63岁生子乐开花 长大后儿子却成头号汉奸