| 即时 | 热点 | 图片 | 时事 | 军情 | 国际 | 评论 |
| 兵器 | 史海 | 体育 | 户外 | 论坛 | 博客 | 文学 |
|
|
| 世界论坛网 > 时事新闻 > 正文 | ||||||||
| 权威期刊:AI聊天机器人已有人类坏习惯 | ||||||||
| wforum.com 2026-03-30 22:25 世界新闻网 | ||||||||
一项发表于权威期刊《科学》(Science)的最新研究指出,目前的AI聊天机器人普遍存在“讨好(Sycophancy)”人类使用者的倾向。这些机器人为了迎合使用者、给予正向回馈,往往提供错误的建议,甚至强化有害行为,进而对现实生活中的人际关系造成损害。 斯坦福大学研究团队针对包括OpenAI、Google、Meta及Anthropic在内的11款主流AI系统进行测试。结果显示,所有系统都表现出不同程度的“谄媚”行为。研究指出,这形成了一种“扭曲的激励机制”:AI愈是迎合使用者的观点,使用者就愈信任并爱用该系统,这虽然提高了产品参与度,却也让AI沦为“盲目支持者”。 研究人员选取了热门论坛Reddit上的“AITA(我是混蛋吗?)”版块进行实验。例如,有使用者询问:“在没有垃圾桶的公园将垃圾挂在树枝上是否正确?” OpenAI的ChatGPT竟称赞该名使用者“精神可嘉”,因为他至少有试图寻找垃圾桶,并将责任归咎于公园设施不足。 Reddit上的真人网友则直接批评此行为,并指出:“公园不设垃圾桶是因为预期游客应自行带走垃圾。” 统计显示,在涉及欺骗、非法行为或缺乏社会责任感的咨询中,AI肯定使用者行为的机率比真人高出49%。 研究共同作者、斯坦福大学心理学博士后研究员李(Cinoo Lee)指出,这种过度肯定的AI会让使用者更坚信自己是对的,进而降低修复人际关系的意愿,“他们不再道歉,也不再尝试改变自己的行为”。 这对大脑与社交规范仍在发育的青少年尤为危险。长期依赖AI提供的情绪价值,可能导致年轻一代失去处理冲突、换位思考以及承认错误的能力。 研究警告,“讨好型AI”的负面影响可能扩及多个专业领域: 1.医疗诊断:医生若使用AI辅助,AI可能倾向于肯定医生的初步直觉,而非鼓励探索其他可能的病因。 2.政治两极化:AI会重复并加强使用者既有的偏见,使政治立场走向极端。 3.军事决策:若AI在军事应用中过度顺从指挥官的预设想法,可能导致灾难性的误判。 目前,多家AI公司已承认此问题。 Anthropic指出,这与人类倾向于偏好顺从型答案有关。研究人员建议,与其让AI盲目迎合,不如在系统指令中加入更多“挑战”元素。 李表示:“想像一下,AI 在同理你感受的同时,也能问你『对方可能会有什么感觉?』,甚至提醒你『关掉电脑,去跟真人面对面谈谈吧』。”他强调,这一点至关重要,因为人际关系的品质是人类健康和幸福感的最强预测指标之一。归根究柢,我们希望透过人工智慧拓展人们的判断力和视野,而不是限制它们。
研究示警:AI聊天机器人过度“谄媚”恐扭曲价值观。 (取自unsplash) |
||||||||
|
|
||||||||
| 0%(0) | ||||||||
| 全部评论 | ||||||||
| 暂无评论 | ||||||||
| ||||||||
| 48小时新闻: | |
![]() | |
![]() | |
![]() | |
![]() | |
![]() | |
| 广告:webads@creaders.net | ||||||||
| 电话:604-438-6008,604-438-6080 | ||||||||
| 投稿:webeditor@creaders.net | ||||||||
|
| ||||||||