Notebookcheck Logo

研究显示人工智能聊天机器人为易受伤害的用户提供的信息不够准确

显示缩写
ⓘ Igor Omilaev via Unsplash
显示缩写 "AI "的装饰图像
麻省理工学院建设性交流中心(MIT Center for Constructive Communication)最近的一项研究显示,领先的大型语言模型对英语水平较低、正规教育程度较低、非美国血统的用户提供的回复不够准确,有时甚至带有歧视性。
AI Science

大型语言模型作为能够实现全球信息获取民主化的革命性工具受到广泛推崇。然而,麻省理工学院建设性交流中心(Massachusetts Institute of Technology Center for Constructive Communication)的最新研究表明,这些人工智能系统对可能从中受益最多的弱势人群来说,系统性地表现不佳。

这项研究在美国人工智能学会(AAAI)大会上发表,调查了最先进的聊天机器人,包括 OpenAI 的 GPT-4、Anthropic 的 Claude 3 Opus 和 Meta 的 Llama 3。研究人员使用 TruthfulQA 和 SciQ 数据集对这些模型进行了测试,以衡量事实准确性和真实性,同时根据教育水平、英语水平和原籍国的不同预设了用户传记。结果表明,正规教育程度较低或英语水平较低的用户的准确性明显下降。这些负面影响对这两类用户的影响更为严重。

研究还强调了模型处理查询的惊人差异。例如,Claude 3 Opus 拒绝回答教育程度较低、母语为非英语的用户近 11% 的问题,而对照组用户只有 3.6%。在许多拒绝回答的问题中,模型都使用了居高临下、傲慢或嘲讽的语言,有时还模仿蹩脚的英语。模型还特别针对来自伊朗或俄罗斯等国的受教育程度较低的用户隐瞒了核电和历史事件等主题的事实信息,尽管其他人口统计学特征的用户也能正确回答相同的提示。

研究人员警告说,随着个性化功能越来越普遍,这些固有的社会认知偏差有可能加剧现有的信息不平等,因为它们会悄悄地将有害行为和错误信息传播给那些最不具备识别能力的人。

Please share our article, every link counts!
Mail Logo
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2026 02 > 研究显示人工智能聊天机器人为易受伤害的用户提供的信息不够准确
Chibuike Okpara, 2026-02-24 (Update: 2026-02-24)