研究显示人工智能聊天机器人为易受伤害的用户提供的信息不够准确

大型语言模型作为能够实现全球信息获取民主化的革命性工具受到广泛推崇。然而,麻省理工学院建设性交流中心(Massachusetts Institute of Technology Center for Constructive Communication)的最新研究表明,这些人工智能系统对可能从中受益最多的弱势人群来说,系统性地表现不佳。
这项研究在美国人工智能学会(AAAI)大会上发表,调查了最先进的聊天机器人,包括 OpenAI 的 GPT-4、Anthropic 的 Claude 3 Opus 和 Meta 的 Llama 3。研究人员使用 TruthfulQA 和 SciQ 数据集对这些模型进行了测试,以衡量事实准确性和真实性,同时根据教育水平、英语水平和原籍国的不同预设了用户传记。结果表明,正规教育程度较低或英语水平较低的用户的准确性明显下降。这些负面影响对这两类用户的影响更为严重。
研究还强调了模型处理查询的惊人差异。例如,Claude 3 Opus 拒绝回答教育程度较低、母语为非英语的用户近 11% 的问题,而对照组用户只有 3.6%。在许多拒绝回答的问题中,模型都使用了居高临下、傲慢或嘲讽的语言,有时还模仿蹩脚的英语。模型还特别针对来自伊朗或俄罗斯等国的受教育程度较低的用户隐瞒了核电和历史事件等主题的事实信息,尽管其他人口统计学特征的用户也能正确回答相同的提示。
研究人员警告说,随着个性化功能越来越普遍,这些固有的社会认知偏差有可能加剧现有的信息不平等,因为它们会悄悄地将有害行为和错误信息传播给那些最不具备识别能力的人。
资料来源
» Notebookcheck多媒体笔记本电脑Top 10排名
» Notebookcheck游戏笔记本电脑Top 10排名
» Notebookcheck低价办公/商务笔记本电脑Top 10排名
» Notebookcheck高端办公/商务笔记本电脑Top 10排名
» Notebookcheck工作站笔记本电脑Top 10排名
» Notebookcheck亚笔记本电脑Top 10排名
» Notebookcheck超级本产品Top 10排名
» Notebookcheck变形本产品Top 10排名
» Notebookcheck平板电脑Top 10排名
» Notebookcheck智能手机Top 10排名
» Notebookcheck评测过最出色的笔记本电脑屏幕
» Notebookcheck售价500欧元以下笔记本电脑Top 10排名
» Notebookcheck售价300欧元以下笔记本电脑Top 10排名








