Notebookcheck Logo

研究发现用户是造成人工智能幻觉的真正原因

根据一项新的研究,人工智能的幻觉会受到用户交流方式的影响。(图片来源:Pexels/Ketut Subiyanto)
根据一项新的研究,人工智能的幻觉会受到用户交流方式的影响。(图片来源:Pexels/Ketut Subiyanto)
最近发表的一项研究表明,给人工智能助手的提示在出现所谓的人工智能幻觉中起着重要作用。这对用户来说是个好消息,因为这表明他们可以通过更有效的提示设计来积极减少错误或捏造的回答。
AI Science

虚构的事实、编造的引语或看起来完全是捏造的消息来源--人工智能可能非常有用,但它仍有产生幻觉的风险。根据 OpenAI 研究人员的研究,一个关键因素是鼓励人工智能进行猜测的简单奖励机制。https://www.arxiv.org/pdf/2510.0264510 月 3 日发表在arXiv.org 上的一项研究还表明,用户本身也可能在触发这些幻觉反应方面发挥了作用。

这项题为"注意差距:人-LLM 助理与人-人交互中的语言差异和适应策略 " 的研究表明,许多所谓的人工智能幻觉可能源于用户的交流方式。研究人员分析了超过 13,000 次人与人之间的对话以及 1,357 次人与人工智能聊天机器人之间的真实互动。研究结果表明,用户与人工智能对话时的书写方式往往大相径庭--信息更短、语法更少、更不礼貌,使用的词汇也更有限。这些差异会影响语言模型做出清晰、自信的回应。

分析侧重于六个语言维度,包括语法、礼貌、词汇范围和信息内容。在人与人的对话中,语法和礼貌程度分别高出 5% 和 14% 以上,但实际传达的信息却几乎相同。换句话说,用户与人工智能共享相同的内容,但语气明显更加严厉。

研究人员将此称为"风格转变"。由于像 ChatGPT 或 Claude 这样的大型语言模型是在结构良好的礼貌用语基础上训练出来的,因此语气或风格的突然改变可能会造成误解或捏造细节。换句话说,当人工智能接收到不清晰、不礼貌或书写不规范的输入时,更容易产生幻觉。

人工智能和用户方面可能的解决方案

研究显示,如果对人工智能模型进行训练,使其能够处理更广泛的语言风格,那么它们理解用户意图的能力就会提高--至少提高 3%。研究人员还测试了第二种方法:实时自动转述用户输入。然而,这种方法略微降低了性能,因为情感和上下文的细微差别往往会丢失。因此,作者建议将风格感知训练作为人工智能微调的新标准。

如果你希望你的人工智能助手做出更少的胡编乱造的回答,这项研究建议你把它当做人类来对待--用完整的句子写作、使用正确的语法、保持清晰的风格和礼貌的语气。

资料来源

Arxiv.org (Study/PDF)

图片来源:Pexels /Ketut Subiyanto

Please share our article, every link counts!
Mail Logo
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2025 10 > 研究发现用户是造成人工智能幻觉的真正原因
Marius Müller, 2025-10-18 (Update: 2025-10-18)