Notebookcheck Logo
一个普通的人形机器人和一个问号。(图片来源:Valeria Nikitina - Unsplash)

从数据到幻觉人工智能幻觉究竟是如何产生的

当聊天机器人自信地胡编乱造时,就会产生人工智能幻觉。了解它发生的原因、解决方法以及对您的影响。
Darryl Linington (translated by Ninh Duy) Published 🇺🇸 🇵🇱 ...
AI Opinion / Kommentar
Opinion by Darryl Linington
Views, thoughts, and opinions expressed in the text belong solely to the author.

什么是幻觉?从人工智能的角度来说

事情是这样的。你向聊天机器人提问。它给了你一个听起来很聪明的答案,用了所有正确的词,甚至还引用了一两句。然后你再去查,它却完全是虚构的。

欢迎来到人工智能幻觉的奇妙世界。

这不是错误。这不是你的错不,人工智能不是 "想撒谎"它只是......在做它被设计出来要做的事情:把那些从统计学上看是相邻的词串在一起。就是这样

这不是 "思考"它只是在玩疯狂的自由发挥。

这些语言模型--ChatGPT、克劳德、双子座,所有这些--都不了解事实。它们什么都不懂。它们已经阅读了数十亿个单词,现在却在玩这种永无止境的自动完成游戏。这就是他们所做的一切。

那么,当他们在训练中 "看到 "的东西出现空白时,会发生什么呢?他们猜测。有时会胡乱猜测。但总是自信满满。

以下是引擎盖下的混乱实际发生情况

大型语言模型(LLM)是在数量惊人的文本上进行训练的--想想书籍、网站、Reddit 上的咆哮、学术期刊,所有这些都被混在一起。模型不会像我们一样 "记住 "这些信息。相反,它可以学习模式:哪些词往往紧跟其他词,哪些概念经常出现在一起,哪些句子结构看起来 "正确",等等。

当你输入一个提示时,模型就会开始预测,一次预测一个标记(单词的片段)。它不会规划一个段落,也不会检查它所说的是否符合事实。它只是试图从统计学角度将可能的反应串联起来......没有意识,没有检查,没有良知。

现在,如果训练数据没有正确涵盖你的问题--或者涵盖了,但模型没有完全 "回忆 "起来--事情就变得棘手了。它可能会开始根据相似的声音推断答案。想想看,这就像类固醇自动完成功能,只是发明了一些联系。

举个例子?如果你问一个听起来很熟悉的法庭案例,模型可能会混合它在训练过程中看到的类似案例的细节。突然间,你就会从一个根本不存在的法官那里得到一个关于从未通过的法律的科学怪人裁决。

问题出在哪里?它不知道自己错了。它不是为知道而生的。它是用来猜测的。

一些常见的出轨方式:

  • 没有足够的相关数据→人工智能用废话填补空白。
  • 你问了它一个模糊或复杂的问题→它编造了一个听起来干净利落的答案,看起来很有帮助。
  • 它想让自己听起来很聪明→于是它模仿聪明人的写作方式,即使这一切都是编造的。
  • 它见过无数次引文→所以它能把假引文格式化得惟妙惟肖。

这不是假设--有人被骗过

你可能已经见过这种情况了。如果没有,那就来看看它是什么样子的:

  • 虚假学术研究:看起来是真的。有作者、标题和期刊。不存在。
  • 虚构的法庭案件:真正的律师提交过这些文件。法官们......并不高兴。
  • 虚构的医疗建议:机器人可能会告诉你羽衣甘蓝与布洛芬有相互作用。其实不会。(可能吧)。

是的,人们相信这些东西。因为听起来没错。这就是陷阱。

它甚至会对你施放毒气

真正的关键在于:如果你反击?问它 "你确定吗?"人工智能可能会加倍拒绝。重新措辞谎言。软化它。引用另一个虚假来源。它并没有恶意,它只是不知道该怎么做。它会想:"哦,你想要上一个幻觉的更好听的版本吗?别再说了"

欢迎参加煤气灯游行,现在有引文了。

除了抱怨,我们还能做些什么?

公平地说,开发人员正在努力解决这个问题。没有人希望自己的工具因自信地散布谎言而闻名。以下是正在进行的工作:

1.Human-in-the-loop training (RLHF)
基本上:真人对人工智能的答案给出反馈,像 Yelp 差评一样打分。有一定帮助。

2.让人工智能 "查资料" (RAG)
有些模型不再仅仅依靠记忆,而是从维基百科或知识库中获取实时数据。这就像让实习生上网,而不是让他们猜测。

3.事实检查插件
一些平台安装了事实检查器,或者在人工智能不确定的情况下拒绝回答。这是新的功能,目前还不太成熟。

4.更智能的提示 = 更少的废话
如果你提出的问题明确、具体,就不太可能出现人工智能的即兴表演。例如"给我五个关于火龙果益处的同行评审资料 "比 "火龙果是否健康?

5.信心过滤器
一些人工智能现在会说 "我不确定",而不是胡编乱造。老实说,这让人松了一口气。

为什么这不仅仅是一个有趣的怪癖?

这东西很重要。在闲聊中出现幻觉,这没什么大不了的。但在法庭上?在新闻编辑室?在医院?这就乱套了。

想象一下,一个学生因为人工智能发明了一个信息源而被标记为抄袭。或者病人得到错误的建议。或者是根据机器人凭空获取的数据做出商业决策。

这些模型正在被内置到搜索引擎和商业工具中。风险已经存在。

最后的话

听着,人工智能很神奇。它可以帮你集思广益、总结、改写、翻译......你说得出的它都能做到。但永远不要忘记,它并不知道自己在说什么。它只是想听起来有说服力。

如果你不会相信酒吧里一个 "读过一次书 "的口若悬河的陌生人,那么也不要盲目相信你的聊天机器人。

使用它。但要检查一切事实。始终如此。

因为一旦出错,它不会犹豫。它只会弹出一个大笑的表情符号,然后继续说话。

资料来源

自己的研究和经验

图片来源:Valeria Nikitina - UnsplashValeria Nikitina - Unsplash

Please share our article, every link counts!
Mail Logo
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2025 07 > 从数据到幻觉人工智能幻觉究竟是如何产生的
Darryl Linington, 2025-07-20 (Update: 2025-07-20)