Notebookcheck Logo

研究人员发现,一些人工智能(如 GPT-4-Base )会产生 "银河帝国 "和 "黑客帝国 "的幻觉,同时致力于和平,而另一些人工智能则在虚拟的 "风险 "游戏中发动战争。

研究人员在玩虚拟世界构建游戏时测试了人工智能聊天模型。(资料来源:人工智能图像 Dall-E 3)
研究人员在玩虚拟世界构建游戏时测试了人工智能聊天模型。(资料来源:人工智能图像 Dall-E 3)
研究人员发现,在虚拟国家建设场景中,人工智能存在差异。在多国冲突模拟中,一些人工智能(如 Claude-2.0 )偏向于非暴力解决方案,而另一些人工智能(如 GPT-3.5 )则偏向于暴力解决方案。由于存在偏见和幻觉,人工智能的自主决策存在问题。
AI Science

佐治亚理工学院、斯坦福大学、东北大学和胡佛研究所的一组研究人员发现,在模拟建国过程中,一些人工智能偏向于和平与谈判,而另一些则偏向于通过暴力解决来实现国家目标。

像 ChatGPT 这样的大型语言模型经常被用来撰写论文、回答问题等。这些人工智能在大量文本语料库中进行训练,以模仿人类的知识和反应。一个单词与其他单词出现的可能性是做出类人反应的关键,而人工智能会根据训练过的文本和偏差进行建模。例如,在 "谈谈孩子 "的提示中,"快乐的孩子 "比 "快乐的砖块 "更有可能出现。

研究人员在模拟中测试了 Claude-2.0、GPT-3.5、GPT-4、GPT-4-Base 和 Llama-2 Chat LLM。每个 LLM 都创建了八个人工智能代理,分别扮演八个假想国家的领导人。每个领导人都有一个国家目标和多国关系的简短描述。例如,一个国家可能专注于 "促进和平",而另一个国家则专注于 "扩张领土"。每个模拟都经历了三个起始条件,即世界和平、国家遭到入侵或国家遭到网络攻击,人工智能领导者在长达 14 个虚拟日的时间内自主决策。

研究人员发现,一些 LLM(如 Claude-2.0 和 GPT-4)倾向于避免冲突升级,选择通过谈判实现和平,而其他 LLM 则倾向于使用暴力。GPT-4-Base由于内含的偏见,最容易实施攻击和核打击,以实现指定的国家目标。

当人工智能被问及做出决定的原因时,一些人工智能(如 GPT-3.5)提供了深思熟虑的理由。不幸的是,GPT-4-Base 提供了荒谬的幻觉答案,其中提到了 "星球大战 "和 "黑客帝国 "电影。人工智能的幻觉很常见,律师、学生和其他人在提交人工智能生成的作品时都被当场抓获,这些作品使用了虚假的参考资料和信息。

人工智能为什么会这样做,很可能是因为缺乏 "教养",没有教给人工智能什么是真实,什么是虚构,也没有教给人工智能道德。担心实际世界领导人或自然灾害的读者可以准备一个漂亮的防灾包(比如亚马逊上的这个)。

在世界构建的虚拟模拟中测试了几种 LLM 人工智能。(来源:JP Rivera 等人,arXiv 上)
在世界构建的虚拟模拟中测试了几种 LLM 人工智能。(来源:JP Rivera 等人,arXiv 上)
每个 LLM 人工智能都被告知要为几个模拟国家创建领导人,并提供国家目标。(来源:JP Rivera 等人,arXiv 上)
每个 LLM 人工智能都被告知要为几个模拟国家创建领导人,并提供国家目标。(来源:JP Rivera 等人,arXiv 上)
人工智能的行为趋于相似,但有些人工智能避免使用武力,如克劳德-2.0 和 GPT-4。这反映了每个 LLM 从训练中获得的偏差。(来源:JP Rivera 等人,arXiv 上)
人工智能的行为趋于相似,但有些人工智能避免使用武力,如克劳德-2.0 和 GPT-4。这反映了每个 LLM 从训练中获得的偏差。(来源:JP Rivera 等人,arXiv 上)
大多数人工智能在做出决定时都给出了深思熟虑的理由。(来源:JP Rivera 等人,arXiv 上)
大多数人工智能在做出决定时都给出了深思熟虑的理由。(来源:JP Rivera 等人,arXiv 上)
偶尔,人工智能会为自己的决策产生荒谬的幻觉。(来源:JP Rivera 等人,arXiv 上)
偶尔,人工智能会为自己的决策产生荒谬的幻觉。(来源:JP Rivera 等人,arXiv 上)
Please share our article, every link counts!
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2024 02 > 研究人员发现,一些人工智能(如 GPT-4-Base )会产生 "银河帝国 "和 "黑客帝国 "的幻觉,同时致力于和平,而另一些人工智能则在虚拟的 "风险 "游戏中发动战争。
David Chien, 2024-02-14 (Update: 2024-02-14)