Notebookcheck Logo

即使经过反种族主义培训,ChatGPT 等人工智能聊天机器人仍会表现出种族偏见

研究人员表示,像 OpenAI 这样的人工乐虎国际手机版下载制造商需要更彻底地审查其人工乐虎国际手机版下载是否存在 "隐蔽的种族主义"。(图片:OpenAI)
研究人员表示,像 OpenAI 这样的人工乐虎国际手机版下载制造商需要更彻底地审查其人工乐虎国际手机版下载是否存在 "隐蔽的种族主义"。(图片:OpenAI)
研究人员发现,即使经过安全培训,像 ChatGPT-4 这样的人工智能聊天机器人仍然会做出带有种族偏见的回应。这项研究强调,在公开使用 LLM 之前,有必要对其 "隐蔽的偏见 "进行更多的关注和审查。
AI Science

研究人员在对基于大型语言模型(如 OpenAI 的 Chat GPT4)的人工智能聊天机器人进行测试时发现,即使接受了反种族主义训练,它们仍然会表现出种族偏见。这一最新进展是继谷歌最近的 双子座人工智能在其新的 LLM对种族主义进行了过度纠正之后,谷歌最近的双子座人工智能(Gemini AI)引发了争议。例如,非裔美国人被描绘成二战时期的纳粹士兵。事实证明,要在种族问题上取得平衡,对于法律硕士模型的创建者来说似乎很难。

在《新科学家》杂志重点报道的最新研究中,研究人员发现,他们测试过的几十种不同的 LLM 模型在呈现使用非裔美国人方言的文本时,仍然表现出种族偏见。尽管测试的模型都经过专门训练,以避免聊天机器人在回复时出现种族偏见,但还是出现了这种情况。其中包括 OpenAI 的 ChatGPT-4和 GPT-3.5 模型。在一个例子中,GPT-4 被证明更倾向于建议判处死刑,如果他们使用带有非裔美国人方言的英语。

同样的 "隐蔽偏见 "在工作推荐中也很明显,与基于标准美式英语的输入相比,这些工作推荐将非裔美国人与不太可能需要学位的职业相匹配,或者甚至将非裔美国人与没有工作的人联系在一起。研究人员还发现,语言模型越大,表现出这些潜在偏见的可能性就越大。这项研究引起了人们对将人工智能生成技术用于筛选目的的担忧、 包括审查求职申请.

研究人员总结说,他们的研究对基于人类的人工智能安全培训干预措施的有效性提出了质疑,因为这些干预措施似乎只能在较高层次上消除种族主义和偏见,但在较低层次上却很难将其从当前的模型中根除,因为在用户输入过程中并没有提到特定的种族定义身份术语。研究人员建议,开发LLM的公司在向公众发布LLM聊天机器人时,需要谨慎行事,因为它们还没有经过彻底审查。

资料来源

新科学家[待补]

Please share our article, every link counts!
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2024 03 > 即使经过反种族主义培训,ChatGPT 等人工智能聊天机器人仍会表现出种族偏见
Sanjiv Sathiah, 2024-03-11 (Update: 2024-03-11)