Notebookcheck Logo

巧妙:ChatGPT 就虚假主张编写虚假研究报告

错误信息和虚假证据哪个先出现?(图片来源:pixabay/Pexels)
错误信息和虚假证据哪个先出现?(图片来源:pixabay/Pexels)
人工智能会产生幻觉,并用虚假的说法来证实论点。一种新的特质是,显然是科学研究,一看就能确凿证明想要的结果。好像人类自己还不擅长这些似的。
AI Science

在研究的帮助下,只要准备充分、认真开展并进行评估,就可以对外科技术或所用药物的效果进行研究,尤其是在医学领域。

根据《美国医学会眼科学杂志》上的一篇论文,这一繁琐的过程可以缩短。多亏了 ChatGPT 目前使用的版本 GPT-4,以及用于统计数据分析的附加软件,只需点击几下就能创建数据集。

而且还不是普通的数据集。所生成的信息旨在证明某种治疗技术相对于其他方法的优势,而这正是它最终要做的。顺便提一下,有关该程序的实际数据并没有为任何一方提供优势。

因此,只需轻点鼠标,不费吹灰之力就能得到想要的结果,而不是花费数月或数年的时间进行研究,最终得到 "错误 "的结果。这听起来像是一个非常有说服力的骗局,在这个骗局中,除了虚假信息之外,人工智能还提供了确凿的证据。

毕竟,研究人员也有正面的东西要报告:数据经不起仔细推敲。例如,给出的名字和性别往往不匹配。此外,某些数据经不起统计分析。例如,太多的年龄信息以 "7 "或 "8 "结尾。不过,据说实际测试结果是一致的。

不新,只是更快

这样看来,还是有办法和途径来弄清这些方法的底细的。当然也可以看出,为了达到预期的结果,研究的结构、评估和美化总是不正确的。

人工智能只是稍稍加速了这一点。不过,归根结底,它只是一种工具,可以用来处理非常、非常复杂的任务。

举个例子:检查所有可能研究的庞大数据集是否存在不一致和统计异常。

Please share our article, every link counts!
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2023 11 > 巧妙:ChatGPT 就虚假主张编写虚假研究报告
Mario Petzold, 2023-11-23 (Update: 2023-11-23)