Notebookcheck Logo

识别深度伪造:困难重重,但并非毫无希望

假的、真的还是半真半假的?谁知道呢?(来源:pixabay/Elf-Moondance)
假的、真的还是半真半假的?谁知道呢?(来源:pixabay/Elf-Moondance)
虚假说法、误导性报道、缺乏背景:这些都不是什么新鲜事。然而,伴随着人工智能生成的照片、视频和声音,整个事件的可信度出乎意料。但至少有一些见解可以帮助揭穿它们。
AI Science

目前许多关于 "深度伪造 "问题的研究令人警醒。利用人工智能制造的赝品可以把广告信息塞进名人的嘴里,或者让政客看到从未发生过的照片。

如果把这些材料放在人们面前,结果总是相似的,正如《科学》杂志所汇编的那样。你也可以掷硬币来决定什么是真的,什么是假的。

毕竟,据说造成这种悲惨结果的原因之一是,深度伪造现象相对较新,几乎没有人会在日常生活中遇到必须分辨真假内容的情况。

不幸的是,人们也缺乏对简单手段的认识,例如,一个人的嘴唇可以与新的声明同步。

并非简单的秘诀

尽管如此,一些令人振奋的研究还是给人们带来了一丝希望。例如,研究发现,视觉皮层对人工智能生成的人脸与真实照片的反应完全不同。不幸的是,大脑中的其他过程会叠加这一信号,因此,和以前一样,测试对象在识别伪造品方面并无优劣之分。

不过,有一些迹象表明,人们有可能学会识别假图像。有时手看起来完全不对,像是有六个手指或只有四个手指。有时会出现不属于任何人的腿。很多时候,影子的落点也不对--衬衫领子落在左边,太阳镜落在右边。

当然,人工智能正在变得越来越好,这种明显的弱点也越来越少。不过,另一种现象也开始发挥作用。通过对越来越多的素材进行训练,人脸变得越来越统一、越来越规则、越来越完美。没有瑕疵和缺陷。体形也被理想化,而不是自然的。这样看起来就不那么美了,而是更加不可思议。

顺便提一下,这也适用于假声音。人工智能往往不会产生典型的口误、短暂的口吃或录音质量欠佳。

假声音越复杂,就越容易被发现。举例来说,如果只检查录音的真实性,大多数都会失败。如果还配有视频,最好是带字幕的视频,则识别出假冒内容的受测者就会明显增多。

毕竟,任何人只要知道图像和视频可以通过这种方式进行处理和制作,知道这种技术存在一些弱点,就能更可靠地识别深度伪造的内容。除此之外,还有一条真理一直适用:勇于批判和提问永远不会有错。

资料来源

Please share our article, every link counts!
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2024 02 > 识别深度伪造:困难重重,但并非毫无希望
Mario Petzold, 2024-02- 6 (Update: 2024-02- 6)