Skip to main content
ai-detectiondeepfakesinformational

深度伪造检测:它如何工作、为什么重要,以及它的不足之处

· 9 min read· NotGPT Team

深度伪造检测是判断媒体——照片、视频或音频片段——是否由人工智能创建或操纵的过程。随着生成式人工智能模型变得越来越强大,真实和合成媒体之间的差距不断缩小,使得检测变得更加紧迫,同时也更加困难。本文分解了深度伪造检测的科学原理,解释了为什么现有方法难以跟上新型生成器的步伐,并涵盖了普通人在遇到看似可疑的内容时可以做些什么。

什么是深度伪造检测,为什么它很重要?

深度伪造检测是指用于识别使用人工智能合成或修改的媒体的任何方法——无论是自动的还是手动的。术语“深度伪造”在2017年首次被创造,当时一位Reddit用户开始发布人工智能换脸的名人视频,但该技术已远超换脸范围。Midjourney、Stable Diffusion、Sora和ElevenLabs等现代生成器仅凭文本提示就能生成照片级真实感的图像、全动作视频和接近完美的语音克隆。风险不只是理论上的。2024年2月,一位香港工程公司的财务员工在参加一个视频通话后被骗转账数百万美元,视频中的每个其他参与者——包括公司首席财务官——都是深度伪造。政治深度伪造扰乱了斯洛伐克、孟加拉国和美国的选举。浪漫骗子使用人工智能生成的面孔来建立虚假档案。学生已经为身份验证提交了人工智能生成的证件照。深度伪造检测很重要,因为对视觉和音频证据的信任是新闻业、执法、金融交易和个人关系的基础。当这种信任破裂时,后果远超任何单一诈骗或病毒式骗局。

深度伪造检测背后的科学

深度伪造检测基于这样的事实:人工智能生成器,无论多么先进,都会留下与真实世界媒体不同的痕迹。这些痕迹分为几类,大多数检测系统使用它们的组合来得出结论。

  1. 像素级伪影分析:真实相机通过物理镜头和传感器捕捉光线,产生自然噪声模式。人工智能生成器在数学上合成像素,这可能会产生微妙的不一致——皮肤纹理不匹配、眼睛中不规则的反射、合并在一起的牙齿或仅一侧出现的耳环。在数千张真实和虚假图像上训练的检测模型学会识别这些模式。
  2. 频域分析:当你使用傅立叶变换将图像转换为其频率分量时,真实照片和人工智能生成的图像看起来不同。相机传感器噪声产生合成图像缺乏的特征频谱。一些深度伪造检测系统几乎完全在频域中运行,因为这些差异更难被生成器掩盖。
  3. 时间一致性检查(视频):在视频深度伪造中,帧间一致性难以维持。面部边缘的闪烁、不自然的眨眼模式、帧间的光线变化和嘴唇同步不匹配都可作为检测信号。一些系统分析光学流——像素在帧间的运动——以找到不连续。
  4. 音频分析:语音克隆深度伪造可以通过频谱分析进行检测。克隆的声音往往缺乏真实录音中存在的音高、呼吸声和房间音响的微妙变化。一些检测方法将共鸣频率(使每个声音独特的共鸣模式)与已知样本进行比较。
  5. 元数据和来源检查:真实照片携带EXIF数据——GPS坐标、相机型号、时间戳。人工智能生成的图像通常没有元数据,或携带手动插入的元数据。C2PA标准(由Adobe、Microsoft、Google和BBC支持)在创建时将加密签名嵌入到媒体中,因此任何后续篡改都会使签名失效。
  6. 语义分析:一些检测方法寻找人类乍一看可能错过的逻辑不一致——影子掉落方向错误、背景标志上的文本是乱码,或者镜头之间改变的珠宝。这些需要具有一定物理世界运作理解的模型。

深度伪造类型及其检测方式

并非所有深度伪造都是相等的。检测方法在很大程度上取决于所涉及的合成媒体类型。

  1. 换脸:原始的深度伪造类别。源人脸被映射到视频中的目标人脸。检测关注融合边界——交换的人脸与原始头部相遇的接缝——以及人脸和身体之间光照、肤色和头部姿势的不一致。
  2. 完全合成图像:使用扩散模型或GAN从头开始生成。这些没有可比较的“原始”版本,所以检测依赖于伪影分析和频率特征。常见迹象包括过度平滑的皮肤、完全对称的特征和在边缘溶解成不连贯模式的背景。
  3. 嘴唇同步深度伪造:人物是真实的,但他们的嘴部运动已被改变以匹配不同的音频。检测方法分析音素(语音声音)和视素(嘴形)之间的关系——嘴唇同步深度伪造经常在这个映射中出错,特别是对于“f”、“v”和“th”等声音。
  4. 语音克隆:合成音频生成以模仿特定人物。检测涉及分析频谱图的不自然光滑度、检查缺少呼吸伪影,以及将基频模式与目标说话者的已知录音进行比较。
  5. 文本转视频:Sora和Runway等较新的生成器从文本提示产生完整视频。使用传统换脸方法更难检测这些,因为没有融合边界。检测取决于物理违规——物体穿过彼此、重力不一致或不可能的反射。
深度伪造检测挑战从根本上是不对称的:防守方必须抓住每一个缺陷,而攻击者只需要骗过检测器一次。— Hany Farid,加州大学伯克利分校数字取证研究员

为什么深度伪造检测变得越来越困难

深度伪造创建者和深度伪造检测系统之间的军备竞赛一直不平衡,并且倾向于有利于创建者。有几个结构性原因。首先,生成器的改进速度比检测器快。当像Flux或Stable Diffusion 3这样的新模型推出时,它通常会逃避现有的检测系统数周或数月,直到这些系统被重新训练。检测模型本质上是被动的——它们只能学会识别已经看到的东西。其次,训练数据问题是循环的。检测模型需要合成媒体的例子来学习,但每个新生成器都产生具有不同特性的媒体。仅在GAN生成的面孔上训练的检测器会错过扩散模型输出,反之亦然。建立涵盖所有当前生成器的训练集是一个移动目标。第三,专门为击败检测器而设计的对抗性技术变得越来越容易获得。向AI生成的图像添加不可察觉的噪声可以将其移至检测分类器之外。某些工具现在提供“反检测”功能作为卖点。第四,压缩和社交媒体处理会清除检测器依赖的许多细微信号。当深度伪造图像上传到Instagram或WhatsApp时,平台会重新编码,降低分辨率并改变频率频谱。检测系统可能会捕捉原始的高分辨率伪造,但会错过平台压缩后的相同图像。最后,随着文本转视频模型的成熟,可检测伪影的数量随每一代而下降。早期Sora预览有明显的物理错误,但来自商业视频生成器的更新输出越来越难以与真实镜头区分,无需仔细的逐帧分析。

实用深度伪造检测:你现在可以做什么

虽然没有单一方法可以保证完美的深度伪造检测,但分层方法显著改善了你在造成伤害前捕捉合成媒体的机会。

  1. 首先使用反向图像搜索。Google Lens、TinEye或Yandex Images可以显示可疑照片是否在其他地方使用过,或者是否与已知的AI生成图像匹配。这只需几秒钟,并捕捉到令人惊讶数量的虚假内容。
  2. 检查元数据。右键单击图像并检查其属性或使用EXIF查看器。没有摄像机信息、没有GPS数据且没有编辑历史的照片是可疑的。在可用时寻找C2PA内容凭证——这是目前部署的最可靠的溯源信号。
  3. 通过AI检测工具运行内容。将图像上传到使用在当前生成器输出上训练的分类器模型的AI图像检测器。对于伴随可疑媒体的文本(标题、文章、社交媒体帖子),使用文本检测工具检查文章是否为AI生成。
  4. 手动寻找背景红旗。视频中的人眨眼自然吗?他们的耳环是否匹配?背景标志上的文字可读吗?阴影是否始终落下?这些手动检查捕捉自动化工具有时错过的东西。
  5. 通过独立来源验证。如果您看到公众人物发表令人惊讶声明的视频,请检查声誉良好的新闻媒体是否报道过。如果唯一的来源是单个社交媒体帖子,无论看起来多么令人信服,都要持怀疑态度。
  6. 报告并记录。如果您发现深度伪造,请向您发现它的平台报告。截图内容,记录URL和时间戳,并保留记录。平台对深度伪造报告的反应越来越快,特别是当涉及身份盗窃或选举干扰时。

特定领域的深度伪造检测

不同的行业在识别合成媒体时面临不同的挑战,在一个背景下有效的方法可能不会转移到另一个。在新闻和事实核查中,路透社、法新社和Bellingcat等组织已将深度伪造检测整合到其验证工作流程中。记者在发布任何用户提交的视觉内容前使用元数据分析、反向图像搜索和专门检测工具的组合。美联社现在要求所有内部制作照片的C2PA溯源数据。在招聘和人力资源中,随着视频面试在线进行,深度伪造检测变得相关。已出现候选人在Zoom面试中使用实时面部交换技术的案例,呈现出与实际会来工作的人不同的外观。一些公司现在要求候选人在摄像机前执行特定动作(转动头部、举起手)作为轻量级真实性检查。在执法和法律诉讼中,视觉证据的可接纳性越来越依赖于溯源。多个司法管辖区的法院开始要求数字证据的身份验证,一些法医实验室现在例行在提交的照片和视频上运行合成媒体分析。在教育中,当学生为身份验证提交AI生成的档案照片或为录制演示使用合成声音时,深度伪造检测与学术诚信相交。学校开始采取媒体身份验证步骤,与为书面作业的现有文本AI检测相结合。在金融服务中,深度伪造检测对KYC(了解你的客户)验证至关重要。银行和加密交易所报告了申请人提交AI生成的身份证照片或使用实时面部交换工具通过视频验证检查的案例。此空间中的检测系统分析活体信号——要求用户眨眼、微笑或转动头部——与文件身份验证相结合。

深度伪造检测的未来

深度伪造检测技术沿着多条平行轨迹发展。基于溯源的方法如C2PA正在获得牵引力,因为它们不试图在事后检测伪造——相反,它们证明真实内容是真实的。如果广泛采用,这会转移负担:未署名的内容默认会被视为未验证。硬件级解决方案也在出现。一些智能手机制造商正在探索安全捕捉模式,摄像头在捕捉时用设备特定的密码密钥为每张照片签名,使任何后续操纵都可检测。在AI方面,同时分析图像、音频和文本的多模式检测系统正显示出前景。具有克隆音频和合成字幕的深度伪造视频会跨模式触发不同的信号,交叉检查这些信号可减少误报。虽然在某些实现中过度宣传,基于区块链的媒体登记处可以为内容创建提供防篡改时间戳。如果照片在下午2:00注册在链上,而修改版本在下午3:00出现,时间表本身就成为证据。最现实的短期结果不是捕捉一切的单一检测工具,而是验证生态系统——溯源标准、检测分类器、平台政策和媒体素养的组合——使创建令人信服的深度伪造更加昂贵,并使内容验证更易获得。

NotGPT如何帮助深度伪造检测

NotGPT提供了两个与深度伪造检测直接相关的功能。AI图像检测工具让您上传任何图像并接收概率分数,表明它是否由AI模型生成。它分析图像中的视觉伪影、频率模式和结构不一致。AI文本检测工具通过分析通常伴随深度伪造媒体的文本来补充——社交媒体标题、虚假新闻文章或网络钓鱼信息。由于深度伪造活动经常将合成视觉与AI生成的文本结合起来,检查媒体和伴随的副本给你一个更完整的图片。两个工具都在您的设备上运行,无需将内容上传到外部服务器,这在您验证敏感或隐私媒体时很重要。

使用NotGPT检测AI内容

87%

AI Detected

“The implementation of artificial intelligence in modern educational environments presents numerous compelling advantages that merit careful consideration…”

Humanize
12%

Looks Human

“AI in schools has real upsides worth thinking about — but the trade-offs are just as real and shouldn't be glossed over…”

即时检测AI生成的文本和图像。一键将内容人性化。