Skip to main content
guidehow-to

如何欺骗AI检测器:真正有效的方法

· 7 分钟阅读· NotGPT Team

寻求如何欺骗AI检测器的人通常分为两类:一类是使用AI来起草内容,希望提交真正反映自己想法的作品;另一类是他们的人类书写文本不断被标记,尽管完全是他们自己的作品。这两种情况都比大多数指南承认的更常见,对每种情况的实际建议有很大重叠。本文涵盖了什么真正导致检测标记、哪些改写技术能够持续有效、尽管被广泛推荐但不起作用的技术,以及如何在提交前验证结果。

AI检测器真正在寻找什么

在尝试欺骗AI检测器之前,你需要理解它们测量的是什么——否则你只是在猜测。大多数检测工具分析文本的两个核心统计属性。第一个是困惑度:给定周围的语境,每个词选择有多少是可预测的。AI模型通过持续选择高概率词来生成文本,这会产生流畅但统计上可预测的输出。人类写手做出更多特异的选择——一个对语境来说略显不寻常的短语,一个有效但不是最明显选择的词。第二个是突发性:在整个段落中,句子长度和结构复杂性的差异有多大。人类的写作自然地在长句子、分层句子和短句子、简洁句子之间交替。AI生成的文本往往聚集在一致的句子长度附近,因为该模型优化的是流畅的连贯性而不是节奏变化。除了这两个信号外,一些检测器还查看词汇分布、被动语态频率和段落级结构。知道这一点可以告诉你应该准确地集中修改的位置。

如何通过句子级改写来欺骗AI检测器

句子结构是尝试欺骗AI检测器时杠杆最大的地方。AI模型以特有的流畅性生成文本——每个句子都干净地过渡到下一个,长度聚集在舒适的范围内,节奏从不震荡。人类的文章不是这样的。目标是引入人类写作自然具有的受控混乱。这并不意味着让你的写作变得更糟;它意味着让它不那么像机器。逐段处理你的草稿,有意地应用这些变化,直到节奏开始感觉真正不平衡。

  1. 激进地改变句子长度:将一个3个词的句子放在30个词的句子之后
  2. 分解使用'然而'、'因此'或'此外'的复杂句子——改为开始一个新句子
  3. 添加括号中的旁注(如这个)或em破折号中断——这是模型在未被要求时很少做的事情
  4. 偶尔以'和'、'但是'或'因为'开始句子——语法正确,对于AI输出来说统计上是出乎意料的
  5. 在文本没有收缩时听起来僵硬的地方使用收缩
  6. 有时将主要观点移到段落中间,而不是总是以主题句开头
  7. 删除'值得注意的是'或'这表明'之类的过渡填充短语——直接说出来

添加真实的声音:改写工具无法伪造的部分

句子级的更改有助于统计信号,但AI生成的文本被标记的更深层原因是它缺乏人类经验的特定、真实的质量。AI模型进行概括。它们产生正确、合理的陈述——但这些陈述往往缺少来自真正了解某个主题、对其有真实观点或为特定读者写作的人的特殊细节。这是改写工具和同义词替换器无法触及的部分。添加真实声音意味着以模型无法预料的方式将自己插入文本中。这也在某种程度上是最可能在人类读者的检测中存活的方法,即使自动化分数仍处于边界。

  1. 添加来自你自己经历的具体例子——不是一般的说明,而是一个真正命名的实例
  2. 包括一个谨慎的观点:'在我对此的阅读中'、'基于我看到这是如何发生的'、'也就是说'
  3. 引用读者可能分享或从你所写的相同语境中认识到的东西
  4. 指出你所做论点中的紧张或例外——AI文本很少承认真正的权衡
  5. 使用你真实的受众会认识到的特定领域的术语或术语,而不是从零开始解释概念
  6. 用你对特定人解释的方式写,而不是用你对不确定精密度的一般受众解释的方式
始终通过检测的写作——更重要的是,读起来像真正的人类——是写作,其中某人的真实观点在每个段落中都是可见的,而不是在最后添加的。

尝试欺骗AI检测器时不起作用的方法

许多方法作为欺骗AI检测器的方式广泛流传,但在实践中效果不佳。值得知道哪些方法应该跳过,这样就不会浪费时间。简单的同义词替换——使用词库或改写工具用不太常见的替代词交换词——改变表面词汇,而不触及基础句子结构或检测器实际测量的统计属性。分数通常只会略微下降,文本通常读起来更差。添加填充句子或填充以稀释AI生成的比例很少有效:检测器分析整个文本的分布,添加更多低质量内容会不可预测地改变分数。插入类似Unicode的字符来混淆分词器是一个技术技巧,当检测器被特别更新以捕捉它时会迅速崩溃。连续通过多个AI工具传递文本——使用一个模型改写另一个模型的输出——通常会产生分数甚至更高的文本,因为你在复合统计签名而不是中断它。真正持续降低检测分数的方法涉及真正的修订:改变结构、添加具体内容、用真实声音写作。没有可靠的捷径。

如何在特定问题部分上欺骗AI检测器

知道如何欺骗AI检测器只是部分地关于整体分数——更有用的技能是准确识别哪些部分推动该分数。与其从零开始改写整个文档,找到这些部分并将修改集中在那里通常更有效。大多数显示句子级或段落级细分的检测器都使这变得简单——你可以准确看到AI可能性集中在哪里。持续获得高分的部分具有可识别的特征:它们使用正式的连接短语,保持稳定的句子节奏,呈现没有个人框架的信息,并缺少来自经验的特定说明性细节。这些通常也是生成时需要最少创意思考的部分——背景解释、方法论描述、文献综述——这就是为什么它们通常停留在最接近原始AI输出的地方。这些部分的修订策略与整个文档相同,只是应用得更强烈:中断句子节奏,添加你从自己研究中知道的具体例子或数据点,引入真正的限定或保留,并删除模型为了听起来井井有条而插入的过渡开口。

  1. 通过显示段落级细分而非仅整体分数的检测器运行草稿
  2. 按分数对部分进行排序——在接触分数低于50%的部分之前首先修订分数最高的部分
  3. 在每个高分部分中,识别三个最长或结构最统一的句子并将其分解
  4. 添加至少一个你从实际研究中知道的具体事实、名称或参考到每个标记的部分
  5. 删除每个过渡开口('此外,'、'另外,'、'值得注意的是,'),并切割句子或重新构造
  6. 在每次部分修订后重新运行检测器,以验证分数在继续之前已移动

检查你的工作:在提交前验证

修改后,你需要验证更改是否真的在提交前改变了分数。运行你担心的同一检测器是显而易见的选择,但在两个或三个工具之间进行比较更具有信息性——使用不同方法的多个检测器的一致结果比单一分数有更多的权重。NotGPT的AI文本检测在整体百分比旁边显示句子级概率分数,因此你可以准确看到修改后仍在标记哪些段落,而不仅仅是看到整体分数从82%下降到74%。Humanize功能提供了一个结构化的替代方案:粘贴标记的段落,并根据文本需要改变多少来选择Light、Medium或Strong改写强度。Light保留大部分原始措辞,同时调整节奏;Strong更实质性地改写段落,同时保持含义完整。对于任何风险很高的提交,在检查分数之前大声读你的最终草稿——大声朗读会抓住你的检测分数不总是显示的僵硬和套路短语,这是识别仍然听起来像模型写的句子的最快方法。

真正的限制:当击败分数不是正确目标时

在某些情况下,知道如何欺骗AI检测器是完全错误的框架。如果基础文本很薄——缺乏论证、具体证据或分析深度——修改以避免检测会产生通过自动工具但对任何人类审查者来说仍然显得薄弱的文本。指派论文的教授通常有足够的经验来识别结构流畅但智力空洞的写作。较低的检测分数如果工作没有展示作业旨在评估的思考,则无法帮助。对AI检测关切的最持久方法是值得阅读的写作:具体的、有意见的、植根于真实研究或经验的、为真实读者而不是一般受众写的。这样的写作通常在没有太多干预的情况下通过检测,正是因为它具有检测器与人类作品相关联的所有统计属性——不是因为有人将这些属性设计进去,而是因为对主题的真正参与自然产生了它们。

较低的检测分数如果工作没有展示作业旨在评估的思考,则无法帮助。通过读者,而不仅仅是工具。

使用NotGPT检测AI内容

87%

AI Detected

“The implementation of artificial intelligence in modern educational environments presents numerous compelling advantages that merit careful consideration…”

Humanize
12%

Looks Human

“AI in schools has real upsides worth thinking about — but the trade-offs are just as real and shouldn't be glossed over…”

即时检测AI生成的文本和图像。一键将内容人性化。