Skip to main content
ai-detectionguidefalse-positivesaccuracy

人工智能检测器是骗局吗?证据实际上显示了什么

· 8 min read· NotGPT Team

人工智能检测器是骗局的说法在网上迅速传播,主要来自收到他们自己写的作品的高人工智能概率分数的学生和作家。这种挫折是基于真实的证据:当前的人工智能检测工具具有记录在案的假阳性率、跨平台的不一致结果以及没有可靠的方法来区分碰巧与LLM输出相似的人类写作。同时,将所有人工智能检测器称为骗局会夸大情况。这些工具是具有真实限制的统计估计器——理解这些限制比完全拒绝它们更有用。

为什么这么多人说人工智能检测器是骗局

人工智能检测器是骗局的指控通常源于一个具体的、可重复的经验:学生提交原创作品,检测器返回高人工智能概率分数,尽管学生本人写了每个字,但学生面临学术后果。这种情况已被充分记录,不是边缘体验——这是在充分理解其局限之前部署的工具的可预测故障模式。推动骗局标签的一部分是人工智能检测工具如何表现自己与他们实际做什么之间的差距。许多工具以信心语言显示结果——"检测到人工智能"、"94% 人工智能生成"——这暗示的确定性远超基础方法所能支持的。一个将概率估计显示为已验证事实的工具在设计上是欺骗性的,无论背后的公司是否打算产生这种效果。第二个驱动因素是不一致性。相同的文本在不同平台上通常会获得非常不同的分数。一个工具标记为87% AI的段落在另一个上会获得22%。这种可变性表明这些工具没有测量文本的客观属性——它们应用不同的经过培训的模型,具有不同的阈值以产生不同的输出。这种不一致是一个真正的问题,将其作为较小的技术细节抛弃会失去其对任何工作被评估的人的实际意义。

  1. 标记为AI的原始人类写作——最常见的"骗局"指控来源
  2. 结果中的信心语言('94% AI生成')暗示该方法无法提供的确定性
  3. 相同的文本在一个平台上获得87% AI,在另一个平台上获得22%,揭示了根本性的不一致
  4. 与不可靠分数相关的高风险学术后果造成了有意造成的有害误导的认知
  5. 没有可审计的作者身份证明——检测器报告概率,而不是证明谁写了文本

人工智能检测器如何工作——以及该方法在哪里失败

人工智能检测器是经过训练的分类器。模型在两个语料库上进行训练——人类编写的文本的大型集合和LLM生成的文本的大型集合——并学会根据统计模式区分它们。最常用的两个信号是困惑度(给定前面的上下文,每个单词选择的可预测程度)和突发性(句子长度和复杂性是否以与人类写作相关的方式变化)。由AI生成的文本倾向于低困惑度和低突发性:它产生光滑的、可预测的单词序列,在句子中具有一致的复杂性。问题是这种描述也适用于大量的人类写作。以正式寄存器书写的学术论文、技术文档、结构化法律散文以及在重大约束下进行的任何写作都倾向于相同的统计配置文件。检测器无法知道为什么文本看起来像样子——它是由语言模型生成的,还是由已将受控的、结构化的风格内在化的谨慎的人类作者生成的。进一步的技术复杂性是训练数据重叠。LLM本身在大量人类文本上进行训练,这意味着LLM输出经常占据与人类写作相同的统计领土。两个分布之间的边界不是干净的线——它是一个宽广的重叠区域,其中两个文本类都出现。落入该区域的任何文本都是真正模棱两可的,而检测器将高置信度分数分配给模棱两可的文本则夸大了证据可以真正支持的内容。

"人工智能检测器测量与LLM输出相关的统计模式——它们不验证谁写了文本。高分数意味着'这看起来可能是人工智能'——不是'这是由人工智能写的。'" ——人工智能检测研究员,2024

假阳性问题:谁被错误地标记

研究和独立测试持续确定人工智能检测器以较高速率标记的人类写作类别。非英语使用者是最常引用的群体。用第二或第三语言写作通常会产生更简单的句子结构、更可预测的词汇和更少的句法变化——与检测器训练数据中的AI生成文本相关的特征。2023年至2025年间进行的研究发现,非英语使用者在几个流行的免费检测器上的假阳性率为15–25%,而英语使用者的假阳性率为5–10%。正式学术散文——特别是在教授和预期受控的、论证性风格的学科中——是第二大风险类别。学生被训练以产生清晰的论文陈述、组织的证据支持和简明的过渡,由于这种培训,他们正在生成检测器与AI生成相关的文本。技术性和受限的写作也评分较低:法律文件、赠款申请、标准化测试答案和结构化创意写作(如正式诗歌)都产生检测模型标记的规律性类型。假阳性的规模对欺诈问题很重要。如果工具对可预测的、可识别的用户子集以重要速率产生不正确的结果——这些结果具有真实后果——将该工具描述为不可靠是准确的。这是否升至'骗局'取决于工具运营商是否对这些限制透明,以及部署工具的人是否理解他们实际测量的内容。

  1. 非英语使用者:在多个免费检测器上记录的假阳性率为15–25%
  2. 人文和社会科学中的正式学术散文——受控论证在统计上类似于LLM输出
  3. 技术文档、法律写作和受限格式以检测器处罚的方式限制词汇变化
  4. 具有一致韵律和句法的结构化诗歌和正式创意写作对人工智能概率的评分更高
  5. 150–200字以下的短文本在所有当前检测工具上产生不可靠的分数

人工智能检测器完全无用吗?校准使用的案例

将所有人工智能检测器描述为骗局表明它们根本不提供任何有用的信息,这是不准确的。对于明确由AI生成的文本——直接发送到ChatGPT的提示,无需任何编辑——大多数当前检测器在独立测试中以80–90%的速率正确识别内容。这不是什么。问题不在于检测器总是失败;问题在于它们选择性地和不可预测地失败,而它们最经常失败的情况是涉及真实人类作者的情况。使用人工智能检测工具的适当方式是作为促使进一步调查的低风险信号——而不是作为独立的判决。注意到异常高分并将其用作与学生交谈的理由的教育工作者正在适当地使用该工具。在没有额外证据的情况下将分数阈值应用为不当行为制裁的自动理由的机构以该工具本身无法防止的方式滥用该工具。声称人工智能检测器是骗局的论点也经常指出财务角度。多个人工智能检测工具在订阅模型上运营,将自己作为可靠的诚信解决方案营销给机构。当产品以比其更准确的价格出售,并做出购买决定时——包括对学生产生后果的执行决定——营销和性能之间的差距是'骗局'不是一个不合理的缩写的合理关切,尽管在技术上不准确。

人工智能检测器无法告诉你什么

理解人工智能检测工具绝对无法确定的内容对评估其有效性的任何人都很有用。首先,任何当前检测工具都无法识别哪个特定的AI模型生成了文本。显示"AI生成"的分数不会告诉您文本是来自ChatGPT、Claude、Gemini还是其他任何LLM。其次,检测器无法评估人工智能参与的程度。使用AI生成粗略大纲然后自己写出每个句子的学生通常会产生与提交未编辑AI输出的学生无法区分的分数——因为检测器只看到最终文本,而不是该过程。第三,检测器无法考虑上下文。由职业记者在压力下写的相同文本将获得与由学生为课堂任务提交的相同文本相同的分数。该工具不了解写作情况、作者的背景或生成文本的条件。这些限制意味着人工智能检测器结果,即使是准确的,也提供的信息少于看起来的。显示90% AI概率的结果告诉您特定文本在统计上与LLM输出相似。它不会告诉你为什么、如何或是否重要——这一切都需要工具无法提供的人工判断。

"诚实的答案是人工智能检测器在一些狭隘的背景下是有用的过滤器,在其他背景下是一个有害的工具。以深思熟虑或疏忽的方式部署的相同技术会产生完全不同的现实世界结果。"

当人工智能检测处于危险中时如何保护自己

对于任何工作可能被人工智能检测器扫描的人——学生、自由职业者、内容作家、工作申请者——最实用的回应是在赌注很高之前理解工具的行为。在提交前运行自己的文本进行检测会给你两件事:要记录的基线分数和关于你的写作触发的具体段落的具体信息。如果一个部分在多个工具上的分数始终很高,修改它——添加具体示例、改变句子结构、引入不太可预测的措辞——通常既可以降低人工智能分数,又可以改进写作。交叉引用多个工具对任何重要的事情都是必需的。如果您的文本在一个平台上获得80% AI,在另一个平台上获得35%,该分歧表明您的写作落在模棱两可的统计区域中,而不是明确的AI领土。在任何争议之前记录该比较。如果您在学术或专业背景下对假阳性提出异议,最有效的证据不是关于检测错误率的技术论证——而是您的写作过程的文档。带有时间戳的草稿历史、研究笔记、大纲和来源注释都展示了检测器无法评估的对材料的参与。NotGPT的文本检测提供句子级突出显示,显示正好哪些段落对高分数做出了贡献,使其成为作家的实用自我检查工具,他们希望在提交任何使用人工智能筛选的地方之前理解他们的工作如何被检测算法读取。

  1. 在提交前通过至少两个不同的人工智能检测器运行文本并比较分数
  2. 工具之间的显著差异表明您的写作落在模棱两可的区域——记录这一点
  3. 查看句子级突出显示以识别哪些具体段落触发了高分数
  4. 通过改变句子长度并添加特定的具体示例来修改标记的段落
  5. 保留写作过程证据:带有时间戳的草稿、大纲、研究笔记、来源注释
  6. 在正式争议中,从流程文档开始——而不是关于检测器准确性的论点

使用NotGPT检测AI内容

87%

AI Detected

“The implementation of artificial intelligence in modern educational environments presents numerous compelling advantages that merit careful consideration…”

Humanize
12%

Looks Human

“AI in schools has real upsides worth thinking about — but the trade-offs are just as real and shouldn't be glossed over…”

即时检测AI生成的文本和图像。一键将内容人性化。