Skip to main content
guideai-detectiondeepfakes

Herramientas de detección de deepfakes: cómo funcionan y en cuáles confiar

· 7 min read· Equipo de NotGPT

Las herramientas de detección de deepfakes se han convertido en una necesidad práctica a medida que caras generadas por IA, voces y videos inundan las redes sociales, feeds de noticias y procesos de contratación. Ya sea que necesites verificar una foto viral, revisar una grabación de video sospechosa o comprobar si una foto de perfil en una solicitud de empleo es real, estas herramientas pueden ayudarte — aunque ninguna es infalible. Esta guía cubre cómo funcionan las herramientas de detección de deepfakes en profundidad, las principales categorías disponibles hoy en día y cómo es la precisión real en el mundo.

¿Qué son las herramientas de detección de deepfakes?

Las herramientas de detección de deepfakes son programas de software — aplicaciones de escritorio, extensiones de navegador o APIs — diseñadas para identificar medios que han sido generados sintéticamente o manipulados usando IA. El término «deepfake» originalmente se refería a videos de intercambio de caras creados con aprendizaje profundo (de ahí el nombre), pero la categoría se ha expandido para cubrir imágenes generadas por IA de herramientas como Midjourney o Stable Diffusion, clones de voz producidos por ElevenLabs o servicios similares, y texto sintético haciéndose pasar por escritura humana. Una herramienta de detección de deepfakes típicamente ejecuta la entrada a través de un clasificador entrenado y devuelve una puntuación de probabilidad — algo como «84% probablemente generado por IA» — junto con pistas visuales o textuales sobre qué partes del medio activaron la bandera. El problema que estas herramientas abordan es real: un informe de 2024 de Sumsub encontró que los intentos de fraude deepfake aumentaron 10 veces año tras año, siendo los objetivos más comunes las verificaciones de identidad, entrevistas en video y perfiles de redes sociales.

Cómo funcionan las herramientas de detección de deepfakes

La mayoría de las herramientas de detección de deepfakes se basan en una o más de tres técnicas principales: análisis de artefactos, análisis de dominio de frecuencia e inspección de metadatos. El análisis de artefactos busca las inconsistencias visuales sutiles que los generadores de imágenes de IA aún producen — cosas como texturas de piel desajustadas cerca de las líneas de cabello, dientes que se desdibujan juntos, formas de orejas asimétricas o manos con el número incorrecto de dedos. Estos errores provienen de cómo los modelos de difusión y las GAN (redes generativas adversariales) sintetizan píxeles región por región sin una comprensión global de la anatomía. El análisis de dominio de frecuencia convierte una imagen en sus componentes de frecuencia usando una Transformada Rápida de Fourier. Las fotos reales de cámara tienen un patrón de ruido natural del sensor; las imágenes generadas por IA tienen una firma espectral diferente que se muestra como patrones regulares en las bandas de alta frecuencia — una especie de huella digital que es difícil de ocultar para los generadores. La inspección de metadatos verifica datos EXIF y credenciales de contenido C2PA. Una foto legítima tomada en un iPhone llevará coordenadas GPS, una marca de tiempo y un modelo de cámara. Una imagen generada por IA típicamente no tiene nada de esto, o tiene metadatos que fueron insertados manualmente después. Algunos flujos de trabajo profesionales ahora incrustam provenance criptográfica usando el estándar C2PA (respaldado por Adobe, Microsoft y la BBC) para que cualquier manipulación invalide la firma.

«La mayoría de las herramientas de detección de deepfakes fallan no porque la ciencia subyacente sea incorrecta, sino porque las herramientas fueron entrenadas en los generadores de ayer — no en los de hoy.» — Investigador de MIT Media Lab (2024)

Las principales categorías de herramientas de detección de deepfakes

No todas las herramientas de detección de deepfakes funcionan en el mismo tipo de medio. Entender la categoría te ayuda a elegir la herramienta adecuada para el trabajo. Los detectores de deepfakes de video — herramientas como Sensity AI, Oz Forensics y el retirado Microsoft Video Authenticator — analizan la consistencia temporal en los fotogramas de video. Una cara real filmada en una cámara mantiene iluminación consistente y microexpresiones; un video con intercambio de caras a menudo muestra parpadeos sutiles en el límite entre la cara sintética y el cuello o cabello real. Los detectores de imágenes de IA se enfocan en imágenes fijas y son más ampliamente accesibles. Estos incluyen herramientas basadas en navegador como Hive Moderation, AI or Not y la función de Detección de Imágenes de IA de NotGPT, que verifica si una foto cargada fue generada por un modelo como DALL-E, Midjourney o Stable Diffusion. Los detectores de deepfakes de voz — empresas como Pindrop, Resemble AI y el endpoint de detección propio de ElevenLabs — analizan la prosodia, patrones de respiración y artefactos de frecuencia en audio para identificar discurso sintético. Las herramientas de metadatos y provenance no analizan el contenido en absoluto; verifican la cadena de custodia. La Iniciativa de Autenticidad de Contenido de Adobe y el estándar C2PA permiten a los editores adjuntar firmas criptográficas a fotos originales para que las herramientas de detección de deepfakes más adelante en la cadena puedan confirmar si la imagen fue alterada.

  1. Para una foto sospechosa: usa un detector de imágenes de IA que analice artefactos de GAN/difusión
  2. Para un videoclip: usa una herramienta de consistencia de fotogramas temporal como Sensity u Oz Forensics
  3. Para una grabación de voz: intenta un detector de vivacidad de voz como Pindrop o Resemble Detect
  4. Para flujos de trabajo de medios profesionales: busca credenciales de contenido C2PA incrustadas por el editor
  5. Cuando no existe provenance: haz referencias cruzadas con búsqueda inversa de imágenes (Google Images, TinEye) antes de confiar únicamente en una puntuación de IA

Herramientas de detección de deepfakes para casos de uso específicos

Las diferentes profesiones se encuentran con deepfakes en contextos muy diferentes. Los periodistas que verifican una imagen viral antes de publicar necesitan una herramienta rápida y gratuita del navegador que no requiera cargar material sensible en un servidor de terceros. Los equipos de RR.HH. que revisan entrevistas en video necesitan algo que señale fotos de perfil generadas por IA en currículos o voces sintéticas en plataformas de entrevistas asincrónicas. Los profesionales legales que autentican evidencia necesitan herramientas con una salida auditable — un informe que puedan adjuntar a una presentación, no solo una puntuación de probabilidad en un sitio web. Para periodistas y verificadores de hechos, una combinación de búsqueda inversa de imágenes y un detector de imágenes de IA cubre la mayoría de casos. Si la imagen devuelve cero resultados en Búsqueda Inversa de Imágenes de Google pero se suponía que fue tomada en un evento real, esa es una bandera roja que vale la pena investigar más con una herramienta de detección de deepfakes a nivel de píxeles. Para equipos de RR.HH., la verificación más práctica es pedir a los candidatos que sostengan una nota escrita a mano durante una llamada de video en vivo — algo con lo que las herramientas de video de IA aún luchan en tiempo real. Complementar eso con un detector de imágenes de IA en fotos de perfil enviadas atrapa la mayoría de fotos de perfil falsas. Para moderación de contenido a escala, el único camino viable es una herramienta de detección de deepfakes basada en API integrada en la canalización de carga, no revisión manual.

  1. Periodismo: ejecuta la imagen a través de búsqueda inversa de imágenes primero, luego un detector de imágenes de IA
  2. Screening de RR.HH.: requiere confirmación de video en vivo; escanea fotos de perfil enviadas con un detector de imágenes
  3. Evidencia legal: usa herramientas que produzcan un informe documentado con intervalos de confianza
  4. Plataformas sociales: integra un detector basado en API en la canalización de carga de medios
  5. Uso personal: las herramientas gratuitas del navegador (AI or Not, NotGPT) son suficientes para verificaciones únicas

Qué las herramientas de detección de deepfakes no pueden detectar

La cobertura honesta de herramientas de detección de deepfakes tiene que incluir sus modos de falla, porque la confianza excesiva en estos sistemas crea sus propios problemas. La limitación más significativa es la dinámica de la carrera armamentista: los generadores y detectores se entrenan competitivamente, y los generadores están ganando actualmente. Una herramienta de detección de deepfakes entrenada en salidas de Midjourney 2023 perderá muchas salidas de Midjourney v7 2025, porque el modelo más nuevo produce imágenes significativamente más realistas con menos de los artefactos en los que el detector fue entrenado para detectar. La compresión JPEG pesada, los filtros de Instagram y las re-cargas de capturas de pantalla todos degradan la señal en la que los detectores se basan. Una imagen real generada por IA que ha sido capturada y recargada cinco veces puede leerse como «probablemente humana» para una herramienta de detección de deepfakes simplemente porque la compresión ha borrado los artefactos de frecuencia. Los falsos positivos siguen siendo un problema serio, especialmente para caras no occidentales y fotografía profesional. Múltiples estudios han documentado que los modelos de detección entrenados predominantemente en caras occidentales funcionan peor en otros grupos demográficos — marcando fotos auténticas como sintéticas a mayores tasas. Este es el mismo problema de sesgo cubierto en discusiones sobre detectores de IA que marcan escritura humana legítima. El modelo mental correcto es tratar estas herramientas como un filtro de primer triage, no un veredicto. Una puntuación de IA alta justifica una investigación más profunda; no prueba fabricación.

«Ninguna herramienta de detección de deepfakes debe usarse como la única base para una acusación. Trata una puntuación alta de la misma manera en que tratarías una coincidencia de huellas dactilares: vale la pena investigar, no vale la pena condenar.»

Cómo elegir y usar herramientas de detección de deepfakes de manera efectiva

Dada la variedad de herramientas de detección de deepfakes en el mercado, aquí están los criterios que realmente importan al elegir una. La precisión en generadores actuales importa más que las puntuaciones de referencia en conjuntos de pruebas antiguos. Busca herramientas que publiquen la antigüedad de sus datos de entrenamiento y se actualicen regularmente. La transparencia sobre intervalos de confianza es importante — una herramienta que te da «98% de IA» sin explicación de su metodología es más difícil de confiar que una que te muestra qué regiones activaron la bandera. Para imágenes generadas por IA específicamente, la Detección de Imágenes de IA de NotGPT ejecuta tu carga a través de un modelo entrenado para reconocer salidas de generadores actuales incluyendo Midjourney, DALL-E 3 y Stable Diffusion, e destaca las regiones de imagen que más contribuyeron a la puntuación. Para flujos de trabajo mixtos donde también necesitas verificar texto — como verificar si un artículo o currículum enviado fue escrito por IA — combinar un detector de imágenes con un detector de texto te da mejor cobertura que uno solo. El mejor enfoque para usar cualquier herramienta de detección de deepfakes es tratarla como un punto de datos en un proceso de verificación más amplio: verifica el provenance, haz referencias cruzadas de fuentes, busca inconsistencias contextuales y usa la puntuación de la herramienta para priorizar qué elementos merecen una revisión humana más cercana.

  1. Carga la imagen o pega el texto en un detector que muestre qué regiones activaron la bandera
  2. Verifica los metadatos EXIF usando una herramienta gratuita como Jeffrey's Exif Viewer
  3. Ejecuta una búsqueda inversa de imágenes para ver si la imagen ha aparecido en otros lugares en un contexto diferente
  4. Si la puntuación es ambigua (40–70% de IA), busca banderas rojas contextuales en lugar de confiar únicamente en el número
  5. Para decisiones de alto riesgo, obtén una segunda opinión de una herramienta de detección de deepfakes diferente
  6. Documenta tu proceso de verificación — captura una pantalla de la puntuación e marca la hora

Detecta Contenido de IA con NotGPT

87%

AI Detected

“The implementation of artificial intelligence in modern educational environments presents numerous compelling advantages that merit careful consideration…”

Humanize
12%

Looks Human

“AI in schools has real upsides worth thinking about — but the trade-offs are just as real and shouldn't be glossed over…”

Detecta al instante texto e imágenes generados por IA. Humaniza tu contenido con un toque.

Artículos Relacionados

Capacidades de Detección

🔍

AI Text Detection

Paste any text and receive an AI-likeness probability score with highlighted sections.

🖼️

AI Image Detection

Upload an image to detect if it was generated by AI tools like DALL-E or Midjourney.

✍️

Humanize

Rewrite AI-generated text to sound natural. Choose Light, Medium, or Strong intensity.

Casos de Uso