Skip to main content
guideai-detectiondeepfakes

Deepfake-Erkennungstools: Wie sie funktionieren und welche vertrauenswürdig sind

· 7 min read· NotGPT Team

Deepfake-Erkennungstools sind zu einer praktischen Notwendigkeit geworden, da KI-generierte Gesichter, Stimmen und Videos die sozialen Medien, Nachrichtenfeeds und Einstellungsprozesse überfluten. Ob Sie ein virales Foto überprüfen, eine verdächtige Videoaufzeichnung überprüfen oder feststellen müssen, ob ein Bewerbungsfoto echt ist, diese Tools können helfen – obwohl keine davon narrensicher ist. Dieser Leitfaden behandelt, wie Deepfake-Erkennungstools intern funktionieren, welche Hauptkategorien heute verfügbar sind und wie ihre tatsächliche Genauigkeit in der Praxis aussieht.

Was sind Deepfake-Erkennungstools?

Deepfake-Erkennungstools sind Softwareprogramme – Desktop-Apps, Browser-Erweiterungen oder APIs –, die entwickelt wurden, um Medien zu identifizieren, die mit KI synthetisch generiert oder manipuliert wurden. Der Begriff „Deepfake" bezog sich ursprünglich auf Face-Swap-Videos, die mit Deep Learning erstellt wurden (daher der Name), aber die Kategorie hat sich erweitert und umfasst nun KI-generierte Bilder von Tools wie Midjourney oder Stable Diffusion, Stimmklone, die von ElevenLabs oder ähnlichen Diensten hergestellt werden, und synthetischer Text, der sich als menschliches Schreiben ausgibt. Ein Deepfake-Erkennungstool führt die Eingabe typischerweise durch einen trainierten Klassifizierer und gibt einen Wahrscheinlichkeitswert zurück – etwa „84% wahrscheinlich KI-generiert" – zusammen mit visuellen oder textlichen Hinweisen darauf, welche Teile des Mediums das Flag ausgelöst haben. Das Problem, das diese Tools lösen, ist real: Ein Bericht von Sumsub aus dem Jahr 2024 ergab, dass Deepfake-Betrugversuche um das 10-fache Jahr für Jahr gestiegen sind, wobei die häufigsten Ziele Identitätsüberprüfungen, Videounterviews und Social-Media-Profile waren.

Wie Deepfake-Erkennungstools funktionieren

Die meisten Deepfake-Erkennungstools basieren auf einer oder mehreren von drei Kerntechniken: Artefaktanalyse, Frequenzbereichsanalyse und Metadatenprüfung. Die Artefaktanalyse sucht nach subtilen visuellen Inkonsistenzen, die KI-Bildgeneratoren immer noch produzieren – wie z. B. nicht übereinstimmende Hauttexturen in der Nähe von Haarlinien, Zähne, die verschwimmen, asymmetrische Ohrformen oder Hände mit der falschen Anzahl von Fingern. Diese Fehler entstehen durch die Art und Weise, wie Diffusionsmodelle und GANs (generative adversarial networks) Pixel Region für Region synthetisieren, ohne ein globales anatomisches Verständnis zu haben. Die Frequenzbereichsanalyse konvertiert ein Bild mithilfe einer Fast-Fourier-Transformation in seine Frequenzkomponenten. Echte Kameraphotos haben ein natürliches Rauschenmuster vom Sensor; KI-generierte Bilder haben eine andere spektrale Signatur, die sich in den hochfrequenten Bändern als regelmäßige Muster zeigt – eine Art digitaler Fingerabdruck, der für Generatoren schwer zu verstecken ist. Die Metadatenprüfung überprüft EXIF-Daten und C2PA-Inhaltsanmeldedaten. Ein echtes Foto, das auf einem iPhone aufgenommen wurde, enthält GPS-Koordinaten, einen Zeitstempel und ein Kameramodell. Ein KI-generiertes Bild hat normalerweise keine davon oder hat Metadaten, die später manuell eingefügt wurden. Einige professionelle Arbeitsabläufe betten jetzt kryptografische Herkunftsinformationen unter Verwendung des C2PA-Standards (unterstützt von Adobe, Microsoft und der BBC) ein, sodass jede Manipulation die Signatur ungültig macht.

"Die meisten Deepfake-Erkennungstools schlagen nicht fehl, weil die zugrunde liegende Wissenschaft falsch ist, sondern weil die Tools mit den Generatoren von gestern trainiert wurden – nicht mit den heutigen." — MIT Media Lab Forscher (2024)

Die Hauptkategorien von Deepfake-Erkennungstools

Nicht alle Deepfake-Erkennungstools funktionieren bei denselben Medientypen. Das Verständnis der Kategorie hilft Ihnen, das richtige Tool für die Aufgabe auszuwählen. Video-Deepfake-Detektoren – Tools wie Sensity AI, Oz Forensics und der eingestellte Microsoft Video Authenticator – analysieren die zeitliche Konsistenz über Videoframes. Ein echtes Gesicht, das von einer Kamera gefilmt wurde, behält konsistente Beleuchtung und Mikromimiken bei; ein Face-Swap-Video zeigt oft subtiles Flimmern an der Grenze zwischen dem synthetischen Gesicht und echtem Nacken oder Haar. KI-Bilddetektoren konzentrieren sich auf Einzelbilder und sind leichter zugänglich. Dazu gehören browserbasierte Tools wie Hive Moderation, AI or Not und NotGPT's AI Image Detection Feature, das überprüft, ob ein hochgeladenes Foto von einem Modell wie DALL-E, Midjourney oder Stable Diffusion generiert wurde. Voice-Deepfake-Detektoren – Unternehmen wie Pindrop, Resemble AI und ElevenLabs' eigener Erkennungs-Endpunkt – analysieren Prosodie, Atemmuster und Frequenzartefakte in Audio, um synthetische Sprache zu identifizieren. Metadaten- und Herkunftstools analysieren den Inhalt überhaupt nicht; sie überprüfen die Beweiskette. Die Content Authenticity Initiative von Adobe und der C2PA-Standard ermöglichen es Verlegern, Original-Fotos mit kryptografischen Signaturen zu versehen, sodass Deepfake-Erkennungstools weiter unten in der Kette überprüfen können, ob das Bild verändert wurde.

  1. Für ein verdächtiges Foto: Verwenden Sie einen KI-Bilddetektor, der GAN-/Diffusionsartefakte analysiert
  2. Für einen Videoclip: Verwenden Sie ein Tool zur zeitlichen Frame-Konsistenz wie Sensity oder Oz Forensics
  3. Für eine Audioaufzeichnung: Versuchen Sie einen Voice-Liveness-Detektor wie Pindrop oder Resemble Detect
  4. Für professionelle Media-Arbeitsabläufe: Suchen Sie nach C2PA-Inhaltsanmeldedaten, die vom Verleger eingebettet sind
  5. Wenn keine Herkunftsinformationen vorhanden sind: Kreuzen Sie mit der Rückwärts-Bildsuche ab (Google Bilder, TinEye), bevor Sie sich allein auf einen KI-Score verlassen

Deepfake-Erkennungstools für spezifische Anwendungsfälle

Verschiedene Fachleute stoßen in sehr unterschiedlichen Kontexten auf Deepfakes. Journalisten, die ein virales Bild überprüfen, bevor sie es veröffentlichen, benötigen ein schnelles, kostenloses Browser-Tool, das nicht das Hochladen von sensiblem Material auf einen Server eines Drittanbieters erfordert. HR-Teams, die Videounterviews überprüfen, benötigen etwas, das KI-generierte Kopffotos auf Lebensläufen oder synthetische Stimmen auf asynchronen Interviewplattformen kennzeichnet. Juraprofis, die Beweise authentifizieren, benötigen Tools mit nachverfolgbarer Ausgabe – einen Bericht, den sie einer Einreichung beifügen können, nicht nur einen Wahrscheinlichkeitswert auf einer Website. Für Journalisten und Faktenchecker deckt eine Kombination aus Rückwärts-Bildsuche und einem KI-Bilddetektor die meisten Fälle ab. Wenn das Bild bei Google Reverse Image Search Null Ergebnisse liefert, aber angeblich bei einem realen Event aufgenommen wurde, ist das ein rotes Flag, das es wert ist, mit einem Pixel-Level-Deepfake-Erkennungstool weiter untersucht zu werden. Für HR-Teams ist die praktischste Überprüfung, die Kandidaten zu bitten, einen handgeschriebenen Zettel während eines Live-Videoanrufs hochzuhalten – etwas, das KI-Videotools in Echtzeit immer noch schwer tun. Dies mit einem KI-Bilddetektor bei eingereichten Kopffotos zu ergänzen, erwischt die Mehrheit der gefälschten Profilfotos. Für die Content-Moderation in großem Maßstab ist der einzige praktikable Weg ein API-basiertes Deepfake-Erkennungstool, das in die Upload-Pipeline integriert ist, keine manuelle Überprüfung.

  1. Journalismus: Führen Sie das Bild zuerst durch die Rückwärts-Bildsuche aus, dann durch einen KI-Bilddetektor
  2. HR-Screening: Verlangen Sie Live-Videobestätigung; scannen Sie eingereichte Kopffotos mit einem Bilddetektor
  3. Juristische Beweise: Verwenden Sie Tools, die einen dokumentierten Bericht mit Konfidenzintervallen erstellen
  4. Soziale Plattformen: Integrieren Sie einen API-basierten Detektor in die Media-Upload-Pipeline
  5. Persönliche Nutzung: Kostenlose Browser-Tools (AI or Not, NotGPT) sind ausreichend für einmalige Überprüfungen

Was Deepfake-Erkennungstools nicht erkennen können

Eine ehrliche Abdeckung von Deepfake-Erkennungstools muss ihre Fehlermodi einbeziehen, da Überconfidence in diesen Systemen seine eigenen Probleme erzeugt. Die bedeutendste Einschränkung ist die Wettrüstungsdynamik: Generatoren und Detektoren werden kompetitiv trainiert, und die Generatoren gewinnen derzeit. Ein Deepfake-Erkennungstool, das auf 2023 Midjourney-Ausgaben trainiert wurde, wird viele 2025 Midjourney v7-Ausgaben übersehen, da das neuere Modell deutlich realistischere Bilder mit weniger Artefakten produziert, auf die der Detektor trainiert wurde. Starke JPEG-Komprimierung, Instagram-Filter und Screenshot-Wiederuploads beeinträchtigen alle das Signal, auf das sich Detektoren verlassen. Ein echtes KI-generiertes Bild, das fünfmal als Screenshot hochgeladen und erneut hochgeladen wurde, kann zu einem Deepfake-Erkennungstool als „wahrscheinlich menschlich" führen, einfach weil die Komprimierung die Frequenzartefakte ausgewaschen hat. Falsch-Positive bleiben ein ernstes Problem, besonders für nicht-westliche Gesichter und professionelle Fotografie. Mehrere Studien haben dokumentiert, dass Erkennungsmodelle, die überwiegend auf westlichen Gesichtern trainiert wurden, bei anderen demografischen Gruppen schlechter funktionieren – echte Fotos werden bei höheren Raten als synthetisch gekennzeichnet. Dies ist dasselbe Bias-Problem, das in Diskussionen über KI-Texte-Detektoren, die legitimes menschliches Schreiben kennzeichnen behandelt wird. Das richtige mentale Modell ist, diese Tools als einen ersten Sortierfilter zu behandeln, nicht als Urteil. Ein hoher KI-Score rechtfertigt weitere Untersuchungen; es beweist keine Verfälschung.

"Kein Deepfake-Erkennungstool sollte alleinige Grundlage für einen Vorwurf sein. Behandeln Sie einen hohen Score genauso, wie Sie einen Fingerabdruckabgleich behandeln würden: wert, untersucht zu werden, nicht wert, zu verurteilen."

Wie man Deepfake-Erkennungstools effektiv auswählt und verwendet

Angesichts der Vielfalt der Deepfake-Erkennungstools auf dem Markt finden Sie hier die Kriterien, die wirklich wichtig sind, wenn Sie eine auswählen. Die Genauigkeit bei aktuellen Generatoren ist wichtiger als Benchmark-Scores bei alten Test-Sets. Suchen Sie nach Tools, die das Alter ihrer Trainingsdaten veröffentlichen und regelmäßig aktualisiert werden. Transparenz über Konfidenzintervalle ist wichtig – ein Tool, das Ihnen „98% KI" ohne Erklärung seiner Methodik gibt, ist schwerer zu vertrauen als eines, das Ihnen zeigt, welche Regionen das Flag ausgelöst haben. Für KI-generierte Bilder speziell führt NotGPT's AI Image Detection Ihren Upload durch ein Modell aus, das für die Erkennung von Ausgaben aktueller Generatoren einschließlich Midjourney, DALL-E 3 und Stable Diffusion trainiert wurde, und hebt die Bildbereiche hervor, die am meisten zum Score beigetragen haben. Für gemischte Arbeitsabläufe, bei denen Sie auch Text überprüfen müssen – wie das Überprüfen, ob ein eingereichte Artikel oder Lebenslauf mit KI geschrieben wurde – gibt Ihnen die Kombination eines Bilddetektors mit einem Textdetektor bessere Abdeckung als einer allein. Der beste Ansatz zur Verwendung eines beliebigen Deepfake-Erkennungstools ist, es als einen Datenpunkt in einem umfassenderen Verifizierungsprozess zu behandeln: Herkunft überprüfen, Quellen kreuzen, auf kontextuelle Inkonsistenzen suchen und den Score des Tools verwenden, um zu priorisieren, welche Elemente eine nähere menschliche Überprüfung verdienen.

  1. Laden Sie das Bild hoch oder fügen Sie den Text in einen Detektor ein, der zeigt, welche Regionen das Flag ausgelöst haben
  2. Überprüfen Sie EXIF-Metadaten mit einem kostenlosen Tool wie Jeffrey's Exif Viewer
  3. Führen Sie eine Rückwärts-Bildsuche durch, um zu sehen, ob das Bild an anderer Stelle in einem anderen Kontext erschienen ist
  4. Wenn der Score mehrdeutig ist (40–70% KI), suchen Sie nach kontextuellen roten Flaggen statt sich auf die Zahl allein zu verlassen
  5. Für Entscheidungen mit hohem Einsatz holen Sie eine zweite Meinung von einem anderen Deepfake-Erkennungstool ein
  6. Dokumentieren Sie Ihren Verifizierungsprozess – machen Sie einen Screenshot des Scores und versehen Sie ihn mit einem Zeitstempel

KI-Inhalte mit NotGPT erkennen

87%

AI Detected

“The implementation of artificial intelligence in modern educational environments presents numerous compelling advantages that merit careful consideration…”

Humanize
12%

Looks Human

“AI in schools has real upsides worth thinking about — but the trade-offs are just as real and shouldn't be glossed over…”

Erkennen Sie KI-generierten Text und Bilder sofort. Humanisieren Sie Ihre Inhalte mit einem Tippen.