KI-Betrug erkennen: Deepfakes, Voice-Cloning und AI-Scams
Von Redaktion Verbraucherzentrale Finanzen und Versicherungen
KI-Betrug: Dimensionen und Gefahren
Künstliche Intelligenz hat die Werkzeuge für Betrüger grundlegend verändert. Deepfakes, Voice-Cloning und KI-generierte Texte ermöglichen Betrugsmaschen, die noch vor wenigen Jahren undenkbar waren. Die Verbraucherzentrale Finanzen und Versicherungen warnt: KI-gestützter Betrug hat 2025 in Deutschland einen geschätzten Schaden von über 10 Milliarden Euro verursacht — Tendenz stark steigend.
Das Bundeskriminalamt (BKA) verzeichnet einen Anstieg KI-gestützter Betrugsdelikte um über 300 % seit 2023. Besonders perfide: Die Qualität der Fälschungen hat ein Niveau erreicht, das selbst geschulte Fachleute vor Herausforderungen stellt. Verbraucher müssen heute wissen, wie sie sich schützen — denn die klassischen Warnsignale wie schlechte Rechtschreibung oder offensichtliche Bildfehler sind weitgehend verschwunden.
In diesem Ratgeber erklären wir alle aktuellen KI-Betrugsformen, zeigen konkrete Erkennungsmerkmale und geben praxistaugliche Schutzmaßnahmen an die Hand. Denn nur wer die Methoden kennt, kann sich wirksam schützen.
Deepfake-Videos erkennen
Deepfake-Videos nutzen KI-Algorithmen, um das Gesicht und die Mimik einer Person in Videomaterial zu übertragen. Die Technologie ist inzwischen so ausgereift, dass täuschend echte Videos in Echtzeit erzeugt werden können — etwa für betrügerische Videoanrufe oder gefälschte Nachrichtenbeiträge.
Typische Einsatzszenarien
- Gefälschte Video-Calls: Betrüger geben sich als Vorgesetzte, Geschäftspartner oder Familienmitglieder aus und fordern Geldüberweisungen
- Fake-Nachrichten: Prominente oder Politiker werden in Videos gezeigt, in denen sie Aussagen treffen, die sie nie gemacht haben
- Investment-Betrug: Bekannte Persönlichkeiten „empfehlen" in gefälschten Videos Krypto-Plattformen oder Finanzprodukte
- Erpressung: Kompromittierende Deepfake-Videos werden zur Erpressung eingesetzt
So erkennen Sie Deepfakes
Achten Sie auf folgende Hinweise: unnatürliches Blinzeln oder starrer Blick, unscharfe Übergänge zwischen Gesicht und Haaransatz, verzerrte Ohren oder Zähne, asynchrone Lippenbewegungen, ungewöhnliche Beleuchtung im Gesichtsbereich und abrupte Bildsprünge. Bei Videoanrufen hilft ein einfacher Test: Bitten Sie Ihr Gegenüber, eine Hand vor das Gesicht zu halten — viele Deepfake-Systeme haben damit Schwierigkeiten.
Voice-Cloning und CEO-Fraud
Voice-Cloning ist eine der gefährlichsten KI-Betrugsformen. Mit nur wenigen Sekunden Audiomaterial — etwa aus einem Social-Media-Video oder einer Voicemail — kann eine KI die Stimme einer Person täuschend echt nachahmen. Betrüger nutzen dies für den sogenannten CEO-Fraud: Sie rufen Mitarbeiter an und geben sich als Geschäftsführer aus, um dringende Überweisungen zu veranlassen.
Die Bundesnetzagentur (BNetzA) und das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnen eindringlich vor dieser Methode. Dokumentierte Schadensfälle in Deutschland reichen bis in den zweistelligen Millionenbereich für einzelne Unternehmen. Auch Privatpersonen sind betroffen: Beim sogenannten „Enkeltrick 2.0" wird die Stimme von Familienangehörigen geklont, um Geld zu erpressen.
Schutzmaßnahmen gegen Voice-Cloning
- Code-Wort vereinbaren: Legen Sie mit Familie und engen Kontakten ein geheimes Code-Wort fest, das bei ungewöhnlichen Anfragen abgefragt wird
- Rückruf-Regel: Rufen Sie bei verdächtigen Anrufen immer über die Ihnen bekannte Nummer zurück
- Vier-Augen-Prinzip: Finanzielle Transaktionen sollten stets von einer zweiten Person freigegeben werden
- Sprachaufnahmen minimieren: Reduzieren Sie öffentlich verfügbare Sprachaufnahmen in sozialen Medien
KI-generierte Phishing-Mails
Traditionelle Phishing-Mails waren oft an schlechter Grammatik und generischen Formulierungen erkennbar. KI-generierte Phishing-Mails sind grammatisch einwandfrei, individuell auf den Empfänger zugeschnitten und imitieren den Schreibstil bekannter Absender perfekt. Das BSI stuft diese Entwicklung als eine der größten Cyberbedrohungen für Verbraucher ein.
Moderne KI-Phishing-Mails analysieren öffentlich verfügbare Informationen — LinkedIn-Profile, Social-Media-Posts, Unternehmenswebseiten — und erstellen maßgeschneiderte Nachrichten. Eine typische KI-Phishing-Mail könnte sich auf ein reales Projekt beziehen, den korrekten Tonfall eines Kollegen treffen und eine plausible Handlungsaufforderung enthalten.
Erkennungsmerkmale moderner Phishing-Mails
- Absenderadresse prüfen: Der angezeigte Name kann gefälscht sein — prüfen Sie die tatsächliche E-Mail-Adresse im Detail
- Links vor dem Klicken prüfen: Fahren Sie mit der Maus über Links, ohne zu klicken, und prüfen Sie die URL
- Zeitdruck als Warnsignal: „Sofort handeln" oder „Ihr Konto wird gesperrt" sind klassische Druckmittel
- Ungewöhnliche Anhänge: Öffnen Sie keine unerwarteten Anhänge, insbesondere .exe, .zip oder .docm-Dateien
Fake-Prominente in Werbung
Ein besonders verbreitetes Phänomen sind KI-generierte Werbeanzeigen, in denen Prominente angeblich Produkte empfehlen. Bekannte Persönlichkeiten wie Markus Lanz, Günther Jauch oder Frank Thelen werden regelmäßig in gefälschten Werbeanzeigen missbraucht, die Krypto-Investments, Nahrungsergänzungsmittel oder dubiose Finanzprodukte bewerben.
Diese Fake-Werbung erscheint häufig als gesponserte Beiträge auf Facebook, Instagram und in Google-Suchergebnissen. Die Anzeigen führen zu professionell gestalteten Landingpages, die seriöse Nachrichtenportale imitieren. Nach § 263 StGB (Betrug) und dem Gesetz gegen den unlauteren Wettbewerb (UWG) sind solche Fälschungen strafbar — die Täter sitzen jedoch oft im Ausland und sind schwer zu verfolgen.
Schadensbilanz: 10 Milliarden Euro
Die finanziellen Schäden durch KI-Betrug sind enorm. Laut Schätzungen des BKA und der europäischen Polizeibehörde Europol belaufen sich die Schäden durch KI-gestützten Betrug in Deutschland auf über 10 Milliarden Euro jährlich. Weltweit wird der Schaden auf über 100 Milliarden US-Dollar geschätzt.
Besonders betroffen sind ältere Menschen (über 60 Jahre), Kleinunternehmer ohne IT-Abteilung und Personen mit geringer digitaler Kompetenz. Die Dunkelziffer ist hoch: Viele Opfer melden den Betrug aus Scham nicht. Die Verbraucherzentrale Finanzen und Versicherungen appelliert: Es gibt keinen Grund für Scham — Anzeige erstatten hilft, Täter zu identifizieren und andere zu schützen.
Erkennungsmerkmale von KI-Betrug
Trotz der steigenden Qualität gibt es nach wie vor Erkennungsmerkmale, die auf KI-Betrug hinweisen. Die Verbraucherzentrale Finanzen und Versicherungen hat eine Checkliste zusammengestellt:
- Zu gut um wahr zu sein: Unrealistische Renditeversprechen, Gratisgeschenke oder Promi-Empfehlungen sind fast immer Betrug
- Zeitdruck: Künstliche Dringlichkeit soll zum überstürzten Handeln verleiten
- Ungewöhnliche Zahlungswege: Krypto-Überweisungen, Geschenkkarten oder Western Union deuten auf Betrug hin
- Technische Artefakte: Leichte Verzögerungen bei Video-Calls, unnatürliche Pausen, seltsame Hintergrundgeräusche
- Kontextwechsel: Der Kommunikationskanal soll gewechselt werden (z. B. von E-Mail zu WhatsApp)
- Geheimhaltungsaufforderung: „Sagen Sie niemandem davon" ist ein eindeutiges Warnsignal
Schutzmaßnahmen für Verbraucher
Effektiver Schutz vor KI-Betrug basiert auf einer Kombination aus technischen und verhaltensbasierten Maßnahmen:
Technische Maßnahmen
- Zwei-Faktor-Authentifizierung (2FA): Aktivieren Sie 2FA für alle wichtigen Konten — das erschwert den Zugriff selbst bei gestohlenen Passwörtern erheblich
- Aktuelle Software: Halten Sie Betriebssystem, Browser und Apps stets aktuell, um Sicherheitslücken zu schließen
- Spam-Filter: Nutzen Sie die Spam-Filter Ihres E-Mail-Anbieters und melden Sie verdächtige Mails
- Passwort-Manager: Verwenden Sie einzigartige, starke Passwörter für jeden Dienst
Verhaltensregeln
- Gesundes Misstrauen: Hinterfragen Sie ungewöhnliche Anfragen — auch wenn sie von bekannten Kontakten zu kommen scheinen
- Verifizierung über zweiten Kanal: Bei ungewöhnlichen Bitten um Geld immer über einen anderen Kommunikationsweg bestätigen
- Keine sensiblen Daten preisgeben: Seriöse Unternehmen fragen niemals per E-Mail oder Telefon nach Passwörtern oder TANs
- Medienkompetenz stärken: Informieren Sie sich regelmäßig über aktuelle Betrugsmaschen
Meldestellen und Hilfsangebote
Wenn Sie Opfer von KI-Betrug geworden sind oder einen Verdacht haben, stehen Ihnen folgende Anlaufstellen zur Verfügung:
- Polizei: Erstatten Sie Anzeige — online oder bei der nächsten Polizeidienststelle. Sichern Sie vorher alle Beweise (Screenshots, E-Mails, Kontoauszüge)
- Verbraucherzentrale: Die Verbraucherzentralen der Länder bieten Beratung zu Betrugsmaschen und helfen bei der Durchsetzung Ihrer Rechte
- BSI: Das Bundesamt für Sicherheit in der Informationstechnik informiert über aktuelle Bedrohungen unter bsi.bund.de
- Bundesnetzagentur: Bei unerlaubten Telefonanrufen oder SMS können Sie sich an die BNetzA wenden
- Internet-Beschwerdestelle: Unter internet-beschwerdestelle.de können Sie illegale Inhalte melden
Zusätzlich können Sie bei Ihrer Bank eine Rückbuchung veranlassen, wenn eine betrügerische Überweisung noch nicht ausgeführt wurde. Handeln Sie hier schnellstmöglich — jede Minute zählt.
Fazit: Wachsamkeit als bester Schutz
KI-Betrug wird in den kommenden Jahren weiter zunehmen. Die Technologie entwickelt sich rasant, und Betrüger adaptieren neue Werkzeuge schnell. Der beste Schutz ist eine Kombination aus technischen Sicherheitsmaßnahmen, gesundem Misstrauen und dem Wissen um aktuelle Betrugsformen.
Die Verbraucherzentrale Finanzen und Versicherungen empfiehlt: Sprechen Sie mit Familie und Freunden über KI-Betrug, vereinbaren Sie Code-Wörter und informieren Sie insbesondere ältere Angehörige über die neuen Gefahren. Gemeinsam können wir den Betrügern das Handwerk erschweren. Vertrauen Sie Ihrem Bauchgefühl — wenn etwas zu gut klingt, um wahr zu sein, ist es das in aller Regel auch nicht.
Häufig gestellte Fragen
Wie erkenne ich ein Deepfake-Video?▾
Was ist Voice-Cloning und wie schütze ich mich?▾
Wie hoch ist der Schaden durch KI-Betrug in Deutschland?▾
Was soll ich tun, wenn ich Opfer von KI-Betrug geworden bin?▾
Sind KI-generierte Phishing-Mails schwerer zu erkennen?▾
Wie erkenne ich gefälschte Promi-Werbung?▾
Kann KI-Betrug strafrechtlich verfolgt werden?▾
Weiterführende Artikel
Phishing-Mails erkennen: So schützen Sie sich vor Datendiebstahl
10 Min. Lesezeit
WarnungAnlagebetrug mit Prominenten: Gefälschte Werbung erkennen
9 Min. Lesezeit
WarnungRomance Scam: Liebesbetrug im Internet erkennen und vermeiden
13 Min. Lesezeit
Digitale WeltKI-Kennzeichnungspflicht ab 2026: Was Verbraucher wissen müssen
10 Min. Lesezeit
Dieser Artikel wurde zuletzt am 10.5.2026 aktualisiert und redaktionell geprüft.
Redaktionelle Verantwortung: Redaktion Verbraucherzentrale Finanzen und Versicherungen, Verbraucherzentrale Finanzen und Versicherungen · Prüfung nach dem Vier-Augen-Prinzip
Quellen: Öffentlich zugängliche Geschäftsberichte, regulatorische Filings, anerkannte Finanzdatenbanken · Keine Anlageberatung i.S.d. § 2 Abs. 8 Nr. 10 WpHG
Hinweis: Diese Seite enthält keine Werbung, keine Affiliate-Links und keine gesponserten Inhalte.
