• Deepfakes:
    so erkennen und verhindern Sie KI-basierte Täuschungen

Die rasante Entwicklung der künstlichen Intelligenz ermöglicht es Cyberkriminellen, täuschend echt wirkende Fälschungen von Stimmen, Gesichtern und Texten zu erstellen. Bei diesen sogenannten Deepfakes handelt es sich um digitale Bild-, Audio-, Video- oder Textinhalte, die mithilfe Künstlicher Intelligenz erzeugt wurden.

Betrugsversuche unter Einsatz von Deepfakes kommen immer häufiger vor – im Beruf genauso wie im privaten Alltag. Deshalb ist besondere Vorsicht gefragt.

Auf dieser Seite erläutern wir Ihnen, wie Sie Deepfakes leichter erkennen und typische Fehler vermeiden können.

Das Wichtigste in Kürze:

Eine Frau nutzt Gesichtserkennung auf einem Laptop

Deepfakes täuschen durch real wirkende Stimmen, Gesichter und Texte, die mit KI erzeugt wurden – und kommen sowohl im beruflichen als auch im privaten Alltag zum Einsatz.

Eine Frau sitzt an einem Schreibtisch und nimmt über einen Laptop an einer Videokonferenz mit mehreren Personen teil

Mögliche Anzeichen für Deepfakes sind unnatürliche Bewegungen, Verzerrungen oder auffällige Sprache – achten Sie auf Warnsignale und vertrauen Sie Ihrem Bauchgefühl.

Eine Person hält ein Smartphone in der Hand, dessen Bildschirm ein Fingerabdruck mit einem Schlosssymbol zeigt

Schützen Sie sich durch Verifikation von Identitäten und reagieren Sie misstrauisch auf ungewöhnliche Anfragen oder Inhalte. Schärfen Sie ihre digitale Medienkompetenz und nutzen gegebenenfalls vorhandene technische Hilfsmittel. 

Deepfakes erkennen: darauf sollten Sie achten

Mit zunehmend fortgeschrittener künstlicher Intelligenz (KI) wirken auch künstlich erzeugte Stimmen, Gesichter und Texte immer realistischer – und lassen sich auf den ersten Blick kaum noch als Fälschung erkennen. Umso wichtiger ist es, typische Anzeichen zu kennen und auf Ihr Bauchgefühl zu hören.

Darauf sollten Sie achten:

This icon describes a globe.

Vertrauen Sie Ihrem Gefühl

Wenn Ihnen etwas komisch vorkommt, stellen Sie gezielt Rückfragen – entweder direkt im Gespräch oder über einen anderen, bekannten Kontaktweg. Bitten Sie z.B. am Telefon um Details, die nur die echte Person kennen kann, oder kontaktieren Sie die Person über eine Ihnen bekannte Nummer, E-Mail-Adresse oder Messaging-App zur Verifizierung.

This icon describes a globe.

Unstimmigkeiten im Gesicht

Achten Sie in Videos auf ruckartige Bewegungen, unpassende Mimik, seltsame Proportionen oder nicht synchrone Lippenbewegungen. Künstliche Gesichter haben oft Probleme mit natürlichen Bewegungen wie Blinzeln, Stirnrunzeln oder kleinen Muskelzuckungen.

This icon describes a globe.

Unstimmigkeiten in der Stimme

Verzerrungen, Sprechpausen, Echo oder eine monotone Sprachmelodie in Anrufen oder Sprachnachrichten können Hinweise auf eine Fälschung sein.

This icon describes a globe.

Seltsame Ausdrucksweise

KI-generierte Texte sind meist fehlerfrei, erscheinen mitunter aber unpersönlich, enthalten Wiederholungen, flache Formulierungen oder unpassende Begriffe.

This icon describes a globe.

Visuelle Ungereimtheiten

Prüfen Sie, ob Licht, Schatten oder Reflexionen in Bildern realistisch wirken. Nutzen Sie bei Unsicherheiten mit Bildern eine Bildrückwärtssuche, um die Bilder an anderen Stellen im Internet zu finden.

This icon describes a globe.

Unerwartete Nachrichten

Kommt Ihnen ein Anruf, eine Nachricht oder ein Video verdächtig vor, hinterfragen Sie: Ist das plausibel? Habe ich damit gerechnet? Hinterfragen Sie auch die Quellen. Woher stammt das Video oder Bild? Ist die Quelle vertrauenswürdig? Ist die Identität der Person klar bestätigt?

This icon describes a globe.

Gute Bildqualität nutzen

Schauen Sie Videos am besten auf einem größeren Bildschirm statt auf dem Handy. Hohe Auflösung und richtige Farbeinstellungen helfen, Details und mögliche Unstimmigkeiten – etwa in der Haut oder Mimik – besser zu erkennen.

Die Gefahren von Deepfakes

Deepfakes sind mehr als nur technische Spielereien – sie stellen eine ernstzunehmende Bedrohung dar.

  • Gezielter Betrug: Cyberkriminelle nutzen Deepfakes, um Identitäten zu fälschen und Vertrauen zu erschleichen. Ein gefälschter Anruf oder eine real wirkende Videobotschaft vom „Chef“ oder Ihrer Bank können ausreichen, um Personen zur Preisgabe sensibler Daten oder zur Überweisung großer Geldsummen zu bewegen.
  • Verbreitung von Desinformation: Deepfakes können Meinungen manipulieren, indem sie Politiker*innen, Prominente oder Journalist*innen scheinbar Aussagen machen lassen, die sie nie getätigt haben. So beeinflussen sie politische Debatten und untergraben das Vertrauen in seriöse Informationsquellen.
  • Rufschädigung und Erpressung: Manipulierte Videos oder Bilder können genutzt werden, um Personen bloßzustellen, zu erpressen oder in Misskredit zu bringen – etwa durch angebliche kompromittierende Inhalte.
  • Gesellschaftliche Auswirkungen: Je realistischer Deepfakes werden, desto schwerer fällt es, zwischen echt und falsch zu unterscheiden. Das fördert Misstrauen gegenüber echten Inhalten – eine Entwicklung, die demokratische Prozesse gefährden kann.

Bekannte Betrugsvarianten mittels Deepfakes

Ob gefälschte Stimme, täuschend echtes Video oder manipuliertes Foto – Deepfakes werden immer raffinierter. Cyberkriminelle setzen sie gezielt ein, um Vertrauen zu erschleichen und Schaden anzurichten. Hier zeigen wir Ihnen einige der häufigsten Betrugsmaschen, die aktuell im Umlauf sind – und wie Sie sie erkennen.

Gefälschte Sprachnachrichten

Angreifende können Sprachnachrichten erstellen, die scheinbar von einer Ihnen bekannten Person stammen. Sie könnten etwa aufgefordert werden, sensible Informationen preiszugeben oder ein Dokument zu öffnen, das Schadsoftware enthält.

Manipulierte Telefongespräche oder Videoanrufe

Dank fortschrittlicher Technologien ist es möglich, Stimmen während eines Telefonats in Echtzeit zu fälschen. Ein bekanntes Beispiel ist der Fall eines britischen Energieunternehmens, dessen CEO glaubte, mit dem Geschäftsführer der Muttergesellschaft zu sprechen, und daraufhin 220.000 Euro auf ein betrügerisches Konto überwies.

Deepfakes in Videokonferenzen

In Hongkong wurde ein Finanzmitarbeiter eines Unternehmens getäuscht, indem Betrüger*innen in einer Videokonferenz mittels Deepfake-Technologie vorgaben, der Finanzchef und andere Mitarbeitende zu sein. Der Mitarbeitende wurde angewiesen, Transaktionen zu veranlassen, wodurch ein Schaden von rund 23,5 Millionen Euro entstand.

Schockanrufe mit gefälschten Stimmen

Betrüger*innen nutzen Deepfake-Technologien, um sich als Familienmitglieder oder Freund*innen auszugeben und in fingierten Notlagen um Geld zu bitten. Ein Beispiel ist der sogenannte Enkeltrick, bei dem ältere Menschen von vermeintlichen Enkeln angerufen und um finanzielle Unterstützung gebeten werden.

Gefälschte Nachrichtenbeiträge

Kriminelle erstellen Deepfake-Videos im Stil bekannter Nachrichtenformate, in denen prominente Persönlichkeiten für angeblich lukrative Investitionen werben. Ziel ist es, Zuschauende dazu zu bringen, betrügerische Webseiten zu besuchen und dort Geld zu investieren.

Manipulierte Fotos

Mit Bildgeneratoren erstellte Deepfake-Fotos können Personen in Situationen zeigen, die nie stattgefunden haben. Beispiele dafür sind Bilder von Prominenten in peinlichen oder erfundenen Situationen, die genutzt werden, um falsche Informationen zu verbreiten oder ihren Ruf zu schädigen.

Schutzmaßnahmen gegen Deepfake-Betrug

  • Identitätsprüfung: Verifizieren Sie die Identität der absenden Person durch Rückfragen oder alternative Kommunikationswege.
  • Sensibilisierung: Schulen Sie sich und Ihr Umfeld im Umgang mit digitalen Medien und machen Sie auf die Gefahren von Deepfakes aufmerksam.
  • Technische Lösungen: Nutzen Sie Software und Tools, die dabei helfen, Deepfakes zu erkennen und zu markieren.
  • Bleiben Sie wachsam: Hinterfragen Sie ungewöhnliche Kommunikationssituationen kritisch, um sich vor den zunehmenden Gefahren durch Deepfakes zu schützen.

FAQ: häufige Fragen zu Deepfakes

Zeige Inhalt von Was genau sind Deepfakes und wie werden sie erstellt?

Deepfakes sind täuschend echt wirkende Medieninhalte – meist Videos, Audios oder Bilder – die mithilfe künstlicher Intelligenz erstellt oder verändert werden. Dafür nutzen Kriminelle z. B. KI-Modelle, die mit Aufzeichnungen der Stimme, Fotos, Videos oder dem Schreibstil einer Person trainiert wurden. „Trainingsdaten“ für Deepfakes können auch generiert werden, indem mitunter Menschen, deren Stimme geklont werden soll unter einem fingierten Anlass angerufen werden, nur um deren Stimme aufzuzeichnen.

Zeige Inhalt von Wie unterscheiden sich Deepfakes von anderen Formen digitaler Manipulation?

Im Gegensatz zu einfachen Bildbearbeitungen oder Fake-Profilen erzeugen Deepfakes realitätsnahe und dynamische Inhalte – etwa sprechende Personen in Videos oder glaubhafte Telefongespräche. Die Fälschung ist oft schwer zu erkennen.

Zeige Inhalt von Warum sind Deepfakes eine wachsende Bedrohung?

Weil die Technik immer besser und leichter zugänglich wird, viele grundlegende Softwarelösungen für Deepfakes sind sogar gratis verfügbar. Zudem lassen sich Aufzeichnungen für das Trainieren KI-basierter Anwendungen immer leichter finden – vor allem auf Social Media. Deepfakes können Vertrauen gezielt ausnutzen, etwa indem sie Menschen zu Geldüberweisungen verleiten oder falsche Informationen glaubwürdig erscheinen lassen.

Zeige Inhalt von Wo werden Deepfakes bereits eingesetzt?

Deepfakes finden sich in der Unterhaltung (z. B. Filme, Memes), aber auch in der Politik, etwa zur Verbreitung von Desinformation, und im Journalismus, wo manipulierte Inhalte echte Nachrichten verfälschen können.

Zeige Inhalt von Welche Risiken bergen Deepfakes für Einzelpersonen, Unternehmen und die Gesellschaft?

Einzelpersonen können emotional oder finanziell geschädigt werden, Unternehmen durch finanzielle Verluste oder Rufschädigung. Gesellschaftlich fördern Deepfakes Misstrauen, Desinformation und Manipulation im öffentlichen Diskurs.

Zeige Inhalt von Wie verhalte ich mich bei einem verdächtigen Anruf oder Video-Call?

Beenden Sie das Gespräch, wenn Ihnen etwas seltsam vorkommt. Fragen Sie gezielt nach Informationen, die nur die echte Person wissen kann. Rufen Sie zurück – aber nur über eine bekannte, sichere Nummer.

Zeige Inhalt von Kann eine betrügerische Konversation per Mail oder Messenger KI-generiert sein?

Ja. Es gibt KI-Modelle, die speziell für betrügerische Zwecke trainiert wurden. Sie erzeugen täuschend echte, personalisierte Antworten und Fragen, die Vertrauen erwecken und zum Handeln verleiten sollen.

Zeige Inhalt von Lässt sich eine persönliche Handschrift mithilfe Künstlicher Intelligenz fälschen?

Ja, das ist technisch möglich. Schon wenige Zeilen echter Handschrift reichen aus, um eine täuschend echte Fälschung zu erzeugen – etwa für Unterschriften oder Notizen. Der Einsatz kann legitim sein, z. B. für Design, Animation oder Barrierefreiheit, kann aber auch für Betrug und Identitätsdiebstahl missbraucht werden.