Deepfake: Was es ist und wie man es erkennt, um nicht getäuscht zu werden

In den letzten Jahren hat sich der Begriff Deepfake von einer technologischen Kuriosität zu einer konkreten Bedrohung der digitalen Sicherheit entwickelt. Diese mithilfe künstlicher Intelligenz erstellten Fälschungen können Stimmen, Gesten und sogar Gesichtsausdrücke mit überraschender Genauigkeit nachahmen. Das Problem betrifft nicht nur die Unterhaltungswelt, sondern auch Politik, Finanzen und den Alltag.
Die Weiterentwicklung der generativen künstlichen Intelligenz hat diese Techniken zunehmend zugänglich gemacht. Mit einfacher Software und Modelltraining ist es heute möglich, die Stimme einer Person zu klonen oder ein Video nachzubilden, in dem sie etwas sagt, was sie nie gesagt hat. Daher ist die Diskussion darüber, wie man Deepfakes erkennt, unerlässlich geworden.
Neben der Neugier, die sie wecken, bergen Deepfakes auch ernsthafte Risiken. Von Telefonbetrug mit geklonten Stimmen bis hin zur Erstellung von Fake News gehen die Anwendungen weit über die Vorstellungskraft des Durchschnittsnutzers hinaus. Selbst Banken und Finanzinstitute warnen vor Betrugsversuchen, bei denen diese Technologien zur Täuschung von Kunden und Mitarbeitern eingesetzt werden.
Cybersicherheit: Die besten Techniken, um Betrug zu vermeiden.
Daher ist es wichtig zu verstehen, was sie sind, wie sie funktionieren und vor allem, welche Anzeichen es uns ermöglichen, sie zu unterscheiden. Das Erkennen eines mit einem Deepfake manipulierten Videos kann den Unterschied ausmachen, ob wir in eine digitale Falle tappen oder unsere Identität und persönlichen Daten schützen.
Ein Deepfake ist ein audiovisueller Inhalt, der mithilfe neuronaler Netzwerke generiert wird. Dabei werden die Merkmale einer Person so lange kombiniert oder verändert, bis das Ergebnis praktisch identisch mit dem Original ist. Der Begriff setzt sich aus den Wörtern „Deep Learning“ und „Fake“ zusammen.
In der Praxis bedeutet dies, dass ein Computer Gesichtsausdrücke oder die Klangfarbe einer Stimme „lernen“ und diese dann sehr realistisch wiedergeben kann. Es gibt verschiedene Varianten: von Deepfaces, die Gesichter manipulieren, bis hin zu Stimmklonen, die ganze Telefongespräche mit der Intonation einer ihnen bekannten Person wiedergeben können.
Das Erkennen dieser Fälschungen ist nicht immer einfach. Es gibt jedoch Hinweise, die helfen können: unnatürliche Augenbewegungen, seltsames Blinzeln, nicht zur Umgebung passende Beleuchtung oder Lippenbewegungen, die nicht ganz mit der Stimme synchron sind. Bei Audioaufnahmen werden häufig Pausen oder unpassende Betonungen erkannt.
Experten empfehlen außerdem, auf den Kontext zu achten. Ein Video ohne offizielle Quelle, eine per WhatsApp gesendete Audionachricht mit einer dringenden Geldforderung oder ein unerwarteter Anruf sollten sofort Alarm schlagen. Querverweise und die Nutzung verifizierter Kanäle sind unerlässlich.
Die größte Gefahr von Deepfakes liegt in ihrer Fähigkeit, in alltäglichen Situationen zu täuschen . Ein immer häufiger auftretender Fall sind Telefonanrufe, bei denen sich jemand als Verwandter ausgibt und dringend um Geld bittet. Mit ein paar vorab aufgezeichneten Stimmen kann künstliche Intelligenz die Stimme nahezu perfekt klonen.
Es gibt auch Bedenken hinsichtlich ihres Einsatzes in Desinformationskampagnen . Gefälschte Videos, in denen politische Führer Sätze äußern, die sie nie gesagt haben, oder manipulierte Bilder, um die öffentliche Meinung zu verzerren, stellen eine Herausforderung für die Demokratie und den Wahlprozess dar.
Risiken und Betrug im Zusammenhang mit Deepfakes. Foto: Shutterstock
Im Finanzsektor wurde bereits von digitalem Betrug berichtet, bei dem versucht wurde, Überweisungen mit geklonten Stimmen zu autorisieren. Banken warnen ihre Kunden davor, ausschließlich telefonischen Anweisungen zu vertrauen und diese stets über offizielle Kanäle zu überprüfen.
Ein weiteres Risiko ist die Verwendung von Deepfakes zur Erstellung gefälschter Identitäten. Diese Techniken ermöglichen die Herstellung nicht existierender Gesichter, die echten Fotos ähneln . In sozialen Medien können diese Konten verwendet werden, um Gespräche zu manipulieren, Betrug zu begehen oder Massenverwirrung zu stiften.
Clarin