Schauspieler:innen, die plötzlich in allen möglichen Filmen mitzuspielen scheinen, der Papst, der lange vor der Aufregung um seinen Parka schon mit einem vermeintlichen Tischtuchtrick auffiel oder Ex-US-Präsident Barack Obama, der augenscheinlich kein gutes Haar an Donald Trump lässt: Wer auf den einschlägigen Videoplattformen den Begriff „Deepfake“ eingibt, bekommt ein buntes Potpourri an kuriosen Inhalten. Das Kofferwort setzt sich zusammen aus „deep learning“ und „fake“ und beschreibt Fälschungen, die durch künstliche neuronale Netze beziehungsweise maschinelles Lernen erstellt wurden.

Wieso Deepfakes so gefährlich für unsere Gesellschaft sind

Viele dieser Videos sind offensichtlich gefälscht und dienen humoristischen Zwecken. So weit, so harmlos. Gefährlich wird es hingegen, wenn Gesichter in pornografische Inhalte eingefügt werden oder politische Manipulation betrieben wird. So kursierten kurz nach Beginn des Angriffskriegs auf die Ukraine im März 2022 gefälschte Aufnahmen, in denen der ukrainische Präsident Wolodymyr Selenskyj die ukrainischen Truppen scheinbar zur Kapitulation aufforderte. Patrick Gensing, ehemaliger Leiter des ARD-Rechercheressorts Faktenfinder, kommentierte bereits 2020: „Die Deepfakes öffnen das Tor zu einer Welt, in der nicht nur ‚alternative Fakten‘ kursieren, sondern möglicherweise eine ganze alternative Realität.“

Außerdem ist davon auszugehen, dass die Qualität der erstellen Videos in Zukunft noch deutlich zunehmen wird – und damit auch die Schwierigkeit, Fälschungen als solche zu entlarven. Die Technik hinter Deepfakes ist seit jeher größtenteils frei verfügbar. Spaß-Apps, mit denen man sich selbst verschiedene Frisuren geben oder sich deutlich jünger oder älter darstellen lassen kann, beruhen auf einem ähnlichen Prinzip und ähnlicher Technologie. Selbst aufwändigere Programme sind leicht zu finden, mitunter bei bekannten Computer-Magazinen. Und auch technisch reicht ein durchschnittlich leistungsfähiger Rechner, um überzeugende Deepfakes zu kreieren.

Wie überzeugend sind Deepfakes?

Es gibt mehrere Arten von Deepfakes: Zu den bekanntesten gehören das sogenannte „Face Swapping“, bei dem Gesichter ausgetauscht werden und das „Reenactment“. Dabei werden Mimik und Gestik der gewünschten Person mithilfe eines 3D-Modells imitiert. Ziel ist es, Personen Dinge machen oder sagen zu lassen, die in Wirklichkeit so nicht passierten. Mittels „Reenactment“ entstand nicht nur das  oben genannte Obama-Video, sondern so wurde auch die Mona Lisa zum Leben erweckt. Als Faustregel für alle Deepfake-Verfahren gilt: Je größer der Ausgangsdatensatz ist, mit dem die Anwendung trainieren kann, umso hochwertiger werden die Ergebnisse. Je mehr Videomaterial also vorliegt, desto überzeugender können Deepfakes sein.

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) geht davon aus, dass schon wenige Videominuten einer Zielperson (zum Beispiel aus einem Interview) genügen, wenn diese von hoher Qualität sind und „möglichst verschiedene Gesichtsmimiken und Perspektiven enthalten, damit diese vom Modell zur Manipulation gelernt werden können“. Darum sind aktuell vor allem Personen des öffentlichen Lebens von Deepfakes betroffen.

Wie lassen sich Deepfakes entlarven?

Manipulierte Bilder und Videos sind nicht neu, vor allem Fotos wurden auch schon lange vor dem Internet aufwendig gefälscht. Allerdings sind moderne Fälschungs-Technologien so ausgereift, dass sie für völlig neue Dimensionen in Sachen Quantität und Qualität sorgen. Trotzdem sind die wenigsten Manipulationen hundertprozentig ausgereift.

Typische Erkennungsmerkmale sind unter anderem sichtbare Übergänge von hineinprojizierten Inhalten zum Originalmaterial oder auch das Fehlen von scharfen Konturen. Mitunter versuchen Videos das im Stile eines verwackelten Handyvideos zu kaschieren. Auch der Ton ist oft noch eher blechern oder Stimmen werden leicht verzerrt.

Sind Nutzer:innen misstrauisch geworden, gibt es Websites, mit denen sie Videos selbst überprüfen können. So zum Beispiel die Seite deepware.ai, auf der Nutzer:innen Videos oder Links hochladen können und eine Einschätzung erhalten, ob es sich dabei um Deepfakes handelt.

Neben solchen technologischen Mitteln hilft auch klassische Medienkompetenz, Deepfakes zu entlarven:

Gerade bei brisanten Inhalten eines Videos sollte geprüft werden, inwieweit der Clip auf anderen Kanälen oder zum Beispiel in den offiziellen Profilen einer Person/einer Partei/eines Unternehmens vorkommt. Außerdem sollten sich Nutzer:innen die Frage stellen, wie wahrscheinlich es ist, dass andere Medien oder offizielle Stellen sich gar nicht zu den behaupteten Tatsachen äußern.

Wie erkenne ich Desinformation? Worauf muss ich bei Quellen achten? Antworten und Anleitungen gibt’s beim Digitalführerschein.

Artikelbild: Guilherme Stecanella via unsplash.com