Deepfake: Wie uns Algorithmen täuschen - A1 Blog
Doch auch hierzulande ist man nicht vor solchen Fakes geschützt. Man erinnere sich nur an das Videotelefonat von Wiens Bürgermeister mit einem Fake von Vitali Klitschko. Ein weiterer Beweis dafür, wie täuschend echt Deepfakes sein können.
Auf sozialen Netzwerken wie Facebook oder YouTube begegnet man Deepfakes häufig im Zusammenhang mit Parodien oder Satire-Inhalten. Aber Deepfakes kommen - wie die oben genannten Beispiele beweisen - auch zu anderen Zwecken als zur Unterhaltung zum Einsatz und sind somit oftmals alles andere als harmlos…
Was ist überhaupt ein Deepfake?
Das Wort Deepfake setzt sich aus den beiden englischen Begriffen „Deep Learning“ und „Fake“ zusammen und bezeichnet das Fälschen oder Ändern von Video- oder Audioinhalten mithilfe Künstlicher Intelligenz. Für Deepfakes kommen künstliche neuronale Netze sowie Methoden des maschinellen Lernens (Deep Learning) zum Einsatz. So tauscht eine Software beispielsweise Gesichter von Personen in bestehenden Videosequenzen aus, lässt Personen fremde Texte sprechen oder verändert deren Bewegungen. Das Resultat: Die erstellten Inhalte wirken authentisch und sind oft nur schwer als Fälschungen zu erkennen.
Deepfakes sind durchaus problematisch, da sie sehr häufig – neben der Anwendung in der Unterhaltungsbranche – für gezielte Desinformation (Stichwort: Fake News), Propaganda oder auch zur Diskreditierung von Einzelpersonen zum Einsatz kommen.
Künstliche Intelligenz als Basis
Möglich gemacht wird das Ganze überhaupt erst durch Künstliche Intelligenz. Als technische Basis dienen künstliche neuronale Netze und Algorithmen des maschinellen Lernens, die bereitgestelltes Video- und Audiomaterial analysieren und neue Inhalte erstellen. Grundvoraussetzung ist, dass die Algorithmen und neuronalen Netze überhaupt erst mit Bild- und Audiomaterial gefüttert werden. Video- und/ oder Audioinhalte des Ausgangsmaterials und der Personen, die man fälschen möchte, werden benötigt. Dabei gilt natürlich: Je mehr Material zur Verfügung steht, desto besser. Möchte man beispielsweise Gesichter austauschen (Anmerkung: nennt sich auch Face Swapping), braucht man für einen glaubhaften Deepfake möglichst viele Aufnahmen der Person aus verschiedenen Perspektiven und mit unterschiedlicher Mimik. Im Zuge des maschinellen Lernvorgangs lernen die Algorithmen dann die wesentlichen Eigenschaften der Person kennen und sind letztlich dazu in der Lage, diese in anderes Material zu übertragen, ohne das Umfeld zu verändern.
Für den Einsatz des Fake-Klitschko wurde mit hoher Wahrscheinlichkeit Videomaterial eines echten Klitschko-Interviews mit einem ukrainischen Journalisten verwendet. Dabei wurden in Echtzeit die Lippenbewegungen aus dem Video mit den Aussagen der Person zusammengeführt, die tatsächlich mit Bürgermeister Ludwig gesprochen hat.
Deepfakes gelingen immer leichter
Durch die steigende Rechenleistung und immer leistungsfähigere Künstliche Intelligenz verbessert sich die Qualität der Deepfakes kontinuierlich und auch die Menge des benötigten Bildmaterials für authentische Fälschungen wird immer geringer. Forscher:innen ist es mittlerweile sogar schon gelungen, mit nur einem einzigen (!) Bild einer Person komplette Videos zu fälschen. Darüber hinaus können mittlerweile sogar Laien ohne spezifische Kenntnisse in der Videobearbeitung Deepfakes in hoher Qualität erstellen. Möglich wird dies durch Programme und Apps, die Fälschungen fast schon autonom erzeugen können. Vom Nutzer bzw. der Nutzerin ist lediglich das Video- oder Audiomaterial bereitzustellen.
Fakes erkennen – was kann man tun?
Speziell in Anbetracht der Tatsache, dass Deepfake-Inhalte zur gezielten Manipulation eingesetzt werden können, erscheinen die technischen Verbesserungen in diesem Bereich problematisch. Was kann man also tun um Fakes zu enttarnen? Grundsätzlich wird es immer wichtiger, Quellen mit einer gesunden Portion Skepsis zu hinterfragen, speziell, wenn man sich in sozialen Netzwerken bewegt. Findet man ein Video, in dem etwa ein:e Politiker:in mit aufsehenerregenden Aussagen aufhorchen lässt, ist es ratsam, nach dem Video beziehungsweise den entsprechenden O-Tönen auch anderswo zu suchen. Berichten renommierte Medien bereits darüber, kann man davon ausgehen, dass das Video nicht gefälscht wurde.
Ein weiteres Indiz für einen Deepfake: Die dargestellten Personen blinzeln kaum. Denn Blinzeln ist offenbar schwer zu fälschen. Das haben Forscher:innen festgestellt und raten dazu, beim Erkennen von manipulierten Videos auf die Augenbewegungen der Personen zu achten.
Doch auch der technologische Fortschritt hilft uns dabei, Deepfakes zu erkennen: Mittlerweile existieren bereits Programme, die – ebenfalls auf Basis Künstlicher Intelligenz – die Echtheit von Video- und Audioinhalten prüfen und Fälschungen gegebenenfalls identifizieren können.
Page Comments