Zum Hauptinhalt springen
Moderne IT-Infrastruktur

Moderne IT-Infrastruktur

Deepfake-Erkennung: gefälschte Videos zuverlässig identifizieren!

Deepfake-Erkennung: gefälschte Videos zuverlässig identifizieren!
logo-energyblue-3000px.png
Firma: Intel
Sprache: Deutsch
Größe: 1 Seite
Erscheinungsjahr: 2024
Besonderheit: registrierungsfrei
Aktuell,
relevant und
hier zuerst!

Mithilfe künstlicher Intelligenz lassen sich Videos erzeugen, die von echten Aufnahmen kaum zu unterscheiden sind. Solche „Deepfakes“ sind nicht nur eine Gefahr für die öffentliche Meinungsbildung, sie lassen sich auch für Cyberangriffe und Identitätsdiebstahl missbrauchen. KI kann aber auch helfen, Deepfakes zu identifizieren.

Eine Katze streift durch den Garten, die Kamera auf Augenhöhe direkt vor ihr. Faszinierende Videoaufnahmen – doch sie sind nicht real. Tatsächlich wurde die Szene mit dem Videogenerator Sora von OpenAI erstellt. Auf der Webseite des Anbieters sind noch viele weitere beeindruckende Beispiele zu sehen, nach Angaben von OpenAI alle allein auf Basis von Textanweisungen, sogenannten „Prompts“, erstellt und bis zu einer Minute lang. Damit schlägt Sora bisherige Videogenerierungslösungen nicht nur in der Detailtiefe, sondern auch in der Länge. Bislang beschränkte sich die KI-basierte Generierung von Videosequenzen auf wenige Sekunden.

Noch hat Sora Schwächen und ist nicht öffentlich verfügbar, aber das Potenzial ist unverkennbar. Die Sorge steigt, dass „Deepfake“-Videos – ein Kofferwort aus „Deep Learning“ und „Fake“, also Fälschung, kaum noch von realen Bewegtbildern zu unterscheiden sind. „KI-generierte Videos können Realität und Fiktion ununterscheidbar machen. So haben sie das Potenzial, Fehlinformationen zu verbreiten und damit die Meinungsbildung negativ zu beeinflussen“, sagt Dr. Sabrina Heike Kessler, Senior Research and Teaching Associate am Institut für Kommunikationswissenschaft und Medienforschung der Universität Zürich, gegenüber dem Rechercheportal Science Media Center (SMC).

KI wird aber nicht nur genutzt, um völlig neue Inhalte zu erstellen, sondern auch um bestehende Videos zu manipulieren. Tools wie DeepFaceLab ermöglichen es beispielsweise, Gesichter täuschend echt in reale Videosequenzen zu montieren. Solche Deepfakes werden bereits für Cyberangriffe ausgenutzt, wie ein Beispiel aus Hong-Kong zeigt: Bei dem ausgeklügelten Betrug wurde ein Angestellter aus einem multinationalen Konzern dazu gebracht, an einer Videokonferenz mit mehreren vermeintlichen Kollegen teilzunehmen, bei denen es sich jedoch in Wirklichkeit um Deepfake-Nachbildungen handelte. Das Meeting zerstreute seine Bedenken gegenüber einer angeblich vom Finanzchef aus Großbritannien angeordneten „geheimen Finanztransaktion“. In der Folge gab er eine Überweisung von 200 Millionen Hong-Kong-Dollar frei (zirka 25,6 Millionen US-Dollar). Video-Deepfakes können aber nicht nur missbraucht werden, um Mitarbeiter auszutricksen, auch das Videoident-Verfahren lässt sich damit hacken, wie die Firma Sensity AI bereits 2021 demonstrieren konnte.

Wenn KI Katz und Maus spielt

Bei der Erstellung von Deepfakes kommen meist Generative Adversarial Networks (GAN) oder Autoencoder zur Anwendung. Bei GAN treten zwei neuronale Netze trennen gegeneinander an, das Generator- und das Diskriminator-Netz. Der Generator erzeugt aus realen Daten synthetische Varianten, der Diskriminator versucht, die Fälschungen zu identifizieren. Im Zusammenspiel werden beide Netze immer besser, bis die vom Generator erzeugten Fakes so perfekt sind, dass der Diskriminator sie nicht mehr von den realen Daten unterscheiden kann. Autoencoder bestehen ebenfalls aus zwei Netzschichten, dem Encoder und dem Decoder. Der Encoder extrahiert aus einem Datensatz, beispielsweise den Bildern eines Prominenten, die für Erkennung entscheidenden Merkmale, der Decoder generiert neue Bilder, die den Ursprungsdateien täuschend ähnlich sehen können.

Mehrere Gruppen arbeiten aktuell daran, die Erkennung von Deepfakes zu verbessern. Ein vielversprechendes Verfahren ist die Remote Photoplethysmographie (rPPG). Die Methode wurde ursprünglich entwickelt, um Vitalwerte wie die Pulsrate oder die Sauerstoffsättigung im Blut kontaktlos bestimmen zu können. Sie nutzt dazu subtile Reflexionsänderungen in der Haut, die durch den Blutfluss verursacht werden. Aus den rhythmischen Veränderungen der Intensität dieser Reflexionen lässt sich die Pulsrate bestimmen. Unterschiede in der Absorption von sichtbarem Licht und Wellenlängen im nahen Infrarotbereich lassen auf den Sauerstoffgehalt im Blut schließen.

Eine von Intel und der Binghamton University im Staat New York entwickelte Technologie namens FakeCatcher nutzt rPPG, um echte von gefälschten Videos zu unterscheiden. Die Erkennungsrate liegt je nach Testdatensatz zwischen 91 und 96 Prozent. Die FakeCatcher-Architektur basiert auf mehreren Software-Toolkits und -Bibliotheken. Für die Gesichtserkennung kommt das Computer-Vision-Toolkit OpenVINO (Open Visual Inference & Neural Network Optimization) zum Einsatz. Die Berechnung der Computer-Vision-Daten wird mit der Softwarebibliothek Intel Integrated Performance Primitives und dem Toolkit OpenCV, einer Softwarebibliothek für die Echtzeitverarbeitung von Bildern und Videos optimiert. Die Übertragungsgeschwindigkeit der Trainingsergebnisse auf neue Daten (Inferenz) wurde durch Beschleunigerfunktion wie Intel Deep Learning Boost und Intel Advanced Vector Extensions 512 verbessert. Die Entwickler nutzten außerdem das Open Visual Cloud-Projekt, um einen integrierten Software-Stack für die Intel Xeon Prozessorfamilie bereitzustellen. So kann die Lösung bis zu 72 Datenanalysen gleichzeitig auf skalierbaren Intel Xeon Prozessoren ausführen.

Fazit: Deepfake-Erkennung – nicht nur eine Frage der Technologie

Nicht nur IT-Sicherheitsexperten, auch Gesellschaftswissenschaftler betrachten die Entwicklung im Deepfake-Bereich mit Sorge. Im Superwahljahr 2024 ist die Gefahr besonders groß, dass gefälschte Bilder und Videos missbraucht werden, um die öffentliche Meinung zu manipulieren. Technische Maßnahmen wie FakeCatcher leisten einen wichtigen Beitrag, um diese Risiken zu reduzieren, reichen allein aber nicht aus, meint Prof. Dr. Edda Humprecht, Professorin für Digitalisierung und Öffentlichkeit an der Friedrich-Schiller-Universität Jena: „Angesichts der Herausforderungen, die KI-generierte Inhalte darstellen, sind ganzheitliche Ansätze erforderlich, die über technische Lösungen hinausgehen.“  Ebenso wichtig sei es, dass Plattformbetreiber Verantwortung übernehmen und proaktive Maßnahmen einführen, um die Verbreitung manipulierter Inhalte zu bekämpfen. „Dazu gehören die Implementierung strengerer Inhaltsüberprüfungsverfahren, die Kennzeichnung von KI-generierten Inhalten und die Förderung von Transparenz hinsichtlich der Herkunft und Authentizität von Informationen.“

Deepfake-Erkennung: gefälschte Videos zuverlässig identifizieren!

Inhaltstyp: Artikel
logo-energyblue-3000px.png