Wie ein Blinzeln gefälschte Identitäten entlarvt
Informatikerinnen und Informatiker der Otto-von-Guericke-Universität Magdeburg arbeiten an einer Software, die künftig gefälschte oder manipulierte Fotos und Videos mittels Künstlicher Intelligenz (KI) schneller und sicherer erkennen kann. Prof. Dr.-Ing. Jana Dittmann, Dr. Christian Krätzer, Stefan Seidlitz und Dennis Siegel vom Institut für Technische und Betriebliche Informationssysteme der Magdeburger Universität suchen dafür nach Detektoren, also Nachweismitteln, die Manipulationen und Fälschungen von Bildern und Videos erkennen. Ziel ist es, eine rechtskonforme und an ethischen Leitlinien orientierte Softwareplattform zu erarbeiten, die es beispielsweise bei Videoidentifizierungsverfahren ermöglicht, Manipulationen, sogenannte Deep Fakes, zu erkennen.
Die Folgen dieser Manipulationen an Fotos oder Videos für die Gesellschaft, aber auch Privatpersonen reichen von politischer Einflussnahme über Bankenbetrug und Identitätsdiebstahl bis hin zu organisierter Kriminalität. „Der Besitz einer erfundenen, überlassenen oder gestohlenen Identität kann für Kriminelle einen großen Nutzen haben. Ein Konto unter einer anderen Identität, einer sogenannten ‚Fake-ID‘ zu eröffnen, von diesem Konto Geld abzuheben, einen Kredit aufzunehmen oder dadurch die Herkunft von Geld zu verschleiern sind nur einige Missbrauchsmöglichkeiten“, erläutert Professorin Dittmann. „Technische Möglichkeiten, bild- und videobasierte Authentifizierungsverfahren ‚auszutricksen‘ gibt es reichlich.“
Die Identität einer Person eindeutig nachzuweisen, werde zunehmend anspruchsvoller, da inzwischen mit einfachen technischen Mitteln hochwertige Fälschungen von Bildern und Videos angefertigt werden könnten, so Dittmann weiter. „Bei hochwertigen, professionell erzeugten ‚Deep Fakes‘ ist es für das bloße Auge fast unmöglich, diese zu erkennen. Um Fälschungen zu entlarven, konzentrieren wir uns auf den Abgleich mit weiteren Kontextprüfungen sowie forensischer und biometrischer Daten primär im Gesicht, also ein Lächeln, ein Fältchen, ein Blinzeln. Da nutzten wir die Schwächen bei der Erzeugung der Fälschung aus.“
Es kommt auf die Details an
Zunächst untersuchen mehrere Detektoren, also automatisierte Verfahrensabläufe der Bilderkennung, Videos und Bilder auf verschiedene Merkmale, die auf „Deep Fakes“ hinweisen könnten. KI-basierte Algorithmen konzentrieren sich dafür auf Informationen wie z.B. Unstimmigkeiten bei der Beleuchtung, der Mimik, in der Bewegung oder auch auf vitale Parameter wie Pulsschlag oder Augenbewegungen. Die auf der Grundlage maschinellen Lernens erlangten Ergebnisse werden zusammengeführt und schließlich möglichst rechtskonform und an ethischen Leitlinien orientiert in einer Softwareplattform in Form einer Risiko- und Verdachtslandkarte visualisiert. Letztendlich beurteilt geschultes menschliches Personal abschließend, ob ein „Deep Fake“, also eine gefälschte Identität vorliegt oder nicht. „Die endgültige Identifikation liegt immer in der Hand menschlicher Experten“, unterstreicht Prof. Dittmann. „Wir möchten ihnen mit der Softwareplattform das nötige Instrumentarium für Entscheidungen an die Hand geben und dazu Indizien für die Manipulationen einer präsentierten Identität transparent machen, visualisieren und leicht nachvollziehbar vermitteln.“
Die Magdeburger Wissenschaftler arbeiten im Forschungsprojekt „Videoanalyse mit Hilfe künstlicher Intelligenz zur Detektion von falschen und manipulierten Identitäten (FAKE-ID)“ für Videoidentifizierungsverfahren zusammen mit
- dem Fraunhofer-Heinrich-Hertz-Institut Berlin,
- der Bundesdruckerei,
- der Hochschule für Wirtschaft und Recht Berlin sowie
- der BioID GmbH.
Das Bundesministerium für Bildung und Forschung fördert das Projekt bis April 2024 mit 2,6 Millionen Euro im Rahmenprojekt „Forschung für die zivile Sicherheit“.