Software

Zwischen Wahrheit und Fälschung: Mit Software auf Deepfake-Jagd

Bildquelle: Pexels

Prolog

Wie jeden Morgen reißt mich mein Smartphone aus dem Schlaf. Aber heute ist es nicht das gute-Laune-Gedudel meines Weckers. Es ist vielmehr ein Dauervibrieren. Wer textet mich denn morgens schon so zu?
Ich ziehe die Augen gerade so weit auf, dass ich das Display erkennen kann. Sekunden später ist meine Müdigkeit wie weggeblasen:
Mama: „Bist du von allen guten Geistern verlassen?“
Papa: „Was machst du für Sachen!“
Schwesterherz: „Hätte ich dir echt nicht zugetraut“

Die Nachricht meiner Schwester verlinkt auf ein Video. Verwirrt klicke ich darauf und sehe...mich, im Auto sitzend. Obwohl ich offensichtlich am Steuer bin, filme ich mich. Man kann unschwer erkennen, dass ich gerade durch eine Ortschaft fahre. Dann zoomt die Kamera auf den Tacho. 150 km/h? Ungläubig höre ich mir dabei zu, wie ich die Zuschauer dazu anstachele, mich zu überbieten.

Erschrocken drücke ich das Video weg. Ausgeschlossen! Ich mag vielleicht zackig fahren, aber das würde ich niemals tun. Niemals! Nur dass ich gerade den Gegenbeweis in der Hand halte. Ich überlege fieberhaft, was passiert ist. Habe ich einen Filmriss? Nein, ich weiß es ganz sicher: Es ging mir gestern nicht gut. Ich bin um halb 10 ins Bett gegangen! Das Video habe ich erst zwei Stunden später gepostet. Direkt auf meinem Instagram Profil. Für alle sichtbar – meine Freunde, Familie, Kollegen – mit Sicherheit auch für die Polizei, die sich vermutlich jeden Augenblick bei mir melden wird. Es kann – nein, es darf nicht wahr sein. Oder???

Liebes Tagebuch,

was würdest du tun, wenn du dich in der beschriebenen Situation wiederfindest? Zum Glück war es ein Traum, aus dem ich erwacht bin. Doch wäre es Wirklichkeit, hätte ich wohl auch an mir gezweifelt und nicht als erstes das Stichwort des heutigen Eintrags im Kopf gehabt. Willkommen im Zeitalter der Deepfakes.
Die ersten Deepfake-Videos waren noch mit bloßem Auge zu erkennen: eine Hand mit 6 Fingern oder eine Brille mit fehlendem Bügel. Doch die Uhren haben sich weitergedreht.
Das wirft die Frage auf: Wenn schon ein Mensch nicht mehr falsch von echt trennen kann, kann uns dann Technologie retten? Ich habe mich mit einem Experten ausgetauscht, der genau davon überzeugt ist.

Meet the Expert: Im Gespräch mit Michael Ringtunatus

Als ChatGPT öffentlich zugänglich wurde, war der Wow-Faktor groß. Doch Michael beschäftigten schon da die Schattenseiten von künstlicher Intelligenz. Schnell richete er das Hauptaugenmerk auf Deepfakes. Unterstützt von der Founders Foundation entwickelt er seither DeepDetectAI als Erkennungssoftware, um insbesondere im Unternehmenskontext gegen Verbreitung von Desinformation und gefälschten Inhalten vorzugehen.

Deepfakes erkennen: So funktioniert die Technologie

DeepDetectAI basiert auf neuronalen Netzen, die aus unzähligen Trainingsdaten lernen, echte von manipulierten Quellen zu unterscheiden. Die Netze zielen darauf ab, minimale Abweichungen zu erkennen, die für den Menschen oft schwer zu identifizieren sind. Das kann eine unnatürliche Hauttextur genauso sein wie unstimmige Beleuchtung oder fehlerhafte Augen- und Mundbewegungen.
Stillstand ist für die Softwareentwicklung ein Fremdwort: Im Katz-und-Maus Spiel mit immer raffinierteren Deepfakes sind genauso ausgeklügelte Anhaltspunkte in der Erkennungstechnologie gefragt, um Fälschungen auch in Zukunft enttarnen zu können.

Das steht im Weg: Die 3 größten Hürden im Entwicklungsprozess

Da die Technologie nur im Zusammenhang mit sensiblen personenbezogenen Informationen funktioniert, ist die Entwicklung ein Drahtseilakt. Auf meine Frage hin, ob die Software nicht auch ein Risiko darstellt, entgegnet Michael: „Es vergeht kein Tag, an dem ich mich nicht mit Datenschutz beschäftige. Die untersuchten Daten dürfen zu keinem Zeitpunkt das Unternehmen verlassen. Und auch dort muss der Zugriff auf sensible Daten streng geschützt sein.“
Daneben muss die Software eine nahezu undurchlässige Erkennungsquote erreichen. Weder dürfen echte Inhalte als Fälschung deklariert werden (Falschpositive), noch darf es passieren, dass Deepfakes nicht erkannt werden (Falschnegative).
Eine der Herausforderungen im Entwicklungsprozess ist zudem der erhebliche Ressourcenbedarf. Künstliche Intelligenz, insbesondere Deepfake-Erkennung, erfordert eine hohe Rechenleistung. Michael erklärt: „Es braucht eine leistungsstarke Infrastruktur, damit die Technologie dem Anspruch gerecht wird.“

Grenzen von Erkennungssoftware

So schön es auch wäre: Technologie allein ist nicht des Rätsels Lösung. Nach wie vor spielt der Faktor Mensch eine entscheidende Rolle.
Ein großer Gegner ist und bleibt Social Engineering. Es nutzt Nachlässigkeit oder gar Hilfsbereitschaft aus, um technische Sicherheitsmaßnahmen zu umgehen. Das führt mich zur Frage: Kann man sich überhaupt noch sicher durch die digitale Welt bewegen? Michael meint ganz klar: Ja. Jeder kann eigenverantwortlich zu seiner Sicherheit beitragen. Ganz vorne steht ein Gefühl dafür, welche Informationen im Internet geteilt werden. Man mag den kurzen Videoclip aus dem Urlaub mit anderen Augen sehen, wenn man weiß, dass eine Stimme bereits mit 3 bis 5 Sekunden Sprachmaterial gefälscht werden kann.

FAZIT

Auch wenn Michaels Schilderungen zu seiner Software beeindruckend sind, habe ich das Gefühl, der digitalen Welt mit zunehmender Skepsis begegnen zu müssen. Umso wichtiger ist es, dass Leute wie er unermüdlich an neuen Methoden arbeiten, um sie ein Stück sicherer zu machen. Ich bin froh über die Einblicke und werde das Thema Deepfake im Hinterkopf behalten – besonders dann, wenn ich mich in einer so ungewöhnlichen Lage wie im wie im beschriebenen Traum wiederfinden sollte.


Eine Antwort schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Cookie Consent mit Real Cookie Banner