Drittens: Das Thema ist noch nicht soweit wie alle glauben. Ich hab grad für die Arbeit ne Recherche zum Thema abgeschlossen
Eben nicht, solange ich doch weiss, dass Deepfakes existieren darf ich halt nicht aufgrund eines Videos Leute verurteilen. Hab ich eh nie, easy. Das Problem liegt bei Leuten die immer noch allein auf Videos vertrauen. Und Menschen die ander Menschen vorverurteilen.
Es gibt seit 150 Jahre gestellte Fotos, seit 100 Jahren Filmtricks durch Schnitt sowie andere Manipulationen, seit 40 Jahren CGI und selbst Photoshop hat den 30ten Geburstag schon hinter sich. Trotzdem glauben Menschen selbst absurde Nachrichten, nur weil man ihnen ein Foto oder gar Video dazu zeigt. Bei Behauptungen, zu denen keine direkten Gegenbelege vorliegen (und das wäre bei Aussagen über die "Geheimnisse" von Privatpersonen immer so), reicht ein drastischer Bildinhalt sogar regelmäßig aus, um gewalttätige Aktionen bis hin zu militärischen Konflikten zu triggern. KI-Deep-Fakes sind nur ein weiteres Instrumentarium für derartige Meinungs-Manipulationen und Pornos, sei es mit legalem oder nicht legalem Inhalt, nur ein mögliches Anwendungsgebiet. Dass sie jetzt jedem leicht zugänglich sind, bedeutet tatsächlich, dass man gar keine Informationen mehr aus Bildern und Videos beziehen sollte – aber es könnte viele Jahrzehnte dauern, bis die Mehrheit das eingesehen hat. Möglicherweise sogar länger, denn Textbeiträgen wir schon länger nicht mehr geglaubt und somit bliebe dann gar keine Informationsquelle mehr übrig. Bis die Einstellung zu Bildmaterial kippt, sind Deep-Fakes aber gefährlich und können Leben vernichten – sozial, ökonmisch und auch physisch.
Mhm. Könnte man nicht KI so trainieren das sie Deepfake erkennt und blockiert?
Jein. Viele arbeiten an Anti-KI-Systemen, oberflächlich mit Erfolg. Intel hatte auf der Innovation zum Beispiel eine Vorführung für Bilderkennung: Muster, die für Menschen weitestgehend willkürlich aussehen, können dafür sorgen, dass ein neben dem Muster stehender Mensch nicht mehr als solcher, sondern zum Beispiel als Vase erkannt wird. Das ist zwar die Gegenrichtung, aber wenn man durch untypischen Input die Erkennungsstufe einer analysierenden KI stören kann, dann ist man ganz schnell auch in der Lage, Artefakte im Output einer generierenden KI zu erkennen – hinter den meisten aktuellen Systemen stecken Transformer, die sich sowohl in die eine als auch die andere Richtung nutzen lassen.
Es gibt aber ein grundsätzliches Problem, auf das mir auch der Intel-Forscher keine bessere Antwort als "gute Frage" geben konnte: Sobald man solche Techniken allgemein verfügbar machen würde, könnte man sie ganz einfach als Trainingssystem für die nächste KI-Generation nutzen. Schon heute lernt ein KI-Algorythmus, in dem er zunächst zufällig generierte Inhalte einem Gegenspieler als echt unterzuschieben, während dieser wiederum zu lernen versucht, Fakes zu erkennen. Gib diesem Gegenspieler Zugang zu dem "Deepfake-Erkenner" und binnen kurzer Zeit wird die KI gelernt haben, letzteren auszuhebeln. Und bislang hat zum Beispiel Intel keine Gesetzmäßigkeiten gefunden, die eine schnelle Generierung zum Beispiel dieser Täuschungsmuster erlauben würden. Das in entscheidenden Teilen Handarbeit von Menschen, während das KI-Training automatisch abläuft. Da kann sich jeder denken, wer in einem Wettrennen um immer bessere Fakes und immer bessere Fake-Erkennung die Nase vorn haben wird. Wir sind es nicht.
Zuletzt bearbeitet: