KI und Kulturindustrie

Das Vertrauen in Medien wird neu ausdiskutiert

Deepfakes verändern unsere Wahrnehmung der Welt: Was bislang von großen Teams in Monaten erarbeitet wurde, entsteht nun dank Künstlicher Intelligenz in wenigen Sekunden. Sind wir darauf vorbereitet?

Vergangene Woche war ich auf dem Kongress "Zukunft Deutscher Film" in Frankfurt am Main, um bei einer Podiumsdiskussion über das Thema "KI und Kulturindustrie" zu diskutieren. Das Thema würde ja allmählich auch die Filmwelt intensiv beschäftigen. Auch hier oszillierte die Stimmung zwischen Faszination und ausgeprägtem Unbehagen. Ein Gefühl, das mich immer wieder seit Jahren begleitet, wenn es um das Thema geht.

Vor zweieinhalb Jahren berichtete ich an dieser Stelle über Deepfakes in Fotografie und Film. Damals wussten wir noch nicht, dass Covid-19 den Rhythmus der Welt gehörig aus dem Tritt bringen würde. Eine Pandemie später ist ist das Thema KI interdisziplinär im Mainstream angekommen. Von Seiten der Politik wird derzeit diskutiert: Geht die Entwicklung zu schnell? Haben wir als Gesellschaft die Fortschritte noch unter Kontrolle? Brauchen wir ein Moratorium und wenn ja, wer hält sich daran? Auch Elon Musk forderte eine angezogene Handbremse, und da Musk schon in OpenAI investierte und dem Thema nicht fern ist, stellt sich die Frage: Wissen Elon Musk und die anderen besser Bescheid, was uns wirklich bevor steht? Können sie potenzielle Gefahren besser erkennen, weil sie tatsächlich wissen, was für die nächsten Jahre tatsächlich in den Startlöchern steht? Oder ist die Panikmache seitens der Politik erneut ein Zeichen technologischer Hilflosigkeit und mangelnder Medienkompetenz?

Googles CEO Sundar Pichai erklärte kürzlich in US-Medien, dass der jetzige KI-Boom auch sein Unternehmen unter Zugzwang brachte. Eigentlich seien für die eigenen KI-Plattformen wie Bard (vergleichbar zu ChatGPT von Open AI) ganz andere Timings geplant gewesen. Man wollte auch als Firma die Menschheit Stück für Stück in die Thematik einführen, um Überforderungen und negative Reaktionen (vielleicht auch Missbrauch?) seitens der User zu minimieren. Jetzt sollen alleine im vergangenen Monat mehr als 2.000 neue KI-Tools veröffentlicht worden sein. Und damit Megafirmen wie Google, Amazon und auch Facebook nicht so dastehen, als hätten sie einen weltweiten Trend völlig verschlafen, werden bei den Big Playern die gezüchteten Tiere früher aus den Stallungen gelassen, ohne wirklich zu wissen, wie gut sie sich in freier Natur eigentlich schlagen werden. Man sei auf Eventualitäten vorbereitet. So richtig souverän und beruhigend klingt das nicht.

Nichts davon ist je passiert

Das Vorhandensein einer Technologie sagt wenig über tatsächliche Nutzungsszenarien aus. Auch beim Thema Gesichtsmanipulationen war man 2019 noch erstaunt, dass das geht. Es brauchte eine gewisse Zeit, um zu sehen, wie man solche KIs auch praktisch für Filmproduktionen nutzen kann. Ich werde hier einige Beispiele zeigen. Beim ersten kann man sehen, wie aus einer Meme-tauglichen TikTok-Idee ein eigenes Business entstehen kann. Vor zwei Jahren startete der TikTok-Kanal deeptomcruise. Ein Parodie-Account mit dem bestbezahlten Schauspieler der Welt. Rund 15 Jahre jünger und gut in Schuss sehen wir hier Tom Cruise, wie er mit Diplo an dessen DJ-Kanzel feiert. Wie er mit Paris Hilton Quatsch in der Küche macht oder mit der Top-Influencerin Super Car Blondie Erste-Klasse-Drinks an der Flugzeug-Bar bestellt. Nichts davon ist je passiert. Aber es sind gerade die scheinbar alltäglichen Momente im Leben eines Superstars, die die Illusion, das sei jetzt wirklich Tom Cruise, ziemlich perfekt erscheinen lassen.

Mittlerweile haben die Macher hinter dem Account eine eigene Firma gegründet, und Metaphysic AI versteht es gut, das Thema Deepfake populär zu vermarkten. Metaphysic AI nahm im vergangenen Herbst an der erfolgreichen Casting-Show "America’s Got Talent" teil. Mit ihren Performances schafften sie es bis ins Staffel-Finale. Nicht nur Elvis Presley sondern auch Simon Cowell, Heidi Klum und Sofia Vergara aus der Jury waren Teil der Showeinlagen.


Das Konzept, Gesichter über Motion Capture zu animieren, gibt es einige Jahre. Aber es handelte sich um aufwendige Prozesse, die einst Jahre brauchte, um sichtbare Ergebnisse zu liefern. Dass in der Casting-Show die Figuren live erschaffen wurden, begeisterte das Publikum nicht zu unrecht.

Wie schnell heute Motion Capture umgesetzt werden kann, wurde kürzlich mit der 3D-Plattform Unreal Engine 5 demonstriert. Sie ist eine der umfangreichsten und komplexesten Gaming-Engines auf dem Markt und hat nicht nur für Videospiele eine große Bedeutung. Auch für Anwendungen in Film, VR und Metaverse ist sie relevant. Das neue Feature MetaHuman Animator wurde auf der Konferenz "State of Unreal 2023" präsentiert und zeigt, wie man auf Basis eines einfachen Smartphone-Videos binnen weniger Minuten einen digitalisierten Avatar oder Gaming-Character erstellen kann. Was bislang von großen Teams in Monaten erarbeitet wurde, entsteht nun schneller, als ein Cappuccino im Siebträger zubereitet wurde.


Als letztes Beispiel möchte ich die Funktion TrueSync der Firma Flawless AI zeigen. Hier handelt es sich um ein recht konkretes Anwendungsszenario. Wie kann man in der Post-Produktion Zitate von Schauspieler:innen anpassen, ohne eine Szene neu drehen zu müssen? In diesem Clip geht es darum, dass in der Endfassung eines Films zu viele F-Wörter auftauchen, um eine massenkompatible Altersempfehlung für den Kinostart zu erhalten. Mit TrueSync ist das kein Problem mehr. Werden einmal die Gesichter der Schauspieler:innen gescannt, können unnötige Schimpfwörter nicht nur lippensynchron zensiert werden. Auch können Synchronisationen so produziert werden, dass selbst in Sprachen wie Japanisch oder Spanisch die Lippenbewegung authentisch sind.


Die Möglichkeiten lassen sich endlos weiterspinnen. Deepfake im Film dürfte gerade beim Einsatz von Stunt-Doubles in Actionszenen interessant sein, weil Stunt-Personen nicht mehr notwendigerweise von hinten oder mit abgeschnittenem Kopf gefilmt werden müssten. Zwar ist Tom Cruise dafür bekannt, dass er den Großteil seiner Stunts selber macht. Er könnte theoretisch in Zukunft einfach sein Gesicht und seine Popularität lizenzieren und gegen Geld zur Verfügung stellen. Ohne lästige Drehtage, einfach vom Wohnzimmer aus. So ließen sich viel mehr Filme parallel produzieren.

Würden das die Fans überhaupt merken? Wie wäre es mit neuen Filmen mit verblichenen Ikonen wie Audrey Hepburn und Buster Keaton? Das mag alles prima klingen. Aber wie wird sicher gestellt, dass Tom Cruise auch wirklich weiß, was sein Avatar in einem KI-Film sagen wird? Manchmal nehmen Schauspieler:innen Einfluss auf Textpassagen, streiten mit Regisseur:innen, vielleicht wünscht die Industrie aber auch einen Superstar, der keine Probleme am Set macht, damit alles nach Plan läuft. Außerdem könnten Produktionsfirmen ungefragt Sex-Szenen oder Werbebotschaften für den besseren Umsatz "einspielen" lassen.

Deepfake-Videos in dieser guten und offenbar schnell umsetzbaren Qualität machen vor allem im Journalismus die Verifizierung von Inhalten zur noch komplizierteren Sache. Hat Joe Biden im Weißen Haus wirklich Putin den Atomkrieg erklärt? Man möchte ahnen, dass gerade aus rechtspopulistischen und verschwörungsideologischen Lagern eine Schwemme von manipulierten Bildern und Videos in die sozialen Netzwerke strömen werden. Reptiloide Geheimtreffen, Kanten der flachen Erde, Papst Franziskus im weißen Puffer-Mantel. Die Triebkräfte sind zweifellos vorhanden.