Mimi Ọnụọha in der Secession

"Objektivität gibt es hier nicht"

Mit "Soft Zeros" zeigt Mimi Ọnụọha in Wien eine Ausstellung über digitale Leerstellen und strukturelle Auslassungen. Hier erklärt die Künstlerin, wie Daten Erinnerung prägen – und warum auch Archive niemals neutral sind

Was wird geschehen, wenn Algorithmen zu den Wächtern unserer Erinnerungen werden? In der Wiener Secession verwebt die US-amerikanisch-nigerianische Künstlerin Mimi Ọnụọha gerade Vergangenheit und Zukunft zu einem Szenario, das nachdenklich stimmt und dabei – ohne den Humor zu verlieren – eine KI-generierte Krise der Erinnerungskultur entwirft.

"Soft Zeros", so der Titel der Ausstellung, bezeichnet in der Statistik Werte, die als "Nichts" erscheinen. Ist ein Ereignis also niemals geschehen, wenn es keine Aufzeichnungen dazu gibt? Ọnụọha richtet ihren Blick auf die Fortsetzung struktureller Marginalisierung im Digitalen. Die oft beschworene Demokratisierung durch Datentransfer stellt sie infrage und gräbt damit an den Grundpfeilern einer ohnehin zunehmend bröckelnden postdigitalen Euphorie.

Bereits 2021 präsentierte die Künstlerin im Haus der Kulturen der Welt in Berlin eine eindrückliche Arbeit, in der sie algorithmische Gewalt thematisierte. In Wien bildet nun die Marginalisierung Schwarzer Menschen in den USA den Ausgangspunkt – konkret der Umstand, dass sie in Archiven nicht erfasst wurden. Auf nur drei Räume verdichtet, entfaltet sich ein Netz aus Querverweisen und Gedankenfäden, das weit über die Ausstellung hinausreicht.

George Orwells Dystopie "1984" kann einem dabei in den Sinn kommen: Auch dort wird Erinnerung relativ, schreibt man die Geschichte doch jeden Tag neu. Ọnụọha liegen derartige apokalyptische Szenarien allerdings fern. Ihren Humor hat sie selbst durch die erschütternden Resultate ihrer Nachforschungen nicht verloren, benutzt ihn vielmehr als Waffe im Kampf gegen das Vergessen.

 

Mimi Ọnụọha, Lücken und Ungereimtheiten in digitalen Datensätzen sind ein zentraler, wenn nicht sogar der zentrale Aspekt Ihres künstlerischen Schaffens. Woher rührt dieses Interesse?

Ich denke, es beginnt mit einer einfachen Frage: Wie entscheiden wir, was wichtig ist? Ein Professor sagte mir einmal ganz beiläufig, dass Menschen die Welt durch Ausgrenzung verstehen. So wie eine Karte viele Informationen auslässt, um das Wesentliche zu vermitteln, brauchen wir Abwesenheit, um narrative Kohärenz und Sinnstiftung zu erreichen. Aber seit meiner Kindheit habe ich immer das Gefühl gehabt, dass nicht alle Abwesenheiten gleich sind.

Das heißt?

Ich konnte den Unterschied spüren zwischen den Dingen, über die ich nicht sprechen sollte, und den Informationen, die einfach wegfielen, weil sie nicht zu den Prioritäten eines Systems passten. So oder so habe ich etwas Neues über die Welten gelernt, in denen ich lebte, indem ich sah, was in diesen Welten nicht zusammenpasste. Und weil ich mich schon immer zu dem hingezogen fühlte, was wichtig ist – oder vielmehr: warum manche Dinge nicht wichtig zu sein scheinen –, wurde das Hinterfragen von Abwesenheit zu meiner Art, die Systeme zu verstehen, die unser Leben im weiteren Sinne prägen.

Haben leere Datensätze Einfluss auf unser kollektives Gedächtnis?

Sie können, ja. Es steckt Wahrheit in dem Sprichwort "Was gemessen wird, ist wichtig". Manchmal denke ich, dass dies ähnlich ist wie die Idee der sprachlichen Relativität. Wir können viele Konzepte verstehen, für die wir keine Worte haben, aber wenn wir ein Wort dafür haben, ist es einfacher, sie zu kategorisieren und zu konzeptualisieren. Die Dinge, die wir messen und in Daten darstellen können, lassen sich oft leichter durchdenken, umsetzen und mitnehmen. Genau aus diesem Grund interessiere ich mich so sehr für Abwesenheit und für die leeren Datensätze selbst. Sie bergen das Potenzial für unterschiedliche Ansätze und Sichtweisen auf uns selbst. 

Wird unser kollektives Gedächtnis in der Zukunft durch die KI gesteuert werden? Wird das Instrumentarium gegen das Vergessen, das digitale Archiv, sich gegen uns wenden?

Glücklicherweise gibt es kein einheitliches kollektives Gedächtnis. Das "Wir", mit dem die Regierung eine Nation beschreibt, ist niemals dasselbe "Wir", das Revolutionäre mit ihren Slogans zu vereinen versuchen. Keiner von uns gehört nur zu einer einzigen Gruppierung, und jedes "Wir" hat sein eigenes kollektives Gedächtnis, das ständig neu verhandelt wird. Selbst heute noch zeichnen die LLMs, die Large Language Models (Große Sprachmodelle), die wir hauptsächlich als KI betrachten, eine bestimmte Version unserer Gesellschaften auf, nämlich die Version, die aus unserem jahrzehntelangen Online-Leben gewonnen werden kann. Aber das ist nicht die Gesamtheit unserer Erinnerung, unserer Vergangenheit oder unserer Zukunft. Wir müssen uns bewusst sein, dass selbst die Korpora, auf die sich diese LLMs stützen, zwangsläufig unvollständig sind. Diese Erkenntnis kann wirklich eine große Kraft entfalten.

In Wien bildet die Videoarbeit "Ground Truths" den Kern Ihrer Ausstellung. Darin zeigen Sie mit Ironie und doch voller Ernsthaftigkeit den Versuch, ein maschinelles Lernmodell zu trainieren. Der Versuch scheitert am Ende, das Modell hat nicht genug Daten. Sie füttern es quasi mit Nullen, mit leeren Datensätzen. Kann man Lücken in Datensätzen überhaupt füllen, ihnen entgegenwirken? Oder scheitert das System an sich selbst?

In dem Video versagt das Modell und ist gleichzeitig erfolgreich. Es kann eine unvollständige Wahrheit erzählen – einen fundierten und datengestützten Teil der Geschichte –, aber es kann nicht die Teile der Geschichte erfassen, die sich nicht nur in Daten, sondern auch durch individuelle Eigenheiten und Verleugnungen der Gemeinschaft abgespielt haben. Es ist wie bei einem Sieb, das Lebensmittel zurückhält, aber Wasser herausfiltert. Das Modell kann nur das tun, wofür es entwickelt wurde, und die Spannung meiner Arbeit besteht darin, dass die Hauptfigur versucht, es zur Lösung von Problemen einzusetzen, für die es nicht konzipiert ist. In gewisser Weise ist dies eine der wichtigsten Aufgaben, die wir meiner Meinung nach in Bezug auf unsere Modelle vor uns haben. Wir müssen lernen, den richtigen Anwendungsbereich für sie zu bestimmen. Noch wichtiger ist, dass wir herausfinden müssen, was die falschen Anwendungsbereiche sind.

Das Narrativ der Videoarbeit folgt dem Prinzip des Infotainments: Abstrakte Zusammenhänge werden niedrigschwellig und mit Humor vermittelt, sodass auch Laien problemlos folgen können. Information und Entertainment greifen hier ineinander. Ist es diese Fähigkeit, den Humor nicht zu verlieren, die für Sie den Weg zum Ziel weist?

Sie haben Recht, dass das Thema zwar schwer und abstrakt ist, die Präsentation jedoch zugänglich und sogar unterhaltsam. Das war eine bewusste Entscheidung. Zum Teil ist es ganz einfach: Ich wollte ein Video erstellen, das die Leute sehen wollen, und nicht nur etwas, das sie sehen sollten. Aber es ist auch eine Strategie. Bei Themen wie maschinellem Lernen und Erkenntnistheorie schalten die Menschen leicht ab. Auch bei Konzepten wie historischer Gewalt und strukturellem Rassismus neigt man dazu, sich defensiv zu verhalten. Meine Herausforderung bestand darin, einen Weg zu finden, diese Impulse zu umgehen, damit die Zuschauer den ganzen Film über dabei bleiben. Dabei haben mir Humor und ein schnelles Tempo geholfen.

Bereits 2021 haben Sie sich im Haus der Kulturen der Welt in Berlin mit algorithmischer Gewalt auseinandergesetzt. Was verstehen Sie unter diesem Begriff?

Ich habe den Begriff bereits 2018 geprägt, um die Gewalt zu beschreiben, die ein Algorithmus oder ein automatisiertes Entscheidungssystem ausüben kann, indem es Menschen daran hindert, ihre Grundbedürfnisse zu befriedigen. Der Begriff ist auch heute noch aktuell, da KI-Einstellungssysteme und Hypothekenkredit-Tools rassistische Vorurteile aufweisen und einige Social-Media-Seiten extrem gewalttätige und sexualisierte Inhalte ohne oder mit nur geringer Moderation verbreiten. Ich wollte immer, dass der Begriff im Zusammenhang mit anderen bestehenden strukturellen Gewalttaten verstanden wird, die oft systemisch und intersektional sind, obwohl sie individuell erlebt werden.

Ist die Demokratisierung durch Digitalität eine Illusion? Sind Daten durch Deutungshoheit geprägt?

Die Demokratisierung durch Digitalisierung ist keineswegs eine Illusion. Der bleibende Segen unseres digitalen und vernetzten Lebens besteht darin, dass es den Zugang auf eine Weise demokratisiert hat, mit der traditionelle Gatekeeper noch immer zu kämpfen haben. Aber jeder Segen ist auch ein Fluch, und wir müssen noch immer die Fragen beantworten, die dieser Demokratisierung vorgelagert und nachgelagert sind. Dabei handelt es sich um Fragen des Vertrauens, der Autorität und der Ethik. Die Autorität von Daten liegt in ihrer Fähigkeit, sich als objektiv und unberührt zu präsentieren. Wir sollten jedoch nie vergessen, dass jeder Datensatz bereits interpretiert ist. Objektivität gibt es hier nicht.