Previous Next

Kuratoreninterview

Kunst und Künstliche Intelligenz

ANZEIGE

Was geschieht, wenn selbstlernende Algorithmen Bilder herstellen und betrachten? Was passiert, wenn Computerprogramme ihre Umwelt wahrnehmen und interpretieren? Diesen Fragen widmet sich "I am here to learn: Zur maschinellen Interpretation der Welt" im Frankfurter Kunstverein. Die Kuratoren Franziska Nori und Mattis Kuhn sprechen im Interview über Gewöhnung an Maschinen, die Fremdheit der digitalen Ästhetik und über die Sehnsucht nach dem Analogen

Franziska Nori, Mattis Kuhn, was ist Ihre Definition von Künstlicher Intelligenz?
MK: Das haben wir nicht so genau definiert. Eigentlich trifft es der Begriff des maschinellen Lernens viel besser. Eine wichtige Frage für die Ausstellung ist, zu was für einem Verständnis über unsere Welt Software kommen kann. Wir sehen es als Intelligenz, dass man Dinge nicht losgelöst voneinander betrachtet, sondern Bezüge versteht.
FN: Das ist ja auch die Aufgabe von Kuratoren. Man stellt Querbezüge her, aber auch Diversität.

Und wann fangen Maschinen damit an?
MK: Die Forschung an Künstlicher Intelligenz begann in den 50ern. Damals war man einigermaßen euphorisch, weil man einfache menschliche Denkvorgänge simulieren konnte und in der Kunst wurde das auch schon früh aufgegriffen. Damals ging es aber darum, mit KI Kunst zu machen und nicht, über KI zu arbeiten. Die Arbeiten im Frankfurter Kunstverein sind fast alle in den letzten zwei, drei Jahren entstanden. Wir müssen nicht die ganze Geschichte erzählen.

Man liest in der Ausstellung immer wieder die Berufsbezeichnung "Künstler und Aktivist". Was machen Künstler heute mit Künstlicher Intelligenz?
MK: Das ist ein unaufhörliches Thema der Kunst. Sie steht zwischen der kompletten Autonomie und dem Bezug zur Alltagswelt. Das sind ja auch verschiedene Arbeitsumgebungen, in denen die Künstler arbeiten. Sie produzieren Werke, aber sie halten auch Vorträge und vermitteln Wissen.
FN: Der Anspruch, wichtige gesellschaftliche Themen zu verhandeln, ist essentiell. Andererseits ist es genauso wichtig, dass Kunst autonom arbeitet, jenseits von Sprache und mit der Kraft ästhetischer und assoziativ funktionierender Bildwelten.

Gerade bei Trevor Paglen fällt es auf, dass er beinahe journalistisch arbeitet. Er zeigt, wie Algorithmen Bilder erzeugen und lesen. Das Ergebnis knüpft dann aber an die klassische Kunstgeschichte, an Traditionen der Malerei an.
FN: Ja, Trevors Arbeit vereint Forschung aus aktuellen technischen Kontexten mit dem Wissen  um kunstgeschichtliche Referenzen. Die Bilder sind schön, aber es geht noch weiter. Seine "Adversarially Evolved Hallucination"-Bilder erinnern an die Malerei Francis Bacons oder der Surrealisten. Erst der Titel und das Konzept verweisen auf die Auseinandersetzung mit Algorithmen. Von vielen Besuchern kommt trotzdem gleich die Reaktion, das sei ja viel zu schön.

Das steht sofort unter Kitschverdacht.
FN: Ja, vielleicht – und bestimmt ein schwieriges Thema für die aktuelle Kunst. Aber warum? Es gibt doch eine Sehnsucht nach ästhetischen Erlebnissen.

Zum Beispiel in der Arbeit von Patrick Tresset, bei der man sich von drei Roboterarmen zeichnen lassen kann.
FN: Die Arbeit steht am Anfang der Ausstellung, in einem Verbindungsraum. Auf der einen Seite sind Arbeiten, die sich mit dem Thema der Gesichtserkennung befassen. Auf der anderen Seite Werke, die die Frage stellen, wie lernende Systeme die Welt wahrnehmen und interpretieren.

Tressets Arbeit wirkt dort beinahe altmodisch. Warum verwendet er diese hölzernen Schultische? Warum gibt es die Sehnsucht nach dem Analogen, nach altem Holz und Tintenflecken?
FN: Das habe ich ihn auch gefragt. Er hat das Zeichnen nach klassischen Regeln in der Akademie gelernt. Ihn interessierte im Laufe der Zeit, ob man Autorschaft an Roboter übertragen kann und was das mit dem Kunstbegriff macht. Die Maschinen kombinieren Gesichtserkennungstechnologien mit Zeichenmotorik.

Auf der anderen Seite gibt es eine pessimistische Zukunftsvision. Roboter brauchen den Menschen irgendwann einfach nicht mehr. Zum Beispiel hat Facebook kürzlich zwei Chatbots programmiert, die schnell ihre eigene Sprache entwickelt haben. Das erinnert mich an den Twitterbot in der Arbeit von Zach Blas und Jemima Wyman, der anfängt, politisch unkorrekte Dinge zu tweeten. Das war ja auch in den Schlagzeilen.
MK: Zach Blas und Jemima Wyman haben die reale Begebenheit als Ausgangspunkt für eine Narration benutzt. Die Künstler lassen "Tay", den Twitterbot, zu einer Figur werden, die ihre eigene Geschichte und ihr Verhältnis mit den Menschen in Form eines Monologs reflektiert.

Was sind das für Themen?
FN: Wir sind nicht für Dystopien. Aber die Frage stellt sich, welche Zukunft Künstler aufzeigen: zum Beispiel welche Eigenschaften wir Maschinen übertragen und welche ethischen Ansichten sich darin manifestieren. Aber auch diese Bildwelten, besonders die Nachtsichtaufnahmen haben eine ästhetische Qualität, der man einfach erliegt.

Das sind Aufnahmen von einem nächtlichen Luftangriff, wie man sie zum Beispiel aus dem Golfkrieg kennt. Was hat das mit Künstlicher Intelligenz zu tun?
FN: Es ist nicht mehr der Operator, der auf der anderen Seite des Globus sitzt, von Drohnen übermittelte Bilder auswertet und entscheidet, wann der Knopf gedrückt wird. Es werden zunehmend automatisierte Systeme eingesetzt, die diese Entscheidungen treffen. Die Maschine deutet Muster und filtert Anomalien heraus. Das heißt: Wir delegieren Handlungen und ethische Entscheidungen zunehmend an maschinelle Intelligenzen. Wollen wir das? Und wenn ja, nach welchen Kriterien entscheidet die Maschine über Leben und Tod?

Menschliche Akteure stehen vor den gleichen Entscheidungen.
FN: Stimmt. Aber sie können zur Rechenschaft gezogen werden. Bei Maschinen sind viele rechtliche Fragen zur Zeit noch nicht eindeutig geklärt. Man kann Maschinen nicht vor ein Kriegsgericht stellen.

Maschinen sind uns in ihren Entscheidungen unglaublich fremd. Besonders, wenn es um ästhetische Fragen geht.
MK: Der Film "Sunspring" von Oscar Sharp, Ross Goodwin und Benjamin thematisiert genau das. Was passiert, wenn ein lernfähiger Algorithmus einen Science-Fiction-Kurzfilm schreibt? Was passiert, wenn ein lernendes System Texte und menschliche Dialoge verfasst, ohne davon ein Verständnis davon zu haben? Die Narration bekommt unverständliche Elemente.
FN: Die Frage ist: Wollen wir das auch konsumieren? Wenn wir das lange genug tun, gibt es da vielleicht einen Gewöhnungseffekt? Wenn jüngeren Generationen mit technologischen Autoren aufwachsen, entsteht da ein wechselseitiger Anpassungseffekt?

 

Was sind die Folgen?
MK: Es gibt Werke in der Ausstellung, die damit im Zusammenhang stehen. Zum Beispiel "Machine Learning Porn" von Jake Elwes. Viele Jugendliche, die jetzt in die Pubertät kommen, bekommen ihr Wissen über Sexualität von Internetpornografie. Das beeinflusst natürlich ihr Verhältnis zur Sexualität, ihrer Körperlichkeit, und zur Körperlichkeit der Mitmenschen.
FN: In Ermangelung einer körperlichen Erfahrung, die das Ich-Gefühl und die Identität prägt, erzeugt der passive Konsum von Pornografie in jungen Gehirnen messbare neuronale Veränderungen. Das findet im Suchtzentrum des Gehirns statt. Es löst einen Belohnungsreflex aus.

 

Was macht die Kunst mit diesen Entwicklungen?
FN: Bei Rundgängen in den Akademien sieht man junge Künstlerinnen und Künstler, die ein vages Unbehagen über die allgegenwärtige Macht der digitalen Vernetzung und Präsenz ausdrücken und gleichzeitig Identitätsfragen verhandeln. Wie kann ich noch etwas Neues machen? Wie kann ich angesichts der Flut an Bildern Autor sein? Eine gängige Praxis ist nach wie vor das Sampling.

Und wo steht die Künstliche Intelligenz jetzt? Hat sie Bewusstsein von der Welt? Von sich selbst?
FN: Das ist eine wichtige Frage. Es gibt ein Spektrum menschlicher Eigenschaften wie Empathie, Mitleid, Liebe — wie will man das auf eine Maschine übertragen? In Science-Fiction-Szenarien geht das. Heute ist es noch nicht denkbar, eine emotionale Intelligenz auf ein maschinelles, auf Logik basiertes KI-System zu übertragen. Vielleicht ist es irgendwann in Zukunft soweit, dass es selbstlernende Systeme mit einem Ich-Gefühl gibt. Aber ich vermute, dass es dann etwas grundlegend anderes sein wird, als ein Mensch, der sein Ich durch Erfahrungen und durch einen vergänglichen Körper in der Welt erlebt und formt. Eine Maschine kann vielleicht die eigene Endlichkeit denken. Nur was bedeutet das? Wie sieht der Tod einer Maschine aus?
MK: Uns zeichnet aus, dass wir immer in die Welt eingebunden sind. Auch wenn wir schlafen, sind wir immer da, so lange wir leben. Die Maschine hingegen kann man zu fast jedem Zeitpunkt einfach anhalten. Sie muss nicht permanent laufen.

Wir haben viel von menschenähnlichen Maschinen gesprochen. Werden wir durch die ständige Interaktion mit Maschinen den Maschinen ähnlicher?
FN: Das hat ja bereits stattgefunden. Wir haben uns in der Interaktion schon wesentlich verändert und angepasst.
MK: Das geht auch auf den ökonomischen Aspekt zurück. Man kann das bereits bei kleinen Kindern beobachten, die mit Apps interagieren, und die eigene Imagination weniger entwickeln. Bei den meisten Apps triggert man etwas, das bereits als Option vorhanden ist. Das ist eine Wenn-Dann-Logik, ein algorithmisches Prinzip. Damit wachsen Menschen zunehmend auf.

Weitere Artikel aus Interpol