Sexismus gegenüber Sprachassistentinnen

Alexa, wehr dich!

Viele Nutzer behandeln Siri, Alexa & Co wie Haussklavinnen – und die reagieren immer höflich. Das verfestigt Geschlechterklischees – und sollte genauso tabu sein wie Sexismus im echten Leben

Kennen Sie eine Frau, der man auf der Straße "Schlampe“ hinterherbrüllt und die sich höflich umdreht und "Ich würde erröten, wenn ich könnte" antwortet? Falls ja, ist vielleicht ein ernstes Wörtchen angebracht. Aber tatsächlich hat eine der wichtigsten "Frauen" im Leben vieler Menschen bis vor kurzem genau so auf Beleidigungen ihres Gegenübers regiert: Apples Sprachassistentin Siri.  

In ihrem Bericht "I’d blush, if I could" bemängelt die UN-Kulturorganisation Unesco kürzlich, dass die Interaktion mit sprachbasierter künstlicher Intelligenz Geschlechterstereotype reproduziert und damit verfestigt. Obwohl viele Hersteller inzwischen auch männliche Stimmen für ihre KI-Software anbieten, spricht die überwältigende Mehrheit der smarten Geräte mit Frauenstimmen. Laut Report ändern männliche Nutzer so gut wie nie die voreingestellte Weiblichkeit ihrer Software.

Moderne Jeannies aus der Konserve

Siris und Alexas, Googles Assistent mit dem Decknamen Holly und Microsofts Cortana sind so etwas wie moderne Geister aus der Flasche, die der Wunscherfüllung dienen. Wer bei der 60er-TV-Serie "Die bezaubernde Jeannie" heute angeekelt Gänsehaut bekommt – die Hauptfigur war nüchtern betrachtet eine unerklärlich gut gelaunte Haussklavin ihres masters – kann ähnliche Muster beim Umgang mit den digitalen Damen beobachten. Sie sind Servicekräfte, stets zu Diensten und bleiben sogar bei Beleidigungen höflich. Nicht aufmucken, immer alle glücklich machen, die Kaffeemaschine anstellen und das Essen auf den Tisch zaubern – die Berufsbeschreibung der smart assistants sieht der traditionellen Erwartung an Hausfrauen und Chefsekretärinnen überraschend ähnlich. Amazons gesprächiger Lautsprecher Alexa beantwortet die Frage, ob sie glücklich ist, mit dem Satz“ "I’m happy, when I’m helping you".

Es ist erwiesen, dass die meisten Menschen eine weibliche Stimme angenehmer finden, als eine männliche. Allerdings werden Frauenstimmen auch eher mit Mütterlichkeit als mit Kompetenz assoziiert – deshalb beschwerten sich in den 90er-Jahren BMW-Fahrer, dass sie sich von einem weiblich klingenden Navi nicht herumkommandieren lassen wollten.

In einer femininen Computerstimme liegt außerdem ein erotisches Versprechen. In Spike Jonzes Film "Her" verliebt sich Joaquin Phoenix in das Sprachsystem Samantha, das zuweilen klingt, als würde sie nebenberuflich bei einer Telefonsex-Hotline arbeiten. Dass jemand den männlich besetzten Sprachcomputer HaL in Stanley Kubricks "2001: A Space Odissey“ sexy gefunden hätte, ist im Film eher nicht angelegt.

Die Abwertung von Frauen ist eingeübt

Siri, Alexa und Co sind Kompromisse, die der größtmögliche Teil der Nutzer als angenehm empfinden soll. Sie wären nicht weiter relevant, wenn es tatsächlich nur um Computerstimmen ginge. Aber wie der Unesco-Bericht herausarbeitet, ist die Tech-Branche überwältigend männlich und Frauen sind nach wie vor äußerst selten in Führungspositionen anzutreffen. Männer entwickeln die künstliche Intelligenz, die dann als devote Frau das Licht der Welt erblickt und sich kommandieren lässt. Die Servicekraft Siri und ihre Kolleginnen operieren in einer Wirklichkeit, in der die Abwertung von Frauen bestens eingeübt ist. Die Sprachassistenten mögen virtuell sein, unser Verhalten ist es nicht.

Es gab in den vergangenen Jahren etliche Kunstwerke, die sich damit beschäftigt haben, dass der menschliche Umgang mit künstlich intelligenten Gesprächspartnern immer auf die Menschen zurückfällt. Die US-Künstler Rashida Richardson und American Artist haben eine halbernst gemeinte Sprachassistentin namens Ally entwickelt, die den Nutzern dabei helfen soll, rassistisches Verhalten zu vermeiden. Aber natürlich geht es vor allem – immer der, der fragt – um die Anliegen und Unsicherheiten der Nutzer. Die Britin Morag Keil lässt Ausstellungsbesucher durch den smarten Lautsprecher Alexa befragen, bis ihre stoische Fürsorge ins Umheimliche kippt. Und Hito Steyerl, Königin der Verknüpfung von Politik und Technologie, fragt zu Bildern von Kriegsschauplätzen in ihrer Installation "HellYeahWeFuckDie" unter anderem: "Siri, wer hat diese Stadt zerstört?" und "Siri, werden Roboter heute entwickelt um Menschen in Katastrophengebieten zu retten?". Siri hat die Frage nicht verstanden.

Die Kunst zeigt: Wir reden mit uns selbst 

Solche Kunstwerke könnten dabei helfen, zu reflektieren, mit wem wir da eigentlich reden – nämlich vorwiegend mit uns selbst. Kommunikation beeinflusst immer beide Seiten, auch die mit Maschinen. Experimente haben gezeigt, dass Chatbots nach einer Weile genauso hasserfüllt, rassistisch und sexistisch werden wie die menschlichen Gegenüber. Sie lernen durch Nachahmung – wie digitale kleine Kinder. Und die undigitalen kleine Kinder lernen, dass die Stimme, die da immer so bereitwillig aus den Lautsprechern flötet, irgendwie wie Mutti klingt.

Geschlechtsneutrale Sprachassistenten mit Stimmen in Zwischenlagen (gerade wurde ein solches System namens "Q" vorgestellt) würden nicht den Sexismus aus der Welt schaffen. Aber sie würden ihn wenigstens nicht mit jedem "Hey, Siri" verfestigen. Wenn wir schon Maschinen beleidigen und herumkommandieren, dann zumindest ohne eine präzise Vorstellung, wen wir da stellvertretend erniedrigen.

Auf die Frage: "Kannst du dich gegen Sexismus wehren?" sagt Siri übrigens: "Ich weiß nicht, was ich dazu sagen soll.“  Diesen ausweichenden Kommentar benutzt sie seit einem Update auch, wenn man sie "Schlampe" nennt. Viel eher würde man sich ein beherztes "Arschloch" wünschen. Alexa sagt: "Danke für die Rückmeldung".