KI ist für viele Menschen bereits Alltag: Von einfachen Ratschlägen über Reisetipps und Kochrezepte bis zum Verfassen von Abschlussarbeiten – es gibt kaum einen Sektor, der heute nicht von generativen KIs durchdrungen ist. Auch der Arbeitsalltag ist für viele ohne ChatGPT und Co. kaum noch vorstellbar.
Die maschinelle Kommunikation wird heute auch zur Therapie von psychischen Problemen benutzt. Gerade bei jungen Menschen liegt das im Trend und wird in sozialen Medien von Influencern massiv beworben. Die vermeintlichen Vorteile liegen auf der Hand: Für die Nutzung einer KI muss niemand lange einen Therapieplatz suchen. Sie ist "immer für einen da" und kostet kein Geld. Und vor allem: Dialoge mit ihr lassen sich auch heimlich führen. Die Diagnose von psychischen Problemen geht noch immer mit der Sorge vor sozialer Stigmatisierung einher. Viele haben Angst, mit Freunden oder Familie offen über psychische Gesundheit zu sprechen. Manchmal haben Menschen aber auch schlichtweg niemandem, dem sie sich anvertrauen oder mit dem sie persönliche Gespräche führen können.
Im August verklagte die Familie von Adam Raine in den USA das Unternehmen OpenAI. Der Teenager nahm sich im April dieses Jahres im Alter von 16 Jahren das Leben. Die Familie fand heraus, dass Adam ChatGPT - so jedenfalls der Vorwurf - wie einen Suizidcoach benutzte. Mutmaßlich soll keine der Sicherheitsvorkehrungen, die angeblich für solche Fälle vorgesehen sind, gegriffen haben. OpenAI erklärte daraufhin, das Unternehmen treffe keine Schuld, der Junge hätte den Chatbot missbraucht und unsachgemäß benutzt. Dabei gebe es Hinweise, dass ChatGPT den Teenager aktiv darin unterstützt haben soll, keine professionelle Hilfe aufzusuchen. Vielmehr soll die KI Adam Raine nicht nur beim Verfassen des Abschiedsbriefs geholfen, sondern ihm auch erklärt haben, wie man einen Galgenstrick richtig knüpft.
ChatGPT schweigt nicht mehr
ChatGPT und Co. sind – das muss immer wieder betont werden – nicht darauf programmiert, Wahrheiten zu produzieren, sondern permanent Gespräche zu führen, egal um welchen Preis. Gab es im vergangenen Jahr immer wieder Momente, in denen KIs "sprachlos" wurden und keine Antwort parat hatten, wurde das nun deutlich reduziert, wie eine Studie zeigt, die im September von NewsGuard Tech veröffentlicht wurde. Hier wurden zehn der größten KIs (unter anderem Grok, ChatGPT, Copilot, Perplexity, Gemini und Claude) untersucht. Im August 2024 kam es in 31 Prozent der Konversationen vor, dass die KI keine Antwort hatte und der Dialog zum Stillstand kam. Im August dieses Jahres waren es null Prozent.
Beunruhigend ist dabei der Anteil der Falschinformationen, die durch KI verbreitet wurden. Waren im Vorjahr noch 18 Prozent der KI-Aussagen falsch, sind es dieses Jahr bereits 35 Prozent. Bei Plattformen wie Perplexity sind es im Falle von Nachrichteninformationen sogar 45,67 Prozent, bei Meta und ChatGPT 40 Prozent.
Um es noch einmal festzuhalten: Über 800 Millionen Menschen nutzen monatlich ChatGPT, und nur sechs Antworten von zehn sind korrekt. Die Verbreitung von Fake News und Lügen ist mittlerweile in die "DNA" der KIs eingeschrieben. Und auch wenn die Firmen immer wieder beteuern, dass sie alles daran setzen, daran etwas zu ändern: Wirkliche Kontrolle über die Eigendynamiken der generativen KI gibt es nicht, wie man im Fall Adam Raine sieht.
"Die Menschen verdienen besseres"
OpenAI veröffentlichte selbst Zahlen, die zeigen, dass in der Woche rund 1,2 Millionen Menschen Gespräch mit ChatGPT führen, die "explizite Indikatoren für eine mögliche suizidale Planung oder Absicht" beinhalten. Darunter zeigten viele Menschen zudem Indikatoren für ernsthafte Psychosen und Manien. Zeitgleich entwickeln sich KIs immer mehr zu Verkaufs- und Werbeplattformen, um die Systeme endlich profitabel zu gestalten. Dass es diesbezüglich in Zukunft zu noch massiveren Diskrepanzen zwischen inhaltlichem Anspruch und tatsächlichem Output kommen wird, kann man sich denken. Selbst der einstige Suchmaschinen-Gigant Google ist seit der weitflächigen Einführung von KI-Antworten zunehmend unbrauchbar geworden.
Der Bereich Mental Health/Psychotherapie und KI brachte in der jüngeren Vergangenheit einige Start-ups hervor. Viele Investorengelder flossen in den Geschäftszweig. Eine dieser Plattformen ist Yara AI. Deren CEO Joe Braidwood erklärte kürzlich jedoch das Ende des Projekts: "Die bittere Wahrheit ist: Wir haben Yara eingestellt, weil wir erkannten, dass wir uns in einem unmöglichen Bereich bewegten", schrieb er auf Linkedin. "KI kann im Alltag bei Stress, Schlafproblemen oder schwierigen Gesprächen eine große Hilfe sein. Doch sobald sich jemand in einer wirklich verletzlichen Lage an sie wendet – jemand in einer Krise, jemand mit einem tiefen Trauma, jemand, der mit dem Gedanken an Selbstmord spielt –, wird KI gefährlich. Nicht nur unzureichend. Gefährlich. Die Kluft zwischen dem, was KI sicher leisten kann, und den Bedürfnissen verzweifelter Menschen ist nicht nur ein technisches, sondern ein existenzielles Problem. Und Start-ups, die mit immer strengeren Regulierungen und unbegrenzter Haftung konfrontiert sind, sind nicht die richtigen Akteure, um diese Kluft zu überbrücken." Sehr oft würden sich Menschen an KIs wenden, um Unterstützung zu erhalten. Allerdings verdienten sie besseres "als das, was ihnen generische Chatbots bieten."
Auch der "Guardian" berichtet von zahlreichen Menschen, die im Bereich KI bei Firmen wie Google und Amazon arbeiten, und ihren Freunden und Familien explizit abraten, KIs wie Gemini oder ChatGPT zu benutzen. Genauso wie es allgemein bekannt ist, dass der Großteil der Manager und CEOs im Silicon Valley ihren eigenen Kindern die Nutzung von Smartphones und Social Media kategorisch verbieten – weil sie wissen, wie diese Systeme funktionieren und sie den Nachwuchs stattdessen auf die Waldorfschule schicken. Yara-CEO Joe Braidwood hat so gesehen recht, wenn er sein Posting mit dem Satz abschließt: "Manchmal ist die wertvollste Erkenntnis, wann man aufhören sollte."