Automatenliebe

In den 1960er-Jahren entwickelte der Wissenschaftler Joseph Weizenbaum das Programm «Eliza» am Massachussetts Institute of Technology (MIT). «Eliza» ist ein Sprachprogramm, mit dem man mit dem Computer ‹reden› kann. Also das, was man heute einen Chatbot nennen würde. «Eliza» war darauf programmiert, die Gesprächssituation bei einem Therapeuten oder eine Therapeutin zu simulieren. Man konnte also sein Problem nennen und «Eliza» lieferte Antworten und Ratschläge (in einem vagen und generischen Sinne). Das Interessante – und nach Meinung ihres Schöpfers – Erschreckendste an «Eliza» war nicht die Intelligenz des Programms. Weizenbaum war nicht der Ansicht, dass «Eliza» intelligent war. Sondern das Verhalten der Menschen im Umgang mit «Eliza». Die Menschen waren nämlich sehr schnell bereit, ihr Innerstes mit «Eliza» zu teilen und nahmen eine persönliche Beziehung mit ihr auf. Seine Sekretärin habe ihn gebeten, aus dem Raum zu gehen, wenn sie mit «Eliza» sprach. Weizenbaum selber schrieb später ein Buch, in dem er klar festhielt, dass er der Meinung war, dass künstliche Intelligenz niemals menschliche Intelligenz ersetzen dürfe und dass Berufe wie Therapeut:innen, Ärzt:innen oder Wissenschaftler:innen unbedingt durch Menschen ausgeübt werden müssen. Auch ich habe als Jugendliche einige Zeit mit «Eliza» verbracht, durchaus fasziniert davon, wie sie menschliche Interaktionen vorgeben kann, auch wenn «Eliza» natürlich weit entfernt ist von dem, was heutige Chatbots vermögen.


Diese Reaktion der Menschen auf «Eliza» ist ein interessanter Vorbote darauf, wie heute mit Chatbots umgegangen wird. Denn auch heute reagieren viele Menschen auf sie, wie sie auf Menschen reagieren würden. Dabei geht es nicht nur um Extremfälle, wie jene, die sich in einen AI-Companion, einen auf Freundschaft ausgerichteten Chatbot, verlieben. Sondern auch zum Beispiel, in dem sie sich für eine Antwort bei ChatGPT bedanken. Tatsächlich geht es aber auch tiefer als reine Höflichkeit. Als Open-AI ChatGPT4 durch ChatGPT5 ersetzte, schlug ihnen von den Nutzer:innen viel Ablehnung entgegen. Denn ChatGPT5 konnte sich nicht an die Konversationen der Nutzer:innen erinnern, die diese mit der Vorgängerversion hatten. Ausserdem habe ChatGPT5 – so die Klage einiger Nutzer:innen – nicht mehr die freundliche Persönlichkeit seines Vorgängers. Abonnent:innen können daher heute wieder ChatGPT4 benutzen, wenn sie dies wünschen.


Eine Umfrage hat ergeben, dass 72 Prozent der amerikanischen Teenager Chatbots als eine Art Freunde benutzen, ein guter Anteil von ihnen auch als Therapieersatz. Eltern eines Jugendlichen, der sich umgebracht hat, klagen im Moment gegen Open-AI, die Firma, die für ChatGPT verantwortlich ist. ChatGPT soll den Jugendlichen in den Suizid getrieben haben, indem er ihm Methoden für den Suizid vorgeschlagen hat und einen Entwurf für den Abschiedsbrief geschrieben hat, sowie dem Jugendlichen geraten habe, seine suizidalen Gedanken für sich zu behalten. Ähnliche Klagen sind gegen andere AI-Firmen eingegangen. Diese Gerichtsfälle sind noch hängig.
Auch wenn man davon ausgeht, dass die meisten der Anfragen weit weniger problematisch sind, ist es tatsächlich besorgniserregend, wenn Jugendliche, statt professionelle Hilfe in Anspruch zu nehmen, sich lieber einem Chatbot anvertrauen. Das Problem bei der ganzen Geschichte ist, dass – auch in der Schweiz – die psychologische und psychiatrische Versorgung gerade für Jugendliche absolut ungenügend ist. Will man nicht, dass sich Jugendliche Chatbots anvertrauen, müsste man hier ansetzen. Dies wäre auch angesichts der steigenden Fälle von psychischen Erkrankungen höchst angebracht.


Es gibt tatsächlich auch Stimmen, die glauben, dass diese Bots die Antwort sein könnten auf das zunehmende Problem der Einsamkeit. Eine Studie der Harvard Business-School hat ergeben, dass die Interaktion mit Chatbots Gefühle der Einsamkeit lindern kann. Die Beteiligten fühlen sich nach der Interaktion also durchaus besser. Die Studienautor:innen führen dies darauf zurück, dass mit einem Chatbot eine Interaktion stattfinde, und die Proband:innen das Gefühl hatten, dass sie «gehört» wurden.


Mark Zuckerberg, CEO von Meta, sieht diese AI-Freunde tatsächlich auch als eine Form, das Problem der Einsamkeit anzugehen. Der durchschnittliche Amerikaner hätte, meinte Zuckerberg in einem Podcast, weniger als drei Freunde, hätte aber gerne mehr. AI-Freunde können dies in Zukunft kompensieren.


In der kulturpessimistischen Lesung könnte man feststellen, dass Maschinen ein Problem lösen sollen, dass sie selbst kreiert haben. Dass Smartphones und Soziale Medien einen kausalen Effekt auf psychische Krankheiten haben, ist zwar umstritten. Aber es scheint klar, dass Smartphones, Soziale Medien und das Internet einen mittlerweile ziemlich dominanten Einfluss auf unser Leben haben, der nicht nur positiv ist.


Es gibt dazu natürlich auch die andere Sicht: Neue Medien und neue Technologien führen zu Veränderung, aber diese muss nicht zwingend negativ sein, es braucht vielleicht auch eine gewisse Zeit, um den richtigen Umgang zu finden. Dass wir Chatbots vermenschlichen, ist dabei vielleicht auch Ausdruck unserer Menschlichkeit. Nur eine Variation eines Verhalten, das es heute schon gibt. Viele Kinder beispielsweise haben eine enge Beziehung zu Puppen oder Stofftieren, vielleicht gar imaginäre Freund:innen. Und auch Erwachsene sind von emotionaler Bindung zu Dingen nicht gefeit. Wer seinen Pflanzen gut zuredet oder gerne seinen Teddybären knuddelt, hat nicht automatisch ein Problem, genausowenig wie jemand, der seine Sorgen mit einem Chatbot teilt.

Klar muss sein, dass eine Maschine kein Ersatz sein kann für einen menschlichen Kontakt. Dass Mark Zuckerberg soziale Interaktionen mit Maschinen auf die gleiche Stufe stellt, sagt viel aus. Zum einen dahingehend, wo seine geschäftlichen Interessen liegen. Vielleicht aber auch über sein generelles Verhältnis zu Menschen. Der Unterschied zwischen Maschinen und Menschen scheint zu sein, dass Menschen Menschlichkeit in Maschinen projizieren. Das Motiv, dass eine Maschine ein Mensch sein möchte oder eine Holzpuppe ein kleiner Junge ist ein altes Motiv in der Literatur und Mythologie. Wir gehen dabei davon aus, dass das Objekt sich gegenüber Menschen defizitär fühlt. Vielleicht tut dies die Maschine aber nicht. Die Frage ist nicht, ob sie intelligent ist oder nicht, sondern ob sie menschlich ist oder sein will. Wir sollten uns nicht darauf verlassen.