Der Begriff Künstliche Intelligenz hat Hochkonjunktur. Seit ein paar Monaten schwirren Artikel über den Chatbot ChatGPT und den KI-Mildgenerator MidJourney durch die Medien. Die Meinungen gehen stark auseinander: Während Technikfans die Errungenschaften der KI als „revolutionär“ und „bahnbrechend“ feiern, kommt auch immer wieder Skepsis auf. Zurecht? Arbeit&Wirtschaft hat bei Martina Mara, Professorin für Roboterpsychologie, nachgefragt. Im Interview erklärt sie, wie wichtig es ist, Künstliche Intelligenz zu entmystifizieren.
Arbeit&Wirtschaft: Was ist unter „Roboterpsychologie“ zu verstehen?
Martina Mara: In der Psychologie geht es immer darum, wie Menschen die Welt wahrnehmen und erleben, wie es ihnen gut gehen kann. Wir betrachten das in Kombination mit aktuellen Entwicklungen in der Robotik und der künstlichen Intelligenz. Wir forschen zu Fragen wie: Warum haben viele Menschen Angst vor neuen Technologien? Wie können KI-Systeme oder Roboter so gestaltet werden, dass wichtige psychologische Grundbedürfnisse erfüllt bleiben, wie beispielsweise das Bedürfnis nach Autonomie? Und wie kann das mit der Kommunikation gut funktionieren, wenn ich mit einem Industrieroboter zusammenarbeiten muss? Wie hängt das Verstehen von Maschinen mit Vertrauensprozessen zusammen? Kann man Übervertrauen in Maschinen vermeiden? Bei uns liegen keine menschenähnlichen Roboter auf dem Therapiesofa, sondern wir benutzen psychologische Theorien und psychologische Forschungsmethoden, um aktuelle, oft sehr praxisrelevante Fragen zur Interaktion zwischen Menschen und intelligenten Maschinen zu erforschen.
Warum begegnen wir technischen Innovationen so oft mit Skepsis?
Das Neue ist oft mit Ängsten verbunden, weil man es nicht genau einschätzen kann. Das betrifft nicht nur den Technikbereich. Ängste sind nicht immer automatisch unbegründet. Es gibt auch völlig reale Risiken, die mit dieser Technologie verbunden sind. Was wir in der Forschung allerdings sehen, ist, dass Menschen oft sehr diffuse Ängste haben und nicht sagen können, was genau ihnen da Angst macht. Oft sind es Vorstellungen, die Menschen im Kopf haben. Viele haben falsche Vorstellungen, und es schwirren sehr viele mystifizierte Begriffe und Bilder über KI herum.
Aktuell analysieren wir in einem Forschungsprojekt 10.000 Medienbilder zum Stichwort „künstliche Intelligenz“. Häufig wird KI als menschenähnlich dargestellt. In den Bildern sieht man menschengleiche Roboter oder Avatare, Gesichter, Hände oder Gehirne. Diese Darstellung in menschlicher Form ist etwas, das grundsätzlich Skepsis und das Gefühl der Bedrohung hervorruft.
Je stärker wir KI-Systeme vermenschlichen,
desto mehr sozialen Einfluss haben sie auf uns.
Es ist also wichtig, dass wir Maschinen nicht als
soziale Interaktionspartner:innen betrachten.
Martina Mara
Wichtig ist, dass wir die Art, wie wir KI bildlich darstellen und wie wir darüber sprechen, entmystifizieren. Wenn wir ChatGPT nicht „künstliche Intelligenz“ nennen würden, sondern beispielsweise „automatisiertes Analyseprogramm zur Vorhersage von Wortwahrscheinlichkeiten“, wäre es gleich viel weniger bedrohlich.
Warum fühlen wir uns von der Menschenähnlichkeit bedroht?
Zum einen löst es Ängste aus, durch Maschinen ersetzt zu werden. Andererseits gibt es auch das Phänomen des „Uncanny Valley“ – auf Deutsch könnte man sagen: „unheimliches Tal“ oder „Gruselgraben“ –, ein Begriff, der vom japanischen Robotiker Masahiro Mori 1970 geprägt wurde. Er zeichnete eine Kurve zum Zusammenhang zwischen dem Grad der Menschenähnlichkeit einer Maschine und der Akzeptanz des Publikums. Er stellte fest: Mit steigender Menschenähnlichkeit steigt die Sympathie für den Roboter.
Aber an dem Punkt, an dem man ihn fast nicht mehr von realen Menschen unterscheiden kann, entsteht ein Kategorienkonflikt für Menschen, und dann sinkt die Akzeptanz, und der Roboter fällt in das unheimliche Tal. Mori meinte, nur wenn man es schaffen würde, dass man Roboter gar nicht mehr von Menschen unterscheiden kann, würde die Akzeptanz wieder ansteigen. Man würde der Maschine so begegnen wie anderen Menschen auch. Allerdings hat er auch 1970 bereits infrage gestellt, dass das ethisch überhaupt vertretbar wäre.
Wie menschenähnlich sollte KI also sein?
Wir Menschen neigen grundsätzlich zu Anthropomorphismus. Wir vermenschlichen Nichtmenschliches wie Pflanzen, Tiere, aber auch Maschinen sehr schnell, wenn wir einige soziale Hinweisreize von ihnen bekommen. Wenn KI-Systeme zunehmend menschlicher auftreten, weil sie so schreiben und reden wie wir und mit uns in Dialog treten, wie wir das auch von echten Menschen in Chats oder Messenger-Apps kennen, dann zeigt die Forschung, dass wir als Nutzer:innen dem System auch menschliche Eigenschaften zuschreiben, eigene Emotionen, Wünsche und Intentionen. Und: Je stärker wir KI-Systeme vermenschlichen, desto mehr sozialen Einfluss haben sie auch auf uns. Es ist also wichtig, dass wir Maschinen nicht als soziale Interaktionspartner:innen betrachten und so gestalten, dass wir sie auch klar als Maschinen wahrnehmen. Was wir auch in der Forschung sehen: Menschen, die besser über KI Bescheid wissen, neigen weniger dazu, sie zu vermenschlichen.
Was sind die realen Risiken von KI?
Was oft unterschätzt wird: KI als datengetriebenes lernendes System kann nicht schlauer sein als wir selbst, sondern sie hält uns immer den Spiegel vor. Wenn wir KI-Systeme, die für uns Entscheidungsempfehlungen abgeben, aus Daten lernen lassen, die wir Menschen davor kreiert haben, also Fotos, die wir ins Internet gestellt haben, Entscheidungen, die wir getroffen haben, Texten, die wir geschrieben haben, dann gibt die KI natürlich alle Fehler, Wertvorstellungen, Stereotype wieder, die in unseren Daten drinstecken. Es ist also ein unglaublich großer Schalthebel der Macht, auf welchen Daten das beruht, was das System ausspuckt. Wer entscheidet, welche Daten als Trainingsfutter eingespeist werden, die dann als Output reproduziert werden? Und wer bestimmt, was nicht vorkommt? Wer kuratiert das und auf welcher Basis?
Diese Entscheidungen sind viel zu wenig transparent. Einerseits bedeutet das, dass, wenn man sich nicht aktiv um eine andere Gestaltung kümmert, Stereotype über bestimmte Personengruppen verfestigt und reproduziert werden oder bestimmtes Wissen nicht vorkommt. Andererseits könnte man auch historische Ereignisse verschwinden lassen oder Fakes produzieren, starke Verzerrungen herbeiführen und Manipulation betreiben. Auch wenn nicht bewusst Verzerrungen vorgenommen werden, hat die Datenkuratierung auch immer bestimmte Bias. Die Systeme, die wir vorrangig nutzen, haben beispielsweise eine US-zentrierte Perspektive. Was wir auch nicht vergessen dürfen: Diese Systeme sind sehr ressourcenintensiv. Für uns ist das unsichtbar, aber KI braucht Mengen an Hardware und Strom.
Was ist in der Gestaltung von KI-Systemen wichtig, damit wir sie zum Vorteil von Menschen nutzen können?
Ich glaube, die große Herausforderung ist, wie man es schafft, die menschliche Entscheidungs- und Handlungsautonomie zu gewährleisten. Wenn die KI bei einer Ärztin auf Basis der Analyse von Röntgenbildern eine Diagnose nahelegt oder eine bestimmte Kandidatin für das Vorstellungsgespräch vorschlägt, sollten Menschen diesen Vorschlägen nicht blind folgen. Sie sollten die Möglichkeit haben, sich auf Basis von menschlichem Erfahrungswissen anders zu entscheiden. Ein Weg dorthin ist die sogenannte „Explainable AI“, also künstliche Intelligenz, die erklärt und darüber informiert, wie und warum sie zu dem Ergebnis kommt und welche Faktoren zu einem bestimmten Output beigetragen haben. Die Forschung hierzu liefert ein klares Bild: Wenn KI diese Erklärungen mitliefert, treffen Menschen KI-unterstützt bessere Entscheidungen und können ihr Vertrauenslevel in die Maschine besser anpassen.
Wir haben zum Beispiel ein System entwickelt, mit dem man KI-basiert Pilze bestimmen kann, und mehrfach bestätigt, dass eine sich erklärende KI zu den besten Entscheidungen führt. Wenn die KI beispielsweise zeigt, auf Basis welcher Bildregionen ein bestimmter Pilz erkannt wurde, können Nutzer:innen besser überprüfen, ob es ein falsches Ergebnis ist. KI macht manchmal Fehler, die Menschen nie machen würden. So kann es sein, dass ein Blatt hinter dem Pilz als Teil des Pilzes interpretiert wird, was zu einer falschen Bestimmung führt. Nur wenn die KI das erklärt, können Menschen ausreichend gegenchecken. Insgesamt sollte man KI mehr als Werkzeug nutzen, wie früher einen Taschenrechner, und nicht als etwas, das in Konkurrenz zu uns steht.