Martina Mara im Interview: Künstliche Aufregung

Inhalt

  1. Seite 1 - „Der Roboter fällt in das unheimliche Tal.”
  2. Seite 2 - „KI macht manchmal Fehler, die Menschen nie machen würden.”
  3. Auf einer Seite lesen >
Müssen wir uns wirklich vor KI und Robotern fürchten? Welche Ängste sind realistisch, und wie können wir KI zum Vorteil von uns Menschen nutzen? Die Roboterpsychologin Martina Mara beantwortet im Interview brennende Fragen rund um unser ambivalentes Verhältnis zu Maschinen und künstlicher Intelligenz.

Wie menschenähnlich sollte KI also sein?

Wir Menschen neigen grundsätzlich zu Anthropomorphismus. Wir vermenschlichen Nichtmenschliches wie Pflanzen, Tiere, aber auch Maschinen sehr schnell, wenn wir einige soziale Hinweisreize von ihnen bekommen. Wenn KI-Systeme zunehmend menschlicher auftreten, weil sie so schreiben und reden wie wir und mit uns in Dialog treten, wie wir das auch von echten Menschen in Chats oder Messenger-Apps kennen, dann zeigt die Forschung, dass wir als Nutzer:innen dem System auch menschliche Eigenschaften zuschreiben, eigene Emotionen, Wünsche und Intentionen. Und: Je stärker wir KI-Systeme vermenschlichen, desto mehr sozialen Einfluss haben sie auch auf uns. Es ist also wichtig, dass wir Maschinen nicht als soziale Interaktionspartner:innen betrachten und so gestalten, dass wir sie auch klar als Maschinen wahrnehmen. Was wir auch in der Forschung sehen: Menschen, die besser über KI Bescheid wissen, neigen weniger dazu, sie zu vermenschlichen.

Porträt Martina Mara
Dass wir Menschen über KIs aufklären müssen, steht für Martina Mara außer Frage. | © Markus Zahradnik

Was sind die realen Risiken von KI?

Was oft unterschätzt wird: KI als datengetriebenes lernendes System kann nicht schlauer sein als wir selbst, sondern sie hält uns immer den Spiegel vor. Wenn wir KI-Systeme, die für uns Entscheidungsempfehlungen abgeben, aus Daten lernen lassen, die wir Menschen davor kreiert haben, also Fotos, die wir ins Internet gestellt haben, Entscheidungen, die wir getroffen haben, Texten, die wir geschrieben haben, dann gibt die KI natürlich alle Fehler, Wertvorstellungen, Stereotype wieder, die in unseren Daten drinstecken. Es ist also ein unglaublich großer Schalthebel der Macht, auf welchen Daten das beruht, was das System ausspuckt. Wer entscheidet, welche Daten als Trainingsfutter eingespeist werden, die dann als Output reproduziert werden? Und wer bestimmt, was nicht vorkommt? Wer kuratiert das und auf welcher Basis?

Diese Entscheidungen sind viel zu wenig transparent. Einerseits bedeutet das, dass, wenn man sich nicht aktiv um eine andere Gestaltung kümmert, Stereotype über bestimmte Personengruppen verfestigt und reproduziert werden oder bestimmtes Wissen nicht vorkommt. Andererseits könnte man auch historische Ereignisse verschwinden lassen oder Fakes produzieren, starke Verzerrungen herbeiführen und Manipulation betreiben. Auch wenn nicht bewusst Verzerrungen vorgenommen werden, hat die Datenkuratierung auch immer bestimmte Bias. Die Systeme, die wir vorrangig nutzen, haben beispielsweise eine US-zentrierte Perspektive. Was wir auch nicht vergessen dürfen: Diese Systeme sind sehr ressourcenintensiv. Für uns ist das unsichtbar, aber KI braucht Mengen an Hardware und Strom.

Porträt Martina Mara
Die KI ist Werkzeug und nicht Konkurrenz, zeigt sich Mara überzeugt. | © Markus Zahradnik

Was ist in der Gestaltung von KI-Systemen wichtig, damit wir sie zum Vorteil von Menschen nutzen können?

Ich glaube, die große Herausforderung ist, wie man es schafft, die menschliche Entscheidungs- und Handlungsautonomie zu gewährleisten. Wenn die KI bei einer Ärztin auf Basis der Analyse von Röntgenbildern eine Diagnose nahelegt oder eine bestimmte Kandidatin für das Vorstellungsgespräch vorschlägt, sollten Menschen diesen Vorschlägen nicht blind folgen. Sie sollten die Möglichkeit haben, sich auf Basis von menschlichem Erfahrungswissen anders zu entscheiden. Ein Weg dorthin ist die sogenannte „Explainable AI“, also künstliche Intelligenz, die erklärt und darüber informiert, wie und warum sie zu dem Ergebnis kommt und welche Faktoren zu einem bestimmten Output beigetragen haben. Die Forschung hierzu liefert ein klares Bild: Wenn KI diese Erklärungen mitliefert, treffen Menschen KI-unterstützt bessere Entscheidungen und können ihr Vertrauenslevel in die Maschine besser anpassen.

Wir haben zum Beispiel ein System entwickelt, mit dem man KI-basiert Pilze bestimmen kann, und mehrfach bestätigt, dass eine sich erklärende KI zu den besten Entscheidungen führt. Wenn die KI beispielsweise zeigt, auf Basis welcher Bildregionen ein bestimmter Pilz erkannt wurde, können Nutzer:innen besser überprüfen, ob es ein falsches Ergebnis ist. KI macht manchmal Fehler, die Menschen nie machen würden. So kann es sein, dass ein Blatt hinter dem Pilz als Teil des Pilzes interpretiert wird, was zu einer falschen Bestimmung führt. Nur wenn die KI das erklärt, können Menschen ausreichend gegenchecken. Insgesamt sollte man KI mehr als Werkzeug nutzen, wie früher einen Taschenrechner, und nicht als etwas, das in Konkurrenz zu uns steht.

Inhalt

  1. Seite 1 - „Der Roboter fällt in das unheimliche Tal.”
  2. Seite 2 - „KI macht manchmal Fehler, die Menschen nie machen würden.”
  3. Auf einer Seite lesen >

Über den/die Autor:in

Beatrice Frasl

Beatrice Frasl hat Anglistik und Amerikanistik und Gender Studies studiert und ist feministische Kulturwissenschafterin, Podcasterin("Große Töchter", "She Who Persisted"), Lektorin an der Universität Wien und Aktivistin. Sie schreibt aktuell an ihrer Doktorarbeit im Bereich Gender Studies/Popkulturforschung und immer wieder auch für Medien im In- und Ausland, publiziert wissenschaftlich und hält Vorträge und Workshops zu Themen Feminismus, Geschlecht, Genderforschung und Queer Studies.

Du brauchst einen Perspektivenwechsel?

Dann melde dich hier an und erhalte einmal wöchentlich aktuelle Beiträge zu Politik und Wirtschaft aus Sicht der Arbeitnehmer:innen.



Mit * markierte Felder sind Pflichtfelder. Mit dem Absenden dieses Formulars stimme ich der Verarbeitung meiner eingegebenen personenbezogenen Daten gemäß den Datenschutzbestimmungen zu.