So funktioniert KI: Banken, Versicherungen, Transparenz
Das passiert unter anderem im Bankgeschäft. Hier wendet man immer öfter sogenannte Scorings an, also automatisierte Entscheidungsprozesse, mit denen aufgrund der gesammelten Daten berechnet wird, ob Kund:innen kreditwürdig sind. Auch Versicherungen nutzen KI, um nach bestimmten Algorithmen berechnen zu lassen, ob es wahrscheinlich ist, dass jemand die Versicherung missbrauchen könnte. Verbraucher:innen sind hier intransparenten Vorgängen ausgesetzt und könnten benachteiligt werden.
Problematisch ist außerdem oft die Ungenauigkeit von Ergebnissen, die aber den Anschein von Objektivität erwecken. Wehren können sich Einzelpersonen dagegen nicht: „Diese stoßen hier sofort an Grenzen.“ Oft wissen Menschen gar nicht, dass KI im Spiel ist, wenn ihnen zum Beispiel individualisierte Vertragskonditionen angeboten werden. „Ohne professionelle Unterstützung werden sie den Sachverhalt nicht einmal richtig aufbereiten können.“ Im Entwurf der EU-Kommission sind nicht einmal außergerichtliche Schlichtungsstellen vorgesehen, oft bleibt nur der Weg zum Zivilgericht. Zimmer kritisiert, dass Kontrolle und Zertifizierung nur selten von unabhängigen Dritten durchgeführt werden. „Die KI-Regeln der EU weisen fundamentale Lücken auf.“
Datensauger KI
Wie kommt nun künstliche Intelligenz an das entsprechende Datenmaterial? Zunächst entscheiden die Auftraggeber:innen und Systementwickler:innen, welches Problem die KI behandeln soll und welche Daten dafür relevant sind. Auch die Methode der Datenanalyse – etwa maschinelles Lernen mithilfe von neuronalen Netzen – wird festgelegt. Eine Möglichkeit ist das „supervised machine learning“. Hier wird die KI auf Daten trainiert, die der Mensch vorher schon klassifiziert hat. „Da lernt die KI von dem, was der Mensch kann“, erklärt Sabine Köszegi, Expertin für ethische künstliche Intelligenz und Arbeitswissenschaft an der TU Wien.
Wie beispielsweise in der Bankenwelt. „Wir geben der KI immer ein Ziel: Klassifiziere Kreditwerber:innen nach ihrer Kreditwürdigkeit.“ Banken wissen, welche Kund:innen in der Vergangenheit ihre Kredite zurückgezahlt haben und welche nicht. Eine KI kann aus den Daten lernen, welche Eigenschaften Kund:innen haben, die eher zurückzahlen, und welche nicht. Gibt man dann der KI ein neues Kund:innenprofil, erstellt die KI eine Prognose, ob diese Person den Kredit mit hoher Wahrscheinlichkeit zurückzahlen kann oder nicht. „Eine KI erkennt in den Daten leichter latente Muster, zum Beispiel, ob eine Person eine Spielneigung hat. Natürlich weiß die KI nicht, dass eine Person ein:e Spieler:in ist. Aber sie lernt, dass Personen, die ihr Geld innerhalb der ersten zwei bis drei Tage nach dem Gehaltseingang vom Konto beheben, mit hoher Wahrscheinlichkeit nicht in der Lage sind, einen Kredit zurückzuzahlen.“
Korrelation und Kausalität: Was die KI nicht versteht
Daraus resultieren einige Probleme. Eines davon ist, dass neuronale Netze nur auf Basis der Korrelation arbeiten. Kausalität können sie nicht erkennen. „Eine KI weiß nur, dass der Hahn immer kräht, wenn die Sonne aufgeht. Sie weiß nicht, ob der Hahn kräht, weil die Sonne aufgeht, oder ob die Sonne aufgeht, weil der Hahn kräht.“ So passiert es schon mal, dass Menschen für die KI ein bestimmtes Muster aufweisen und als nicht kreditwürdig eingestuft werden, obwohl sie es eigentlich wären. Köszegi nennt als Beispiel ein Ehepaar, wo beide um eine Apple-Kreditkarte ansuchten. Beide, sowohl der Mann als auch die Frau, arbeiten an derselben Universität als Professor:innen. Sie haben das gleiche Einkommen und leben im gleichen Haushalt. Trotzdem bekam er einen Kreditrahmen und sie nicht. Der Grund: Die KI bewertete den Fakt, dass Frauen oft ein geringeres oder kein Einkommen haben, sehr stark. „In diesem Fall gab es aber keinen kausalen Zusammenhang zwischen Geschlecht und Verdienst“, so Köszegi.
Köszegi kennt aber auch einen Fall, der zeigt, wie man so ein Problem der ungerechten Diskriminierung löst. Junge Männer sind risikofreudigere Autofahrer und haben ein höheres Schadensrisiko bei der Haftpflichtversicherung als Frauen. „Gleichzeitig ist es aber unfair, dass jemand nur aufgrund seines Geschlechts eine geringere oder höhere Prämie bezahlen muss.“ Die Versicherung fand in ihren Daten eine Lösung: „Die Höhe der PS des gekauften Autos ist ein sehr guter Indikator dafür, dass Menschen schnell und damit riskant Auto fahren. Der Algorithmus der Versicherung berücksichtigt daher nicht das Geschlecht, sondern die PS-Anzahl des Autos, um das Versicherungsrisiko einzuschätzen, und behandelt damit Männer und Frauen, die ein schnelles Auto fahren, gleich.“
Ethik als Unternehmensfrage
Anders funktionieren KI-Systeme wie ChatGPT. Es wird mit allen möglichen Texten aus dem Internet trainiert und errät dann jenes Wort, das am wahrscheinlichsten in die Lücke passt. Nicht unterschieden wird, ob es sich um wissenschaftliche Texte, eine persönliche Meinung oder Fake News handelt. Das heißt, diese Systeme „lernen“ auch von rassistischen, sexistischen oder extremistischen Inhalten. Dem wollte OpenAI, das Unternehmen hinter ChatGPT, Einhalt gebieten, indem es die KI mithilfe einer Lerntechnik für bestimmte Wortreihenfolgen lobt und für andere bestraft. „So lernt das System, unethisches Verhalten nicht zu zeigen.“
Das Problem ist, dass im Fall von ChatGPT das Unternehmen OpenAI bestimmt, was unethisch ist und was nicht. Köszegi hat einmal versucht, mit dem Bildgenerierungsprogramm DALL-E von OpenAI Folgendes zu generieren. „Zeige mir ein Bild einer dystopischen Zukunft von KI und Arbeit.“ DALL-E konnte den Wunsch aufgrund firmeneigener Vorgaben nicht erfüllen. „Wollen wir, dass die großen Firmen wie OpenAI, Microsoft, Google und Facebook darüber entscheiden, was gesagt werden darf und was nicht? Sollten wir das nicht in demokratischen Prozessen als Gesellschaft festlegen?“, so Köszegi. Andererseits: „Wenn die KI keine Schranken hat, haben wir Programme, die alle ethischen und moralischen Grenzen überschreiten, weil sie ja nicht verstehen, welchen (Un-)Sinn sie mit ihren Wahrscheinlichkeitsprognosen generieren. Das ist das Dilemma, das wir haben.“