„Eine KI ist nie neutral – sie braucht den Menschen als Aufsicht“

Porträt Gertraud Leimüller
„Wir beobachten massive Probleme mit stereotypen und vorurteilsbehafteten Verzerrungen in den Ergebnissen von KI-Anwendungen“, erklärt Gertraud Leimüller. | © Markus Zahradnik
Das Wiener Tech-Start-up leiwand.ai entwickelt eine Technologie, die aufzeigt, welche Bias- und Diskriminierungsrisiken beim Einsatz künstlicher Intelligenz (KI) auftreten können. Gertraud Leimüller, Mitbegründerin von leiwand.ai, will so Transparenz und Sicherheit schaffen.
Die Mitbegründerin Gertraud Leimüller will gemeinsam mit ihrer Geschäftspartnerin, der Stanford-Mathematikerin Rania Wazir, Künstliche-Intelligenz-Systeme so gestaltet wissen, dass bereits vor deren Entwicklung oder Anschaffung auf unbeabsichtigte Vorurteile und damit verbundene falsche Ergebnisse, also sogenannte algorithmische Bias, geachtet wird. leiwand.ai arbeitet an der nötigen Infrastruktur mit, um die Einhaltung des EU-KI-Gesetzes zu gewährleisten. Im Interview erklärt die Harvard-Absolventin, warum der Mensch ein unerlässliches Korrektiv bleibt, wenn eine KI bei einer Aufgabenstellung sprichwörtlich falsch abbiegen möchte.

Porträt Gertraud Leimüller
Künstliche Intelligenz ohne die Kontrolle von Menschen? Für Gertraud Leimüller ist das keine Option. | © Markus Zahradnik

Arbeit&Wirtschaft: Arbeiten Künstliche-Intelligenz-Systeme vertrauenswürdig?

Gertraud Leimüller: Wir beobachten massive Probleme mit stereotypen und vorurteilsbehafteten Verzerrungen in den Ergebnissen von KI-Anwendungen – egal, ob es um Chatbots wie ChatGPT, Bildgeneratoren, Diagnose-KIs in der Medizin oder Scoring-Systeme bei der Kreditvergabe von Banken geht. Entgegen einer weit verbreiteten Meinung sind Technologien nicht so objektiv, wie wir es brauchen würden. Das Problem entsteht, weil KI-Anwendungen mit Daten trainiert werden, die solche Verzerrungen bereits in sich tragen. Dazu kommt, dass die Modelle Verzerrungen aus unserer realen Welt selbst noch weiter verschärfen. Als unerwünschtes Resultat entstehen Benachteiligungen bestimmter Personengruppen. Oft sind es die aus der analogen Welt bereits bekannten benachteiligten Gruppen, zum Beispiel Frauen, Ältere oder Migrant:innen. Doch im Grunde können Vorurteile einer KI jeden Menschen treffen.

Wir arbeiten an einer Technologie, die diese Qualitätsprobleme spezifisch aufzeigt. Unser System, das sogenannte „Algorithmic Bias Risk Radar“, kurz ABRRA, wird auf Tausende Fälle von KI-Fehlverhalten zurückgreifen und deren Muster darstellen können. Das System soll 2026 auf den Markt kommen und Unternehmen und der öffentlichen Hand Hinweise geben, auf welche Verzerrungen beim Einsatz von unterschiedlichen KI-Technologien in Bereichen wie zum Beispiel Personalwesen, Gesundheit, Finanzen, Bildung und öffentliche Verwaltung aufgepasst werden muss.

Macht ABRRA KI-Anwendungen für Konsument:innen und Betriebsrät:innen sicherer?

Betriebsrät:innen können mit unserem Tool KI-Systeme im Betrieb prüfen und vorab erkennen, welche Risiken da auf die Belegschaft zukommen. Das Radar zeigt beispielsweise auf, welche Fehler beim Einsatz von KI zur Analyse von Lebensläufen in Personalauswahlprozessen in anderen, ähnlichen Systemen bereits aufgetaucht sind.

KI-basierte Empfehlungssysteme beschleunigen zwar Rekrutierungsprozesse, allerdings gibt es auch Fälle sexistischer automatisierter Job- oder Bewerber:innenempfehlungen in Auswahlprozessen, bei denen die KI Frauen überwiegend Teilzeitjobs in den Bereichen Pflege oder Reinigung empfiehlt, Männern hingegen eher technische Berufe. Konsument:innen haben hier keine Handlungsmacht, werden aber von der besseren Transparenz und der Früherkennung von Risiken in KI-Systemen, beispielsweise im Rahmen von Leistungskontrollen und bei Personalauswahlverfahren, profitieren.

Porträt Gertraud Leimüller
„Derzeit sind viele KI-Systeme für Betroffene eine Black Box. Die Sensibilisierung steigt, es wird aber dauern, bis jede Organisation für sich selbst herausfindet, wo sie auf mögliche Diskriminierungen achten sollte.“ | © Markus Zahradnik

Braucht eine KI Qualitätsstandards?

Ja, und sie muss in der Anwendung stabil, zuverlässig, vertrauenswürdig sowie objektiv sein. Plattformen, etwa zur Personalauswahl, die wenig transparent sind, bergen ein hohes Risiko für Verzerrungen, weil nicht klar ist, welche Parameter für Empfehlungen herangezogen werden. Die Zukunft liegt in Qualitätszertifikaten für die KI, das erzeugt die notwendige Fairness.

Auf betrieblicher Ebene muss die Belegschaftsvertretung beurteilen können, ob ein geplantes KI-System fair oder verzerrend arbeitet. Dazu muss nachvollziehbar und kontrollierbar sein, mit welchen Angaben die künstliche Intelligenz trainiert wurde, welche Informationen über die Beschäftigten ins System eingespeist werden und wie mit diesen sensiblen Daten weiter umgegangen wird.

Derzeit sind viele KI-Systeme für Betroffene eine Black Box. Die Sensibilisierung steigt, es wird aber dauern, bis jede Organisation für sich selbst herausfindet, wo sie auf mögliche Diskriminierungen achten sollte.

Wie wichtig ist der menschliche Blick auf die KI?

Jede KI-Anwendung sollte in ein Umfeld eingebettet sein, wo Menschen verantwortlich sind und die Rahmenbedingungen bestimmen. Künstliche Intelligenz, auch selbstlernende Systeme, brauchen immer wieder Korrektur, damit sie sich nicht in eine Richtung verändern, die nachteilig ist.

Ich warne davor, einer KI die Gesamtverantwortung für Entscheidungsprozesse zu übertragen, weil sie viel stärker limitiert ist als der Mensch. An wesentlichen Stellen muss es einen Gegencheck geben, weil eine KI auch Fehler macht und durch die zugrunde liegenden Designentscheidungen geprägt ist.

Sie schreibt Texte, malt Bilder, analysiert Daten: KI ist gekommen, um zu bleiben. 🤖

Aber was macht KI mit unserer Arbeitswelt, mit uns als Gesellschaft?

Unsere neue Ausgabe liefert Antworten auf die großen Fragen: https://www.arbeit-wirtschaft.at/bewaehrte-antworten-fuer-rasante-zeiten/

[image or embed]

— Arbeit&Wirtschaft Magazin (@aundwmagazin.bsky.social) 16. April 2025 um 10:00

KI hat beispielsweise die Tendenz, Leerstellen, etwa bei der Textzusammenfassung, mit sogenannten Halluzinationen – also frei erfundenen Behauptungen – zu besetzen. Das sollte man wissen und kontrollieren. Eine KI ist nie neutral, daher braucht sie den Menschen als Aufsicht. In Unternehmen müssen Verantwortlichkeiten festgelegt sein, also wer die KI kontrolliert, wer den Überblick über die laufenden Systeme behält und welche KI-gestützten Anwendungen Beschäftigte möglicherweise eigenmächtig einsetzen.

Wie kann die EU eine bessere Transparenz bei KI-Anwendungen erreichen?

Der EU AI Act bringt sehr viel mehr Information über KI-Systeme, die jetzt Black Boxes sind, insbesondere in Hochrisikobereichen wie Arbeitswelt und Gesundheit. Er muss aber in seiner praktischen Bedeutung noch verständlicher werden. Wir arbeiten dazu im Projekt NoLeFa (nolefa.eu) in einem europäischen Konsortium, in dem robuste Infrastrukturen für Qualitätstests und einheitliche KI-Standards vorangetrieben werden, um die künftige Einhaltung zu gewährleisten.

Abseits des AI Act braucht es Technologien zur Qualitätssicherung von KIs, die gezielte Risikobewertungen und Folgenabschätzungen für die Grundrechte auf europäischer Ebene ermöglichen. Europa muss in eigene europäische KI-Systeme investieren, um Daten von Kund:innen und Beschäftigten besser zu schützen, aber auch um technologisch unabhängiger zu werden.

Mehr lesen

„Wir erleben im Digitalen das Gegenteil von Kapitalismus“

„Vergessen wir nicht, dass der Mensch nie in totaler Kontrolle seines Lebens ist“

Du brauchst einen Perspektivenwechsel?

Dann melde dich hier an und erhalte einmal wöchentlich aktuelle Beiträge zu Politik und Wirtschaft aus Sicht der Arbeitnehmer:innen.



Mit * markierte Felder sind Pflichtfelder. Mit dem Absenden dieses Formulars stimme ich der Verarbeitung meiner eingegebenen personenbezogenen Daten gemäß den Datenschutzbestimmungen zu.

Über den/die Autor:in

Andrea Rogy

Andrea Rogy schreibt unter anderem für die NÖN und arbeitet als Lektorin
im Studiengang Soziale Arbeit an der Fachhochschule St. Pölten.

Du brauchst einen Perspektivenwechsel?

Dann melde dich hier an und erhalte einmal wöchentlich aktuelle Beiträge zu Politik und Wirtschaft aus Sicht der Arbeitnehmer:innen.



Mit * markierte Felder sind Pflichtfelder. Mit dem Absenden dieses Formulars stimme ich der Verarbeitung meiner eingegebenen personenbezogenen Daten gemäß den Datenschutzbestimmungen zu.