
Arbeit&Wirtschaft: Arbeiten Künstliche-Intelligenz-Systeme vertrauenswürdig?
Gertraud Leimüller: Wir beobachten massive Probleme mit stereotypen und vorurteilsbehafteten Verzerrungen in den Ergebnissen von KI-Anwendungen – egal, ob es um Chatbots wie ChatGPT, Bildgeneratoren, Diagnose-KIs in der Medizin oder Scoring-Systeme bei der Kreditvergabe von Banken geht. Entgegen einer weit verbreiteten Meinung sind Technologien nicht so objektiv, wie wir es brauchen würden. Das Problem entsteht, weil KI-Anwendungen mit Daten trainiert werden, die solche Verzerrungen bereits in sich tragen. Dazu kommt, dass die Modelle Verzerrungen aus unserer realen Welt selbst noch weiter verschärfen. Als unerwünschtes Resultat entstehen Benachteiligungen bestimmter Personengruppen. Oft sind es die aus der analogen Welt bereits bekannten benachteiligten Gruppen, zum Beispiel Frauen, Ältere oder Migrant:innen. Doch im Grunde können Vorurteile einer KI jeden Menschen treffen.
Wir arbeiten an einer Technologie, die diese Qualitätsprobleme spezifisch aufzeigt. Unser System, das sogenannte „Algorithmic Bias Risk Radar“, kurz ABRRA, wird auf Tausende Fälle von KI-Fehlverhalten zurückgreifen und deren Muster darstellen können. Das System soll 2026 auf den Markt kommen und Unternehmen und der öffentlichen Hand Hinweise geben, auf welche Verzerrungen beim Einsatz von unterschiedlichen KI-Technologien in Bereichen wie zum Beispiel Personalwesen, Gesundheit, Finanzen, Bildung und öffentliche Verwaltung aufgepasst werden muss.
Macht ABRRA KI-Anwendungen für Konsument:innen und Betriebsrät:innen sicherer?
Betriebsrät:innen können mit unserem Tool KI-Systeme im Betrieb prüfen und vorab erkennen, welche Risiken da auf die Belegschaft zukommen. Das Radar zeigt beispielsweise auf, welche Fehler beim Einsatz von KI zur Analyse von Lebensläufen in Personalauswahlprozessen in anderen, ähnlichen Systemen bereits aufgetaucht sind.
KI-basierte Empfehlungssysteme beschleunigen zwar Rekrutierungsprozesse, allerdings gibt es auch Fälle sexistischer automatisierter Job- oder Bewerber:innenempfehlungen in Auswahlprozessen, bei denen die KI Frauen überwiegend Teilzeitjobs in den Bereichen Pflege oder Reinigung empfiehlt, Männern hingegen eher technische Berufe. Konsument:innen haben hier keine Handlungsmacht, werden aber von der besseren Transparenz und der Früherkennung von Risiken in KI-Systemen, beispielsweise im Rahmen von Leistungskontrollen und bei Personalauswahlverfahren, profitieren.

Braucht eine KI Qualitätsstandards?
Ja, und sie muss in der Anwendung stabil, zuverlässig, vertrauenswürdig sowie objektiv sein. Plattformen, etwa zur Personalauswahl, die wenig transparent sind, bergen ein hohes Risiko für Verzerrungen, weil nicht klar ist, welche Parameter für Empfehlungen herangezogen werden. Die Zukunft liegt in Qualitätszertifikaten für die KI, das erzeugt die notwendige Fairness.
Auf betrieblicher Ebene muss die Belegschaftsvertretung beurteilen können, ob ein geplantes KI-System fair oder verzerrend arbeitet. Dazu muss nachvollziehbar und kontrollierbar sein, mit welchen Angaben die künstliche Intelligenz trainiert wurde, welche Informationen über die Beschäftigten ins System eingespeist werden und wie mit diesen sensiblen Daten weiter umgegangen wird.
Derzeit sind viele KI-Systeme für Betroffene eine Black Box. Die Sensibilisierung steigt, es wird aber dauern, bis jede Organisation für sich selbst herausfindet, wo sie auf mögliche Diskriminierungen achten sollte.
Wie wichtig ist der menschliche Blick auf die KI?
Jede KI-Anwendung sollte in ein Umfeld eingebettet sein, wo Menschen verantwortlich sind und die Rahmenbedingungen bestimmen. Künstliche Intelligenz, auch selbstlernende Systeme, brauchen immer wieder Korrektur, damit sie sich nicht in eine Richtung verändern, die nachteilig ist.
Ich warne davor, einer KI die Gesamtverantwortung für Entscheidungsprozesse zu übertragen, weil sie viel stärker limitiert ist als der Mensch. An wesentlichen Stellen muss es einen Gegencheck geben, weil eine KI auch Fehler macht und durch die zugrunde liegenden Designentscheidungen geprägt ist.
Sie schreibt Texte, malt Bilder, analysiert Daten: KI ist gekommen, um zu bleiben. 🤖
Aber was macht KI mit unserer Arbeitswelt, mit uns als Gesellschaft?
Unsere neue Ausgabe liefert Antworten auf die großen Fragen: https://www.arbeit-wirtschaft.at/bewaehrte-antworten-fuer-rasante-zeiten/
— Arbeit&Wirtschaft Magazin (@aundwmagazin.bsky.social) 16. April 2025 um 10:00
KI hat beispielsweise die Tendenz, Leerstellen, etwa bei der Textzusammenfassung, mit sogenannten Halluzinationen – also frei erfundenen Behauptungen – zu besetzen. Das sollte man wissen und kontrollieren. Eine KI ist nie neutral, daher braucht sie den Menschen als Aufsicht. In Unternehmen müssen Verantwortlichkeiten festgelegt sein, also wer die KI kontrolliert, wer den Überblick über die laufenden Systeme behält und welche KI-gestützten Anwendungen Beschäftigte möglicherweise eigenmächtig einsetzen.
Wie kann die EU eine bessere Transparenz bei KI-Anwendungen erreichen?
Der EU AI Act bringt sehr viel mehr Information über KI-Systeme, die jetzt Black Boxes sind, insbesondere in Hochrisikobereichen wie Arbeitswelt und Gesundheit. Er muss aber in seiner praktischen Bedeutung noch verständlicher werden. Wir arbeiten dazu im Projekt NoLeFa (nolefa.eu) in einem europäischen Konsortium, in dem robuste Infrastrukturen für Qualitätstests und einheitliche KI-Standards vorangetrieben werden, um die künftige Einhaltung zu gewährleisten.
Abseits des AI Act braucht es Technologien zur Qualitätssicherung von KIs, die gezielte Risikobewertungen und Folgenabschätzungen für die Grundrechte auf europäischer Ebene ermöglichen. Europa muss in eigene europäische KI-Systeme investieren, um Daten von Kund:innen und Beschäftigten besser zu schützen, aber auch um technologisch unabhängiger zu werden.
Mehr lesen
„Vergessen wir nicht, dass der Mensch nie in totaler Kontrolle seines Lebens ist“