Was ist künstliche Intelligenz?
Künstliche Intelligenz, wie wir sie heute antreffen, basiert meist auf maschinellem Lernen. Dabei werden große Datenmengen mithilfe statistischer Verfahren nach Mustern durchsucht. Darauf basierend stellt das System Regeln auf, die es stetig an neue Rückmeldungen, die es bekommt, anpasst. Mit jeder Rückmeldung und jedem Datensatz wird die KI „intelligenter“. Am Ende soll sie eigenständig Lösungen für neue, unbekannte Probleme finden.
Die großen technischen Fortschritte in diesem Bereich haben viel mit gesteigerter Rechenleistung von Computern, der Verfügbarkeit großer Datenmengen, mit Entwicklung zu Bild- und Spracherkennung und Wissensverarbeitung zu tun. Diese Fortschritte schlagen sich in neuen Anwendungen wie dem autonomen Fahren, Übersetzungsprogrammen oder medizinischen Analysen nieder. Es ist anzunehmen, dass sich in den nächsten Jahren weiterhin viel tun wird. Immerhin liegt das Marktvolumen für KI laut Europäischem Wirtschafts- und Sozialausschuss (EWSA) heute bei rund 664 Millionen US-Dollar und soll bis 2025 auf circa 38,8 Milliarden US-Dollar wachsen.
Die Hoffnungen sind groß. KI-Anwendungen haben das Potenzial, medizinische Diagnosen zu verbessern, Emissionen im Transportbereich zu verringern oder in unterschiedlichsten Bereichen die Sicherheit zu erhöhen. In der Arbeitswelt könnten gefährliche und gesundheitsschädliche Arbeiten minimiert werden. Vor allem ruhen auf KI-Anwendungen aber Erwartungen zu Effizienzsteigerung, Fehlerminimierung und Entwicklung neuer Geschäftszweige.
KI im Büro
Es gibt sie schon: Start-ups, die anpreisen, voraussagen zu können, ob BewerberInnen erfolgreich sein werden oder nicht. Das tun sie zum Beispiel anhand der Anzahl der Wörter in Bewerbungsschreiben. Andere Firmen werben damit, anhand von Videoanalysen die Körper- und verbale Sprache von BewerberInnen zu analysieren und so deren Kündigungswahrscheinlichkeit bestimmen zu können. Die KI-Funktion Xander soll die Emotionen von Menschen erkennen. Im Werbevideo heißt es: „Xander existiert, um das Mysteriöse aus menschlichen Entscheidungen zu entfernen. Jedes Mal, wenn Sie herausfinden wollen, wen Sie einstellen, wen Sie befördern, wie Sie Ihre Mitarbeiter motivieren können.“ Wie treffsicher Xander ist, wissen wir nicht.
„Einprogrammierte“ Ungerechtigkeit
Solche Anwendungen könnten, so die Hoffnung, Diskriminierung entgegenwirken, da Computer keine menschlichen Vorurteile in Bezug auf Geschlecht, Herkunft oder Alter haben. Es kann aber auch das Gegenteil passieren – und zwar dann, wenn die „Trainingsdaten“, mit denen das System „gefüttert“ wird, eine Schieflage haben. Denn wenn bisher immer jüngere Menschen in Bewerbungsverfahren erfolgreich waren, wird das System dieses Kriterium erkennen und künftig auch jüngere Menschen empfehlen. Es fragt nicht, was die Gründe dafür waren, ob diese Entscheidungen sinnvoll oder gerecht waren. Das System „lernt“ lediglich aus menschlichem Verhalten und kopiert es. Die Ungerechtigkeit wäre quasi „einprogrammiert“. Im Endeffekt kann ein Algorithmus so sexistischer oder rassistischer agieren als ein Mensch.
Gruselig muten Entwicklungen an, bei denen künstliche Intelligenz nicht mehr nur Grundlage für menschliche Managemententscheidungen sind, sondern selbst Beschäftigte kontrollieren und „managen“. Ein Beispiel dafür ist Cogito, ein System, das einem Bericht des Economist zufolge die Stimmen von Callcenter-Beschäftigten analysiert sowie Alarm schlägt, wenn diese zu unfreundlich klingen, und sie an einen freundlicheren Tonfall erinnert. In eine ähnliche Richtung gehen Versuche von Amazon und JD.com, die mit Armbändern experimentieren, die Handbewegungen der ArbeitnehmerInnen in Echtzeit verfolgen und leiten.
Arbeiten mit schlauen Robotern
Besondere Herausforderungen entstehen, wenn KI-Systeme Objekte steuern – und das in komplexen, von Menschen bevölkerten Umgebungen. Das prominenteste Beispiel dafür: autonome Autos, die ohne FahrerInnen auskommen, aber auch kollaborierende Anwendungen von Maschinen im Arbeitsprozess. Hier entstehen vielschichtige Sicherheitsrisiken, wie eine Studie des US-amerikanischen National Science and Technology Council Committee on Technology zeigt. Anders als bei klassischen Industrierobotern, bei denen aus Sicherheitsgründen tunlichst Sicherheitsabstände zu Menschen eingehalten werden müssen, ist eine solche Isolation bei kollaborativen Robotern nicht vorgesehen. Das kann zur Gefahrenquelle für Menschen werden. Interessant ist, dass es bisher noch keine internationalen Standards für diesen Bereich gibt.
Ist das alles in Österreich erlaubt? Grundsätzlich gilt hierzulande: Wird ein neues technisches System eingeführt, braucht es die Zustimmung des Betriebsrates. Gibt es keinen Betriebsrat, muss die individuelle Einwilligung der Beschäftigten eingeholt werden. Gerade in Zeiten großer technischer Umwälzungen ist das eine herausragende Chance, um den digitalen Wandel so zu gestalten, dass auch die ArbeitnehmerInnen davon profitieren. Die Ressourcen der Betriebsräte werden dabei mehr als gefordert sein. Die Fragen, die KI-Anwendungen aufwerfen, sind vielfältig, von den Arbeitsmarkteffekten der neuen Technologien bis zu gigantischen Herausforderungen für den betrieblichen Datenschutz. Wir werden aber auch eine Debatte über ethische Fragen führen müssen: Was darf KI und was nicht? Verletzt es etwa die menschliche Würde, wenn man von einem Computer gesagt bekommt, wie freundlich man sein soll? Und wie setzt man ethische Standards in der Realität durch? Anregungen dazu kann man sich in der traditionellen Wirtschaft holen. Standards und Normen, deren Einhaltung auch geprüft werden, sind in anderen Technikbereichen üblich – ein bewährtes Prinzip, das angesichts von KI-Systemen mit neuen, zusätzlichen Inhalten gefüllt werden muss.
Sinnvoller Rahmen nötig
Wichtig ist zudem größtmögliche Transparenz, um zum Beispiel die Risiken von Diskriminierung zu verhindern und zu sichern, dass Gesetze und soziale Normen eingehalten werden. Manchen Entwicklungen muss man auch grundsätzlich entgegentreten. Tatsächlich gibt es bereits Stimmen, die eine „Rechtsperson“ für Roboter fordern. Denn, so das Argument, niemand könne kontrollieren, was eine selbstlernende Software im Laufe der Zeit lernt. Eine solche Aufweichung der Herstellerhaftung würde moralischen Risiken und Missbrauchsmöglichkeiten das Tor öffnen. Das sind nur einige der großen Fragen, die KI-Anwendungen aufwerfen. Wir dürfen die Entwicklung nicht Technik und Markt überlassen. Wir müssen das diskutieren und einen sinnvollen Rahmen gestalten.
EWSA zur Informationsgesellschaft
US-Studie zur KI
Sylvia Kuba
Bereichsleitung Wirtschaft der AK Wien
Dieser Artikel erschien in der Ausgabe Arbeit&Wirtschaft 5/18.
Schreiben Sie Ihre Meinung an die Autorin
sylvia.kuba@akwien.at
oder die Redaktion
aw@oegb.at