KI & Robotics

Ethik der Algorithmen – warum eine KI Regeln braucht

Algorithmen durchdringen mittlerweile unseren digitalen Alltag mehr, als wir oft vermuten: Von der Risikoabschätzung für eine Kreditvergabe, über Produktempfehlungen auf E-Commerce-Seiten, bis zur Bilderoptimierung bei Adobe Photoshop – automatisierte Entscheidungshilfen analysieren uns, geben uns Vorschläge und lenken uns damit auch subtil. Aber tun sie das ganz ohne Hintergedanken und wer entscheidet über sie?

Automatisierte Entscheidungshilfen und der Algorithm Bias

Zu Systemen zum automatisierten Entscheiden gehören ebenso „Chatbots, datenbasierte gezielte Werbung oder Navigationssysteme“, wie Jessica Wulf von AlgorithmWatch erklärt. Diese gemeinnützige Organisation forscht über KI-unterstützte Dienste und deren gesellschaftliche Auswirkungen. Forschung über algorithmengetriebene Entscheidungen ist wichtig, denn oft merken wir im Alltag gar nicht, dass überhaupt eine KI (mit-)entschieden hat. Zum Beispiel bei Stellenausschreibungen, die öfter weiblichen Nutzerinnengruppen als männlichen Nutzern gezeigt werden, wie AlgorithmWatch in einem Experiment demonstrierte.

Seltene Extremfälle von Vorverurteilung veranschaulichen umso mehr, wie komplex das Thema eigentlich ist: Eine Studie zeigte vor zwei Jahren, dass die Bilderkennungs-Systeme, wie sie in autonomen Fahrzeugen zum Einsatz kommen, farbige Menschen weniger gut erkennen können. Doch woran lag dieser so genannte Algorithm Bias: Einmal wurde die Bilderkennungssoftware mit zu wenig Personen dunkler Hautfarbe gefüttert. Zum Zweiten maß die KI selbst den wenigen Fotos mit Farbigen nicht genug Gewichtung bei. In einem anderen, aktuellen Fall an der amerikanischen Universitätsklinik in Harvard priorisierten Algorithmen Mediziner für die Covid-19-Impfung, die von zu Hause arbeiteten, vor den Krankenpflegern vor Ort in der Klinik. Was war da schiefgelaufen? Bei der Entwicklung des Algorithmus für die Impfpriorisierung wurden die Mitarbeiter des Krankenhaues weder einbezogen, noch konnten sie Feedback geben, als die Algorithmen zum Einsatz kamen.

 

Irren ist menschlich – deshalb weiß es auch die KI nicht besser

Wer ist nun für eine Ethik der Algorithmen in der Pflicht beziehungsweise verantwortlich: Ist es der Developer, der den Algorithmus programmiert und ein Vorurteil in den Code bereits einbettet? Sind es die Algorithmen selbst, die diese Entscheidungen fällen? Im Bereich des Natural Language Processing müssen wir etwa erstaunt feststellen, wie GPT-3-Algorithmen zu eigenständigen Resultaten kommen und beispielsweise gut klingende Artikel produzieren.

Julia Gundlach, Projektmanagerin von Algorithmenethik, einem Projekt der Bertelsmann Stiftung, kommentiert: „Mit der Verantwortung für die ethische Ausgestaltung algorithmischer Systeme verhält es sich ähnlich wie bei einem Orchester: Jede Musikerin und jeder Musiker ist mit dafür verantwortlich, wie die Musik klingt und wenn etwas schief klingt, kann man nicht den Instrumenten die Schuld geben. Auch in der Welt der Algorithmen sind es immer Menschen, die entscheiden – das gilt auch beim Machine Learning.“ Timo Daum, Autor von „Die Künstliche Intelligenz des Kapitals“, sieht das noch differenzierter: „Sind die Programmier:innen wirklich diejenigen, die den Überblick über die Mechanismen und Ziele der Algorithmen haben, an denen sie arbeiten, und gleichzeitig auch noch die Macht und den Einfluss besitzen, um diskriminierenden Code oder einseitige Datensätze zu erkennen und zu verändern? Wohl kaum. Aber auch die Vorstellung, algorithmischer Bias würde durch männliche Programmier-Nerds unbewusst in deren Code einfließen, überschätzt wohl die Spielräume derjenigen, deren Aufgabe es schließlich ist, die Business-Logik ihrer Auftraggeber nach strengen Regeln in ausführbaren Programmcode umzusetzen.

Handreichungen und Leitfäden für eine ethische Praxis

Dem Einhalt gebieten können nur wir alle zusammen – mit vielen Verantwortlichkeiten. Julia Gundlach von „Ethik der Algorithmen“ der Bertelsmann Stiftung fordert, dass die Verantwortung über die ethische Gestaltung von Algorithmen ein zentraler Bestandteil der Unternehmenskultur und der Zusammenarbeit zwischen Organisationen sein muss. „Wie diese Verantwortung in einer Behörde oder einem Unternehmen konkret verteilt ist, gilt es frühzeitig zu erörtern und eindeutig festzulegen“, sagt Gundlach. Dafür hat die Bertelsmann Stiftung zusammen mit dem iRights.Lab mit rund 500 Beteiligten die so genannten Algo.Rules zur ethischen Gestaltung algorithmischer Systeme erarbeitet. Dabei wurden allein elf verschiedene Rollenprofile in der öffentlichen Verwaltung identifiziert, die bei der Gestaltung algorithmischer Systeme mitwirken und dadurch auch Verantwortung übernehmen. „Das macht die Notwendigkeit einer eindeutigen Zuweisung von Verantwortung besonders deutlich“, erklärt sie. Anhand der Algo.Rules entstanden außerdem eine Handreichung für die digitale Verwaltung sowie ein Umsetzungsleitfaden für Führungskräfte und Entwickler:innen, um ethische Grundsätze in die Praxis zu überführen. „Im besten Fall ziehen Unternehmen solche Leitfragen als Basis für eine eigene Erarbeitung passender Prinzipien und konkreter Operationalisierungsschritte heran, da die unternehmerischen Bedarfe und Voraussetzungen jeweils unterschiedlich sind. Dabei braucht es das Engagement aller Beteiligten, damit diese Veränderungen nicht nur festgelegt, sondern auch umgesetzt werden“, wünscht sich Julia Gundlach.

 

Diskriminierungsrisiken überhaupt erst erkennen 

Bis so ein Leitfaden auch in die Praxis umgesetzt wird, sind die User:innen gefragt. Jede:r sollte bei automatisierten Entscheidungshilfen ganz genau hinsehen und sie auch hinterfragen. Aber genau da liegt auch ein Problem. Hilfe kommen dabei von Unding, auch unterstützt durch die Bertelsmann Stiftung – und von AutoCheck, einem neuen Projekt von AlgorithmWatch. Bis Juli 2022 erarbeitet dort Projektmanagerin Jessica Wulf mit ihrem Team an Handlungsanleitungen für Antidiskriminierungsberatungsstellen, um Diskriminierungsrisiken erst einmal erkennen zu können. Sie berichtet: „Es ist sehr schwer zu merken, dass ich durch ein automatisiertes System benachteiligt werde. Zum einen wegen der fehlenden Information, dass hier ein automatisiertes System zum Einsatz kommt. Zum anderen habe ich keine Vergleiche zu anderen Personen und deren Ergebnissen, um festzustellen, dass ich anders – und möglicherweise diskriminierend – behandelt wurde.“ Im Moment spürt das Team Fallbeispiele auf und ist auch auf Hinweise von Nutzer:innen angewiesen. Konkret wurde etwa AutoCheck informiert, dass bei einem iPhone 8 einige Bilder von schwarzen Menschen unter dem Label „Tier“ auftauchten, also automatisiert dieser Kategorie zugeteilt wurden. „Die Ergebnisse des Projektes, Handlungsanleitungen und Workshopkonzepte, richten sich vor allem an Mitarbeiterinnen und Mitarbeiter von Antidiskriminierungsberatungsstellen. Ihre Kompetenzen sollen unterstütz werden, sodass sie in der Lage sind, Risiken besser einzuschätzen und zu erkennen. Dadurch sollen bei konkreten Diskriminierungsfällen Betroffene besser unterstützt werden“, sagt Jessica Wulf. Das Bewusstmachen einer möglichen Diskriminierung durch automatisierte Entscheidungshilfen ist also mindestens so wichtig und fundamentale Arbeit wie ein Regelwerk für die Entwicklung dieser Entscheidungshilfen. Aber wenn wir schon mit dem Hinterfragen anfangen, dann auch gleich grundsätzlicher: Jessica Wulf fordert mehr gesellschaftliche Diskussion darüber, ob und wo wir automatisierte Systeme sinnvoll einsetzen können – und wo besser nicht. 

Text: Verena Dauerer