Eingabe löschen

Kopfbereich

Hauptnavigation

Wie fair kann künstliche Intelligenz sein?

Können Algorithmen gerecht und fair entscheiden? Dieser Frage gehen vier Kurzfilme nach, die ZHAW-Forschende in Kooperation mit «AlgorithmWatch Schweiz» konzipiert haben und die ab dem 11. Februar 2022 in der Ausstellung «Planet Digital» im Museum für Gestaltung Zürich zu sehen sind.

Schauspielerin Isabel Cangialosi als TV-Moderatorin AI Aka Alice Imke bei den Dreharbeiten des Kurzfilms «Welches Kind ist in Gefahr? Algorithm TV». Bild: Tristesse

Egal ob bei Job-Bewerbungen, der Beurteilung von Häftlingen, der Vergabe von Sozialhilfe oder bei der Benotung von Schülern: Künstliche Intelligenz ist schon längst Teil unseres Alltags. Oftmals, ohne davon wirklich zu wissen, entscheiden Algorithmen über wichtige Dinge, die das Leben von Menschen beeinflussen. Wenn KI aber solch relevanten Entscheidungen zu treffen vermag, stellt sich die Frage, wie fair diese gegenüber den Betroffenen sind und ob bestimmte gesellschaftliche Gruppen dadurch bevorzugt oder benachteiligt werden: auf dem Spiel steht die soziale Gerechtigkeit. Um diese Fragen dreht sich das Exponat «(Un)-faire Algorithmen» der ZHAW in der Ausstellung «Planet Digital». Zu sehen ist die Ausstellung der Universität Zürich ab Freitag, 11. Februar, im Museum für Gestaltung Zürich in Zusammenarbeit mit ZHAW und der Zürcher Hochschule der Künste. Ermöglicht wurde sie durch die Digitalisierungsoffensive der Zürcher Hochschulen (DIZH).

Das Institut für Datenanalyse und Prozessdesign (IDP) an der ZHAW forscht schon seit einigen Jahren in diesem Gebiet und entwickelt Methoden zur Untersuchung der Fairness von künstlicher Intelligenz (KI) und Verfahren, um KI-Systemen so etwas wie soziale Gerechtigkeit einzupflanzen. Das ZHAW-Team um Christoph Heitz und Corinna Hertweck konzipierten nun in enger Zusammenarbeit mit der Organisation «AlgorithmWatch Schweiz» vier Kurzfilme, die jeweils anhand von Fallbeispielen den Einsatz von künstlicher Intelligenz im Hinblick auf soziale Gerechtigkeit thematisieren. Der Kooperationspartner «AlgorithmWatch Schweiz» ist eine gemeinnützige Organisation, deren Anliegen es ist, Entscheidungsfindungen durch Algorithmen der Gesellschaft transparent zu machen und sich für eine kritischen Diskussion und klare rechtliche Grenzen der Technik einsetzt.

Automatisierte Risikoeinschätzung von Kindesmissbrauch

In einem der Filme stellt eine Moderatorin in einem hippen, mit viel Retro-Chic ausgestattetem Nachrichtenstudio ein solches KI-Tool für Sozialbehörden vor, mit dessen Hilfe das Risiko von Missbrauch oder Vernachlässigung in Meldungen zu Kindswohlgefährdungen bewertet wird. Ein Algorithmus stellt Daten zu den betreffenden Fällen zusammen, anhand dieser Risikoprofile erstellt werden. Die Meldungen werden somit in zwei Gruppen kategorisiert. In solche, die weiter überprüft und in solche, die als harmlos eingestuft werden. «Das klingt doch glatt nach der Lösung, die SozialarbeiterInnen seit Jahren gewünscht haben», kommentiert die Moderatorin mit sarkastischem Unterton. Der von ihr kritisch befragte Aussenreporter erklärt die Details des neuen Instruments, das durchaus seine Tücken hat: Das System wird mit Daten von Familien gefüttert, die den Behörden vorliegen. Deshalb ist bei Familien, die schon viel mit den Sozialbehörden zu tun hatten, die Wahrscheinlichkeit deutlich höher, ein erhöhtes Risiko von Kindswohlgefährdung zu erkennen, als bei Familien, die noch nie mit staatlichen Behörden zu tun hatten. Nicht alle Familien sind also gleich vor dem System. Am Ende konfrontiert die Moderatorin die Zuschauer mit der entscheidenden Frage: «Wollen wir die Aufdeckungsrate von Missbrauch und Vernachlässigung insgesamt verbessern, wodurch jedoch gleichzeitig bei gewissen Bevölkerungsgruppen der Kinderschutz systematisch schlechter ist als bei anderen?» Eine Antwort darauf muss sich jede Besucherin und jeder Besucher selbst geben.

KI bereits auf der ganzen Welt im Einsatz

Begleitend zu den Filmen zeigen Plakate reale Fallbeschreibungen, die übersichtlich darstellen, wo KI-Systeme rund um den Globus schon heute eingesetzt werden. In vielen Fällen erfahren Antragsteller, Kunden oder Klienten überhaupt nicht, dass die Entscheidung über sie nicht ein Mensch, sondern eine Maschine getroffen hat. Eine kritische Auseinandersetzung darüber, inwiefern diese Technologien einen Nutzen darstellen oder wo sie zu einer ungerechtfertigten Ungleichbehandlung beitragen, will das ZHAW-Team mit seinem Exponat beisteuern. Der ZHAW-Beitrag basiert auf dem Forschungsprojekt «Soziale Fairness von Algorithmen», das als Teilprojekt des NRP-77 Projekts «Digitale Transformation» vom Schweizerischen Nationalfonds (SNF) finanziert wird. «KI behandelt oft, und in der Regel unbeabsichtigt, verschiedene gesellschaftliche Gruppen unterschiedlich. Unsere Aufgabe ist es, Methoden zu entwickeln, um das zu vermeiden», fasst der Projektverantwortliche Christoph Heitz die Ziele und Forschungsschwerpunkte des Projekts zusammen.

«Planet Digital» Eine Ausstellung zum Stand der Digitalisierung
Exponat der ZHAW: «(Un)-faire Algorithmen»
Von 11. Februar bis 6. Juni 2022
Museum für Gestaltung Zürich, Ausstellungsstrasse 60

Für ZHAW-Angehörige und Studierende ist der Eintritt zur Ausstellung kostenlos!

Veranstaltungen zum Thema

Podiumsdiskussion: (Un)faire Algorithmen
2. Juni, 18 bis 20 Uhr im Museum für Gestaltung Zürich, Ausstellungsstrasse 60

European Workshop on Algorithmic Fairness (EWAF 22)
Von 8. bis 9. Juni in Zürich, Veranstalter: ZHAW School of Engineering
Ein Workshop, der Forschende aus ganz Europa zusammenbringen möchte, die sich mit Fairness von Algorithmen beschäftigen.
Informationen und Call for Papers