Bias, Bewusstsein und Unwissenheit bei Deep-Learning basierten Gesichtserkennungsverfahren
Die Studie zeigt, warum erfolgreiche Ansätze zur Reduktion von Voreingenommenheit (Bias) bei menschlichen Entscheidungsfindungen nicht auf maschinelle Entscheidungen übertragen werden können.
Ein interdisziplinäres Team von ZHAW-Forschenden hat in einer kürzlich erschienenen Arbeit in der Zeitschrift AI and Ethics eine Technik zur Reduzierung von Bias (Unterschiede in der Genauigkeit für verschiedene soziodemographische Gruppen) in modernen Gesichtserkennungsverfahren untersucht: Blinding. Blinding reduziert die Fähigkeit dieser Verfahren, sensible Merkmale wie Geschlecht oder Rasse zu unterscheiden und wurde in der Literatur bereits als Ansatz zur Reduktion von Bias verwendet. Wir zeigen, dass dieser Ansatz den Bias nicht reduziert.
Gesichtserkennungsverfahren können sensible Merkmale wie Geschlecht oder Rasse aus Bildern von Gesichtern ableiten, weil sie darauf trainiert sind, die Ähnlichkeit von Gesichtern zu bestimmen. Das bedeutet, dass Menschen mit ähnlicher Hautfarbe, ähnlicher Haarlänge usw. von Gesichtserkennungsverfahren als ähnlich angesehen werden. Bei der Überprüfung von Bewerbungen besteht ein Ansatz darin, die menschlichen Entscheidungsträger für sensible Merkmale wie Geschlecht und Rasse «blind» zu machen, indem man ihnen keine Bilder der Bewerber zeigt, um eine voreingenommene Entscheidungsfindung zu verhindern. Übertragen auf Gesichtserkennungsverfahren führt dies zur Hypothese, dass der Bias dieser Verfahren reduziert wird, wenn ihr «Bewusstsein» bezüglich sensibler Merkmale abnimmt, sprich ihre Fähigkeit zur Unterscheidung dieser Merkmale reduziert wird. Wir evaluieren diese verbreitete Annahme, indem wir messen, wie «bewusst» den Modellen sensible Merkmale sind, und dies mit Unterschieden in der Genauigkeit korrelieren. Insbesondere haben wir dieses «Bewusstsein» in vortrainierte Modelle mit Blinding reduziert, um sie für sensible Merkmale weniger sensibel zu machen. Wir stellen fest, dass «Bewusstsein» und Bias nicht positiv korrelieren, d. h., dass Bias ≠ «Bewusstsein». Tatsächlich beeinflusst Blinding den Bias kaum. Die scheinbar einfache Lösung, den Bias in den Gesichtserkennungsraten durch die Verringerung des «Bewusstseins» sensibler Merkmale zu reduzieren, funktioniert also in der Praxis nicht: Der Versuch, sensible Merkmale zu ignorieren, ist kein praktikables Konzept für Bias-freie FR.
Die vollständige Studie ist in der Publikation "Bias, awareness, and ignorance in deep-learning-based face recognition" von Samuel Wehrli (ZHAW School of Social Work), den Doktoranden Corinna Hertweck und Mohammadreza Amirian ZHAW School of Engineering), Stefan Glüge (ZHAW School of Life Sciences and Facility Management) und Thilo Stadelmann (ZHAW Centre for Artificial Intelligence) frei zugänglich. Es ist ein spätes Ergebnis des von der Innosuisse finanzierten Forschungsprojekts Libra zusammen mit der Winterthurer Firma Deep Impact AG.