Mohammadreza Amirian verteidigt erfolgreich seine Doktorarbeit über vertrauenswürdige Künstliche Intelligenz
Die Dissertation zum Thema 'Deep Learning für robuste und erklärungsfähige Modelle in der Computer Vision' führte zu wichtigen Entdeckungen in einer Reihe von angewandten Forschungsprojekten mit Praxispartnern und wurde an der Universität Ulm, Deutschland, mit 'magna cum laude' bewertet.
Am 20. Oktober 2023 verteidigte Mohammadreza Amirian, der von 2017 bis 2023 am InIT/CAI tätig war, erfolgreich seine Doktorarbeit mit dem Titel "Deep Learning für robuste und erklärungsfähige Modelle in der Computer Vision" an der Universität Ulm. Die Verteidigung erfolgte mit einer hervorragenden Präsentation und Diskussion, was zur Bewertung "magna cum laude" führte. Die Doktorprüfungskommission setzte sich aus den Mitbetreuern Prof. Thilo Stadelmann und Prof. Friedhelm Schwenker, sowie den Professoren Guenther Palm, Daniel Braun und Hans Kestler von der Universität Ulm und Prof. Martin Jaggi von der EPFL als externem Gutachter zusammen. Die Kommission wurde von Prof. Matthias Tichy geleitet.
Während seiner Promotionszeit konnte er eine beeindruckende Erfolgsbilanz vorweisen, darunter 7 peer-reviewed Zeitschriftenveröffentlichungen und 8 peer-reviewed Konferenzbeiträge, wobei er bei 6 dieser Veröffentlichungen als Erstautor fungierte. Unter anderem arbeitete er im Bereich Affective Computing (in Zusammenarbeit mit dem Institut für Neuronale Informationsverarbeitung der Universität Ulm), war treibende Kraft in einem Team, das 2019 am Google AutoDL Challenge teilnahm und zu den Top 5 gehörte, und verbesserte die kompensatorische Bewegungsartefaktkorrektur für Computertomographie-Bilder als Hauptmitarbeiter. Außerdem trug er zur Theorie und Implementierung von Deep Radial Basis Function Networks, rotationsinvarianten Vision-Transformern bei und deckte Ursachen für Vorurteile in Gesichtserkennungssystemen auf, um nur einige seiner Projekte zu nennen.
Mohammadreza's Dissertation präsentiert Fortschritte in der Robustheit und Erklärbarkeit von Computer-Vision-Modellen. Darüber hinaus zeigt sie, wie die Visualisierung von Merkmalsantworten von Vision-Modellen (Modellinterpretationen) dazu beitragen kann, die Robustheit zu verbessern, obwohl Interpretierbarkeit und Robustheit in der Forschung oft als unabhängig voneinander betrachtet werden. Neben den methodischen Entwicklungen für robuste und erklärungsfähige Vision-Modelle vermittelt die Dissertation die Botschaft, dass Modellinterpretationstechniken als Werkzeug dienen können, um Vision-Modelle zu verstehen und deren Design und Robustheit zu verbessern. Neben den theoretischen Entwicklungen zeigt die Arbeit auch verschiedene Anwendungen des maschinellen Lernens und des Deep Learning in verschiedenen Kontexten, darunter die medizinische Bildgebung und das Affective Computing.
Im Namen vom CAI gratulieren wir Mohammadreza Amirian ganz herzlich!