Responsible AI Innovation Group
"Verantwortungsbewusste KI-Innovation erfordert die Auseinandersetzung mit den ethischen und gesellschaftlichen Auswirkungen der Technologie auf eine Art und Weise, die robust, menschenzentriert und mit den Realitäten der Gesellschaft, des Industriesektors und der Politik vereinbar ist. Wir kombinieren hochmoderne Forschung mit bewährtem Fachwissen über die technologische Umsetzung, die Steuerung neu entstehender Technologien und die Einbindung verschiedener Interessengruppen, um KI-Technologie für das Gemeinwohl zu fördern."
Expertise
- Verantwortungsvolle Forschung und Innovation
- Ethisch orientierte Gestaltung intelligenter und autonomer Systeme
- Steuerung von KI und Neurotechnologien
Die Gruppe "Verantwortungsvolle KI-Innovation" (RAI) befasst sich mit den technischen, ordnungspolitischen und ethischen Aspekten der KI-gestützten Innovation. Der Forschungsschwerpunkt der Gruppe besteht darin, technische und nicht-technische Ansätze zu identifizieren, die es Organisationen ermöglichen, KI-Technologien erfolgreich in Lösungen zu überführen, die dem wirtschaftlichen und gesellschaftlichen Wohl dienen. Unser besonderes Interesse gilt Anwendungen, die große Auswirkungen auf Menschen und Gesellschaft haben, wie Gesundheit, Neurowissenschaften, Mensch-Maschine-Interaktion und maschinelle Entscheidungsfindung. Unsere Arbeit befasst sich mit End-to-End-Governance-Faktoren, die sich auf die Innovation auswirken, von der organisatorischen Governance über regulatorische und Zertifizierungsanforderungen bis hin zu soziotechnischen Standards, vertrauenswürdiger KI und menschenzentrierter Technologie.
Da verantwortungsbewusste Innovation eine wirksame Koordinierung verschiedener Interessengruppen und Fachgebiete erfordert, arbeitet RAI mit einem umfangreichen Netzwerk von Kooperationen mit nationalen und internationalen Organisationen zusammen, darunter CLAIRE, ADRA, SATW IEEE Standards Organization, IEEE Brain, The Geneva Center for Security Policy, GESDA, OECD, und the Institute for Neuroethics.
Die Gruppe "Responsible AI Innovation" wurde im September 2023 gegründet, davor wurde dieser Forschungszweig innerhalb der MPC-Gruppe durchgeführt. Einige der Projekte, die vor diesem Datum begonnen wurden, sind:
Angebote
- Einblick: Keynotes, Trainings, public outreach, scientific diplomacy
- KI-Beratung: Workshops, Expertenunterstützung, Beratung, Technikfolgenabschätzung, ethische Folgenabschätzung
- Forschung und Entwicklung: kleine bis grosse Gemeinschaftsprojekte, Drittmittelforschung, studentische Projekte, praxiserprobte Prototypen
Team
Projekte
Im Zuge des Neuaufbaus der Forschungsdatenbank sind die bisherigen Listen mit Forschungsprojekten nicht mehr abrufbar. Die Zukunft geht in Richtung Volltextsuche und Filterung, um bestmögliche Suchergebnisse für unsere Besucher:innen zur Verfügung zu stellen.
In der Zwischenzeit kannst du die Projekte ganz einfach unter folgenden Link per Textsuche finden: «Zur neuen Suche in der Projektdatenbank»
Publikationen
- Seite 01
- Seite 02
- Nächste Seite
-
Billeter, Yann; Denzel, Philipp; Chavarriaga, Ricardo; Forster, Oliver; Schilling, Frank-Peter; Brunner, Stefan; Frischknecht-Gruber, Carmen; Reif, Monika Ulrike; Weng, Joanna,
2024.
MLOps as enabler of trustworthy AI [Paper].
In:
2024 11th IEEE Swiss Conference on Data Science (SDS).
11th IEEE Swiss Conference on Data Science (SDS), Zurich, Switzerland, 30-31 May 2024.
IEEE.
S. 37-40.
Verfügbar unter: https://doi.org/10.1109/SDS60720.2024.00013
-
Denzel, Philipp; Brunner, Stefan; Billeter, Yann; Forster, Oliver; Frischknecht-Gruber, Carmen; Reif, Monika Ulrike; Schilling, Frank-Peter; Weng, Joanna; Chavarriaga, Ricardo; Amini, Amin; Repetto, Marco; Iranfar, Arman,
2024.
Towards the certification of AI-based systems [Paper].
In:
2024 11th IEEE Swiss Conference on Data Science (SDS).
11th IEEE Swiss Conference on Data Science (SDS), Zurich, Switzerland, 30-31 May 2024.
IEEE.
S. 84-91.
Verfügbar unter: https://doi.org/10.1109/SDS60720.2024.00020
-
Weng, Joanna; Denzel, Philipp; Reif, Monika Ulrike; Schilling, Frank-Peter; Billeter, Yann; Frischknecht-Gruber, Carmen; Brunner, Stefan; Chavarriaga, Ricardo; Repetto, Marco; Iranfar, Arman,
2024.
Certification scheme for artificial intelligence based systems [Paper].
In:
34th European Safety and Reliability Conference (ESREL), Cracow, Poland, 23-27 June 2024.
ZHAW Zürcher Hochschule für Angewandte Wissenschaften.
Verfügbar unter: https://doi.org/10.21256/zhaw-30549
-
Iwane, Fumiaki; Porssut, Thibault; Blanke, Olaf; Chavarriaga, Ricardo; Millan, Jose Del R.; Herbelin, Bruno; Boulic, Ronan,
2024.
Journal of Neural Engineering.
21(2), S. 026016.
Verfügbar unter: https://doi.org/10.1088/1741-2552/ad2c02
-
Denzel, Philipp; Brunner, Stefan; Luley, Paul-Philipp; Frischknecht-Gruber, Carmen; Reif, Monika Ulrike; Schilling, Frank-Peter; Amini, Amin; Repetto, Marco; Iranfar, Arman; Weng, Joanna; Chavarriaga, Ricardo,
2023.
A framework for assessing and certifying explainability of health-oriented AI systems.
In:
Explainable AI in Medicine Workshop, Lugano, Switzerland, 2-3 November 2023.