Responsible AI Innovation Group

"Verantwortungsbewusste KI-Innovation erfordert die Auseinandersetzung mit den ethischen und gesellschaftlichen Auswirkungen der Technologie auf eine Art und Weise, die robust, menschenzentriert und mit den Realitäten der Gesellschaft, des Industriesektors und der Politik vereinbar ist. Wir kombinieren hochmoderne Forschung mit bewährtem Fachwissen über die technologische Umsetzung, die Steuerung neu entstehender Technologien und die Einbindung verschiedener Interessengruppen, um KI-Technologie für das Gemeinwohl zu fördern."
Expertise
- Verantwortungsvolle Forschung und Innovation
- Ethisch orientierte Gestaltung intelligenter und autonomer Systeme
- Steuerung von KI und Neurotechnologien
Die Gruppe "Verantwortungsvolle KI-Innovation" (RAI) befasst sich mit den technischen, ordnungspolitischen und ethischen Aspekten der KI-gestützten Innovation. Der Forschungsschwerpunkt der Gruppe besteht darin, technische und nicht-technische Ansätze zu identifizieren, die es Organisationen ermöglichen, KI-Technologien erfolgreich in Lösungen zu überführen, die dem wirtschaftlichen und gesellschaftlichen Wohl dienen. Unser besonderes Interesse gilt Anwendungen, die große Auswirkungen auf Menschen und Gesellschaft haben, wie Gesundheit, Neurowissenschaften, Mensch-Maschine-Interaktion und maschinelle Entscheidungsfindung. Unsere Arbeit befasst sich mit End-to-End-Governance-Faktoren, die sich auf die Innovation auswirken, von der organisatorischen Governance über regulatorische und Zertifizierungsanforderungen bis hin zu soziotechnischen Standards, vertrauenswürdiger KI und menschenzentrierter Technologie.
Da verantwortungsbewusste Innovation eine wirksame Koordinierung verschiedener Interessengruppen und Fachgebiete erfordert, arbeitet RAI mit einem umfangreichen Netzwerk von Kooperationen mit nationalen und internationalen Organisationen zusammen, darunter CLAIRE, ADRA, SATW IEEE Standards Organization, IEEE Brain, The Geneva Center for Security Policy, GESDA, OECD, und the Institute for Neuroethics.
Die Gruppe "Responsible AI Innovation" wurde im September 2023 gegründet, davor wurde dieser Forschungszweig innerhalb der MPC-Gruppe durchgeführt. Einige der Projekte, die vor diesem Datum begonnen wurden, sind:
Angebote
- Einblick: Keynotes, Trainings, public outreach, scientific diplomacy
- KI-Beratung: Workshops, Expertenunterstützung, Beratung, Technikfolgenabschätzung, ethische Folgenabschätzung
- Forschung und Entwicklung: kleine bis grosse Gemeinschaftsprojekte, Drittmittelforschung, studentische Projekte, praxiserprobte Prototypen
Team
Projekte
-
AI-BRIDGE - A Think-and-Do-Tank for Responsible Development and Societal Alignment of Artificial Intelligence Systems
AI-BRIDGE bringt verantwortungsvolle KI in die Praxis, indem es die Kluft zwischen gesellschaftlichen Werten und der Entwicklung von KI-Technologie und -Lösungen überbrückt. Der AI-BRIDGE Think-and-Do Tank wird Organisationen dabei helfen, das Potenzial der KI zu nutzen und gleichzeitig die…
laufend, 04/2025 - 12/2029
-
Certification program for assessing ethics of Autonomous Intelligent Systems (IEEE CertifAIEd Assessor Training)
ZHAW is offering, in partnership with IEEE SA, the IEEE CertifAIEd (TM) Authorized Assessor Training. IEEE CertifAIEd is a certification program for assessing ethics of Autonomous Intelligent Systems (AIS) to help protect, differentiate, and grow product adoption. The resulting certificate and mark…
laufend, 05/2024 - 07/2025
-
Brain Research International Data Governance & Exchange - Phase II
The goal of this project is to develop an International Data Governance Framework (IDGF) that can advance responsible international brain research and innovation. This will start with the identification of the technical, legal, ethical and organizational challenges to IDGF and the development of…
laufend, 04/2024 - 04/2025
-
Apéro Digital: Event Series
In the midst of societal digital transformation, post-pandemic economic recovery, and geopolitical tensions around the globe, the need for a carefully curated space for deliberation and networking presents unprecedented urgency. Against this backdrop, we propose the creation of an intellectually…
laufend, 03/2024 - 08/2025
-
Brain Research International Data Governance & Exchange
The goal of this project is to develop an International Data Governance Framework (IDGF) that can advance responsible international brain research and innovation. This will start with the identification of the technical, legal, ethical and organizational challenges to IDGF and the development of…
abgeschlossen, 11/2023 - 04/2024
-
AI for REAL-world NETwork operation (AI4REALNET)
The scope of AI4REALNET covers the perspective of AI-based solutions addressing critical systems (electricity, railway, and air traffic management) modelled by networks that can be simulated, and are traditionally operated by humans, and where AI systems complement and augment human abilities. It…
laufend, 10/2023 - 03/2027
-
Consulting Service for the preparation of the GESDA Anticipation Observatory
The Geneva Science and Diplomacy Anticipator (GESDA) is developing the “Anticipation Observatory". The observatory is aimed at equipping decision-makers with the necessary navigation tools to best support research and policy-making in technology and their applications in society. By understanding…
laufend, 07/2023 - 12/2025
-
certAInty – A Certification Scheme for AI systems (certAInty)
Certification of AI Systems by an accredited body increases trust, accelerates adoption and enables their use for safety-critical applications. We develop a Certification Scheme comprising specific requirements, criteria, measures, and technical methods for assessing Machine Learning enabled…
abgeschlossen, 11/2022 - 12/2024
Publikationen
- Seite 01
- Seite 02
- Seite 03
- Nächste Seite
-
Carlson, David Edwin; Chavarriaga, Ricardo; Liu, Yiling; Lotte, Fabien; Lu, Bao-Liang,
2025.
Journal of Neural Engineering.
22(2), S. 021002.
Verfügbar unter: https://doi.org/10.1088/1741-2552/adbfbd
-
Starke, Georg; Gille, Felix; Termine, Alberto; Aquino, Yves Saint James; Chavarriaga, Ricardo; Ferrario, Andrea; Hastings, Janna; Jongsma, Karin; Kellmeyer, Philipp; Kulynych, Bogdan; Postan, Emily; Racine, Elise; Sahin, Derya; Tomaszewska, Paulina; Vold, Karina; Webb, Jamie; Facchini, Alessandro; Ienca, Marcello,
2025.
Journal of Medical Internet Research.
27, S. e56306.
Verfügbar unter: https://doi.org/10.2196/56306
-
Frischknecht-Gruber, Carmen; Denzel, Philipp; Forster, Oliver; Billeter, Yann; Iranfar, Arman; Repetto, Marco; Reif, Monika Ulrike; Schilling, Frank-Peter; Weng, Joanna; Chavarriaga, Ricardo,
2025.
In:
AI Days @ HES-SO, Geneva and Lausanne, Switzerland, 27–29 January 2025.
ZHAW Zürcher Hochschule für Angewandte Wissenschaften.
Verfügbar unter: https://doi.org/10.21256/zhaw-32422
-
Frischknecht-Gruber, Carmen; Denzel, Philipp; Reif, Monika; Billeter, Yann; Brunner, Stefan; Forster, Oliver; Schilling, Frank-Peter; Weng, Joanna; Chavarriaga, Ricardo; et al.,
2025.
AI assessment in practice : implementing a certification scheme for AI trustworthiness [Paper].
In:
Görge, Rebekka; Haedecke, Elena; Poretschkin, Maximilian; Schmitz, Anna, Hrsg.,
Symposium on Scaling AI Assessments (SAIA 2024).
Symposium on Scaling AI Assessments (SAIA 2024), Cologne, Germany, 30 September - 1 October 2024.
Schloss Dagstuhl – Leibniz-Zentrum für Informatik.
S. 15:1-15:18.
Open Access Series in Informatics (OASIcs) ; 126.
Verfügbar unter: https://doi.org/10.4230/OASIcs.SAIA.2024.15
-
Sultana, Mushfika; Jain, Osheen; Halder, Sebastian; Matran-Fernandez, Ana; Nawaz, Rab; Scherer, Reinhold; Chavarriaga, Ricardo; del R. Millán, José; Perdikis, Serafeim,
2024.
Evaluating dry EEG technology out of the lab [Paper].
In:
2024 IEEE International Conference on Metrology for eXtended Reality, Artificial Intelligence and Neural Engineering (MetroXRAINE).
IEEE International Conference on Metrology for eXtended Reality, Artificial Intelligence and Neural Engineering (MetroXRAINE), St. Albans, United Kingdom, 21-23 October 2024.
IEEE.
S. 752-757.
Verfügbar unter: https://doi.org/10.1109/metroxraine62247.2024.10797021