Machine Perception and Cognition Group
«KI ist DIE Schlüsseltechnologie des digitalen Wandels in allen Branchen und Sektoren und sie hat starke Auswirkungen auf unsere Gesellschaften. Darum leistet unsere Forschung wichtige Beiträge zu robusten und vertrauenswürdigen KI-Methoden, und wir vermitteln mit Begeisterung deren sichere Umsetzung und Anwendung.»
Expertise
- Mustererkennung mit Deep Learning
- Maschinelle Wahrnehmung, Computer Vision und Sprechererkennung
- Entwicklung neuronaler Systeme
Die Machine Perception and Cognition-Gruppe forscht über Mustererkennung und arbeitet an einer Vielzahl von Aufgaben mit Bild-, Ton- oder allgemein Signaldaten. Wir befassen uns mit der Methodik der tiefen neuronalen Netze (Deep Neural Networks) und des Reinforcement Learning, inspiriert durch biologisches Lernen. Jede unserer Aufgaben hat ihr eigenes Lernziel (z. B. Erkennung, Klassifizierung, Clustering, Segmentierung, Novelty Detection, Steuerung) und ihren eigenen Anwendungsfall (z. B. vorausschauende Instandhaltung (Predictive Maintenance), Sprechererkennung für Multimedia-Indizierung, Dokumentanalyse, optische Notenerkennung, Computer Vision für industrielle Qualitätskontrolle, automatisiertes maschinelles Lernen, Deep Reinforcement Learning für automatisierte Spiele oder Gebäudeleittechnik). Diese werfen ihrerseits ein Licht auf verschiedene Aspekte des Lernprozesses. Wir nutzen diese Erfahrungen, um allgemeinere KI-Systeme zu kreieren, die auf neuronalen Architekturen basieren.
Angebote
- Einblick: Keynotes, Trainings
- KI-Beratung: Workshops, Expertenunterstützung, Beratung, Technikfolgenabschätzung
- Forschung und Entwicklung: kleine bis grosse Gemeinschaftsprojekte, Drittmittelforschung, studentische Projekte, praxiserprobte Prototypen
Team
Projekte
Leider kann hier momentan keine Liste der Projekte angezeigt werden. Bis die Liste wieder verfügbar ist, kann die Projektsuche auf der Dachseite der ZHAW genutzt werden.
Publikationen
-
Hibraj, Feliks; Vascon, Sebastiano; Stadelmann, Thilo; Pelillo, Marcello,
2018.
Speaker clustering using dominant sets [Paper].
In:
2018 24th International Conference on Pattern Recognition (ICPR).
24th International Conference on Pattern Recognition (ICPR 2018), Beijing, China, 20-28 August 2018.
IEEE.
S. 3549-3554.
Verfügbar unter: https://doi.org/10.1109/ICPR.2018.8546067
-
Amirian, Mohammadreza; Schwenker, Friedhelm; Stadelmann, Thilo,
2018.
Trace and detect adversarial attacks on CNNs using feature response maps [Paper].
In:
Artificial Neural Networks in Pattern Recognition.
8th IAPR TC3 Workshop on Artificial Neural Networks in Pattern Recognition (ANNPR), Siena, Italy, 19-21 September 2018.
Springer.
S. 346-358.
Lecture Notes in Computer Science ; 11081.
Verfügbar unter: https://doi.org/10.1007/978-3-319-99978-4_27
-
Meier, Benjamin; Stadelmann, Thilo; Stampfli, Jan; Arnold, Marek; Cieliebak, Mark,
2017.
Fully convolutional neural networks for newspaper article segmentation [Paper].
In:
Proceedings of the 14th IAPR International Conference on Document Analysis and Recognition (ICDAR).
14th IAPR International Conference on Document Analysis and Recognition (ICDAR 2017), Kyoto Japan, 13-15 November 2017.
Kyoto:
CPS.
Verfügbar unter: https://doi.org/10.21256/zhaw-1533
-
Lukic, Yanick X.; Vogt, Carlo; Dürr, Oliver; Stadelmann, Thilo,
2017.
Learning embeddings for speaker clustering based on voice equality [Paper].
In:
2017 IEEE 27th International Workshop on Machine Learning for Signal Processing (MLSP).
27th IEEE International Workshop on Machine Learning for Signal Processing (MLSP 2017), Tokyo, 25-28 September 2017.
IEEE.
Verfügbar unter: https://doi.org/10.1109/MLSP.2017.8168166
-
Stockinger, Kurt; Stadelmann, Thilo; Ruckstuhl, Andreas,
2016.
.
In:
Fasel, Daniel; Andreas, Meier, Hrsg.,
Big Data.
Wiesbaden:
Springer.
S. 59-81.
Edition HMD.
Verfügbar unter: https://doi.org/10.1007/978-3-658-11589-0_4
Sonstige Veröffentlichungen
Wann | Art | Titel |
---|---|---|
2023 | Extended Abstract | Thilo Stadelmann. KI als Chance für die angewandten Wissenschaften im Wettbewerb der Hochschulen. Workshop (“Atelier”) at the Bürgenstock-Konferenz der Schweizer Fachhochschulen und Pädagogischen Hochschulen 2023, Luzern, Schweiz, 20. Januar 2023 |
2022 | Extended Abstract | Christoph von der Malsburg, Benjamin F. Grewe, and Thilo Stadelmann. Making Sense of the Natural Environment. Proceedings of the KogWis 2022 - Understanding Minds Biannual Conference of the German Cognitive Science Society, Freiburg, Germany, September 5-7, 2022. |
2022 | Open Research Data | Felix M. Schmitt-Koopmann, Elaine M. Huang, Hans-Peter Hutter, Thilo Stadelmann, und Alireza Darvishy. FormulaNet: Ein Benchmark-Datensatz für die Erkennung mathematischer Formeln. Eine ungelöste Teilaufgabe der Dokumentenanalyse ist die Erkennung mathematischer Formeln (MFD). Forschungen von uns und anderen haben gezeigt, dass bestehende MFD-Datensätze mit Inline- und Display-Formel-Etiketten klein sind und eine unzureichende Etikettierungsqualität aufweisen. Es besteht daher ein dringender Bedarf an Datensätzen mit besserer Beschriftungsqualität für die zukünftige Forschung im Bereich MFD, da diese einen großen Einfluss auf die Leistung der darauf trainierten Modelle haben. Wir stellen eine fortschrittliche Etikettierungspipeline und einen neuen Datensatz namens FormulaNet vor. Mit über 45.000 Seiten ist FormulaNet unserer Meinung nach der größte MFD-Datensatz mit Inline-Formelbeschriftungen. Unser Datensatz soll bei der Bewältigung der MFD-Aufgabe helfen und kann die Entwicklung neuer Anwendungen ermöglichen, wie z. B. die Zugänglichkeit mathematischer Formeln in PDFs für sehbehinderte Benutzer von Bildschirmlesegeräten. |
2020 | Open Research Data | Lukas Tuggener, Yvan Putra Satyawan, Alexander Pacha, Jürgen Schmidhuber, and Thilo Stadelmann, DeepScoresV2. The DeepScoresV2 Dataset for Music Object Detection contains digitally rendered images of written sheet music, together with the corresponding ground truth to fit various types of machine learning models. A total of 151 Million different instances of music symbols, belonging to 135 different classes are annotated. The total Dataset contains 255,385 Images. For most researches, the dense version, containing 1714 of the most diverse and interesting images, is a good starting point. |