Eingabe löschen

Kopfbereich

Hauptnavigation

MPC Group glänzt an der IEEE Swiss Conference on Data Science (SDS) 2024

Die CAI-Gruppe ‘Machine Perception and Cognition’ hatte eine bemerkenswerte Präsenz auf der IEEE SDS 2024, die am 31. Mai in Zürich stattfand. Drei Beiträge unseres Teams wurden präsentiert, und die Veranstaltung bot mehrere Höhepunkte, darunter eine Auszeichnung.

Die 11. IEEE Swiss Conference on Data Science ist eine erstklassige akademische Veranstaltung im Bereich der Datenwissenschaft und das jährliche Treffen der Schweizer Datenwissenschaftsbranche. Auch die CAI-Forschungsgruppe ‘Machine Perception and Cognition’ von Prof. Thilo Stadelmann präsentierte dort Ergebnisse aus ihrer Forschung:

Unser Doktorand Benjamin Meyer stellte ein Poster zur Implementierung von ScalaGrad, einer automatischen Differenzierungs-Bibliothek für die Programmiersprache Scala vor. ScalaGrad erweitert Scala und eröffnet neue Anwendungsmöglichkeiten für mathematisches Modellieren und maschinelles Lernen. Es beinhaltet zahlreiche neue Funktionen: Es ist asymptotisch effizient, kann allgemeinen Scala-Code ableiten, unterstützt Ableitungen höherer Ordnung und ist Open Source. Darüber hinaus fördert ScalaGrad sicherere Code-Entwicklung durch Scalas robustes Typsystem und Typsicherheit bei der automatischen Differenzierung. Dadurch vereinfacht es die Bearbeitung komplexer mathematischer Aufgaben wie maschinellem Lernen und macht das Leben für Softwareentwickler, die mit Scala arbeiten, einfacher und sicherer. Für detailliertere Einblicke können Sie das Paper hier lesen.

In einem Vortrag präsentierten Dr. Ahmed Abdulkadir und Peng Yan ihre Erkenntnisse im Bereich «smart manufacturing» und wie KI dazu beitragen kann, die Qualität von Kunststoffteilen während des Fertigungsprozesses zu gewährleisten. Gemeinsam mit der Kistler Instrumente AG entwickelte das Team in einem Innosuisse Projekt eine neue Methode zur automatisierten Überwachung des Spritzgussverfahrens auf der Grundlage von Repräsentationslernen und Sollwertregression. Ihr Ansatz verwendet Druck-Zeitreihendaten, um Anomalien frühzeitig während der Produktion zu erkennen. Neben der effizienten Qualitätskontrolle kann diese Anwendung auch helfen die Auswirkungen des erwarteten Fachkräftemangels abzufedern. Zusammengefasst ebnet die Unterstützung durch KI hier also den Weg für eine effizientere Spritzgussfertigung in der Industrie. Lesen Sie das Paper hier.

Wir gratulieren Lukas Tuggener und Pascal Sager zu einer ehrenvollen Erwähnung im Renne um den Preis für das beste Paper für ihren Beitrag mit dem Titel: „So you want your private LLM at home? A survey and benchmark of methods for efficient GPTs“. Ziel ihrer Arbeit war es, die Verwendung von grossen Sprachmodellen (Large Language Models, LLMs) für den persönlichen Gebrauch zu Hause zu ermöglichen. Lukas' Präsentation erhielt erwartungsgemäss viel Aufmerksamkeit. Er hob die wichtigsten Ergebnisse hervor und betonte, dass bestehende LLM-APIs aufgrund von Datenschutzbedenken nicht immer geeignet sind und das Training eines privaten LLMs unpraktisch ist. In seinem unterhaltsamen Vortrag erläuterte Lukas auch, wie die Quantisierung den Speicherbedarf von GPUs bei akzeptablen Auswirkungen auf die Qualität der Texterzeugung reduziert und wie Low-Rank-Adapter eine effektive Feinabstimmung mit moderaten Ressourcen ermöglichen können.

Fazit: Es ist möglich, ein leistungsstarkes LLM effektiv auf einer einzelnen Consumer-GPU zu verwenden. Als praktischen Tipp empfiehlt das Team die Verwendung von benutzerfreundlichen Jupyter-Notebooks auf Google Colab für diejenigen mit weniger als 16 GB GPU-Speicher, um modernste LLMs bereitzustellen. Lesen Sie das Paper hier.