Roboter: Was kommt als nächstes?
Einblicke in die Welt der unterstützenden Roboter, autonomen Drohnen und eine Demonstration des humanoiden Roboters Unitree G1 waren einige der Highlights einer gemeinsam von ZHAW digital, der Universität Zürich, Lab42 und Mindfire organisierten Veranstaltung. An zwei Standorten verfolgten über 200 Besucher die Live-Demonstration des Roboters und erfuhren von aktuellen Forschungsprojekten und zukünftigen Perspektiven in Zürich und Winterthur.
Der Unitree G1 ist ein Beispiel von mehreren humanoiden Robotern, die weltweit entwickelt werden, hauptsächlich in China und den USA. Das Modell ist eines der ersten, das für 16.000 US-Dollar gekauft werden kann – allerdings mit einer Grundausstattung. Wenn Hände hinzugefügt werden, wird es teurer. Bei der Demonstration wurde der Roboter von einem Menschen gesteuert und konnte aufstehen, gehen, winken, Hände schütteln und nach einem Stoss (ausser von einer Seite) das Gleichgewicht wiederherstellen.
Warum benötigen wir humanoide Roboter?
Yulia Sandamirskaya, Leiterin des Forschungszentrums Cognitive Computing am ZHAW-Institut für Computational Life Sciences (ICLS) der School of Life Sciences und Facility Management, erklärt warum Roboter nicht nur in Form von Roombas, sondern auch in menschlicher Form entwickelt werden. "Die menschliche Form ist einzigartig vielseitig; wir haben uns im Laufe der Evolution entwickelt, um viele komplexe Aufgaben mit unseren Händen, Beinen usw. zu lösen." Humanoide werden entwickelt, um Menschen zu assistieren, beispielsweise bei ihren täglichen Aufgaben, bei Verletzungen oder im hohen Alter. "Wir benötigen noch viel mehr Forschung, die den Nutzer in den Vordergrund stellt und sicher geht, dass die Roboter sicher und zuverlässig sind", betont sie.
Wie machen wir Roboter "smart"?
Wenn Yulia "smart" sagt, meint sie nicht intelligent, sondern vielmehr agil, flexibel und in der Lage, schnell zu lernen. Bisher haben wir die Hardware sowie eine gute Bewegungssteuerung und Sensorik, aber die Fähigkeit, die Umgebung schnell genug für eine Echtzeit-Bewegungsplanung und -steuerung zu erkennen und zu verstehen, fehlt noch. Darüber hinaus ist die Implementierung von KI noch sehr langsam, inflexibel und energieintensiv. "Wir benötigen eine verkörperte KI, um die Interaktion von Robotern mit der realen Welt zu verbessern", sagt Yulia. In einem ihrer Projekte nutzt sie neuromorphes Computing, das eine Echtzeit-3D-Vision für Objekterkennung, Lokalisierung und Posenschätzung ermöglichen kann - Schlüsselaufgaben für maschinelles Sehen in der Robotik.
In die Zukunft fliegen
In Zürich präsentierte Davide Scaramuzza von der Robotics and Perception Group der Universität Zürich ein Wettrennen mit autonomen Drohnen. Was diese Drohnen speziell macht, ist, dass sie nicht von Menschen oder GPS gesteuert werden, sondern mit KI, vision-basiert und mit einer unvergleichlichen Geschwindigkeit fliegen. Drohnen wie diese sind nicht nur für Drohnenrennen oder Infrastruktur-Inspektionen nützlich, sondern auch für Aufgaben wie die Brandschutzprävention, die Wassernutzungskontrolle und vieles mehr. Während es viele Einsatzmöglichkeiten gibt, bei denen Roboter für das Gute eingesetzt werden können, muss noch einiges an Innovation und Entwicklung stattfinden. "Wir müssen die Lücke zwischen der akademischen Forschung in der Robotik und den praktischen Anwendungen schliessen", schlussfolgert Yulia.
Weitere Informationen:
- Medienbeiträge zum Event: Landbote (paywall), Blick, NZZ
- “YuRo: 3D-Vision in Echtzeit für Roboter - DIZH” von DIZH-Fellow Yulia Sandamirskaya
- “LINA: Shared Large-scale Infrastructure for the Development and Safe Testing of Autonomous Systems - DIZH” von Davide Scaramuzza, Michel Guillaume, Thilo Stadelmann, etc.
- RobotHub – Der ZHAW Hub für Robotics