
ROS-E wurde von uns, dem RobotikLab-Team der TH Wildau, selbst geplant, designt, produziert und entwickelt. Im Studiengang Telematik und in den Schülerlaboren werden seit einigen Jahren Roboter wie der NAO oder der kleine NIBO verwendet, um zu lehren, wie Roboter programmiert werden. Die Studierenden können dabei eigene Ideen für Projekte entwickeln und umsetzen. Dadurch kommen jedes Jahr viele schöne Projekte zustande, die aber häufig durch die Roboter bzw. deren Software eingeschränkt werden. Die Idee, einen eigenen Roboter zu bauen, bei dem alle Funktionen und auch der Preis des Roboters selbst beeinflusst werden können, wurde immer verlockender.
Aus dieser Idee wurde 2019 mit der Bachelorarbeit von Valentin
der erste Schritt auf dem Weg zu einem eigenen Roboter gewagt. Damals war ROS-E noch ein kleiner Haufen aus Hardware-Komponenten.
In diesem Zustand waren die grundlegenden Komponenten wie:
zusammengeschlossen. Im nächsten Schritt mussten alle Komponenten auch mit Software verbunden werden, sodass die Motoren gesteuert und Geräusche erkannt werden konnten. Aber viel mehr konnte ROS-E auch noch nicht tun.
Damit war es an der Zeit, den "Hardware-Haufen" in eine Roboter-Form zu bringen und natürlich einen Namen zu vergeben. Alle Teile wurden verkabelt und in ein Gehäuse aus gelasertem Holz verpackt:

Die Ähnlichkeit zu einem gewissen Roboter aus dem Film WALL-E ist rein zufällig entstanden, war aber die Idee für den Namen ROS-E. Das ROS stammt von der Abkürzung für das Roboter Operating System, das Betriebssystem mit dem ROS-E arbeitet. Damals war das Design noch als Kopf und Körper mit einem Display geplant. Dieses Design wurde aus mehreren Gründen später nochmal überarbeitet.
Ein großer Teil der Interaktion mit ROS-E findet über die Stimme (vom Menschen und von ROS-E) statt. Dahinter steckt ein komplexes System, das mit Hilfe von Künstlicher Intelligenz mehrere knifflige Teilaufgaben wie zum Beispiel die folgenden löst:
Das Mikrofon-Array von ROS-E hat nicht nur eines, sondern 4 Mikrofone, weil mit ihnen die Richtung von Geräuschen errechnet werden kann. Außerdem kann in eine bestimmte Richtung gelauscht werden, indem alle anderen Nebengeräusche unterdrückt werden. Nach dieser Vorverarbeitung werden die Audio-Daten analysiert und festgestellt ob sie Sprache oder nur Geräusche enthalten. Die Abschnitte der Daten, die Sprache enthalten, werden an ein Künstliches Neuronales Netz weitergegeben.
Wer sich darunter nicht wirklich etwas vorstellen kann, findet auf dieser Seite eine interaktive Einführung in die Arbeitsweise von Künstlichen Neuronalen Netze: knn.innohub13.de.
Das Künstliche Neuronale Netz von ROS-E prüft, ob das was gesagt wurde das sogenannte "Keyword" oder "Wake-Word" enthält. Im Fall von ROS-E haben wir dieses Wort (oder die Phrase) auf "Hey ROS-E" festgelegt und das Netz damit trainiert.
Nachdem ROS-E das Keyword erkannt hat, lauscht sie auf den Befehl oder die Frage, die die Benutzer:innen anschließend stellen können. Die Audiodaten werden mit Hilfe eines weiteren Künstlichen Neuronalen Netzes in einen Text umgewandelt, den ROS-E anschließend auswerten kann. Mit diesen Themen der Sprachverarbeitung beschäftigt sich Tobias, seit er in seiner Masterarbeit ein solches System entwickelt hat.
ROS-E hat jetzt also aus den Audio-Daten einen Befehl in Form von Text „aufgeschrieben“. Dieser Text kann als nächstes ausgewertet werden. Diese Auswertung könnte zum Beispiel darin bestehen, den Befehl "Mach bitte das Licht an!" mit den verfügbaren Aktionen abzugleichen und auszuführen. Für die Erkennung solcher Befehle ist ein weiteres Künstliches Neuronales Netz zuständig.
ROS-E muss aber nicht nur stumm Befehle ausführen, sondern kann auch mit Sprache antworten. Dazu kann ein Entwickler oder eine Entwicklerin zum Beispiel als Antwort ein "OK" festlegen. Dieser Text wird dann mit Hilfe eines weiteren Netzes in eine künstliche Stimme synthetisiert, wie beim Mixen von Musik noch nachverarbeitet und schließlich über die Lautsprecher ausgegeben.
Wie funktioniert das mit der Sprachverarbeitung genauer?
Während ROS-E immer mehr "geistige" Fähigkeiten bekam, war es an der Zeit, über ein neues Design nachzudenken. Der halb offene Kasten aus Holz war zu groß und unhandlich, um ihn Kindern oder älteren Menschen anzubieten. Um ROS-E so klein wie möglich zu gestalten, musste das große Display weggelassen werden. Dafür wurde später ein System eingerichtet, mit denen man die Apps auf ROS-E auf einem zusätzlichen Tablet anzeigen kann. Die Ideen für mögliche Formen sind hier zu sehen:
Es wurde ziemlich schnell klar, welche Idee weiter verfeinert werden sollte:
Ein Bild von einem Design zu haben, ist schon mal sehr hilfreich, aber der wirklich schwere Teil war jetzt, dieses Design auch so umzusetzen, dass alle Hardware-Komponenten sinnvoll in die Hülle passen, alles verkabelt werden kann, der Standfuß sich bewegen kann, das Ganze gut gekühlt werden kann.
Als es dann endlich so weit war und die erste ROS-E mit dem 3D-Drucker gedruckt und zusammengebaut war, sah das Innenleben so aus:

Naja...nicht jede Idee sieht später so niedlich aus wie auf einer Zeichnung.... Der gruselige Skelett-Mund wurde also ziemlich schnell gegen ein weiteres Display wie das der Augen ausgetauscht. Als dann die Hülle mit dem Holz endlich fertig war, war es kaum zu glauben, dass ein kleines Bild auf einer Zeichnung jetzt Wirklichkeit geworden war:

Die vage Idee, einen eigenen Roboter zu entwickeln, ist zwar inzwischen schon ein greifbarer Prototyp, die Arbeit mit ROS-E fängt allerdings erst richtig an. Roboter werden eigentlich immer mit dem Ziel gebaut, Menschen bei Aufgaben zu unterstützen. Manchmal ist die Aufgabe eines Roboters nur, den Menschen zu unterhalten, aber ROS-E kann mit ihren Fähigkeiten viel mehr tun. Aber was kann sie nun eigentlich tun?
Bis jetzt erscheint ROS-E bestimmt sehr ähnlich zu anderen Sprachassistenten wie Alexa & Co. Dieser Vergleich ist vermutlich hilfreich, um eine Vorstellung davon zu haben, wie die Interaktion mit ROS-E ungefähr aussehen könnte. Aber der Vergleich ist nicht ganz richtig, denn ROS-E hat einige wichtige Eigenschaften, die andere Sprachassistenten nicht haben.
Die vielleicht offensichtlichste ist ihr Gesicht. ROS-E kann Emotionen zeigen, die neben der Sprache ein sehr wichtiges Mittel der menschlichen Kommunikation sind. Aber viel wichtiger ist, dass sie auch Emotionen in Menschen auslösen kann. Es ist auf Bildern schwer zu zeigen, aber wenn wir ROS-E programmieren, passiert es uns nicht selten, dass wir selbst lächeln müssen, wenn sie uns frech anzwinkert. Gerade für die Kommunikation mit älteren Menschen kann ROS-E hoffentlich eher das Gefühl eines lebendigen Wesens erzeugen, als das einer sprechenden Box.
Wir haben ROS-E aber nicht nur mit Mikrofonen ausgestattet, sondern auch mit einer Kamera. Sie soll nicht nur hören, sondern auch sehen können. Auch Menschen nehmen einen sehr großen Teil der Informationen über die Augen auf. Mit ihrer Kamera ist ROS-E in der Lage zum Beispiel Gesichter und Gesten zu erkennen. Das könnte sehr wichtig werden, wenn Patient:innen nicht in der Lage sind, zu sprechen. Natürlich ist die Kommunikation mit Gesten möglicherweise eingeschränkter als mit der Stimme.
Da ROS-E nicht nur hören, sondern auch sehen kann, forschen wir derzeit an einem System, das beide „Sinne“ ähnlich wie im menschlichen Gehirn verbinden und so die aktuelle Situation einschätzen kann. Damit kann ROS-E nicht mehr nur auf Sprachbefehle reagieren, sondern für die aktuelle Situation eine passende Aktion auswählen. So kann sie lernen, in welcher Situation sie selbstständig einen Notfall melden oder fragen soll, ob sie das Licht einschalten kann. Auch die Situationserkennung arbeitet mit einem Künstlichen Neuronalen Netz und wird von Lara entwickelt, seit sie ihre Masterarbeit zu diesem Thema geschrieben hat.
Wir entwickeln ROS-E inzwischen auch nicht mehr nur in unserem Labor, sondern haben Projekt-Partner aus der „echten“ Welt gewinnen können. In der Bachelorarbeit von Patrick Schlesinger wird daran gearbeitet, dass über ROS-E automatisierte Türen gesteuert werden können. Diese Idee wird gemeinsam mit den Kliniken der Beelitz-Heilstätten umgesetzt, wo ROS-E in Zukunft den querschnittsgelähmten Patient:innen helfen soll, sich an ihre Situation zu gewöhnen.
Zusammen mit der sense.AI.tion GmbH aus Wildau arbeitet das RobotikLab zurzeit an einem Sprachassistenten für Pflegekräfte und zu pflegende Menschen. Das Ziel dabei ist es, dass vor allem die Menschen, die wenig Erfahrung mit Technik haben, ihre natürliche Sprache nutzen können, um mit Geräten wie ROS-E zu kommunizieren.
Im Frühling 2022 haben wir als Team ROS-E-beim innofab_ Ideenwettbewerb teilgenommen. Am 14.06. haben wir unsere Idee, mit ROS-E den Alltag von Pflegekräften und Pflegebedürftigen zu unterstützen, vor einer Jury und einem Publikum vorgestellt. Wir haben uns sehr gefreut, den 1. Platz und den mit dem 2. Platz geteilten Publikumspreis gewonnen zu haben. Das hat uns die Bestätigung gegeben, dass unsere Idee auch viele andere Menschen begeistert und wichtige Probleme lösen könnte.
Mehr über die spannenden Ideen der anderen Teilnehmer gibt es hier: https://innohub13.de/innofab-gewinnerinnen-2022/.
Das PROFIT-Projekt “Natürlichsprachliche Dialogassistenten in der Pflege” wird gefördert aus Mitteln des Europäischen Fonds für regionale Entwicklung (EFRE).
Projektlaufzeit: 01.07.2020 – 31.12.2022.

Weitere Informationen zu dem Projekt gibt es hier:
https://icampus.th-wildau.de/cms/roboticlab/projekte/natuerlichsprachliche-dialogassistenten-der-pflege
Basis: Nvidia Jetson Nano
mit Touch-Display
mit viel Panzertape ;-)
Hier finden Sie eine Übersicht über ausgewählte Projekte aus dem RoboticLab der TH Wildau - sowohl abgeschlossene als auch noch laufende Entwicklungs- und Forschungsprojekte.
Das Projekt "Leseförderung mit handlichen humanoiden Robotern" setzt Nao-Roboter als Lesepate für Grundschulkinder ein. Der Roboter wird hier zur Bildung eines Tandems von kindlichem Vorleser und nichtmenschlichem Partner eingesetzt, um Kinder beim Lesenlernen zu motivieren und zu unterstützen.
Kooperationspartner für dieses Projekt ist die Stadtbibliothek Wildau. Mehr Informationen zum Projekt auch unter Einsatzszenarien von humanoiden Robotern.
Zum Leistungsgegenstand gehörten die Entwicklung und Programmierung der Systembestandteile sowie die Einrichtung vor Ort. Folgende Funktionen wurde bereitgestellt:
Umsetzungszeitraum: Juni 2019 - März 2020
Weitere Funktionen:
Küchen- und Angebotspräsentation
Getränkebestellung und Kinderbetreuung
Unterstützung und Informationen in der 24/7 Bibliothek
Im Rahmen einer hochschulinternen Zielvereinbarung unter dem Titel „Pepper4Library“ wurde der Pepper-Roboter Wilma für den Bibliothekseinsatz bis 2018 vorbereitet und ist aktuell für Informationsdienste und Bibliotheksführungen im Einsatz. Als fahrende und interaktive Litfaßsäule steht Wilma in der 1. Etage der Bibliothek bereit.
Seit September 2016 verfügt die Hochschulbibliothek über eine 1.20 große Kollegin mit dem Namen Wilma, die vom französisch-japanischen Hersteller (Aldebaran/SoftBank) als Pepper ausgeliefert wird. Der gleichzeitig angeschaffte zweite Pepper der Hochschule mit dem Namen Bernd befindet sich im RoboticLab des Studiengangs Telematik.
Zielvereinbarung Pepper4Library
Der humanoide Roboter soll im Rahmen einer hochschulinternen Zielvereinbarung unter dem Titel „Pepper4Library“ zusammen mit dem Team um Frau Prof. Mohnke für den Bibliothekseinsatz bis 2018 vorbereitet werden. Erstreckt sich sein "Können" auf tablet-gesteuertes Fahren und Bewegen, Spiele wie Schere-Stein-Papier, Witze erzählen, eine Bibliotheksführung, wird gerade intensiv an der Ortung und Navigation gearbeitet, an einem Tutorial zur Erläuterung der Drucker-Scanner-Kopiermaschine etc. Als fahrende und interaktive Litfaßsäule soll Wilma sich über alle drei Etagen mittels des Fahrstuhls bewegen können, die natürliche Sprache verstehen und kommunizieren können, gezielt Hinweise vermitteln, um in den Nachtzeiten und an den Wochenenden Bibliotheksbenutzern Hilfestellung zu geben. Damit kann die unbemannte Bibliothek, welche über ein chipkartenbasiertes Zugangssystem verfügt, auch außerhalb der üblichen Servicezeiten einen Grundbedarf an Serviceleistungen anbieten, wie man es im online-Zeitalter und der Ära von RFID-Selbstverbuchern auch sonst gewohnt ist.
...
Kontakt
Prof. Dr. rer. nat. Janett Mohnke
TH Wildau
Hochschulring 1
15745 Wildau
Tel.: +49 3375 508 291
Mail: janett.mohnke@th-wildau.de
Haus 14, Raum A228
Die Telematik geht als eigene wissenschaftliche Disziplin über die Informatik hinaus und fordert ein eigenes Systemdenken, das einer besonderen Ausbildung bedarf. Die Zahl der Telematikapplikationen und -anwendungsfelder steigt stetig.
Die NAO Roboterplattform der französischen Firma Aldebaran Robotics ist eine weltweit in Lehre und Forschung eingesetzte Plattform. Sie ermöglicht einen schnellen Einstieg in die Arbeit mit den NAO Robotern und bietet die Basis für komplexe Forschungs- und Entwicklungsprojekte.
Erfahrungen mit dem Einsatz von Robotern an der TH Wildau und auch international zeigen, dass Studierende in solchen Projekten besonders hoch motiviert sind und sich deutlich bessere Lernerfolge einstellen. Studierende des Studiengangs Telematik beschäftigen sich in Projekten und im Rahmen von Abschlussarbeiten mit den Möglichkeiten der Nutzung von humanoiden Robotern in der angewandten Forschung.
Themen für die Arbeit z.B. mit NAOs in den Laboren sind zum z.B. Human-Robot-Interaction im therapeutischen Bereich, Robot-Robot-Interaction, Localization und Navigation oder Perception and Cognition sowie Locomotion.
Das RoboticLab der Telematik ist Teil der Forschungsgruppe für mobile Informations- und Assistenzsysteme an der TH Wildau. Die Vision der Arbeitsgruppe ist die Entwicklung und Erprobung von Szenarien, in denen humanoide Roboter in verschiedenen Bereichen des Alltags zum Einsatz kommen - und zwar nicht, um Bewährtes zu verdrängen, sondern um Lücken zu schließen und zu Lösungsansätzen für aktuelle Probleme der Gesellschaft zu inspirieren. Dabei wird bewusst die Neugier und das Interesse der Menschen an diesen technischen Gefährten ausgenutzt.
Ob als Helfer im Garten oder im Haushalt, als Schreib- oder Transporthilfe oder zur Unterstützung im therapeutischen Bereich - die Anwendungsbereiche für die Arbeit mit humanoiden Robotern sind vielfältig. Projektarbeit im RoboticLab findet sowohl im Rahmen des Telematik-Studiums als auch im Rahmen der Schülerlabore NaWiTex statt. Wir stellen beispielhafte Projekte aus Bachelor- und Masterarbeiten sowie aus Schülerpraktika vor.