Artikelaktionen

Sie sind hier: Startseite Festtage Feiern Roboter … Feiern Roboter Weihnachten? …

Feiern Roboter Weihnachten? Klangvolle Festtagsgrüße von Nao

Mit Weihnachtsschmuck und „Jingle Bells“: An der Universität Freiburg freuen sich auch die Roboter auf die Festtage. Junior-Professorin Dr. Maren Bennewitz bringt dem humanoiden Roboter Nao bei, wie er sich in Räumen bewegen und sogar Xylophon spielen kann.


factsheet2.png
profile.png
video.png
gallery.png

Aufmacher.jpg

Musikalische Weihnachtsgrüße von Nao im Video unten auf dieser Seite: Was der kleine Roboter der
Universität Freiburg beim Spielen auf dem Xylophon lernt, kann dem Forschungsteam wichtige wissenschaft-liche Erkenntnisse liefern.

Foto: Universität Freiburg
 

factsheet2.png


Nao hebt die Schlagstöcke und spielt "Jingle Bells" fehlerfrei von der ersten bis zur letzten Note - wie im Video unten auf dieser Seite zu sehen ist. Die Studentengruppe von Informatikerin Maren Bennewitz, Junior-Professorin an der Universität Freiburg, hat circa 3 Wochen gebraucht, um das dem kleinen humanoiden Roboter beizubringen. Im Gesicht des Musikers sind zwei Kameras eingebaut, in ihm befindet sich ein Funknetzwerk, das mit einem Computer verbunden ist. An diesem Rechner werden die Musikdaten zu dem Weihnachtslied umgerechnet: Die einzelnen Töne und ihre jeweilige Dauer werden analysiert. Pro Note muss Nao eine Bewegung mit dem Arm machen. Diesen Befehl, wie und in welchem Tempo er sich zu bewegen hat, um im richtigen Rhythmus und Winkel die passende Note auf dem Xylophon zu treffen, wird ihm vom Computer übermittelt.

 

  • Flexible Gelenkbewegungen sind möglich

Die Idee für das Weihnachtsvideo, erklärt die Freiburger Forscherin, hatte ihr Doktorand Daniel Maier. Zwei Studenten haben diese anschließend im Rahmen eines Bachelorprojektes umgesetzt. Der Umgang mit dem Instrument zeigt, was für flexible Bewegungen die Roboter der Universität Freiburg ausführen können. Die Bewegungen von Nao ähneln denen der Menschen, er besitzt 25 Gelenke, die er einsetzen kann. Dadurch ist es ihm möglich, zum Beispiel die Xylophonstöcke zu umgreifen, aber auch Treppen zu steigen und Schränke zu öffnen.

 

  • Erster Roboter, der Wendeltreppen laufen kann

Im Sonderforschungsbereich „Spatial Cognition“ erforschen Bennewitz und ihr Doktorand Armin Hornung zusammen mit Wissenschaftlerinnen und Wissenschaftlern der Universität Bremen, wie humanoide Roboter in einer mehrstöckigen Umgebung navigieren können. Dadurch wollen sie herausfinden, wie Menschen und Maschinen in ihrer Umgebung gemeinsam zurechtkommen. Das Steigen von Wendeltreppen und Laufen von Rampen ist für Nao kein Problem mehr: Die eingebauten Sensoren liefern ihm Bilder und Laserdaten, die er analysiert. So kann er auch in der Kurve einer Wendeltreppe seine Schritte und Körperdrehung anpassen. Das Runtersteigen von hohen Stufen ist für Nao momentan eine Herausforderung, da er beim Belasten des herabsteigenden Beines noch leicht das Gleichgewicht verliert, wie die Freiburger Informatikerin erklärt.

 

  • Modelle in 3D, um Hindernisse zu umgehen

In Räumen haben es Roboter schwerer als Menschen: Die Maschinen müssen ihre Umgebung nicht nur wahrnehmen, sondern auch die Strukturen erkennen und dadurch interpretieren, ob ihnen Hindernisse im Weg stehen. Gesunden Menschen gelingt das von selbst, während Nao von jedem Raum erst einmal ein 3D-Modell lernen muss. Anhand der Höhen und Formen des Mobiliars, also der möglichen Hindernisse berechnet er sich seinen Weg durch den Raum.

 

  • Hilfe vom Roboter für den Menschen im Alltag

Bennewitz und ihrem Team ist noch ein weiterer Schritt gelungen, damit Roboter eine Unterstützung für Menschen sein können: Nao öffnet Schranktüren. Das klingt zunächst nicht allzu schwer, aber in der Programmierung und dem Training des Roboters wird ersichtlich wie viele Analyse- und Bewegungsabläufe dafür notwendig sind: Nao muss berechnen, in welchem Abstand er vor dem Schrank anhalten muss, um die Tür öffnen zu können. Dann muss er den Griff umgreifen und die richtige Geschwindigkeit wählen, um die Tür aufzubekommen. Zudem muss er seine Kniegelenke in einem gewissen Winkel beugen, um das Gleichgewicht zu behalten. Dahingegen ist das Festtagsständchen auf dem Xylophon für Nao eine leichte Übung.

 

  • Forschungsziele für zukünftige Weihnachten

Die Freiburger Wissenschaftlerin hat noch viel vor mit dem kleinen Roboter. Und auch beim Spielen von „Jingle Bells“ sieht sie noch Forschungsmöglichkeiten. Eines ihrer Ziele ist es, dass Nao selbst über seine Kamera das Instrument wahrnehmen kann und sich eigenständig vor ihm positioniert. Ein eingebautes Mikrophon soll ihm helfen, selbst zu erkennen, ob er eine Taste richtig getroffen hat, sodass Nao seine Bewegungen aktiv anpassen und optimieren kann. Denn was er beim Spielen lernt, kann dem Forschungsteam wichtige Erkenntnisse für die anderen Bereiche liefern. Ihre Forschungsprojekte und -ergebnisse präsentiert Bennewitz mit Ihrem Team auf Ihrer Website und einem eigenen Youtube-Kanal für Nao.

Die Druckversion dieses Textes (pdf) finden Sie hier.

 

 Porträt der Forscherinprofile.png

maren1111-crop-small.jpg

Jun.-Prof. Dr. Maren Bennewitz

Maren Bennewitz studierte Informatik und Wirtschaft an der Universität Bonn. Im Jahr 2004 promovierte sie bei Prof. Dr. Wolfram Burgard in Freiburg über das Thema „Mobile Robot Navigation in Dynamic Environments“. Danach war sie als Forscherin an der Universität Freiburg im Bereich Robotik tätig. Seit Oktober 2008 ist sie Junior-Professorin und Leiterin des „Humanoid Robots Lab“ am Institut für Informatik an der Albert-Ludwigs-Universität. Im neuen Exzellenzcluster BrainLinks-BrainTools arbeitet sie zusammen mit Wolfram Burgard zum Thema Gehirn-Maschine-Schnittstellen, zudem ist sie an einem Forschungsprojekt zur Bewegungsanalyse von Parkinson- und Epilepsie-Patienten beteiligt.

Die Idee für das „Jingle Bells“-Video hatte ihr Doktorand Daniel Maier. Die Studenten Stefan Band und Jonas Delleske setzen ursprünglich die Idee innerhalb eines Bachelorprojektes um. Das Projekt wird zurzeit von dem Informatikstudenten Ramin Zohouri bearbeitet, der dem Roboter einen stärkeren Schlag beigebracht hat und momentan an selbständiger Bewegungsoptimierung von Nao arbeitet.

Videovideo.png

 

 

 

 

Bildergaleriegallery.png

Das lernt Roboter Nao an der Universität Freiburg

  cover-external-2.jpg   cover-octomap-2.png   door3.jpg
           
 

In Räumen haben es Roboter schwerer als Menschen: Die Maschinen müssen die Umgebung durch ihre Sensoren nicht nur wahrnehmen, sondern auch die Strukturen erkennen und dadurch interpretieren, ob ihnen Hindernisse im Weg stehen.

  Damit Nao um Hindernisse herum navigieren kann, muss er von jedem Raum erst einmal ein 3D-Modell lernen. Anhand der Höhen und Formen des Mobiliars, also der möglichen Hindernisse berechnet er seinen Weg durch den Raum.   Der Roboter Nao der Universität Freiburg kann sogar Schränke öffnen. Dieser Handlung liegen komplexe Analyse- und Bewegungsabläufe zugrunde, wie die Informatikern Prof. Dr. Maren Bennewitz erklärt: Er muss berechnen, in welchem Abstand er vor dem Schrank anhalten muss, um die Tür öffnen zu können. Dann muss Nao den Griff umgreifen und die richtige Geschwindigkeit wählen, um die Tür aufzubekommen. Zudem muss er seine Kniegelenke in einem gewissen Winkel beugen, um das Gleichgewicht zu behalten.

 

Zum Seitenanfang


< Zurück