© Universität Bielefeld
Technische Fakultät
Veröffentlicht am
11. Juli 2018
Kategorie:
Forschung
Tiere sind Prototypen für die Robotik
Von Hummeln und Bewegungsdetektoren: Citec-Forschende präsentieren bei Europäischer Konferenz für Neurowissenschaften
Die Selbstverständlichkeit, mit der sich Lebewesen in ihrer Umgebung orientieren und bewegen, Hindernissen ausweichen, und wieder nach Hause finden ohne dass ihr Gehirn für diese komplexen Leistungen viel Energie verbraucht – das ist das Vorbild jener Wissenschaftlerinnen und Wissenschaftler, die auch Roboter mit solchen Fähigkeiten ausstatten wollen. Denn auf diesem Gebiet liegen noch immer Welten zwischen Hirn und Elektronik. Der Austausch zwischen Verhaltensneurologen und Wissenschaftlern aus der Robotik steht im Mittelpunkt eines Symposiums auf dem FENS Forum 2018 (07.-11.07.) in Berlin, der europäischen Tagung für Neurowissenschaften. Zwei Bielefelder Citec-Forschende präsentieren dort ihre Ergebnisse.
Hummeln haben zwar ein kleines Gehirn, doch damit kommen sie bei der Futtersuche ziemlich weit herum. Je nach Spezies beträgt ihr Radius bis zu drei Kilometer. Auf der Flugroute wimmelt es nicht nur von Feinden, sondern auch von Hindernissen. Wechselnde Windstärken und Windrichtungen kommen hinzu. Die Insekten müssen ihren Flug durch eine wechselhafte Umgebung steuern, großflächig navigieren und lernen, wie sie eine gute Futterquelle wiederfinden und heim ins Nest kommen.
„Wenn Hummeln erstmals ihr Nest verlassen, unternehmen sie zunächst Lernflüge, um sich die Umgebung einzuprägen, damit sie wieder zurückfinden“, sagt Dr. Olivier Bertrand von der Abteilung für Neurobiologie der Universität Bielefeld. „Diese Flüge haben ein loop-artiges Muster, wobei das Muster von Tier zu Tier variiert, wie unsere Studien zeigen. Wir vermuten, dass die Hummeln dabei Momentaufnahmen von ihrer Umgebung im Gehirn abspeichern, deren Nützlichkeit bei nachfolgenden Flügen überprüft wird.“
Neuromorphe Systeme ähneln den neuronalen Netzwerken des Gehirns. Ihre Hardware ist hochspezialisiert und hochgradig vernetzt. Ein Team um Professorin Dr. Elisabetta Chicca von der Universität Bielefeld hat ein neuromorphes Modell entwickelt, das autonomen mobilen Systemen die Fähigkeit geben soll, in komplexen Umgebungen besser zu navigieren und Hindernissen auszuweichen. Die „Laseraugen“ (Laser-Distanzsensoren) selbstfahrender Autos erkennen zwar Hindernisse, sind jedoch trotz langjähriger Entwicklung sehr teuer. Sie verbrauchen viel Energie und – wie aktuelle Vorfälle gezeigt haben – kommt es zu Fehlinterpretationen in bestimmten Situationen. Hier könnte das System der Bielefelder Wissenschaftler Fortschritte bringen.
„Wir haben einen neuen elektronischen Bewegungsdetektor entwickelt, den „Spiking Elementary Motion Detector“, der die relative Bewegung von Objekten erfassen kann“, sagt Professorin Chicca. Was eine „relative Bewegung“ ist, kennt jeder Auto- oder Zugfahrer: Der Kirchturm in der Ferne gleitet langsam vorbei, während der Baum am Straßenrand sehr schnell vorbei rauscht. Insekten nutzten solche Informationen bei der Navigation im Gelände, um Kollisionen zu vermeiden.
Der neue Bewegungsdetektor, kurz sEMD genannt, ist eine technische Nervenzelle mit einer künstlichen Synapse. Er kann Signale aufnehmen und Signale produzieren, wenn zwei Impulse innerhalb einer bestimmten Zeit eintreffen– darum der Namenszusatz „spiking“. Ein Chip kann tausende dieser Detektoren tragen, je nach Experiment.
Ihren Input erhalten die Detektoren von innovativen neuromoprhen Kameras, produziert von einem Unternehmen in der Schweiz. Im Unterschied zu normalen Kameras produzieren die einzelnen Pixel der Sensoren in diesen Kameras eigenständig nur dann ein Signal, wenn sich etwas in ihrem „Blickfeld“ verändert. Diese Signale werden von rezeptiven Feldern des Bewegungsdetektors aufgefangen. Jeder Detektor besitzt zwei Rezeptive Felder, bei denen jeweils die Signale von neun Pixeln einlaufen. Wird mehr als die Hälfte der Pixel eines rezeptiven Feldes aktiviert, produziert das rezeptive Feld ein Signal, das vom Detektor weiterverarbeitet wird. Aus den zeitlichen Abständen zwischen den Signalen von zwei benachbarten Rezeptiven Feldern kann der Detektor die relative Geschwindigkeit berechnen, mit dem sich ein Gegenstand vor der Kamera bewegt. „Unsere Experimente zeigen, dass es möglich ist, Informationen für die Navigation von Robotern zu generieren, die Kollisionen vermeiden“, erklärt Professorin Chicca. „Unsere Ergebnisse ebnen den Weg zum Bau von Low-Power-Kompaktsystemen für die autonome Navigation. Zusätzlich ist der sEMD ein universell einsetzbares Element zur Berechnung von Zeitdifferenzen und kann darum auch für die Verarbeitung andere Sinnesreize genutzt werden, beispielsweise für die Ortung einer Schallquelle.
Die Selbstverständlichkeit, mit der sich Lebewesen in ihrer Umgebung orientieren und bewegen, Hindernissen ausweichen, und wieder nach Hause finden ohne dass ihr Gehirn für diese komplexen Leistungen viel Energie verbraucht – das ist das Vorbild jener Wissenschaftlerinnen und Wissenschaftler, die auch Roboter mit solchen Fähigkeiten ausstatten wollen. Denn auf diesem Gebiet liegen noch immer Welten zwischen Hirn und Elektronik. Der Austausch zwischen Verhaltensneurologen und Wissenschaftlern aus der Robotik steht im Mittelpunkt eines Symposiums auf dem FENS Forum 2018 (07.-11.07.) in Berlin, der europäischen Tagung für Neurowissenschaften. Zwei Bielefelder Citec-Forschende präsentieren dort ihre Ergebnisse.
Hummeln haben zwar ein kleines Gehirn, doch damit kommen sie bei der Futtersuche ziemlich weit herum. Je nach Spezies beträgt ihr Radius bis zu drei Kilometer. Auf der Flugroute wimmelt es nicht nur von Feinden, sondern auch von Hindernissen. Wechselnde Windstärken und Windrichtungen kommen hinzu. Die Insekten müssen ihren Flug durch eine wechselhafte Umgebung steuern, großflächig navigieren und lernen, wie sie eine gute Futterquelle wiederfinden und heim ins Nest kommen.
„Wenn Hummeln erstmals ihr Nest verlassen, unternehmen sie zunächst Lernflüge, um sich die Umgebung einzuprägen, damit sie wieder zurückfinden“, sagt Dr. Olivier Bertrand von der Abteilung für Neurobiologie der Universität Bielefeld. „Diese Flüge haben ein loop-artiges Muster, wobei das Muster von Tier zu Tier variiert, wie unsere Studien zeigen. Wir vermuten, dass die Hummeln dabei Momentaufnahmen von ihrer Umgebung im Gehirn abspeichern, deren Nützlichkeit bei nachfolgenden Flügen überprüft wird.“
Neuromorphe Systeme ähneln den neuronalen Netzwerken des Gehirns. Ihre Hardware ist hochspezialisiert und hochgradig vernetzt. Ein Team um Professorin Dr. Elisabetta Chicca von der Universität Bielefeld hat ein neuromorphes Modell entwickelt, das autonomen mobilen Systemen die Fähigkeit geben soll, in komplexen Umgebungen besser zu navigieren und Hindernissen auszuweichen. Die „Laseraugen“ (Laser-Distanzsensoren) selbstfahrender Autos erkennen zwar Hindernisse, sind jedoch trotz langjähriger Entwicklung sehr teuer. Sie verbrauchen viel Energie und – wie aktuelle Vorfälle gezeigt haben – kommt es zu Fehlinterpretationen in bestimmten Situationen. Hier könnte das System der Bielefelder Wissenschaftler Fortschritte bringen.
„Wir haben einen neuen elektronischen Bewegungsdetektor entwickelt, den „Spiking Elementary Motion Detector“, der die relative Bewegung von Objekten erfassen kann“, sagt Professorin Chicca. Was eine „relative Bewegung“ ist, kennt jeder Auto- oder Zugfahrer: Der Kirchturm in der Ferne gleitet langsam vorbei, während der Baum am Straßenrand sehr schnell vorbei rauscht. Insekten nutzten solche Informationen bei der Navigation im Gelände, um Kollisionen zu vermeiden.
Der neue Bewegungsdetektor, kurz sEMD genannt, ist eine technische Nervenzelle mit einer künstlichen Synapse. Er kann Signale aufnehmen und Signale produzieren, wenn zwei Impulse innerhalb einer bestimmten Zeit eintreffen– darum der Namenszusatz „spiking“. Ein Chip kann tausende dieser Detektoren tragen, je nach Experiment.
Ihren Input erhalten die Detektoren von innovativen neuromoprhen Kameras, produziert von einem Unternehmen in der Schweiz. Im Unterschied zu normalen Kameras produzieren die einzelnen Pixel der Sensoren in diesen Kameras eigenständig nur dann ein Signal, wenn sich etwas in ihrem „Blickfeld“ verändert. Diese Signale werden von rezeptiven Feldern des Bewegungsdetektors aufgefangen. Jeder Detektor besitzt zwei Rezeptive Felder, bei denen jeweils die Signale von neun Pixeln einlaufen. Wird mehr als die Hälfte der Pixel eines rezeptiven Feldes aktiviert, produziert das rezeptive Feld ein Signal, das vom Detektor weiterverarbeitet wird. Aus den zeitlichen Abständen zwischen den Signalen von zwei benachbarten Rezeptiven Feldern kann der Detektor die relative Geschwindigkeit berechnen, mit dem sich ein Gegenstand vor der Kamera bewegt. „Unsere Experimente zeigen, dass es möglich ist, Informationen für die Navigation von Robotern zu generieren, die Kollisionen vermeiden“, erklärt Professorin Chicca. „Unsere Ergebnisse ebnen den Weg zum Bau von Low-Power-Kompaktsystemen für die autonome Navigation. Zusätzlich ist der sEMD ein universell einsetzbares Element zur Berechnung von Zeitdifferenzen und kann darum auch für die Verarbeitung andere Sinnesreize genutzt werden, beispielsweise für die Ortung einer Schallquelle.