uni.intern
Roboter mit „gesundem Menschenverstand
Eine langfristig angelegte Kooperation zwischen Professor Dr. Philipp Cimiano von der Universität Bielefeld und Professor Dr. Michael Beetz von der Universität Bremen zielt darauf ab, Wissen aus unterschiedlichsten Quellen in maschinenlesbarer Form zugänglich zu machen. Diese Informationen können Robotern helfen, das nötige Wissen für die Bewältigung von Alltagsaufgaben zu erwerben.
Bei der Bewältigung des täglichen Lebens nutzen wir Menschen umfassendes Allgemeinwissen, ohne uns dessen bewusst zu sein. Wenn wir beispielsweise Obst schneiden wollen, wissen wir, welches Messer wir benutzen und wieviel Druck wir anwenden sollten. Falls wir auf Schwierigkeiten stoßen, können wir in Ratgebern nachlesen oder ein Erklärvideo auf YouTube ansehen. Dann verknüpfen wir die neuen Informationen mit unserem Manipulationswissen und unserem „gesunden Menschenverstand“, um die Aufgabe zu erledigen.
Im Rahmen einer Forschungskooperation gehen Professor Michael Beetz von der Universität Bremen und Professor Philipp Cimiano von der Universität Bielefeld jetzt der Frage nach, ob die menschliche Vorgehensweise bei der Lösung von neuen Aufgabenstellungen auch auf Roboter übertragen werden kann. Cimiano leitet in Bielefeld die Arbeitsgruppe semantische Datenbanken und ist Koordinator sowie Vorstandsmitglied des Center for Cognitive Interaction Technology (CITEC) , Beetz leitet in Bremen das Institut für Künstliche Intelligenz (IAI) und den Sonderforschungsbereich EASE (Everyday Activity Science and Engineering).
Wie Roboter eigene Wissenslücken schließen sollen
Das Detailwissen, das ein Roboter für eine scheinbar einfache Tätigkeit wie das Schneiden von Obst benötigt, ist sehr umfangreich, sofern die Aufgabe nicht jedes Mal unter komplett standardisierten Bedingungen bewältigt werden kann. Würde ein futuristischer Haushaltsroboter in der Küche stehen und von jemandem die Aufforderung bekommen, ein paar Äpfel zu schneiden, müsste er zunächst die passenden Objekte wählen und erkennen (Äpfel, Messer, Unterlage), sie dann korrekt greifen und positionieren, eine Strategie für das Schneiden wählen und schließlich die Äpfel in angemessen große Stücke zerteilen – und jeder dieser Prozesse muss in eine Vielzahl weiterer Teilaufgaben heruntergebrochen werden.
„Eine Herausforderung ist es, den Robotern beizubringen, Internetquellen zu lesen und zu interpretieren, Schlussfolgerungen daraus zu ziehen und in ihre Planungsprozesse einzubeziehen, um die besten Handlungen in einem gegebenen Kontext auszuwählen“, sagt Prof. Dr. Philipp Cimiano. Foto: Universität Bielefeld/ Michael Adamski
Der zukünftige Roboter wird im ersten Moment vielleicht keine Ahnung haben, was mit dem Satz „Schneide ein paar Äpfel“ von ihm verlangt wird. Er wird aber in der Lage sein, seine Wissenslücken zügig zu schließen. Wichtige Grundlagen dafür legen die Professoren Beetz und Cimiano in ihrem Projekt, das als Auftakt für eine umfassendere Kooperation dienen soll. Vereinfacht gesagt wollen sie Roboter befähigen, sich selbstständig das benötigte Wissen aus unterschiedlichsten Quellen – beispielsweise Kochbüchern oder YouTube-Videos – anzueignen und es in detaillierte, maschinenverständliche Handlungsanweisungen zu übersetzen. Da auch ein Ratgeber wie ein Kochbuch noch vielfältiges Grundwissen voraussetzt, müssen die Roboter zusätzlich „common sense“ erwerben können – also eine Art gesunden Menschenverstand.
Um dies zu ermöglichen, müssen drei wesentliche Elemente ineinandergreifen: erstens Ontologien (maschinenlesbare Wörterbücher, zum Beispiel: Woran erkenne ich einen Apfel und welche konkreten Eigenschaften hat er?), zweitens sogenannte knowledge graphs, in denen das Wissen über die Beziehungen zwischen Objekten hinterlegt ist (zum Beispiel: die Äpfel liegen in der Schale), und drittens die Steuerungsprogramme der Roboter.
Wie Forschende aus Bremen, Bielefeld und Paderborn kooperieren
Die Kooperation zwischen den Universitäten Bremen und Bielefeld vereint umfassende Expertise, die für ein reibungsloses Zusammenspiel der drei Elemente notwendig ist. Professor Cimiano und das CITEC bringen wichtige Erfahrungen bei der Erforschung von KI-Systemen ein, die mit verschiedenen Umgebungen interagieren und daraus lernen – beispielsweise aus textbasierten Quellen. „Es gibt eine stetig wachsende Anzahl von Ressourcen und Quellen im Internet mit Common Sense Knowledge“, erläutert Cimiano. „Eine Herausforderung ist es, den Robotern beizubringen, diese Quellen zu lesen und zu interpretieren, Schlussfolgerungen daraus zu ziehen und in ihre Planungsprozesse einzubeziehen, um die besten Handlungen in einem gegebenen Kontext auszuwählen.“
Die Bremer Wissenschaftlerinnen und Wissenschaftler um Professor Beetz arbeiten bereits seit vielen Jahren an der Integration vielfältiger KI- und Roboterkomponenten in ganzheitliche Systeme. Ein Teilaspekt ist dabei auch die maschinelle Auswertung von Videos, um nicht nur theoretisches Wissen, sondern auch Bewegungsmuster abzuleiten.
Prof. Dr. Michael Beetz leitet in Bremen das Institut für Künstliche Intelligenz (IAI) und den Sonderforschungsbereich EASE (Everyday Activity Science and Engineering). Foto: Universität Bremen/Patrick Pollmeier
Eine wesentliche Grundlage der Kooperation ist die Offenheit für die Zusammenarbeit mit anderen Wissenschaftler*innen, die diese Infrastrukturen und Ergebnisse nutzen und erweitern möchten – auch als „Open Research“ oder „Open Science“ bezeichnet. Gemeinsam mit der Universität Paderborn haben die Universitäten Bielefeld und Bremen und daher das Joint Research Center on Cooperative and Cognition-enabled AI (CoAI JRC) gegründet („gemeinsames Forschungszentrum für kooperative und kognitionsgestützte Künstliche Intelligenz“). Dessen Herzstück ist das Virtual Research and Training Building (virtuelles Forschungs- und Schulungsgebäude). Nicht nur die Wissenschaftler*innen der drei direkt beteiligten Universitäten können dort ihre virtuellen Labore einbauen, sondern auch die weltweite KI-Community kann sich beteiligen – sowohl als Nutzer*innen der Infrastruktur als auch als Anbieter*innen von eigenen Ressourcen.
Ein virtuelles Forschungsgebäude für Interessierte aus aller Welt
Das virtuelle Gebäude befindet sich noch im Aufbau, beherbergt aber schon jetzt mehrere Labore, in denen Roboter unter realen Bedingungen nutzbar sind, als seien die Forschenden vor Ort an der jeweiligen Universität. Dazu zählt beispielsweise eine fast vollständig ausgestattete Wohnung samt Küche und ein Einzelhandelsgeschäft mit Regalen und Produkten. Verschiedene Robotertypen stehen für die Experimente zur Verfügung. Die realen Labore vor Ort am Institut für Künstliche Intelligenz können somit als realitätsgetreue semantische Zwillinge von anderen Forschenden weltweit genutzt werden, ohne dass letztere nach Bremen reisen müssen.
Darüber hinaus stehen im virtuellen Gebäude auch zahlreiche Lehr- und Lernmaterialien für den Bereich der Künstlichen Intelligenz und Robotik zur Verfügung. „Die Komponenten sollen als Keimzellen eines Ökosystems dienen, das mit der Zeit immer stärker wächst und auch EU-weit eine Vorbildfunktion übernimmt“, erläutert Professor Beetz.
Die beiden Professoren haben gemeinsam mit ihren Partner*innen aus Paderborn bereits ein weiteres Ziel im Blick: Sie wollen die Roboter in die Lage versetzen, interaktiv mit Menschen zu lernen und gemeinsam Aufgaben zu bewältigen. „Es geht darum, nicht einfach nur Tätigkeiten auszuführen, sondern sie auch so auszuführen, dass es die Partner unterstützt und sie zufrieden sind“, erklärt Beetz. „Dafür muss man ein gemeinsames Verständnis von der Aktivität entwickeln und in der Lage sein, zu interagieren und seine Handlungen dynamisch anzupassen.“ Am Ende der Entwicklung können Roboter stehen, die nicht nur die geäußerten Vorgaben umsetzen, sondern zusammen mit den Menschen lernen und konstruktiv kooperieren.