Ein Roboter hat sich seinen Körper selbst beigebracht

Startseite » Ein Roboter hat sich seinen Körper selbst beigebracht
Ein Roboter hat sich seinen Körper selbst beigebracht

Angenommen, Sie wachen auf und stellen fest, dass Sie sich in ein sechsbeiniges Insekt verwandelt haben. Es könnte eine ziemlich störende Erfahrung sein, aber wenn Sie weitermachen, möchten Sie wahrscheinlich herausfinden, was Ihr neuer Körper kann und was nicht. Vielleicht findest du einen Spiegel. Vielleicht können Sie sich mit ein wenig Zeit an diese neue Form gewöhnen.

Dieses fantastische Konzept unterscheidet sich nicht allzu sehr von dem Prinzip, das einige Ingenieure ausnutzen wollen, um bessere Roboter zu bauen. Für eine Demonstration erstellte eine Gruppe einen Roboter, der durch Übung lernen konnte, was seine eigene Form kann.

„Die Idee ist, dass die Roboter auf sich selbst aufpassen sollen“, erklärt er Boyuan Chen, ein Robotiker an der Duke University in North Carolina. „Dazu wollen wir, dass ein Roboter seinen Körper versteht.“ Chen und seine Kollegen veröffentlicht ihre Arbeit in der Zeitschrift Wissenschaftliche Robotik 13. Juli.

Ihr Roboter ist relativ einfach: ein einzelner Arm, der auf einem Tisch montiert ist, umgeben von einer Reihe von fünf Videokameras. Der Roboter hatte Zugriff auf die Kamerabilder, wodurch er sich selbst sehen konnte, als befände er sich in einem Raum voller Spiegel. Die Forscher baten ihn, die grundlegende Aufgabe zu erfüllen, eine nahe Kugel zu berühren.

Mithilfe eines neuronalen Netzwerks setzte der Roboter ein unscharfes Modell seines Aussehens zusammen, fast wie ein Kind, das ein Selbstporträt kritzelt. Es half auch menschlichen Beobachtern, sich auf Maschinenaktionen vorzubereiten. Wenn der Roboter zum Beispiel glaubte, sein Arm sei kürzer als er tatsächlich ist, könnten seine Meister verhindern, dass er versehentlich mit einem Passanten zusammenstößt.

Wie Säuglinge, die ihre Gliedmaßen bewegen, begann der Roboter die Auswirkungen seiner Bewegungen zu verstehen. Wenn er sein Ende drehte oder hin und her bewegte, würde er wissen, ob er die Kugel treffen würde oder nicht. Nach etwa drei Stunden Training verstand der Roboter die Grenzen seiner materiellen Hülle, genug, um diese Kugel mit Leichtigkeit zu berühren.

„Einfach ausgedrückt hat dieser Roboter ein inneres Auge und einen inneren Monolog: Er kann sehen, wie er von außen aussieht, und er kann mit sich selbst darüber nachdenken, wie die Handlungen, die er ausführen muss, in der Realität ausfallen würden“, erklärt er Josh Bongardein Robotiker der University of Vermont, der in der Vergangenheit mit den Autoren des Artikels zusammengearbeitet hat, aber kein Autor war.

[Related: MIT scientists taught robots how to sabotage each other]

Dass Roboter wissen, wie sie aussehen, ist an sich nichts Neues. Zur Zeit der Apollo-Mondlandungen konstruierten kalifornische Wissenschaftler Schüttle den Robotereine quadratische Vorrichtung, die in einem bequem gewesen wäre Äußere Grenzen Folge. Shakey war mit einem vorinstallierten Modell von sich selbst ausgestattet und half dem primitiven Roboter, Entscheidungen zu treffen.

Seitdem ist es für Ingenieure zur gängigen Praxis geworden, Roboter mit einem Bild von sich selbst oder seiner Umgebung zu programmieren, ein Bild, auf das der Roboter zurückgreifen kann, um Entscheidungen zu treffen. Dies ist nicht immer vorteilhaft, da der Roboter nicht sehr anpassungsfähig sein wird. Es ist in Ordnung, wenn der Roboter eine oder ein paar vordefinierte Aufgaben hat, aber für allgemeinere Roboter glauben die Forscher, dass sie es besser können.

In jüngerer Zeit haben Forscher es versucht Roboter in der virtuellen Realität trainieren. Die Roboter lernen in einer Simulation Manöver, die sie im Fleischraum üben können. Das sieht elegant aus, ist aber nicht immer praktisch. Eine Simulation auszuführen und Roboter darin lernen zu lassen, erfordert viel Rechenleistung, wie viele andere Formen von KI. Die finanziellen und ökologischen Kosten summieren sich.

Einen autodidaktischen Roboter im wirklichen Leben zu haben, öffnet dagegen viel mehr Türen. Es ist weniger rechenintensiv und unterscheidet sich nicht davon, wie wir lernen, unsere eigenen sich entwickelnden Körper zu sehen. „Wir haben ein konsistentes Verständnis unseres Körpers, was wir können und was nicht, und sobald wir das verstanden haben, berichten und aktualisieren wir jeden Tag die Fähigkeiten unseres Körpers“, sagt Chen.

Dieser Prozess könnte Robotern in Umgebungen helfen, die für Menschen unzugänglich sind, beispielsweise unter tiefem Wasser oder außerhalb der Erdatmosphäre. Sogar Roboter in gewöhnlichen Umgebungen könnten solche Fähigkeiten nutzen. Ein Fabrikroboter könnte beispielsweise feststellen, ob eine Fehlfunktion vorliegt, und seine Routine entsprechend anpassen.

Der Arm dieser Forscher ist nur ein erster rudimentärer Schritt in Richtung dieses Ziels. Es ist weit entfernt vom Körper eines bloßen Tieres, ganz zu schweigen vom Körper eines Menschen.

Die Maschine hat nämlich nur vier Freiheitsgrade, was bedeutet, dass sie nur vier verschiedene Bewegungen ausführen kann. Wissenschaftler arbeiten derzeit an einem Roboter mit zwölf Freiheitsgraden. Der menschliche Körper hat Hunderte von ihnen. Und ein Roboter mit einem starren Äußeren ist ein ganz anderes Biest als ein Roboter mit einer weicheren, flexibleren Form.

„Je komplexer Sie sind, desto mehr brauchen Sie dieses Selbstmodell, um Vorhersagen zu treffen. Du kannst deinen Weg durch die Zukunft nicht einfach erraten.“ Hod Lipson, ein Maschinenbauingenieur an der Columbia University und einer der Autoren der Abhandlung. „Wir müssen herausfinden, wie wir das mit immer komplexeren Systemen machen.“

[Related: Will baseball ever replace umpires with robots?]

Robotiker sind optimistisch, dass das maschinelle Lernen, das diesen Roboter gesteuert hat, auf diejenigen mit komplexeren Systemen angewendet werden kann. Bongard sagt, es sei bereits bewiesen worden, dass die Methoden, mit denen Roboter die Skalierung gut lernen – und möglicherweise auch andere Dinge.

„Wenn Sie einen Roboter haben, der jetzt mit wenig Rechenaufwand ein Modell von sich selbst bauen kann, könnte er Modelle vieler anderer Dinge bauen und verwenden, wie andere Roboter, selbstfahrende Autos … oder jemand, der nach Ihrem Schalter sucht“, sagt er Bongard. „Was Sie mit diesen Informationen machen, liegt natürlich bei Ihnen.“

Insbesondere für Lipson geht es beim Bau eines Roboters, der seinen eigenen Körper verstehen kann, nicht nur darum, in Zukunft intelligentere Roboter zu bauen. Er glaubt, dass seine Gruppe einen Roboter geschaffen hat, der die Grenzen und Kräfte seines eigenen Körpers versteht.

Wir könnten denken, dass Selbstbewusstsein in der Lage ist, über seine Existenz nachzudenken. Aber wie Sie vielleicht wissen, wenn Sie in letzter Zeit mit einem Baby zusammen waren, gibt es auch andere Formen der Selbsterkenntnis.

„Für mich“, sagt Lipson, „ist dies ein erster Schritt in Richtung empfindungsfähiger Robotik.“