IEEE-Websites platzieren Cookies auf Ihrem Gerät, um Ihnen die beste Benutzererfahrung zu bieten.Durch die Nutzung unserer Websites stimmen Sie der Platzierung dieser Cookies zu.Um mehr zu erfahren, lesen Sie unsere Datenschutzrichtlinie.Am Samstag ging das Team KAIST aus Südkorea als Gewinner der DARPA Robotics Challenge (DRC) in Pomona, Kalifornien, hervor, nachdem sein Roboter, ein anpassungsfähiger Humanoid namens DRC-HUBO, 22 andere Roboter aus fünf verschiedenen Ländern geschlagen und gewonnen hatte Hauptpreis von 2 Millionen US-Dollar.Die „Transformator“-Fähigkeit des Roboters, von einem laufenden Zweibeiner zu einer Maschine mit Rädern hin und her zu wechseln, erwies sich als Schlüssel zu seinem Sieg.Viele Roboter verloren das Gleichgewicht und brachen zusammen, während sie versuchten, Aufgaben wie das Öffnen einer Tür oder das Bedienen einer Bohrmaschine auszuführen.Nicht DRC-HUBO.Sein einzigartiges Design ermöglichte es ihm, Aufgaben schneller zu erledigen und, was vielleicht noch wichtiger ist, auf den Beinen – und Rädern – zu bleiben.„Das zweibeinige Gehen [für Roboter] ist noch nicht sehr stabil“, sagte Jun Ho Oh, Professor für Maschinenbau am Korea Advanced Institute of Science and Technology, der das KAIST-Team leitete, gegenüber IEEE Spectrum.„Eine einzige Sache geht schief, das Ergebnis ist katastrophal.“Er sagte, ein Roboter mit humanoider Form habe Vorteile, wenn er in einer menschlichen Umgebung operiert, aber er wollte ein Design finden, das das Risiko von Stürzen minimieren könnte.„Ich habe über verschiedene Dinge nachgedacht, und das Einfachste waren Räder auf den Knien.“DRC-HUBO kann seine Haltung ändern, indem es auf zwei Beinen steht, um zu gehen und höhere Objekte zu erreichen, oder niederkniet, um sich auf Rädern in einer stabilen Position fortzubewegen.Fotos: Evan Ackerman/IEEE SpectrumDARPA beschloss, die DRC nach dem Unfall von Fukushima in Japan zu organisieren, in der Hoffnung, das Gebiet der Katastrophenrobotik voranzubringen.Das DRC-Finale forderte Teams aus halbautonomen Robotern und menschlichen Bedienern auf, in einer simulierten Katastrophenumgebung zusammenzuarbeiten.Die von Universitäten und Unternehmen für den Wettbewerb entwickelten Roboter waren in Größe und Form sehr unterschiedlich und umfassen auch Roboter mit Beinen, Rädern und Hybriden.DRC-HUBO setzte sich gegen andere Roboter durch, weil er alle acht Aufgaben in kürzester Zeit (44 Minuten und 28 Sekunden) fehlerfrei erledigte.Auch andere Teams schnitten im Wettbewerb gut ab, aber durch Rückschläge verloren ihre Roboter Zeit.Dazu gehörte der CHIMP von Tartan Rescue, ein Roboter mit Beinen und panzerartigen Ketten, der als einziger Roboter nach einem Sturz wieder aufstand;der Momaro der Universität Bonn, eine elegant einfache Maschine auf Rädern mit einem sich drehenden Kopf und zwei Armen;RoboSimian vom NASA Jet Propulsion Laboratory, ein vierbeiniger Roboter, der Yoga-Bewegungen auszuführen schien;IHMCs ATLAS, ein großer hydraulisch-elektrischer Humanoid, hergestellt von Boston Dynamics (und von anderen DRC-Teams verwendet).DRC-HUBO übernimmt die Ventilaufgabe.Beachten Sie, dass der Oberkörper um 180 Grad gedreht ist.Foto: DARPA„Flexibilität ist möglicherweise das Wichtigste“, sagte DARPA-Programmmanager und DRC-Organisator Gill Pratt bei einem Medienbriefing und kommentierte die verschiedenen Roboterdesigns.Ein Roboter, der seine Konfiguration von der Verwendung von Beinen auf die Verwendung von Rädern ändern könnte, erklärte er, sei möglicherweise schwerer und komplexer, würde ihm aber „diese Flexibilität geben“.Professor Oh ist ein international anerkannter Experte für humanoide Roboter.Er und seine Studenten am KAIST in Daejeon, Südkorea, haben ihre HUBO-Plattform über mehrere Generationen hinweg verbessert.Unten sehen Sie ein Video von vor einigen Jahren, als Professor Oh uns eine Führung durch sein Labor und eine Vorführung von HUBO 2 gab.Für das DRC-Finale beschloss Professor Oh, wesentliche Änderungen vorzunehmen, um speziell auf die Aufgaben der Roboter einzugehen.Bei einem Workshop nach dem Wettbewerb sagte er, DRC-HUBO sei „nichts Besonderes, nur ein humanoider Roboter“.Tatsächlich hat sein Team bei KAIST jedoch fast jeden Teil des Roboters kundenspezifisch entworfen und gebaut.Er schätzte die Kosten für jeden Humanoiden auf 500.000 bis 1 Million Dollar.Der Unterschenkel hat Räder an den Knien und Rollen an den Füßen.Die ovalen Löcher an den Schienbeinen sind optische Durchflusssensoren für die Odometrie.Die Knöchel haben 6-Achsen-Kraft-Drehmoment-Sensoren und Beschleunigungsmesser.Foto: Erico Guizzo/IEEE-SpektrumDas Luftkühlsystem an Ober- und Unterschenkel des Roboters ermöglicht es ihm, die Motoren zu übersteuern.Foto: Team KAISTDer Oberkörper des Roboters kann sich um bis zu 180 Grad drehen, eine hilfreiche Funktion.Foto: DARPADer Oberkörper ist vollgestopft mit einem Computer für Bewegung und einem weiteren für Vision, IMU, Gyroskope und Batterien.Foto: Team KAISTDer Sensorkopf hat ein Lidar und eine Kamera, die auf einem Kardanrahmen montiert sind, der sich nur dreht, wenn die Bediener einen neuen Scan wünschen (es gibt auch eine feste Kamera oben).Foto: DARPAHier sind einige der wichtigsten Merkmale, die dem Roboter geholfen haben, den Wettbewerb zu gewinnen:Werfen wir nun einen genaueren Blick auf DRC-HUBO, der alle acht Aufgaben in dem Lauf durchgeht, der Team KAIST seinen Sieg bescherte (wenn Sie den vollständigen Lauf hintereinander sehen möchten, haben wir ihn hier hochgeladen; der vollständige Lauf bei 20x ist hier):1. Fahraufgabe: Die Teams durften bestimmte Modifikationen am Polaris-Fahrzeug vornehmen, damit ihre Roboter es leichter fahren und aus ihm aussteigen konnten.Team KAIST platzierte eine Metallvorrichtung mit zwei Hebeln auf dem Boden des Fahrzeugs;Wenn DRC-HUBO einen der Hebel drückte, sorgte ein Kabelsystem dafür, dass der zweite Hebel das Gaspedal drückte.Der Roboter hält sich mit der linken Hand am Fahrzeug fest und lenkt mit der rechten.Es erledigt diese Aufgabe sehr, sehr schnell (in etwas mehr als einer Minute) und im Gegensatz zu anderen Teams hört es nicht auf, wenn es um die Barrieren geht.2. Egress-Aufgabe: Dies war eine der schwierigsten Aufgaben im Wettbewerb.Bei der Planung sagte Professor Oh, er sei mehrmals selbst in das Fahrzeug ein- und ausgestiegen, um zu sehen, welche Art von Bewegungen und Körperteilen er verwenden müsse.Er kam zu dem Schluss, dass ein „dynamischer Ansatz“ erforderlich sei.Sein Team programmierte DRC-HUBO, die Arme zu heben und sich am Rahmen des Fahrzeugs festzuhalten.Dann wendet der Roboter 100 Newton Zugkraft auf jeden Arm an.Wenn die Arme den Körper des Roboters nach oben ziehen, fällt er praktisch aus dem Fahrzeug, wenn auch auf kontrollierte Weise (daher der „dynamische Ansatz“).Achtung ab 1:00.Es ist ein wunderschönes Ausstiegsmanöver!Professor Oh sagte, das Team habe mehrere Motoren verbrannt, um diese Bewegung zu perfektionieren, aber das Problem mit ihren kundenspezifischen Hochleistungsmotortreibern gelöst.Im eigentlichen Lauf kann der Roboter in weniger als 4 Minuten aussteigen, und sobald er vom Fahrzeug abgestiegen ist, geht er auf die Knie und rast davon.3. Türaufgabe: Im Gegensatz zu mehreren anderen Robotern, die stehen (und auf zwei Beinen balancieren) mussten, um diese Aufgabe auszuführen, konnte DRC-HUBO auf den Knien bleiben, um den Türknauf zu betätigen.Mit seinem anderen Arm hält er elegant die Tür offen, während er den Knauf loslässt.In weniger als 2 Minuten fährt es auf seinen Knierädern durch die Tür.4. Ventilaufgabe: Beachten Sie zu Beginn des Videos, wie sich das Lidar auf und ab bewegt, um den Bedienern einen Scan der vorausliegenden Szene zu ermöglichen.Wenn sich DRC-HUBO dann dem Ventil nähert, führt es eine 180-Grad-Rotation des Oberkörpers durch.Pass auf bei 0:20 auf, sonst verpasst du es (der Kamerawinkel zeigt leider nicht den unteren Teil des Roboters).In dieser Konfiguration kann der Roboter, während er noch kniet, seinen Körper gerade so weit anheben, dass er das Ventil besser manipulieren kann (warum stehen, wenn Sie nicht müssen?).Der Roboter führt einige weitere Lidar-Scans durch, passt seine Position an und in etwa 3 Minuten ist er mit der Aufgabe fertig.Beachten Sie, dass nur eine volle Umdrehung erforderlich war, DRC-HUBO jedoch zwei vollständige Umdrehungen durchführt!Bei 2:01 können Sie sehen, wie der Roboter die Torsorotation „rückgängig macht“.5. Wandaufgabe: Dies war für die meisten Teams eine knifflige Aufgabe, da sie ein präzises Erfassen eines Bohrers erforderte und die Roboter einen Auslöser oder einen Ein-/Aus-Knopf drücken mussten, um das Werkzeug zu verwenden.DRC-HUBO vertraute auf einen Kraft-Momenten-Sensor an jeder Hand, um beim Greifen zu helfen.Sie können sehen, wie sich der Roboter selbst bewegt und sogar den Bohrer im Regal neu positioniert (sogar einen anderen Bohrer aus dem Weg stößt), um einen guten Weg zu finden, ihn zu greifen.Sobald der Roboter das Werkzeug hat, geben die Bediener an, wo geschnitten werden soll, und der Roboter erledigt den Rest autonom.Es hält 20 Newton Kraft gegen die Wand, und Sie können sehen, wie es seinen ganzen Körper einsetzt, um den Bohrer in einem perfekten Kreis zu bewegen.Das Abschließen dieser Aufgabe dauert etwa 11 Minuten.6. Überraschungsaufgabe: Die Überraschungsaufgabe bestand darin, einen Stecker zu ziehen und ihn wieder in eine andere Steckdose zu stecken.Beachten Sie, wie DRC-HUBO den Boden scannt und feststellt, dass sich der zuvor niedergeschlagene Bohrer auf seinem Weg befindet.Der Roboter dreht sich um und schiebt das Werkzeug mit den Knien weg.Es versucht sich dann umzudrehen, sieht aber so aus, als würde es gegen die Wand schlagen.Die Bediener bemerken das Problem anscheinend und fahren ein Stück vorwärts und können dann wenden.Schließlich nähern sie sich der Wand mit dem Stöpsel, der höher positioniert ist als das Ventil und die Türklinke.Es ist Zeit, aufzustehen, und Sie können das ab 3:05 Uhr beobachten.DRC-HUBO macht einige Schritte nach vorne und leitet nach einer Weile den Greifprozess ein.Es packt den Stecker am Kabel;Wir glauben, dass dies beabsichtigt war, um den Bedienern eine bessere Sicht auf den Stecker zu ermöglichen und zu verhindern, dass die Hand des Roboters ihre Sicht behindert, was die Aufgabe nahezu unmöglich machen würde.Das Einstecken des Steckers erweist sich als schwierig, und bei 7:47 können Sie sehen, wie der Roboter versucht, ihn einzustecken und die Steckdose verfehlt.Nach einigen Korrekturbewegungen Erfolg!Die Aufgabe dauert 13 Minuten und 30 Sekunden, die langsamste im Lauf.7. Schutt-Aufgabe: Während er kniet, kann DRC-HUBO mit nach vorne zeigenden Knien fahren oder seinen Oberkörper um 180 Grad drehen und mit nach vorne zeigenden Füßen fahren und so wie die Klinge eines Bulldozers fungieren.Und das tut es für diese Aufgabe.Sie können die Torsorotation ab 0:28 sehen.Das ist so cool.Der Roboter hebt dann seine Arme, wahrscheinlich aus Stabilitätsgründen und um zu verhindern, dass sie sich in den Trümmern verfangen.Dann beginnt er, sich durch die Trümmer zu pflügen.Es hält kurz an, wenn es so aussieht, als ob ein Stück Holz an den Betonblöcken hängen bleiben könnte, also biegt es ein wenig nach links ab, um das aus dem Weg zu räumen.Dann bewegt er das Kunststoffrohr nach rechts.Um 4:14 dreht es seinen Oberkörper noch einmal und positioniert sich vor der Treppe.Die Aufgabe dauerte weniger als 5 Minuten.8. Treppenaufgabe: Professor Oh sagte, dass es für viele Aufgaben, insbesondere das Treppensteigen, wichtig ist, dass der Roboter seine eigenen Füße sehen kann.Große Roboter wie ATLAS tun sich damit schwer, müssen ihre Körper beugen und erschweren das Balancieren.DRC-HUBO löst dieses Problem auf sehr clevere Weise.Es geht die Treppe rückwärts hoch!Auf diese Weise hindern seine Knie die Kameras des Roboters nicht daran, seine Füße und den Boden zu sehen, und ein weiterer Vorteil ist, dass seine Schienbeine niemals die Stufen treffen, wenn er seine Beine beugt.Aber wie sieht es seine eigenen Füße, wenn es rückwärts die Treppe hinaufsteigt?Natürlich durch Drehen des Oberkörpers!Sie können den Vorgang ab 0:26 sehen.Der Roboter kniet vor der Treppe, als er ihr plötzlich den Rücken zukehrt.Dann steht es auf und bei 0:55 sieht man, wie es den Oberkörper um 180 Grad dreht.Jetzt kann es die Treppe scannen und den Aufstieg beginnen.Aber beachten Sie, dass es vorher zwei Schritte seitwärts nach links macht (1:45)!Nach ein paar Minuten – die sich für die Zuschauer wie eine Ewigkeit anfühlten – beginnt der Roboter endlich nach oben zu steigen und erklimmt die letzten drei Stufen in einem kontinuierlichen Manöver.Sauber!Nach weniger als 7 Minuten steht DRC-HUBO oben auf der Plattform.Das Video hat keinen Ton, aber zu diesem Zeitpunkt waren das Team und das Publikum in Jubel explodiert.KAIST baute vier DRC-HUBOs und hatte vor der Veranstaltung über einen Monat lang ohne Sicherheitskabel geübt.Sie absolvierten ihre Läufe im Freien, auf einem Parkplatz mit unebenem Untergrund und unter verschiedenen Bedingungen, einschließlich starker Sonneneinstrahlung und starkem Wind.„Wenn wir die Sicherheit nicht beseitigen, sind die Bediener zu ängstlich“, sagte Professor Oh auf dem Workshop nach dem Wettbewerb.Er fügte hinzu, dass sie während des Trainings alle Aufgaben mit dem Roboter sowohl im Gehen als auch im Knien erledigten (ihre durchschnittliche Zeit betrug etwa 30 Minuten).Das Team war besonders gut darin, Trümmer mit den Armen von DRC-HUBO zu beseitigen, etwas, das sie beim DRC-Finale nicht demonstrieren konnten, und sie konnten die Aufgaben auch auf viel schwierigerem Gelände als bei der Konkurrenz problemlos ausführen.„Schade, dass wir bei der Challenge nicht so eine schöne Wanderung präsentieren konnten.… Es war zu einfach!“sagte Professor Oh und ging unter Applaus von der Bühne.Foto: Evan Ackerman/IEEE Spectrum Professor Jun Ho Oh und sein Team feiern am Samstag ihren Sieg bei den DRC Finals.Ingenieure kämpfen mit den Grenzen des Deep Learning für Battlefield-BotsRoMan, der Robotermanipulator des Army Research Laboratory, erwägt die beste Möglichkeit, einen Ast im Adelphi Laboratory Center in Maryland zu greifen und zu bewegen.„Ich sollte wahrscheinlich nicht so nah stehen“, denke ich mir, als der Roboter sich langsam einem großen Ast auf dem Boden vor mir nähert. Es ist nicht die Größe des Astes, die mich nervös macht – der Roboter ist es autonom operiert, und obwohl ich weiß, was es tun soll, bin ich mir nicht ganz sicher, was es tun wird. Wenn alles so funktioniert, wie es die Robotiker des US Army Research Laboratory (ARL) in Adelphi, Md Der Roboter erkennt den Ast, greift ihn und zieht ihn aus dem Weg. Diese Leute wissen, was sie tun, aber ich habe genug Zeit mit Robotern verbracht, dass ich trotzdem einen kleinen Schritt zurückgehe.Dieser Artikel ist Teil unseres Sonderberichts über KI „The Great AI Reckoning“.Dieser Artikel ist Teil unseres Sonderberichts über KI „The Great AI Reckoning“.Der Roboter mit dem Namen RoMan, für Robotic Manipulator, ist etwa so groß wie ein großer Rasenmäher, mit einer Raupenbasis, die ihm hilft, die meisten Geländearten zu bewältigen.An der Vorderseite hat es einen gedrungenen Oberkörper, der mit Kameras und Tiefensensoren ausgestattet ist, sowie ein Paar Arme, die von einem Prototyp eines Katastrophenschutzroboters stammen, der ursprünglich am Jet Propulsion Laboratory der NASA für einen DARPA-Robotikwettbewerb entwickelt wurde.Der Job von RoMan ist heute das Räumen von Fahrbahnen, eine mehrstufige Aufgabe, die der Roboter so autonom wie möglich erledigen soll.Anstatt den Roboter anzuweisen, bestimmte Objekte auf bestimmte Weise zu greifen und an bestimmte Orte zu bewegen, weisen die Bediener RoMan an, „einen Weg frei zu machen“.Es liegt dann am Roboter, alle notwendigen Entscheidungen zu treffen, um dieses Ziel zu erreichen.Die Fähigkeit, autonom Entscheidungen zu treffen, macht Roboter nicht nur nützlich, sondern Roboter zu Robotern.Wir schätzen Roboter wegen ihrer Fähigkeit zu spüren, was um sie herum vor sich geht, Entscheidungen auf der Grundlage dieser Informationen zu treffen und dann ohne unser Zutun nützliche Maßnahmen zu ergreifen.In der Vergangenheit folgten robotergestützte Entscheidungen streng strukturierten Regeln – wenn Sie das spüren, dann tun Sie das.In strukturierten Umgebungen wie Fabriken funktioniert dies gut genug.Aber in chaotischen, unbekannten oder schlecht definierten Umgebungen macht das Vertrauen auf Regeln Roboter notorisch schlecht darin, mit allem umzugehen, das nicht genau vorhergesagt und im Voraus geplant werden konnte.RoMan bewältigt zusammen mit vielen anderen Robotern, darunter Haushaltsstaubsauger, Drohnen und autonome Autos, die Herausforderungen halbstrukturierter Umgebungen durch künstliche neuronale Netze – ein Computeransatz, der die Struktur von Neuronen in biologischen Gehirnen lose nachahmt.Vor etwa einem Jahrzehnt wurden künstliche neuronale Netze auf eine Vielzahl halbstrukturierter Daten angewendet, die zuvor für Computer mit regelbasierter Programmierung (allgemein als symbolisches Denken bezeichnet) sehr schwierig zu interpretieren waren.Anstatt spezifische Datenstrukturen zu erkennen, ist ein künstliches neuronales Netzwerk in der Lage, Datenmuster zu erkennen und neue Daten zu identifizieren, die ähnlich (aber nicht identisch) mit Daten sind, auf die das Netzwerk zuvor gestoßen ist.Tatsächlich besteht ein Teil des Reizes künstlicher neuronaler Netze darin, dass sie anhand von Beispielen trainiert werden, indem das Netz annotierte Daten aufnehmen und sein eigenes System der Mustererkennung lernen kann.Für neuronale Netze mit mehreren Abstraktionsebenen wird diese Technik als Deep Learning bezeichnet.Obwohl Menschen typischerweise am Trainingsprozess beteiligt sind und obwohl künstliche neuronale Netze von den neuronalen Netzen im menschlichen Gehirn inspiriert wurden, unterscheidet sich die Art der Mustererkennung, die ein Deep-Learning-System leistet, grundlegend von der Art und Weise, wie Menschen die Welt sehen.Es ist oft fast unmöglich, die Beziehung zwischen der Dateneingabe in das System und der Interpretation der Daten, die das System ausgibt, zu verstehen.Und dieser Unterschied – die „Black Box“-Opazität von Deep Learning – stellt ein potenzielles Problem für Roboter wie RoMan und für das Army Research Lab dar.In chaotischen, ungewohnten oder schlecht definierten Umgebungen macht das Vertrauen auf Regeln Roboter notorisch schlecht darin, mit allem umzugehen, das nicht genau vorhergesagt und im Voraus geplant werden konnte.Diese Undurchsichtigkeit bedeutet, dass Roboter, die auf Deep Learning angewiesen sind, vorsichtig eingesetzt werden müssen.Ein Deep-Learning-System ist gut darin, Muster zu erkennen, aber es fehlt ihm das Weltverständnis, das ein Mensch normalerweise verwendet, um Entscheidungen zu treffen, weshalb solche Systeme am besten funktionieren, wenn ihre Anwendungen gut definiert und eng begrenzt sind.„Wenn Sie gut strukturierte Inputs und Outputs haben und Ihr Problem in dieser Art von Beziehung einkapseln können, funktioniert Deep Learning meiner Meinung nach sehr gut“, sagt Tom Howard, der das Robotics and Artificial Intelligence Laboratory der University of Rochester leitet und entwickelt hat Natürlichsprachliche Interaktionsalgorithmen für RoMan und andere Bodenroboter."Die Frage bei der Programmierung eines intelligenten Roboters lautet: Ab welcher praktischen Größe existieren diese Deep-Learning-Bausteine?"Howard erklärt, dass die Anzahl der möglichen Eingaben sehr groß wird, wenn man Deep Learning auf Probleme auf höherer Ebene anwendet, und das Lösen von Problemen in dieser Größenordnung eine Herausforderung sein kann.Und die potenziellen Folgen eines unerwarteten oder unerklärlichen Verhaltens sind viel bedeutsamer, wenn sich dieses Verhalten durch einen 170 Kilogramm schweren zweiarmigen Militärroboter manifestiert.Nach ein paar Minuten hat sich RoMan nicht bewegt – es sitzt immer noch da, grübelt über den Ast und hält die Arme wie eine Gottesanbeterin.In den letzten 10 Jahren hat die Robotics Collaborative Technology Alliance (RCTA) des Army Research Lab mit Robotikern der Carnegie Mellon University, der Florida State University, General Dynamics Land Systems, JPL, MIT, QinetiQ North America, University of Central Florida, the University of Pennsylvania und anderen führenden Forschungseinrichtungen, um die Roboterautonomie für den Einsatz in zukünftigen Bodenkampffahrzeugen zu entwickeln.RoMan ist ein Teil dieses Prozesses.Die Aufgabe „Einen Weg frei machen“, die RoMan langsam durchdenkt, ist für einen Roboter schwierig, weil die Aufgabe so abstrakt ist.RoMan muss Objekte identifizieren, die den Weg blockieren könnten, über die physikalischen Eigenschaften dieser Objekte nachdenken, herausfinden, wie man sie greift und welche Art von Manipulationstechnik am besten anzuwenden ist (wie Schieben, Ziehen oder Heben), und dann mach es möglich.Das sind viele Schritte und viele Unbekannte für einen Roboter mit einem begrenzten Verständnis der Welt.An diesem begrenzten Verständnis fangen die ARL-Roboter an, sich von anderen Robotern zu unterscheiden, die auf Deep Learning angewiesen sind, sagt Ethan Stump, leitender Wissenschaftler des AI for Maneuver and Mobility-Programms bei ARL.„Die Armee kann praktisch überall auf der Welt operieren. Wir haben keinen Mechanismus zum Sammeln von Daten in all den verschiedenen Bereichen, in denen wir möglicherweise operieren. Wir werden möglicherweise in einem unbekannten Wald auf der anderen Seite der Welt eingesetzt Welt, aber von uns wird erwartet, dass wir genauso gut abschneiden wie in unserem eigenen Garten", sagt er.Die meisten Deep-Learning-Systeme funktionieren zuverlässig nur innerhalb der Domänen und Umgebungen, in denen sie trainiert wurden.Selbst wenn die Domain so etwas wie „jede befahrbare Straße in San Francisco“ ist, reicht der Roboter aus, denn das ist ein bereits gesammelter Datensatz.Aber, sagt Stump, das sei keine Option für das Militär.Wenn ein Deep-Learning-System der Armee nicht gut funktioniert, können sie das Problem nicht einfach lösen, indem sie mehr Daten sammeln.Die Roboter von ARL müssen auch ein breites Bewusstsein dafür haben, was sie tun.„In einem Standard-Operationsbefehl für eine Mission gibt es Ziele, Einschränkungen, einen Absatz über die Absicht des Kommandanten – im Grunde eine Erzählung über den Zweck der Mission – die kontextbezogene Informationen liefert, die Menschen interpretieren können, und ihnen die Struktur gibt, wenn sie sie brauchen Entscheidungen zu treffen und wenn sie improvisieren müssen", erklärt Stump.Mit anderen Worten, RoMan muss je nach den allgemeinen Zielen der Mission möglicherweise schnell oder leise einen Weg freimachen.Das ist selbst für den fortschrittlichsten Roboter eine große Herausforderung.„Mir fällt kein Deep-Learning-Ansatz ein, der mit dieser Art von Informationen umgehen kann“, sagt Stump.Roboter im Army Research Lab testen autonome Navigationstechniken in unwegsamem Gelände [oben, Mitte] mit dem Ziel, mit ihren menschlichen Teamkollegen Schritt halten zu können.ARL entwickelt auch Roboter mit Manipulationsfähigkeiten [unten], die mit Objekten interagieren können, ohne dass Menschen dies tun müssen. Evan AckermanWährend ich zuschaue, wird RoMan für einen zweiten Versuch, Zweige zu entfernen, zurückgesetzt.Der Autonomieansatz von ARL ist modular, wobei Deep Learning mit anderen Techniken kombiniert wird und der Roboter ARL hilft, herauszufinden, welche Aufgaben für welche Techniken geeignet sind.Im Moment testet RoMan zwei verschiedene Möglichkeiten, Objekte anhand von 3D-Sensordaten zu identifizieren: Der Ansatz von UPenn basiert auf Deep Learning, während Carnegie Mellon eine Methode namens Perception Through Search verwendet, die auf einer traditionelleren Datenbank mit 3D-Modellen basiert.Wahrnehmung durch Suche funktioniert nur, wenn Sie im Voraus genau wissen, nach welchen Objekten Sie suchen, aber das Training ist viel schneller, da Sie nur ein einziges Modell pro Objekt benötigen.Es kann auch genauer sein, wenn die Wahrnehmung des Objekts schwierig ist – wenn das Objekt beispielsweise teilweise verdeckt oder auf dem Kopf steht.ARL testet diese Strategien, um festzustellen, welche am vielseitigsten und effektivsten ist, und lässt sie gleichzeitig laufen und gegeneinander antreten.Wahrnehmung ist eines der Dinge, bei denen sich Deep Learning auszeichnet.„Die Computer-Vision-Community hat mit Deep Learning für diese Dinge verrückte Fortschritte gemacht“, sagt Maggie Wigness, Informatikerin bei ARL.„Wir hatten gute Erfolge mit einigen dieser Modelle, die in einer Umgebung trainiert wurden, die auf eine neue Umgebung verallgemeinert wurden, und wir beabsichtigen, Deep Learning weiterhin für diese Art von Aufgaben zu verwenden, da es der neueste Stand der Technik ist.“Der modulare Ansatz von ARL könnte mehrere Techniken so kombinieren, dass ihre jeweiligen Stärken wirksam zum Tragen kommen.Beispielsweise könnte ein Wahrnehmungssystem, das Deep-Learning-basiertes Sehen zur Klassifizierung von Gelände verwendet, neben einem autonomen Fahrsystem arbeiten, das auf einem Ansatz namens inverses Verstärkungslernen basiert, bei dem das Modell durch Beobachtungen menschlicher Soldaten schnell erstellt oder verfeinert werden kann.Herkömmliches Reinforcement Learning optimiert eine Lösung basierend auf etablierten Belohnungsfunktionen und wird oft angewendet, wenn Sie nicht unbedingt sicher sind, wie optimales Verhalten aussieht.Das Heer stört dies weniger, da es in der Regel davon ausgehen kann, dass gut ausgebildete Menschen in der Nähe sind, um einem Roboter den richtigen Weg zu zeigen.„Wenn wir diese Roboter einsetzen, können sich die Dinge sehr schnell ändern“, sagt Wigness.„Also wollten wir eine Technik, bei der wir einen Soldaten eingreifen lassen können, und mit nur wenigen Beispielen von einem Benutzer im Feld können wir das System aktualisieren, wenn wir ein neues Verhalten benötigen.“Eine Deep-Learning-Technik würde „viel mehr Daten und Zeit“ erfordern, sagt sie.Es sind nicht nur datensparsame Probleme und schnelle Anpassungen, mit denen Deep Learning zu kämpfen hat.Hinzu kommen Fragen der Robustheit, Erklärbarkeit und Sicherheit."Diese Fragen betreffen nicht nur das Militär", sagt Stump, "aber sie sind besonders wichtig, wenn wir über Systeme sprechen, die möglicherweise tödlich sind."Um es klarzustellen, ARL arbeitet derzeit nicht an tödlichen autonomen Waffensystemen, aber das Labor hilft dabei, die Grundlagen für autonome Systeme im US-Militär auf breiterer Ebene zu legen, was bedeutet, dass Möglichkeiten in Betracht gezogen werden, wie solche Systeme in Zukunft eingesetzt werden können.Die Anforderungen an ein tiefes Netzwerk stimmen zu einem großen Teil nicht mit den Anforderungen einer Armeemission überein, und das ist ein Problem.Sicherheit hat offensichtlich Priorität, und dennoch gibt es laut Stump keine eindeutige Möglichkeit, ein Deep-Learning-System nachweislich sicher zu machen.„Deep Learning mit Sicherheitsbeschränkungen durchzuführen, ist ein großer Forschungsaufwand. Es ist schwierig, diese Beschränkungen in das System aufzunehmen, weil man nicht weiß, woher die bereits im System vorhandenen Beschränkungen stammen. Wenn sich also die Mission oder der Kontext ändert, Es ist schwer, damit umzugehen. Es ist nicht einmal eine Datenfrage, es ist eine Architekturfrage.“Die modulare Architektur von ARL, sei es ein Wahrnehmungsmodul, das Deep Learning verwendet, oder ein autonomes Fahrmodul, das inverses Verstärkungslernen oder etwas anderes verwendet, kann Teile eines umfassenderen autonomen Systems bilden, das die Arten von Sicherheit und Anpassungsfähigkeit beinhaltet, die das Militär benötigt.Andere Module im System können auf einer höheren Ebene arbeiten und andere Techniken verwenden, die besser verifizierbar oder erklärbar sind und die eingreifen können, um das Gesamtsystem vor nachteiligem, unvorhersehbarem Verhalten zu schützen.„Wenn andere Informationen hereinkommen und unsere Vorgehensweise ändern, gibt es eine Hierarchie“, sagt Stump."Es passiert alles auf rationale Weise."Nicholas Roy, der die Robust Robotics Group am MIT leitet und sich aufgrund seiner Skepsis gegenüber einigen Behauptungen über die Leistungsfähigkeit von Deep Learning als „etwas Aufrührer“ bezeichnet, stimmt mit den ARL-Robotikern darin überein, dass Deep-Learning-Ansätze herankommen können die Art von Herausforderungen, auf die die Armee vorbereitet sein muss, oft nicht bewältigen.„Die Armee dringt immer in neue Umgebungen ein, und der Gegner wird immer versuchen, die Umgebung so zu verändern, dass der Trainingsprozess, den die Roboter durchlaufen haben, einfach nicht mit dem übereinstimmt, was sie sehen“, sagt Roy."Die Anforderungen eines tiefen Netzwerks sind also zu einem großen Teil nicht mit den Anforderungen einer Armeemission abgestimmt, und das ist ein Problem."Roy, der im Rahmen des RCTA an abstraktem Denken für Bodenroboter gearbeitet hat, betont, dass Deep Learning eine nützliche Technologie ist, wenn sie auf Probleme mit klaren funktionalen Beziehungen angewendet wird, aber wenn man sich mit abstrakten Konzepten befasst, ist nicht klar, ob Deep Learning eine ist ein gangbarer Ansatz.„Ich bin sehr daran interessiert herauszufinden, wie neuronale Netze und Deep Learning so zusammengesetzt werden können, dass sie das Denken auf höherer Ebene unterstützen“, sagt Roy.„Ich denke, es läuft auf die Idee hinaus, mehrere neuronale Netzwerke auf niedriger Ebene zu kombinieren, um Konzepte auf höherer Ebene auszudrücken, und ich glaube nicht, dass wir bereits verstehen, wie das geht.“Roy gibt das Beispiel der Verwendung von zwei separaten neuronalen Netzwerken, eines zum Erkennen von Objekten, die Autos sind, und das andere zum Erkennen von Objekten, die rot sind.Es ist schwieriger, diese beiden Netzwerke zu einem größeren Netzwerk zu kombinieren, das rote Autos erkennt, als wenn Sie ein symbolisches Argumentationssystem verwenden würden, das auf strukturierten Regeln mit logischen Beziehungen basiert.„Viele Leute arbeiten daran, aber ich habe keinen wirklichen Erfolg gesehen, der abstraktes Denken dieser Art vorantreibt.“Für die absehbare Zukunft stellt ARL sicher, dass seine autonomen Systeme sicher und robust sind, indem Menschen sowohl für übergeordnete Argumente als auch gelegentliche Ratschläge auf niedriger Ebene in der Nähe bleiben.Menschen sind vielleicht nicht immer direkt auf dem Laufenden, aber die Idee ist, dass Menschen und Roboter effektiver sind, wenn sie als Team zusammenarbeiten.Als 2009 die jüngste Phase des Robotics Collaborative Technology Alliance-Programms begann, sagt Stump: „Wir waren bereits viele Jahre im Irak und in Afghanistan, wo Roboter oft als Werkzeuge eingesetzt wurden. Wir haben versucht, es herauszufinden was wir tun können, um Roboter von Werkzeugen zu Robotern zu machen, die eher als Teamkollegen innerhalb des Teams fungieren."RoMan bekommt ein wenig Hilfe, wenn ein menschlicher Betreuer auf eine Region des Astes hinweist, in der das Greifen am effektivsten sein könnte.Der Roboter hat kein grundlegendes Wissen darüber, was ein Ast eigentlich ist, und dieses fehlende Weltwissen (was wir als gesunden Menschenverstand bezeichnen) ist ein grundlegendes Problem bei autonomen Systemen aller Art.Wenn ein Mensch unsere große Erfahrung in ein wenig Anleitung einfließen lässt, kann die Arbeit von RoMan viel einfacher werden.Und tatsächlich gelingt es RoMan diesmal, den Ast erfolgreich zu greifen und geräuschvoll durch den Raum zu schleppen.Einen Roboter in einen guten Teamkollegen zu verwandeln, kann schwierig sein, da es schwierig sein kann, das richtige Maß an Autonomie zu finden.Zu wenig und es würde den größten Teil oder die gesamte Konzentration eines Menschen erfordern, um einen Roboter zu steuern, was in besonderen Situationen wie der Beseitigung von Sprengkörpern angemessen sein kann, aber ansonsten nicht effizient ist.Zu viel Autonomie und Sie würden Probleme mit Vertrauen, Sicherheit und Erklärbarkeit bekommen.„Ich denke, die Ebene, die wir hier suchen, ist, dass Roboter auf der Ebene von Arbeitshunden operieren“, erklärt Stump.„Sie verstehen genau, was wir unter eingeschränkten Umständen von ihnen erwarten, sie haben ein wenig Flexibilität und Kreativität, wenn sie mit neuen Umständen konfrontiert werden, aber wir erwarten nicht, dass sie kreative Problemlösungen leisten. Und wenn sie Hilfe brauchen , sie fallen auf uns zurück."Es ist unwahrscheinlich, dass sich RoMan in absehbarer Zeit auf einer Mission im Feld wiederfindet, nicht einmal als Teil eines Teams mit Menschen.Es ist sehr viel eine Forschungsplattform.Aber die Software, die für RoMan und andere Roboter bei ARL entwickelt wird und Adaptive Planner Parameter Learning (APPL) heißt, wird wahrscheinlich zuerst beim autonomen Fahren und später in komplexeren Robotersystemen verwendet, die mobile Manipulatoren wie RoMan umfassen könnten.APPL kombiniert verschiedene maschinelle Lerntechniken (einschließlich inversem Reinforcement Learning und Deep Learning), die hierarchisch unter klassischen autonomen Navigationssystemen angeordnet sind.Dadurch können übergeordnete Ziele und Einschränkungen zusätzlich zur Programmierung auf niedrigerer Ebene angewendet werden.Menschen können teleoperierte Demonstrationen, korrigierende Eingriffe und bewertendes Feedback verwenden, um Robotern zu helfen, sich an neue Umgebungen anzupassen, während die Roboter unbeaufsichtigtes Verstärkungslernen verwenden können, um ihre Verhaltensparameter spontan anzupassen.Das Ergebnis ist ein Autonomiesystem, das viele der Vorteile des maschinellen Lernens nutzen kann und gleichzeitig die Art von Sicherheit und Erklärbarkeit bietet, die die Armee benötigt.Mit APPL kann ein lernbasiertes System wie RoMan selbst unter Unsicherheit auf vorhersehbare Weise arbeiten und auf menschliches Tuning oder menschliche Demonstrationen zurückgreifen, wenn es in einer Umgebung landet, die sich zu sehr von der Umgebung unterscheidet, in der es trainiert wurde.Es ist verlockend, sich den schnellen Fortschritt kommerzieller und industrieller autonomer Systeme (autonome Autos sind nur ein Beispiel) anzusehen und sich zu fragen, warum die Armee dem Stand der Technik etwas hinterherhinkt.Aber wie Stump den Generälen der Armee erklären muss, wenn es um autonome Systeme geht, "gibt es viele schwierige Probleme, aber die schwierigen Probleme der Industrie unterscheiden sich von den schwierigen Problemen der Armee."Die Armee kann sich nicht den Luxus leisten, ihre Roboter in strukturierten Umgebungen mit vielen Daten zu betreiben, weshalb ARL so viel Mühe in APPL und in die Aufrechterhaltung eines Platzes für Menschen gesteckt hat.Auch in Zukunft werden Menschen wahrscheinlich ein wichtiger Teil des autonomen Rahmens bleiben, den ARL entwickelt."Das versuchen wir mit unseren Robotersystemen zu bauen", sagt Stump."