IEEE-Websites platzieren Cookies auf Ihrem Gerät, um Ihnen die beste Benutzererfahrung zu bieten.Durch die Nutzung unserer Websites stimmen Sie der Platzierung dieser Cookies zu.Um mehr zu erfahren, lesen Sie unsere Datenschutzrichtlinie.Die DARPA Robotics Challenge veranstaltete ihren Eröffnungswettbewerb im vergangenen Dezember, und nach den meisten Berichten (einschließlich unserer) war er ein Erfolg.Die DRC Trials stießen auf großes öffentliches Interesse, und die Teams und ihre Roboter schnitten überraschend gut ab.Insgesamt war es ein großer Gewinn für DARPA und die Robotik insgesamt, aber ohne Frage war der größte Gewinner von allen SCHAFT, das japanische Unternehmen, das die Konkurrenz völlig dominierte und nur wenige Monate zuvor von Google übernommen worden war.SCHAFT zeigte eine nahezu fehlerfreie Leistung, endete mit den meisten Punkten auf dem Spitzenplatz und ließ, wie wir vermuten, Andy Rubin (den Google-Manager, der sein Robotikprogramm leitet) mit einem breiten Lächeln im Gesicht zurück.Es machte auch viele Beobachter neugierig, mehr über das Unternehmen, seine Ursprünge und seinen Roboter zu erfahren.Wer ist SCHAFT?Als es anfing, war SCHAFT nicht zu schüchtern, Details über seine Technologie und seine Pläne zu teilen.Aber nach der Google-Akquisition wurde es komplett stillgelegt.Bei den DRC Trials weigerte sich das Team, mit den Medien zu sprechen und versuchte, Fotografen von seinem Roboter fernzuhalten.Sogar Informationen, die zuvor auf seiner Website verfügbar waren, wurden jetzt gelöscht.Das Unternehmen hat in den letzten Wochen keine Nachrichten beantwortet, die wir ihm geschickt haben, und ein Google-Sprecher sagte, „es ist zu früh, um über bestimmte Projekte oder Pläne zu sprechen“, und bestätigte nur, dass das SCHAFT-Team in Japan bleiben wird, anstatt nach Kalifornien zu ziehen.Dies trägt natürlich nur zur Mystik bei, die das Unternehmen umgibt.Wie wird Google die Technologie und das Know-how von SCHAFT mit denen der anderen Roboterunternehmen kombinieren, die es gekauft hat, insbesondere Boston Dynamics?Wir müssen warten, bis Google mehr über seine Pläne preisgibt, aber in der Zwischenzeit finden Sie hier alles, was wir über das japanische Startup auf der Grundlage von Forschungsarbeiten, zuvor veröffentlichten Artikeln und Interviews sowie unseren eigenen Beobachtungen und Spekulationen zusammenstellen konnten.Beginnen wir zunächst mit einem Gerücht, das letzten Monat die Runde machte.Laut einem Artikel in Popular Science plant Google angeblich, SCHAFT aus dem DRC-Finale zurückzuziehen.Die Gründe waren unklar, aber anscheinend will Google finanzielle Verbindungen zu DARPA und dem US-Militär vermeiden, obwohl es dem DRC sehr konkret um die Entwicklung von Rettungsrobotern geht.Google lehnte unsere Bitte ab, sich zu dem Problem zu äußern, und DARPA teilte uns mit, dass sie keine offizielle Mitteilung von SCHAFT darüber erhalten haben, ob sie beabsichtigt, in der Demokratischen Republik Kongo zu bleiben oder sich aus ihr zurückzuziehen.Wenn Google SCHAFT tatsächlich aus dem DRC-Finale entfernt, wird es enttäuschend sein, das Top-Team nicht an einem voraussichtlich viel härteren Wettbewerb teilnehmen zu sehen – und wohl dem am meisten erwarteten Robotik-Event aller Zeiten.Aber aus Googles Sicht kaufte es SCHAFT im Rahmen größerer Anstrengungen, und es könnte wollen, dass sich das japanische Unternehmen nicht auf Rettungsroboter konzentriert, sondern, wie wir vermuten, auf marktorientiertere Anwendungen.Im Moment können wir nur warten, bis wir eine offizielle Nachricht von Google oder DARPA haben.SCHAFT geht auf das JSK Robotics Laboratory an der Universität Tokio zurück, wo der legendäre japanische Robotiker Hirochika Inoue einige seiner Pionierarbeiten leistete.Das Labor wird jetzt von einem anderen einflussreichen Robotiker, Masayuki Inaba, geleitet.Unter Professor Inaba begannen die Mitbegründer von SCHAFT, Junichi Urata und Yuto Nakanishi, vor etwa einem Jahrzehnt mit der Arbeit an humanoiden Robotern.Sie schlossen sich um 2004 einem Projekt zur Entwicklung eines Humanoiden namens Kotaro an und arbeiteten später an anderen ähnlichen Projekten: Kojiro, Kenzo und Kenshiro.Dies waren bioinspirierte Roboter mit Betätigungssystemen, die menschliche Muskeln, Knochen und Sehnen nachahmen.Die Roboter waren extrem schwer zu kontrollieren und konnten nur begrenzte Bewegungen ausführen.Aber im Laufe der Zeit kamen Urata, Nakanishi und ihre Kollegen auf viele Innovationen.Insbesondere entwarfen sie leistungsstarke neue Stellantriebe.Im Jahr 2010 berichteten sie über die Entwicklung eines kompakten flüssigkeitsgekühlten Motors und eines Hochleistungstreibermoduls, das sowohl hohe Drehzahlen als auch hohe Drehmomente ohne Überhitzung erzeugen kann, ein häufiges Problem für Motoren in der Robotik.Ungefähr zur gleichen Zeit scheinen die Forscher beschlossen zu haben, ihre neuen Aktuatoren nicht an Muskel-Skelett-Robotern, sondern eher an konventionelleren Humanoiden zu testen.Sie nahmen ein vorhandenes Paar Roboterbeine, die von Kawada Industries gebaut wurden, modifizierten es und fügten ihre neuen Motoren hinzu.Der offizielle Name der resultierenden Maschine mit Beinen war HRP3L-JSK, aber unter den Forschern war sie als Uratas Bein bekannt (Bild oben).In den folgenden Jahren verbesserten sie nicht nur die Hardware, sondern auch die Software, die den Roboter antreibt.Mit Kollegen aus dem JSK Lab und von AIST, einer großen japanischen Forschungsagentur, entwickelten sie Laufmustergeneratoren und statteten ihren Roboter mit einer entscheidenden neuen Fähigkeit aus: der Push-Recovery-Fähigkeit.Die Fähigkeit des Roboters, das Gleichgewicht zu halten, war besonders beeindruckend, und Urata demonstrierte es, indem er ihn immer wieder trat.Am Ende machten Urata und Nakanishi ihre Roboterbeine schnell, stark und zuverlässig.Es scheint, dass diese Technologie das Herzstück von S-One ist, dem Roboter SCHAFT, der für die Demokratische Republik Kongo gebaut wurde.Die DARPA unternahm große Anstrengungen, um Nicht-US-Teilnehmer für die Demokratische Republik Kongo zu gewinnen.Es wollte, dass die Veranstaltung ein internationaler Wettbewerb wird.Urata und Nakanishi beschlossen, ein Team zu bilden, stießen jedoch auf ein Hindernis: Als Forscher der Universität Tokio konnten sie keine Finanzierung von einer Militärbehörde wie DARPA erhalten.Also verließen die beiden ihre Universitätspositionen und gründeten SCHAFT Inc. mit Nakanishi als CEO und Urata als CTO.Zu ihnen gesellten sich Narito Suzuki, der COO wurde, und Takashi Kato, CFO.Urata und Nakanishi, die zusammen rund 40 Forschungsarbeiten zu einer Vielzahl von Roboterthemen veröffentlichten, brachten das Wissen und die Erfahrung ein, die das Unternehmen für den Erfolg benötigte, aber auch Kato spielte eine Schlüsselrolle.Berichten zufolge hatte SCHAFT Mühe, Geld von japanischen Investoren zu beschaffen, aber schließlich konnte sich Kato die Finanzierung von einem japanischen Startup-Inkubator und einer Investmentgesellschaft sichern.Schließlich trat Google Mitte letzten Jahres an SCHAFT heran, und Kato handelte den Übernahmevertrag aus.Beginnend mit einem ähnlichen Design wie die Beine des HRP3L-JSK baute SCHAFT den Rest seines Roboters.Die Arme scheinen die gleichen flüssigkeitsgekühlten Hochleistungsmotoren zu verwenden.Suzuki, der COO, sagt in einem Video, dass die Spezialmotoren „sehr große Kraft erzeugen“ können, was es ihrem Roboter ermöglicht, sich schnell und zuverlässig zu bewegen, wodurch eine der großen Einschränkungen großer Humanoider gelöst wird.Auf der inzwischen gelöschten Website von SCHAFT hieß es:Sie sagen auch, dass sie Patente auf die Technologie beantragt haben.Ein Foto des flüssigkeitsgekühlten Motors und des Treibermoduls, das zuvor auf ihrer Website veröffentlicht wurde, ist oben wiedergegeben.Für die Hände übernahm SCHAFT einen handelsüblichen Greifer der kanadischen Firma Robotiq, anstatt ihre eigenen zu entwerfen.Der adaptive Greifer von Robotiq verbraucht wenig Strom und seine passiven Fingersysteme können sich an eine Vielzahl von Objekten anpassen, um sie fest zu greifen.(Die Robotiq-Hand wurde von drei anderen Teams im DRC verwendet.) Und dann ist da noch das Energiesystem.In ihrem HRP3L-JSK-Roboter verwendeten Urata und Nakanishi ein neuartiges Energiesystem auf Kondensatorbasis, das in der Lage ist, sehr schnell viel Strom zu liefern.Es ist unklar, ob der S-One-Roboter dieses System oder eine herkömmliche Batterie in Kombination mit externer Stromversorgung verwendet.So oder so, Hardware ist nur ein Teil der Geschichte.Wichtiger scheint der Fokus der SCHAFT auf das Training für die eigentliche Veranstaltung zu sein.Eine der größten Herausforderungen der Demokratischen Republik Kongo war die Zeit;Viele Teams verbrachten Monate damit, ihre Roboter zum Laufen zu bringen, und konnten die verschiedenen Aufgaben am Ende nicht üben.Das SCHAFT-Team baute Repliken jeder Aufgabenstation basierend auf den Spezifikationen von DARPA und übte wiederholt, in der Hoffnung, alle Herausforderungen zu meistern, wie in einem Video gezeigt wird – dem einzigen, das auf ihrem YouTube-Kanal veröffentlicht wurde:Für das DRC-Finale wird DARPA mehr Autonomie von den Robotern verlangen, und nach dem, was wir bei den Trials gesehen haben, hat sich SCHAFT (und die meisten anderen DRC-Teams) stark auf Teleoperation verlassen.Es wäre also interessant zu sehen, wie sie mit einem autonomeren Roboter umgehen, zumal wir davon ausgehen, dass mehrere Aufgaben aneinandergereiht werden, um ein realistischeres Katastrophenszenario zu erstellen.Außerdem erwarten wir, dass viele Teams ein Jahr vor dem Finale deutlich konkurrenzfähiger sein werden, und das würde bedeuten, dass SCHAFT auch die Geschwindigkeit und vielleicht seine Strategie für einige der Aufgaben verbessern müsste, anstatt sich ausschließlich auf einen sicheren Abschluss zu verlassen.Wir würden SCHAFT sicherlich gerne später in diesem Jahr wieder im DRC sehen, aber was denkst du?Sollte Google SCHAFT die Teilnahme ermöglichen oder sollte sich das japanische Unternehmen auf andere Anwendungen konzentrieren, die besser zu den Robotikzielen von Google passen?Und wenn SCHAFT zurückkehrt, wird es einen weiteren leichten Sieg haben oder wird es einem härteren Wettbewerb ausgesetzt sein?UPDATE 6. Februar 2014 14:19 Uhr ET: Takashi Kato, CFO von SCHAFT, ist nicht auf dem Foto des DRC-Gewinners zu sehen, wie wir ursprünglich angegeben hatten;Wir haben die Bildunterschrift korrigiert.7. Februar 2014 9:35 Uhr ET Weitere Informationen zu den Motoren hinzugefügt.Ingenieure kämpfen mit den Grenzen des Deep Learning für Battlefield-BotsRoMan, der Robotermanipulator des Army Research Laboratory, erwägt die beste Möglichkeit, einen Ast im Adelphi Laboratory Center in Maryland zu greifen und zu bewegen.„Ich sollte wahrscheinlich nicht so nah stehen“, denke ich mir, als der Roboter sich langsam einem großen Ast auf dem Boden vor mir nähert. Es ist nicht die Größe des Astes, die mich nervös macht – der Roboter ist es autonom operiert, und obwohl ich weiß, was es tun soll, bin ich mir nicht ganz sicher, was es tun wird. Wenn alles so funktioniert, wie es die Robotiker des US Army Research Laboratory (ARL) in Adelphi, Md Der Roboter erkennt den Ast, greift ihn und zieht ihn aus dem Weg. Diese Leute wissen, was sie tun, aber ich habe genug Zeit mit Robotern verbracht, dass ich trotzdem einen kleinen Schritt zurückgehe.Dieser Artikel ist Teil unseres Sonderberichts über KI „The Great AI Reckoning“.Dieser Artikel ist Teil unseres Sonderberichts über KI „The Great AI Reckoning“.Der Roboter mit dem Namen RoMan, für Robotic Manipulator, ist etwa so groß wie ein großer Rasenmäher, mit einer Raupenbasis, die ihm hilft, die meisten Geländearten zu bewältigen.An der Vorderseite hat es einen gedrungenen Oberkörper, der mit Kameras und Tiefensensoren ausgestattet ist, sowie ein Paar Arme, die von einem Prototyp eines Katastrophenschutzroboters stammen, der ursprünglich am Jet Propulsion Laboratory der NASA für einen DARPA-Robotikwettbewerb entwickelt wurde.Der Job von RoMan ist heute das Räumen von Fahrbahnen, eine mehrstufige Aufgabe, die der Roboter so autonom wie möglich erledigen soll.Anstatt den Roboter anzuweisen, bestimmte Objekte auf bestimmte Weise zu greifen und an bestimmte Orte zu bewegen, weisen die Bediener RoMan an, „einen Weg frei zu machen“.Es liegt dann am Roboter, alle notwendigen Entscheidungen zu treffen, um dieses Ziel zu erreichen.Die Fähigkeit, autonom Entscheidungen zu treffen, macht Roboter nicht nur nützlich, sondern Roboter zu Robotern.Wir schätzen Roboter wegen ihrer Fähigkeit zu spüren, was um sie herum vor sich geht, Entscheidungen auf der Grundlage dieser Informationen zu treffen und dann ohne unser Zutun nützliche Maßnahmen zu ergreifen.In der Vergangenheit folgten robotergestützte Entscheidungen streng strukturierten Regeln – wenn Sie das spüren, dann tun Sie das.In strukturierten Umgebungen wie Fabriken funktioniert dies gut genug.Aber in chaotischen, unbekannten oder schlecht definierten Umgebungen macht das Vertrauen auf Regeln Roboter notorisch schlecht darin, mit allem umzugehen, das nicht genau vorhergesagt und im Voraus geplant werden konnte.RoMan bewältigt zusammen mit vielen anderen Robotern, darunter Haushaltsstaubsauger, Drohnen und autonome Autos, die Herausforderungen halbstrukturierter Umgebungen durch künstliche neuronale Netze – ein Computeransatz, der die Struktur von Neuronen in biologischen Gehirnen lose nachahmt.Vor etwa einem Jahrzehnt wurden künstliche neuronale Netze auf eine Vielzahl halbstrukturierter Daten angewendet, die zuvor für Computer mit regelbasierter Programmierung (allgemein als symbolisches Denken bezeichnet) sehr schwierig zu interpretieren waren.Anstatt spezifische Datenstrukturen zu erkennen, ist ein künstliches neuronales Netzwerk in der Lage, Datenmuster zu erkennen und neue Daten zu identifizieren, die ähnlich (aber nicht identisch) mit Daten sind, auf die das Netzwerk zuvor gestoßen ist.Tatsächlich besteht ein Teil des Reizes künstlicher neuronaler Netze darin, dass sie anhand von Beispielen trainiert werden, indem das Netz annotierte Daten aufnehmen und sein eigenes System der Mustererkennung lernen kann.Für neuronale Netze mit mehreren Abstraktionsebenen wird diese Technik als Deep Learning bezeichnet.Obwohl Menschen typischerweise am Trainingsprozess beteiligt sind und obwohl künstliche neuronale Netze von den neuronalen Netzen im menschlichen Gehirn inspiriert wurden, unterscheidet sich die Art der Mustererkennung, die ein Deep-Learning-System leistet, grundlegend von der Art und Weise, wie Menschen die Welt sehen.Es ist oft fast unmöglich, die Beziehung zwischen der Dateneingabe in das System und der Interpretation der Daten, die das System ausgibt, zu verstehen.Und dieser Unterschied – die „Black Box“-Opazität von Deep Learning – stellt ein potenzielles Problem für Roboter wie RoMan und für das Army Research Lab dar.In chaotischen, ungewohnten oder schlecht definierten Umgebungen macht das Vertrauen auf Regeln Roboter notorisch schlecht darin, mit allem umzugehen, das nicht genau vorhergesagt und im Voraus geplant werden konnte.Diese Undurchsichtigkeit bedeutet, dass Roboter, die auf Deep Learning angewiesen sind, vorsichtig eingesetzt werden müssen.Ein Deep-Learning-System ist gut darin, Muster zu erkennen, aber es fehlt ihm das Weltverständnis, das ein Mensch normalerweise verwendet, um Entscheidungen zu treffen, weshalb solche Systeme am besten funktionieren, wenn ihre Anwendungen gut definiert und eng begrenzt sind.„Wenn Sie gut strukturierte Inputs und Outputs haben und Ihr Problem in dieser Art von Beziehung einkapseln können, funktioniert Deep Learning meiner Meinung nach sehr gut“, sagt Tom Howard, der das Robotics and Artificial Intelligence Laboratory der University of Rochester leitet und entwickelt hat Natürlichsprachliche Interaktionsalgorithmen für RoMan und andere Bodenroboter."Die Frage bei der Programmierung eines intelligenten Roboters lautet: Ab welcher praktischen Größe existieren diese Deep-Learning-Bausteine?"Howard erklärt, dass die Anzahl der möglichen Eingaben sehr groß wird, wenn man Deep Learning auf Probleme auf höherer Ebene anwendet, und das Lösen von Problemen in dieser Größenordnung eine Herausforderung sein kann.Und die potenziellen Folgen eines unerwarteten oder unerklärlichen Verhaltens sind viel bedeutsamer, wenn sich dieses Verhalten durch einen 170 Kilogramm schweren zweiarmigen Militärroboter manifestiert.Nach ein paar Minuten hat sich RoMan nicht bewegt – es sitzt immer noch da, grübelt über den Ast und hält die Arme wie eine Gottesanbeterin.In den letzten 10 Jahren hat die Robotics Collaborative Technology Alliance (RCTA) des Army Research Lab mit Robotikern der Carnegie Mellon University, der Florida State University, General Dynamics Land Systems, JPL, MIT, QinetiQ North America, University of Central Florida, the University of Pennsylvania und anderen führenden Forschungseinrichtungen, um die Roboterautonomie für den Einsatz in zukünftigen Bodenkampffahrzeugen zu entwickeln.RoMan ist ein Teil dieses Prozesses.Die Aufgabe „Einen Weg frei machen“, die RoMan langsam durchdenkt, ist für einen Roboter schwierig, weil die Aufgabe so abstrakt ist.RoMan muss Objekte identifizieren, die den Weg blockieren könnten, über die physikalischen Eigenschaften dieser Objekte nachdenken, herausfinden, wie man sie greift und welche Art von Manipulationstechnik am besten anzuwenden ist (wie Schieben, Ziehen oder Heben), und dann mach es möglich.Das sind viele Schritte und viele Unbekannte für einen Roboter mit einem begrenzten Verständnis der Welt.An diesem begrenzten Verständnis fangen die ARL-Roboter an, sich von anderen Robotern zu unterscheiden, die auf Deep Learning angewiesen sind, sagt Ethan Stump, leitender Wissenschaftler des AI for Maneuver and Mobility-Programms bei ARL.„Die Armee kann praktisch überall auf der Welt operieren. Wir haben keinen Mechanismus zum Sammeln von Daten in all den verschiedenen Bereichen, in denen wir möglicherweise operieren. Wir werden möglicherweise in einem unbekannten Wald auf der anderen Seite der Welt eingesetzt Welt, aber von uns wird erwartet, dass wir genauso gut abschneiden wie in unserem eigenen Garten", sagt er.Die meisten Deep-Learning-Systeme funktionieren zuverlässig nur innerhalb der Domänen und Umgebungen, in denen sie trainiert wurden.Selbst wenn die Domain so etwas wie „jede befahrbare Straße in San Francisco“ ist, reicht der Roboter aus, denn das ist ein bereits gesammelter Datensatz.Aber, sagt Stump, das sei keine Option für das Militär.Wenn ein Deep-Learning-System der Armee nicht gut funktioniert, können sie das Problem nicht einfach lösen, indem sie mehr Daten sammeln.Die Roboter von ARL müssen auch ein breites Bewusstsein dafür haben, was sie tun.„In einem Standard-Operationsbefehl für eine Mission gibt es Ziele, Einschränkungen, einen Absatz über die Absicht des Kommandanten – im Grunde eine Erzählung über den Zweck der Mission – die kontextbezogene Informationen liefert, die Menschen interpretieren können, und ihnen die Struktur gibt, wenn sie sie brauchen Entscheidungen zu treffen und wenn sie improvisieren müssen", erklärt Stump.Mit anderen Worten, RoMan muss je nach den allgemeinen Zielen der Mission möglicherweise schnell oder leise einen Weg freimachen.Das ist selbst für den fortschrittlichsten Roboter eine große Herausforderung.„Mir fällt kein Deep-Learning-Ansatz ein, der mit dieser Art von Informationen umgehen kann“, sagt Stump.Roboter im Army Research Lab testen autonome Navigationstechniken in unwegsamem Gelände [oben, Mitte] mit dem Ziel, mit ihren menschlichen Teamkollegen Schritt halten zu können.ARL entwickelt auch Roboter mit Manipulationsfähigkeiten [unten], die mit Objekten interagieren können, ohne dass Menschen dies tun müssen. Evan AckermanWährend ich zuschaue, wird RoMan für einen zweiten Versuch, Zweige zu entfernen, zurückgesetzt.Der Autonomieansatz von ARL ist modular, wobei Deep Learning mit anderen Techniken kombiniert wird und der Roboter ARL hilft, herauszufinden, welche Aufgaben für welche Techniken geeignet sind.Im Moment testet RoMan zwei verschiedene Möglichkeiten, Objekte anhand von 3D-Sensordaten zu identifizieren: Der Ansatz von UPenn basiert auf Deep Learning, während Carnegie Mellon eine Methode namens Perception Through Search verwendet, die auf einer traditionelleren Datenbank mit 3D-Modellen basiert.Wahrnehmung durch Suche funktioniert nur, wenn Sie im Voraus genau wissen, nach welchen Objekten Sie suchen, aber das Training ist viel schneller, da Sie nur ein einziges Modell pro Objekt benötigen.Es kann auch genauer sein, wenn die Wahrnehmung des Objekts schwierig ist – wenn das Objekt beispielsweise teilweise verdeckt oder auf dem Kopf steht.ARL testet diese Strategien, um festzustellen, welche am vielseitigsten und effektivsten ist, und lässt sie gleichzeitig laufen und gegeneinander antreten.Wahrnehmung ist eines der Dinge, bei denen sich Deep Learning auszeichnet.„Die Computer-Vision-Community hat mit Deep Learning für diese Dinge verrückte Fortschritte gemacht“, sagt Maggie Wigness, Informatikerin bei ARL.„Wir hatten gute Erfolge mit einigen dieser Modelle, die in einer Umgebung trainiert wurden, die auf eine neue Umgebung verallgemeinert wurden, und wir beabsichtigen, Deep Learning weiterhin für diese Art von Aufgaben zu verwenden, da es der neueste Stand der Technik ist.“Der modulare Ansatz von ARL könnte mehrere Techniken so kombinieren, dass ihre jeweiligen Stärken wirksam zum Tragen kommen.Beispielsweise könnte ein Wahrnehmungssystem, das Deep-Learning-basiertes Sehen zur Klassifizierung von Gelände verwendet, neben einem autonomen Fahrsystem arbeiten, das auf einem Ansatz namens inverses Verstärkungslernen basiert, bei dem das Modell durch Beobachtungen menschlicher Soldaten schnell erstellt oder verfeinert werden kann.Herkömmliches Reinforcement Learning optimiert eine Lösung basierend auf etablierten Belohnungsfunktionen und wird oft angewendet, wenn Sie nicht unbedingt sicher sind, wie optimales Verhalten aussieht.Das Heer stört dies weniger, da es in der Regel davon ausgehen kann, dass gut ausgebildete Menschen in der Nähe sind, um einem Roboter den richtigen Weg zu zeigen.„Wenn wir diese Roboter einsetzen, können sich die Dinge sehr schnell ändern“, sagt Wigness.„Also wollten wir eine Technik, bei der wir einen Soldaten eingreifen lassen können, und mit nur wenigen Beispielen von einem Benutzer im Feld können wir das System aktualisieren, wenn wir ein neues Verhalten benötigen.“Eine Deep-Learning-Technik würde „viel mehr Daten und Zeit“ erfordern, sagt sie.Es sind nicht nur datensparsame Probleme und schnelle Anpassungen, mit denen Deep Learning zu kämpfen hat.Hinzu kommen Fragen der Robustheit, Erklärbarkeit und Sicherheit."Diese Fragen betreffen nicht nur das Militär", sagt Stump, "aber sie sind besonders wichtig, wenn wir über Systeme sprechen, die möglicherweise tödlich sind."Um es klarzustellen, ARL arbeitet derzeit nicht an tödlichen autonomen Waffensystemen, aber das Labor hilft dabei, die Grundlagen für autonome Systeme im US-Militär auf breiterer Ebene zu legen, was bedeutet, dass Möglichkeiten in Betracht gezogen werden, wie solche Systeme in Zukunft eingesetzt werden können.Die Anforderungen an ein tiefes Netzwerk stimmen zu einem großen Teil nicht mit den Anforderungen einer Armeemission überein, und das ist ein Problem.Sicherheit hat offensichtlich Priorität, und dennoch gibt es laut Stump keine eindeutige Möglichkeit, ein Deep-Learning-System nachweislich sicher zu machen.„Deep Learning mit Sicherheitsbeschränkungen durchzuführen, ist ein großer Forschungsaufwand. Es ist schwierig, diese Beschränkungen in das System aufzunehmen, weil man nicht weiß, woher die bereits im System vorhandenen Beschränkungen stammen. Wenn sich also die Mission oder der Kontext ändert, Es ist schwer, damit umzugehen. Es ist nicht einmal eine Datenfrage, es ist eine Architekturfrage.“Die modulare Architektur von ARL, sei es ein Wahrnehmungsmodul, das Deep Learning verwendet, oder ein autonomes Fahrmodul, das inverses Verstärkungslernen oder etwas anderes verwendet, kann Teile eines umfassenderen autonomen Systems bilden, das die Arten von Sicherheit und Anpassungsfähigkeit beinhaltet, die das Militär benötigt.Andere Module im System können auf einer höheren Ebene arbeiten und andere Techniken verwenden, die besser verifizierbar oder erklärbar sind und die eingreifen können, um das Gesamtsystem vor nachteiligem, unvorhersehbarem Verhalten zu schützen.„Wenn andere Informationen hereinkommen und unsere Vorgehensweise ändern, gibt es eine Hierarchie“, sagt Stump."Es passiert alles auf rationale Weise."Nicholas Roy, der die Robust Robotics Group am MIT leitet und sich aufgrund seiner Skepsis gegenüber einigen Behauptungen über die Leistungsfähigkeit von Deep Learning als „etwas Aufrührer“ bezeichnet, stimmt mit den ARL-Robotikern darin überein, dass Deep-Learning-Ansätze herankommen können die Art von Herausforderungen, auf die die Armee vorbereitet sein muss, oft nicht bewältigen.„Die Armee dringt immer in neue Umgebungen ein, und der Gegner wird immer versuchen, die Umgebung so zu verändern, dass der Trainingsprozess, den die Roboter durchlaufen haben, einfach nicht mit dem übereinstimmt, was sie sehen“, sagt Roy."Die Anforderungen eines tiefen Netzwerks sind also zu einem großen Teil nicht mit den Anforderungen einer Armeemission abgestimmt, und das ist ein Problem."Roy, der im Rahmen des RCTA an abstraktem Denken für Bodenroboter gearbeitet hat, betont, dass Deep Learning eine nützliche Technologie ist, wenn sie auf Probleme mit klaren funktionalen Beziehungen angewendet wird, aber wenn man sich mit abstrakten Konzepten befasst, ist nicht klar, ob Deep Learning eine ist ein gangbarer Ansatz.„Ich bin sehr daran interessiert herauszufinden, wie neuronale Netze und Deep Learning so zusammengesetzt werden können, dass sie das Denken auf höherer Ebene unterstützen“, sagt Roy.„Ich denke, es läuft auf die Idee hinaus, mehrere neuronale Netzwerke auf niedriger Ebene zu kombinieren, um Konzepte auf höherer Ebene auszudrücken, und ich glaube nicht, dass wir bereits verstehen, wie das geht.“Roy gibt das Beispiel der Verwendung von zwei separaten neuronalen Netzwerken, eines zum Erkennen von Objekten, die Autos sind, und das andere zum Erkennen von Objekten, die rot sind.Es ist schwieriger, diese beiden Netzwerke zu einem größeren Netzwerk zu kombinieren, das rote Autos erkennt, als wenn Sie ein symbolisches Argumentationssystem verwenden würden, das auf strukturierten Regeln mit logischen Beziehungen basiert.„Viele Leute arbeiten daran, aber ich habe keinen wirklichen Erfolg gesehen, der abstraktes Denken dieser Art vorantreibt.“Für die absehbare Zukunft stellt ARL sicher, dass seine autonomen Systeme sicher und robust sind, indem Menschen sowohl für übergeordnete Argumente als auch gelegentliche Ratschläge auf niedriger Ebene in der Nähe bleiben.Menschen sind vielleicht nicht immer direkt auf dem Laufenden, aber die Idee ist, dass Menschen und Roboter effektiver sind, wenn sie als Team zusammenarbeiten.Als 2009 die jüngste Phase des Robotics Collaborative Technology Alliance-Programms begann, sagt Stump: „Wir waren bereits viele Jahre im Irak und in Afghanistan, wo Roboter oft als Werkzeuge eingesetzt wurden. Wir haben versucht, es herauszufinden was wir tun können, um Roboter von Werkzeugen zu Robotern zu machen, die eher als Teamkollegen innerhalb des Teams fungieren."RoMan bekommt ein wenig Hilfe, wenn ein menschlicher Betreuer auf eine Region des Astes hinweist, in der das Greifen am effektivsten sein könnte.Der Roboter hat kein grundlegendes Wissen darüber, was ein Ast eigentlich ist, und dieses fehlende Weltwissen (was wir als gesunden Menschenverstand bezeichnen) ist ein grundlegendes Problem bei autonomen Systemen aller Art.Wenn ein Mensch unsere große Erfahrung in ein wenig Anleitung einfließen lässt, kann die Arbeit von RoMan viel einfacher werden.Und tatsächlich gelingt es RoMan diesmal, den Ast erfolgreich zu greifen und geräuschvoll durch den Raum zu schleppen.Einen Roboter in einen guten Teamkollegen zu verwandeln, kann schwierig sein, da es schwierig sein kann, das richtige Maß an Autonomie zu finden.Zu wenig und es würde den größten Teil oder die gesamte Konzentration eines Menschen erfordern, um einen Roboter zu steuern, was in besonderen Situationen wie der Beseitigung von Sprengkörpern angemessen sein kann, aber ansonsten nicht effizient ist.Zu viel Autonomie und Sie würden Probleme mit Vertrauen, Sicherheit und Erklärbarkeit bekommen.„Ich denke, die Ebene, die wir hier suchen, ist, dass Roboter auf der Ebene von Arbeitshunden operieren“, erklärt Stump.„Sie verstehen genau, was wir unter eingeschränkten Umständen von ihnen erwarten, sie haben ein wenig Flexibilität und Kreativität, wenn sie mit neuen Umständen konfrontiert werden, aber wir erwarten nicht, dass sie kreative Problemlösungen leisten. Und wenn sie Hilfe brauchen , sie fallen auf uns zurück."Es ist unwahrscheinlich, dass sich RoMan in absehbarer Zeit auf einer Mission im Feld wiederfindet, nicht einmal als Teil eines Teams mit Menschen.Es ist sehr viel eine Forschungsplattform.Aber die Software, die für RoMan und andere Roboter bei ARL entwickelt wird und Adaptive Planner Parameter Learning (APPL) heißt, wird wahrscheinlich zuerst beim autonomen Fahren und später in komplexeren Robotersystemen verwendet, die mobile Manipulatoren wie RoMan umfassen könnten.APPL kombiniert verschiedene maschinelle Lerntechniken (einschließlich inversem Reinforcement Learning und Deep Learning), die hierarchisch unter klassischen autonomen Navigationssystemen angeordnet sind.Dadurch können übergeordnete Ziele und Einschränkungen zusätzlich zur Programmierung auf niedrigerer Ebene angewendet werden.Menschen können teleoperierte Demonstrationen, korrigierende Eingriffe und bewertendes Feedback verwenden, um Robotern zu helfen, sich an neue Umgebungen anzupassen, während die Roboter unbeaufsichtigtes Verstärkungslernen verwenden können, um ihre Verhaltensparameter spontan anzupassen.Das Ergebnis ist ein Autonomiesystem, das viele der Vorteile des maschinellen Lernens nutzen kann und gleichzeitig die Art von Sicherheit und Erklärbarkeit bietet, die die Armee benötigt.Mit APPL kann ein lernbasiertes System wie RoMan selbst unter Unsicherheit auf vorhersehbare Weise arbeiten und auf menschliches Tuning oder menschliche Demonstrationen zurückgreifen, wenn es in einer Umgebung landet, die sich zu sehr von der Umgebung unterscheidet, in der es trainiert wurde.Es ist verlockend, sich den schnellen Fortschritt kommerzieller und industrieller autonomer Systeme (autonome Autos sind nur ein Beispiel) anzusehen und sich zu fragen, warum die Armee dem Stand der Technik etwas hinterherhinkt.Aber wie Stump den Generälen der Armee erklären muss, wenn es um autonome Systeme geht, "gibt es viele schwierige Probleme, aber die schwierigen Probleme der Industrie unterscheiden sich von den schwierigen Problemen der Armee."Die Armee kann sich nicht den Luxus leisten, ihre Roboter in strukturierten Umgebungen mit vielen Daten zu betreiben, weshalb ARL so viel Mühe in APPL und in die Aufrechterhaltung eines Platzes für Menschen gesteckt hat.Auch in Zukunft werden Menschen wahrscheinlich ein wichtiger Teil des autonomen Rahmens bleiben, den ARL entwickelt."Das versuchen wir mit unseren Robotersystemen zu bauen", sagt Stump."Das ist unser Autoaufkleber: 'Vom Werkzeug zum Teamkollegen.'"Dieser Artikel erscheint in der Printausgabe vom Oktober 2021 als „Deep Learning Goes to Boot Camp“.Sonderbericht: Die große KI-Abrechnung WEITERLESEN: 7 aufschlussreiche Gründe für das Scheitern von KIs Oder sehen Sie sich den vollständigen Bericht an, um weitere Artikel über die Zukunft der KI zu erhalten.LESEN SIE NÄCHSTES: 7 aufschlussreiche Gründe für das Scheitern von KIsOder lesen Sie den vollständigen Bericht für weitere Artikel über die Zukunft der KI.