Video Freitag: Ein detaillierter Blick auf den humanoiden Roboter Mesmer – IEEE Spectrum

2022-05-20 20:00:36 By : Mr. kelvin meng

IEEE-Websites platzieren Cookies auf Ihrem Gerät, um Ihnen die beste Benutzererfahrung zu bieten.Durch die Nutzung unserer Websites stimmen Sie der Platzierung dieser Cookies zu.Um mehr zu erfahren, lesen Sie unsere Datenschutzrichtlinie.Video Friday ist Ihre wöchentliche Auswahl an fantastischen Robotervideos, die von Ihren Automaton-Bloggern gesammelt wurden.Wir werden auch einen wöchentlichen Kalender mit bevorstehenden Robotik-Events für die nächsten Monate veröffentlichen;Folgendes haben wir bisher (senden Sie uns Ihre Veranstaltungen!):Lassen Sie uns wissen, wenn Sie Vorschläge für nächste Woche haben, und genießen Sie die heutigen Videos.Bear Robotics, ein Unternehmen für Robotik und künstliche Intelligenz, und die SoftBank Robotics Group, ein führender Hersteller und Lösungsanbieter von Robotik, haben zusammengearbeitet, um einen neuen Roboter namens Servi in ​​den Gastronomie- und Gastgewerbebereich einzuführen.Ein buchstäblich detaillierter Blick auf den Mesmer-Androiden von Engineered Arts.Läuft Ihr Roboter mit ROS?Ist es mit dem Internet verbunden?Hast du es jetzt wirklich im Griff?Bist du sicher?Ich weiß es zu schätzen, wie die Forscher zugegeben haben, zwei ihrer eigenen Roboter als Teil des Scans gefunden zu haben, einen Baxter und eine Drohne.Smile Robotics beschreibt dies als „(möglicherweise) weltweit ersten vollautonomen Roboter zum Abräumen des Tisches“.Wir sind nicht qualifiziert, ein Urteil über die Weltneuheit abzugeben, aber ich persönlich hasse es, Tische abzuräumen, also hat dieser Roboter meine Stimme.Der Gründer und CEO von Smile Robotics, Takashi Ogura, sind zusammen mit Chefingenieur Mitsutaka Kabasawa und Ingenieur Kazuya Kobayashi ehemalige Google-Robotiker.Ogura arbeitete auch bei SCHAFT.Smile sagt, dass sein Roboter ROS verwendet und von einem Framework gesteuert wird, das hauptsächlich in Rust geschrieben wurde, und fügt hinzu: „Wir stellen Rustacean Roboticists ein!“Wir sind uns nicht ganz sicher, warum, aber Panasonic hat Pläne für ein Internet-of-Things-System für Hamster veröffentlicht.Wir haben ein Rezept für ein "Kleintier-Gesundheitsgerät" entwickelt, das das Gewicht und die Aktivität von Kleintieren, die Temperatur und Luftfeuchtigkeit der Brutumgebung messen und ihre Gesundheit verwalten kann.Dieses Gesundheitsgerät visualisiert den Gesundheitszustand und die Brutumgebung von Kleintieren und verwaltet ihre Gesundheit, um die Früherkennung von Krankheiten zu fördern.Während wir uns die Szene vorstellen, in der ein medizinisches Gerät tatsächlich für ein wichtiges Kleintier verwendet wird, das wir liebevoll behandeln, hoffen wir, durch die Herstellung dazu beizutragen, die derzeitige schwierige Situation zu überwinden.Forscher in Yale haben einen Roboterstoff entwickelt, ein Durchbruch, der zu Innovationen wie anpassungsfähiger Kleidung, sich selbst entfaltenden Unterkünften oder leichten formverändernden Maschinen führen könnte.Die Forscher konzentrierten sich darauf, Funktionsmaterialien in Faserform zu verarbeiten, damit sie unter Beibehaltung ihrer vorteilhaften Eigenschaften in Stoffe integriert werden können.Beispielsweise stellten sie Fasern mit variabler Steifigkeit aus einem Epoxid her, in das Partikel von Fields Metall eingebettet waren, einer Legierung, die sich bei relativ niedrigen Temperaturen verflüssigt.Im kalten Zustand sind die Partikel festes Metall und machen das Material steifer;im warmen Zustand schmelzen die Partikel zu Flüssigkeit und machen das Material weicher.In Zusammenarbeit mit Armasuisse und SBB demonstrierte RSL den Einsatz eines teleoperierten Menzi Muck M545 zur Beseitigung eines Felssturzes in der Zentralschweiz.Die Maschine kann von einer Teleoperation-Plattform mit visuellem und Bewegungs-Feedback bedient werden.Der Schreitbagger verfügt über ein aktives Fahrwerk, das sich an unebenes Gelände anpassen kann.Ein internationales Forscherteam der JKU entwickelt seine Vision von Robotern aus weichen Materialien weiter.Ein neuer Artikel in der Zeitschrift „Communications Materials“ zeigt, wie solche weichen Maschinen reagieren, indem sie schwache Magnetfelder verwenden, um sich sehr schnell zu bewegen.Ein dreieckiger Roboter kann sich mit hoher Geschwindigkeit in der Luft rollen und vorwärts gehen, wenn er einem wechselnden Rechteckwellenmagnetfeld (3,5 mT, 1,5 Hz) in der Ebene ausgesetzt wird.Der Durchmesser des Roboters beträgt 18 mm bei einer Dicke von 80 µm.Ein Sechs-Arm-Roboter kann nichtmagnetische Objekte wie einen Würfel aus Polyurethanschaum, der von einem Permanentmagneten gesteuert wird, greifen, transportieren und freigeben.Okay, aber erzähl mir mehr über dieses süße Schaf.Interbotix hat diesen "Roboter-Crawler auf Forschungsniveau", der sowohl gemein aussieht als auch ROS ausführt, eine gefährliche Kombination.Und so kam alles zusammen:Ich schätze, wenn Sie sie „herumlungernde Raketensysteme“ statt „Drohnen, die Dinge in die Luft jagen“ nennen, werden sich die Leute wahrscheinlich weniger aufregen?In diesem Video zeigen wir einen Planer für einen Master-Doppelarmroboter, der angebundene Werkzeuge mit der Hilfe eines Assistenten-Doppelarmroboters manipuliert.Der Assistenzroboter unterstützt den Master-Roboter, indem er das Werkzeugkabel manipuliert und Kollisionen vermeidet.Die bereitgestellte Unterstützung ermöglicht es dem Master-Roboter, Werkzeugplatzierungen auf dem Roboter-Arbeitsraumtisch durchzuführen, um das Werkzeug erneut zu greifen, was typischerweise fehlschlagen würde, da die Spannung des Werkzeugkabels die Werkzeugpositionen ändern kann.Es ermöglicht dem Master-Roboter auch, Werkzeugübergaben durchzuführen, die ohne die Hilfe normalerweise zu Verwicklungen oder Kollisionen mit dem Kabel und der Umgebung führen würden.Dieses Video zeigt ein flexibles und robustes Robotersystem zum autonomen Zeichnen auf 3D-Oberflächen.Das System verwendet 2D-Zeichenstriche und eine 3D-Zieloberfläche (Netz oder Punktwolken) als Eingabe.Es bildet die 2D-Striche auf der 3D-Oberfläche ab und generiert eine Roboterbewegung, um die abgebildeten Striche mithilfe von visueller Erkennung, logischem Erfassen von Posen und Bewegungsplanung zu zeichnen.Wöchentlicher Mobilitätstest.Diesmal nimmt es das Warzenschwein mit einem umgestürzten Baum auf.Wird es es überqueren?Die Antwort gibt es im Video!Und die Antwort ist: Irgendwie?Einer der Vorteile von Gehmaschinen ist ihre Fähigkeit, Kräfte in alle Richtungen und in verschiedenen Größenordnungen auf die Umgebung auszuüben.Viele der mehrbeinigen Roboter sind mit Punktkontaktfüßen ausgestattet, da diese das Design und die Steuerung des Roboters vereinfachen.Das iStruct-Projekt konzentriert sich auf die Entwicklung eines Fußes, der einen umfassenden Kontakt mit der Umgebung ermöglicht.Ein dringender medizinischer Transport wurde bei der zweiten Systemintegrations- und Operationalisierungsdemonstration (SIO) der NASA am 28. September mit Partner Bell Textron Inc. simuliert. Bell verwendete das ferngesteuerte APT 70, um einen Flug durchzuführen, der eine dringende medizinische Transportmission darstellte.Für die Zukunft ist vorgesehen, dass ein betriebsfähiges APT 70 einen schnellen medizinischen Transport von Blut, Organen und verderblichen medizinischen Gütern (Nutzlast bis zu 70 Pfund) ermöglichen könnte.Der APT 70 bewegt sich schätzungsweise dreimal so schnell wie der Bodentransport.Immer etwas misstrauisch, wenn das Video nur die fliegende Drohne und das Sitzen auf dem Boden zeigt, aber nicht diesen kniffligen Übergang zwischen diesen beiden Zuständen.Ein Lockheed Martin Robotics Seminar zum Thema „Socially Assistive Mobile Robots“ von Yi Guo vom Stevens Institute of Technology.Der Einsatz von autonomen mobilen Robotern in menschlichen Umgebungen nimmt zu.Assistenzroboter wurden in realen Umgebungen gesehen, beispielsweise als Roboterführer auf Flughäfen, Roboterpolizisten in öffentlichen Parks und patrouillierende Roboter in Supermärkten.In diesem Vortrag werde ich zunächst aktuelle Forschungsaktivitäten vorstellen, die im Robotics and Automation Laboratory bei Stevens durchgeführt werden.Anschließend konzentriere ich mich auf die robotergestützte Fußgängerregulierung, bei der Fußgängerströme durch passive Mensch-Roboter-Interaktion reguliert und optimiert werden.Das dieswöchige CMU RI-Seminar wird von Zachary Manchester von der CMU zum Thema „Das kleinste Weltraumprogramm der Welt“ gehalten.Die Luft- und Raumfahrtindustrie hat in den letzten zehn Jahren einen dramatischen Wandel erlebt: Das Fliegen eines Raumfahrzeugs hat sich von etwas, das sich nur nationale Regierungen und große Rüstungsunternehmen leisten konnten, zu etwas entwickelt, das ein kleines Startup mit einem knappen Budget erreichen kann.Es hat sich ein positiver Kreislauf entwickelt, in dem niedrigere Kosten zu mehr Starts und dem Wachstum neuer Märkte für weltraumgestützte Daten geführt haben.Es bleiben jedoch viele Barrieren.Dieser Vortrag wird sich darauf konzentrieren, diese Trends bis an ihre äußersten Grenzen zu treiben, indem Fortschritte in den Bereichen Elektronik, Planung und Steuerung genutzt werden, um Raumfahrzeuge zu bauen, die weniger kosten als ein neues Smartphone und in großer Zahl eingesetzt werden können.Ingenieure kämpfen mit den Grenzen des Deep Learning für Battlefield-BotsRoMan, der Robotermanipulator des Army Research Laboratory, erwägt die beste Möglichkeit, einen Ast im Adelphi Laboratory Center in Maryland zu greifen und zu bewegen.„Ich sollte wahrscheinlich nicht so nah stehen“, denke ich mir, als der Roboter sich langsam einem großen Ast auf dem Boden vor mir nähert. Es ist nicht die Größe des Astes, die mich nervös macht – der Roboter ist es autonom operiert, und obwohl ich weiß, was es tun soll, bin ich mir nicht ganz sicher, was es tun wird. Wenn alles so funktioniert, wie es die Robotiker des US Army Research Laboratory (ARL) in Adelphi, Md Der Roboter erkennt den Ast, greift ihn und zieht ihn aus dem Weg. Diese Leute wissen, was sie tun, aber ich habe genug Zeit mit Robotern verbracht, dass ich trotzdem einen kleinen Schritt zurückgehe.Dieser Artikel ist Teil unseres Sonderberichts über KI „The Great AI Reckoning“.Dieser Artikel ist Teil unseres Sonderberichts über KI „The Great AI Reckoning“.Der Roboter mit dem Namen RoMan, für Robotic Manipulator, ist etwa so groß wie ein großer Rasenmäher, mit einer Raupenbasis, die ihm hilft, die meisten Geländearten zu bewältigen.An der Vorderseite hat es einen gedrungenen Oberkörper, der mit Kameras und Tiefensensoren ausgestattet ist, sowie ein Paar Arme, die von einem Prototyp eines Katastrophenschutzroboters stammen, der ursprünglich am Jet Propulsion Laboratory der NASA für einen DARPA-Robotikwettbewerb entwickelt wurde.Der Job von RoMan ist heute das Räumen von Fahrbahnen, eine mehrstufige Aufgabe, die der Roboter so autonom wie möglich erledigen soll.Anstatt den Roboter anzuweisen, bestimmte Objekte auf bestimmte Weise zu greifen und an bestimmte Orte zu bewegen, weisen die Bediener RoMan an, „einen Weg frei zu machen“.Es liegt dann am Roboter, alle notwendigen Entscheidungen zu treffen, um dieses Ziel zu erreichen.Die Fähigkeit, autonom Entscheidungen zu treffen, macht Roboter nicht nur nützlich, sondern Roboter zu Robotern.Wir schätzen Roboter wegen ihrer Fähigkeit zu spüren, was um sie herum vor sich geht, Entscheidungen auf der Grundlage dieser Informationen zu treffen und dann ohne unser Zutun nützliche Maßnahmen zu ergreifen.In der Vergangenheit folgten robotergestützte Entscheidungen streng strukturierten Regeln – wenn Sie das spüren, dann tun Sie das.In strukturierten Umgebungen wie Fabriken funktioniert dies gut genug.Aber in chaotischen, unbekannten oder schlecht definierten Umgebungen macht das Vertrauen auf Regeln Roboter notorisch schlecht darin, mit allem umzugehen, das nicht genau vorhergesagt und im Voraus geplant werden konnte.RoMan bewältigt zusammen mit vielen anderen Robotern, darunter Haushaltsstaubsauger, Drohnen und autonome Autos, die Herausforderungen halbstrukturierter Umgebungen durch künstliche neuronale Netze – ein Computeransatz, der die Struktur von Neuronen in biologischen Gehirnen lose nachahmt.Vor etwa einem Jahrzehnt wurden künstliche neuronale Netze auf eine Vielzahl halbstrukturierter Daten angewendet, die zuvor für Computer mit regelbasierter Programmierung (allgemein als symbolisches Denken bezeichnet) sehr schwierig zu interpretieren waren.Anstatt spezifische Datenstrukturen zu erkennen, ist ein künstliches neuronales Netzwerk in der Lage, Datenmuster zu erkennen und neue Daten zu identifizieren, die ähnlich (aber nicht identisch) mit Daten sind, auf die das Netzwerk zuvor gestoßen ist.Tatsächlich besteht ein Teil des Reizes künstlicher neuronaler Netze darin, dass sie anhand von Beispielen trainiert werden, indem das Netz annotierte Daten aufnehmen und sein eigenes System der Mustererkennung lernen kann.Für neuronale Netze mit mehreren Abstraktionsebenen wird diese Technik als Deep Learning bezeichnet.Obwohl Menschen typischerweise am Trainingsprozess beteiligt sind und obwohl künstliche neuronale Netze von den neuronalen Netzen im menschlichen Gehirn inspiriert wurden, unterscheidet sich die Art der Mustererkennung, die ein Deep-Learning-System leistet, grundlegend von der Art und Weise, wie Menschen die Welt sehen.Es ist oft fast unmöglich, die Beziehung zwischen der Dateneingabe in das System und der Interpretation der Daten, die das System ausgibt, zu verstehen.Und dieser Unterschied – die „Black Box“-Opazität von Deep Learning – stellt ein potenzielles Problem für Roboter wie RoMan und für das Army Research Lab dar.In chaotischen, ungewohnten oder schlecht definierten Umgebungen macht das Vertrauen auf Regeln Roboter notorisch schlecht darin, mit allem umzugehen, das nicht genau vorhergesagt und im Voraus geplant werden konnte.Diese Undurchsichtigkeit bedeutet, dass Roboter, die auf Deep Learning angewiesen sind, vorsichtig eingesetzt werden müssen.Ein Deep-Learning-System ist gut darin, Muster zu erkennen, aber es fehlt ihm das Weltverständnis, das ein Mensch normalerweise verwendet, um Entscheidungen zu treffen, weshalb solche Systeme am besten funktionieren, wenn ihre Anwendungen gut definiert und eng begrenzt sind.„Wenn Sie gut strukturierte Inputs und Outputs haben und Ihr Problem in dieser Art von Beziehung einkapseln können, funktioniert Deep Learning meiner Meinung nach sehr gut“, sagt Tom Howard, der das Robotics and Artificial Intelligence Laboratory der University of Rochester leitet und entwickelt hat Natürlichsprachliche Interaktionsalgorithmen für RoMan und andere Bodenroboter."Die Frage bei der Programmierung eines intelligenten Roboters lautet: Ab welcher praktischen Größe existieren diese Deep-Learning-Bausteine?"Howard erklärt, dass die Anzahl der möglichen Eingaben sehr groß wird, wenn man Deep Learning auf Probleme auf höherer Ebene anwendet, und das Lösen von Problemen in dieser Größenordnung eine Herausforderung sein kann.Und die potenziellen Folgen eines unerwarteten oder unerklärlichen Verhaltens sind viel bedeutsamer, wenn sich dieses Verhalten durch einen 170 Kilogramm schweren zweiarmigen Militärroboter manifestiert.Nach ein paar Minuten hat sich RoMan nicht bewegt – es sitzt immer noch da, grübelt über den Ast und hält die Arme wie eine Gottesanbeterin.In den letzten 10 Jahren hat die Robotics Collaborative Technology Alliance (RCTA) des Army Research Lab mit Robotikern der Carnegie Mellon University, der Florida State University, General Dynamics Land Systems, JPL, MIT, QinetiQ North America, University of Central Florida, the University of Pennsylvania und anderen führenden Forschungseinrichtungen, um die Roboterautonomie für den Einsatz in zukünftigen Bodenkampffahrzeugen zu entwickeln.RoMan ist ein Teil dieses Prozesses.Die Aufgabe „Einen Weg frei machen“, die RoMan langsam durchdenkt, ist für einen Roboter schwierig, weil die Aufgabe so abstrakt ist.RoMan muss Objekte identifizieren, die den Weg blockieren könnten, über die physikalischen Eigenschaften dieser Objekte nachdenken, herausfinden, wie man sie greift und welche Art von Manipulationstechnik am besten anzuwenden ist (wie Schieben, Ziehen oder Heben), und dann mach es möglich.Das sind viele Schritte und viele Unbekannte für einen Roboter mit einem begrenzten Verständnis der Welt.An diesem begrenzten Verständnis fangen die ARL-Roboter an, sich von anderen Robotern zu unterscheiden, die auf Deep Learning angewiesen sind, sagt Ethan Stump, leitender Wissenschaftler des AI for Maneuver and Mobility-Programms bei ARL.„Die Armee kann praktisch überall auf der Welt operieren. Wir haben keinen Mechanismus zum Sammeln von Daten in all den verschiedenen Bereichen, in denen wir möglicherweise operieren. Wir werden möglicherweise in einem unbekannten Wald auf der anderen Seite der Welt eingesetzt Welt, aber von uns wird erwartet, dass wir genauso gut abschneiden wie in unserem eigenen Garten", sagt er.Die meisten Deep-Learning-Systeme funktionieren zuverlässig nur innerhalb der Domänen und Umgebungen, in denen sie trainiert wurden.Selbst wenn die Domain so etwas wie „jede befahrbare Straße in San Francisco“ ist, reicht der Roboter aus, denn das ist ein bereits gesammelter Datensatz.Aber, sagt Stump, das sei keine Option für das Militär.Wenn ein Deep-Learning-System der Armee nicht gut funktioniert, können sie das Problem nicht einfach lösen, indem sie mehr Daten sammeln.Die Roboter von ARL müssen auch ein breites Bewusstsein dafür haben, was sie tun.„In einem Standard-Operationsbefehl für eine Mission gibt es Ziele, Einschränkungen, einen Absatz über die Absicht des Kommandanten – im Grunde eine Erzählung über den Zweck der Mission – die kontextbezogene Informationen liefert, die Menschen interpretieren können, und ihnen die Struktur gibt, wenn sie sie brauchen Entscheidungen zu treffen und wenn sie improvisieren müssen", erklärt Stump.Mit anderen Worten, RoMan muss je nach den allgemeinen Zielen der Mission möglicherweise schnell oder leise einen Weg freimachen.Das ist selbst für den fortschrittlichsten Roboter eine große Herausforderung.„Mir fällt kein Deep-Learning-Ansatz ein, der mit dieser Art von Informationen umgehen kann“, sagt Stump.Roboter im Army Research Lab testen autonome Navigationstechniken in unwegsamem Gelände [oben, Mitte] mit dem Ziel, mit ihren menschlichen Teamkollegen Schritt halten zu können.ARL entwickelt auch Roboter mit Manipulationsfähigkeiten [unten], die mit Objekten interagieren können, ohne dass Menschen dies tun müssen. Evan AckermanWährend ich zuschaue, wird RoMan für einen zweiten Versuch, Zweige zu entfernen, zurückgesetzt.Der Autonomieansatz von ARL ist modular, wobei Deep Learning mit anderen Techniken kombiniert wird und der Roboter ARL hilft, herauszufinden, welche Aufgaben für welche Techniken geeignet sind.Im Moment testet RoMan zwei verschiedene Möglichkeiten, Objekte anhand von 3D-Sensordaten zu identifizieren: Der Ansatz von UPenn basiert auf Deep Learning, während Carnegie Mellon eine Methode namens Perception Through Search verwendet, die auf einer traditionelleren Datenbank mit 3D-Modellen basiert.Wahrnehmung durch Suche funktioniert nur, wenn Sie im Voraus genau wissen, nach welchen Objekten Sie suchen, aber das Training ist viel schneller, da Sie nur ein einziges Modell pro Objekt benötigen.Es kann auch genauer sein, wenn die Wahrnehmung des Objekts schwierig ist – wenn das Objekt beispielsweise teilweise verdeckt oder auf dem Kopf steht.ARL testet diese Strategien, um festzustellen, welche am vielseitigsten und effektivsten ist, und lässt sie gleichzeitig laufen und gegeneinander antreten.Wahrnehmung ist eines der Dinge, bei denen sich Deep Learning auszeichnet.„Die Computer-Vision-Community hat mit Deep Learning für diese Dinge verrückte Fortschritte gemacht“, sagt Maggie Wigness, Informatikerin bei ARL.„Wir hatten gute Erfolge mit einigen dieser Modelle, die in einer Umgebung trainiert wurden, die auf eine neue Umgebung verallgemeinert wurden, und wir beabsichtigen, Deep Learning weiterhin für diese Art von Aufgaben zu verwenden, da es der neueste Stand der Technik ist.“Der modulare Ansatz von ARL könnte mehrere Techniken so kombinieren, dass ihre jeweiligen Stärken wirksam zum Tragen kommen.Beispielsweise könnte ein Wahrnehmungssystem, das Deep-Learning-basiertes Sehen zur Klassifizierung von Gelände verwendet, neben einem autonomen Fahrsystem arbeiten, das auf einem Ansatz namens inverses Verstärkungslernen basiert, bei dem das Modell durch Beobachtungen menschlicher Soldaten schnell erstellt oder verfeinert werden kann.Herkömmliches Reinforcement Learning optimiert eine Lösung basierend auf etablierten Belohnungsfunktionen und wird oft angewendet, wenn Sie nicht unbedingt sicher sind, wie optimales Verhalten aussieht.Das Heer stört dies weniger, da es in der Regel davon ausgehen kann, dass gut ausgebildete Menschen in der Nähe sind, um einem Roboter den richtigen Weg zu zeigen.„Wenn wir diese Roboter einsetzen, können sich die Dinge sehr schnell ändern“, sagt Wigness.„Also wollten wir eine Technik, bei der wir einen Soldaten eingreifen lassen können, und mit nur wenigen Beispielen von einem Benutzer im Feld können wir das System aktualisieren, wenn wir ein neues Verhalten benötigen.“Eine Deep-Learning-Technik würde „viel mehr Daten und Zeit“ erfordern, sagt sie.Es sind nicht nur datensparsame Probleme und schnelle Anpassungen, mit denen Deep Learning zu kämpfen hat.Hinzu kommen Fragen der Robustheit, Erklärbarkeit und Sicherheit."Diese Fragen betreffen nicht nur das Militär", sagt Stump, "aber sie sind besonders wichtig, wenn wir über Systeme sprechen, die möglicherweise tödlich sind."Um es klarzustellen, ARL arbeitet derzeit nicht an tödlichen autonomen Waffensystemen, aber das Labor hilft dabei, die Grundlagen für autonome Systeme im US-Militär auf breiterer Ebene zu legen, was bedeutet, dass Möglichkeiten in Betracht gezogen werden, wie solche Systeme in Zukunft eingesetzt werden können.Die Anforderungen an ein tiefes Netzwerk stimmen zu einem großen Teil nicht mit den Anforderungen einer Armeemission überein, und das ist ein Problem.Sicherheit hat offensichtlich Priorität, und dennoch gibt es laut Stump keine eindeutige Möglichkeit, ein Deep-Learning-System nachweislich sicher zu machen.„Deep Learning mit Sicherheitsbeschränkungen durchzuführen, ist ein großer Forschungsaufwand. Es ist schwierig, diese Beschränkungen in das System aufzunehmen, weil man nicht weiß, woher die bereits im System vorhandenen Beschränkungen stammen. Wenn sich also die Mission oder der Kontext ändert, Es ist schwer, damit umzugehen. Es ist nicht einmal eine Datenfrage, es ist eine Architekturfrage.“Die modulare Architektur von ARL, sei es ein Wahrnehmungsmodul, das Deep Learning verwendet, oder ein autonomes Fahrmodul, das inverses Verstärkungslernen oder etwas anderes verwendet, kann Teile eines umfassenderen autonomen Systems bilden, das die Arten von Sicherheit und Anpassungsfähigkeit beinhaltet, die das Militär benötigt.Andere Module im System können auf einer höheren Ebene arbeiten und andere Techniken verwenden, die besser verifizierbar oder erklärbar sind und die eingreifen können, um das Gesamtsystem vor nachteiligem, unvorhersehbarem Verhalten zu schützen.„Wenn andere Informationen hereinkommen und unsere Vorgehensweise ändern, gibt es eine Hierarchie“, sagt Stump."Es passiert alles auf rationale Weise."Nicholas Roy, der die Robust Robotics Group am MIT leitet und sich aufgrund seiner Skepsis gegenüber einigen Behauptungen über die Leistungsfähigkeit von Deep Learning als „etwas Aufrührer“ bezeichnet, stimmt mit den ARL-Robotikern darin überein, dass Deep-Learning-Ansätze herankommen können die Art von Herausforderungen, auf die die Armee vorbereitet sein muss, oft nicht bewältigen.„Die Armee dringt immer in neue Umgebungen ein, und der Gegner wird immer versuchen, die Umgebung so zu verändern, dass der Trainingsprozess, den die Roboter durchlaufen haben, einfach nicht mit dem übereinstimmt, was sie sehen“, sagt Roy."Die Anforderungen eines tiefen Netzwerks sind also zu einem großen Teil nicht mit den Anforderungen einer Armeemission abgestimmt, und das ist ein Problem."Roy, der im Rahmen des RCTA an abstraktem Denken für Bodenroboter gearbeitet hat, betont, dass Deep Learning eine nützliche Technologie ist, wenn sie auf Probleme mit klaren funktionalen Beziehungen angewendet wird, aber wenn man sich mit abstrakten Konzepten befasst, ist nicht klar, ob Deep Learning eine ist ein gangbarer Ansatz.„Ich bin sehr daran interessiert herauszufinden, wie neuronale Netze und Deep Learning so zusammengesetzt werden können, dass sie das Denken auf höherer Ebene unterstützen“, sagt Roy.„Ich denke, es läuft auf die Idee hinaus, mehrere neuronale Netzwerke auf niedriger Ebene zu kombinieren, um Konzepte auf höherer Ebene auszudrücken, und ich glaube nicht, dass wir bereits verstehen, wie das geht.“Roy gibt das Beispiel der Verwendung von zwei separaten neuronalen Netzwerken, eines zum Erkennen von Objekten, die Autos sind, und das andere zum Erkennen von Objekten, die rot sind.Es ist schwieriger, diese beiden Netzwerke zu einem größeren Netzwerk zu kombinieren, das rote Autos erkennt, als wenn Sie ein symbolisches Argumentationssystem verwenden würden, das auf strukturierten Regeln mit logischen Beziehungen basiert.„Viele Leute arbeiten daran, aber ich habe keinen wirklichen Erfolg gesehen, der abstraktes Denken dieser Art vorantreibt.“Für die absehbare Zukunft stellt ARL sicher, dass seine autonomen Systeme sicher und robust sind, indem Menschen sowohl für übergeordnete Argumente als auch gelegentliche Ratschläge auf niedriger Ebene in der Nähe bleiben.Menschen sind vielleicht nicht immer direkt auf dem Laufenden, aber die Idee ist, dass Menschen und Roboter effektiver sind, wenn sie als Team zusammenarbeiten.Als 2009 die jüngste Phase des Robotics Collaborative Technology Alliance-Programms begann, sagt Stump: „Wir waren bereits viele Jahre im Irak und in Afghanistan, wo Roboter oft als Werkzeuge eingesetzt wurden. Wir haben versucht, es herauszufinden was wir tun können, um Roboter von Werkzeugen zu Robotern zu machen, die eher als Teamkollegen innerhalb des Teams fungieren."RoMan bekommt ein wenig Hilfe, wenn ein menschlicher Betreuer auf eine Region des Astes hinweist, in der das Greifen am effektivsten sein könnte.Der Roboter hat kein grundlegendes Wissen darüber, was ein Ast eigentlich ist, und dieses fehlende Weltwissen (was wir als gesunden Menschenverstand bezeichnen) ist ein grundlegendes Problem bei autonomen Systemen aller Art.Wenn ein Mensch unsere große Erfahrung in ein wenig Anleitung einfließen lässt, kann die Arbeit von RoMan viel einfacher werden.Und tatsächlich gelingt es RoMan diesmal, den Ast erfolgreich zu greifen und geräuschvoll durch den Raum zu schleppen.Einen Roboter in einen guten Teamkollegen zu verwandeln, kann schwierig sein, da es schwierig sein kann, das richtige Maß an Autonomie zu finden.Zu wenig und es würde den größten Teil oder die gesamte Konzentration eines Menschen erfordern, um einen Roboter zu steuern, was in besonderen Situationen wie der Beseitigung von Sprengkörpern angemessen sein kann, aber ansonsten nicht effizient ist.Zu viel Autonomie und Sie würden Probleme mit Vertrauen, Sicherheit und Erklärbarkeit bekommen.„Ich denke, die Ebene, die wir hier suchen, ist, dass Roboter auf der Ebene von Arbeitshunden operieren“, erklärt Stump.„Sie verstehen genau, was wir unter eingeschränkten Umständen von ihnen erwarten, sie haben ein wenig Flexibilität und Kreativität, wenn sie mit neuen Umständen konfrontiert werden, aber wir erwarten nicht, dass sie kreative Problemlösungen leisten. Und wenn sie Hilfe brauchen , sie fallen auf uns zurück."Es ist unwahrscheinlich, dass sich RoMan in absehbarer Zeit auf einer Mission im Feld wiederfindet, nicht einmal als Teil eines Teams mit Menschen.Es ist sehr viel eine Forschungsplattform.Aber die Software, die für RoMan und andere Roboter bei ARL entwickelt wird und Adaptive Planner Parameter Learning (APPL) heißt, wird wahrscheinlich zuerst beim autonomen Fahren und später in komplexeren Robotersystemen verwendet, die mobile Manipulatoren wie RoMan umfassen könnten.APPL kombiniert verschiedene maschinelle Lerntechniken (einschließlich inversem Reinforcement Learning und Deep Learning), die hierarchisch unter klassischen autonomen Navigationssystemen angeordnet sind.Dadurch können übergeordnete Ziele und Einschränkungen zusätzlich zur Programmierung auf niedrigerer Ebene angewendet werden.Menschen können teleoperierte Demonstrationen, korrigierende Eingriffe und bewertendes Feedback verwenden, um Robotern zu helfen, sich an neue Umgebungen anzupassen, während die Roboter unbeaufsichtigtes Verstärkungslernen verwenden können, um ihre Verhaltensparameter spontan anzupassen.Das Ergebnis ist ein Autonomiesystem, das viele der Vorteile des maschinellen Lernens nutzen kann und gleichzeitig die Art von Sicherheit und Erklärbarkeit bietet, die die Armee benötigt.Mit APPL kann ein lernbasiertes System wie RoMan selbst unter Unsicherheit auf vorhersehbare Weise arbeiten und auf menschliches Tuning oder menschliche Demonstrationen zurückgreifen, wenn es in einer Umgebung landet, die sich zu sehr von der Umgebung unterscheidet, in der es trainiert wurde.Es ist verlockend, sich den schnellen Fortschritt kommerzieller und industrieller autonomer Systeme (autonome Autos sind nur ein Beispiel) anzusehen und sich zu fragen, warum die Armee dem Stand der Technik etwas hinterherhinkt.Aber wie Stump den Generälen der Armee erklären muss, wenn es um autonome Systeme geht, "gibt es viele schwierige Probleme, aber die schwierigen Probleme der Industrie unterscheiden sich von den schwierigen Problemen der Armee."Die Armee kann sich nicht den Luxus leisten, ihre Roboter in strukturierten Umgebungen mit vielen Daten zu betreiben, weshalb ARL so viel Mühe in APPL und in die Aufrechterhaltung eines Platzes für Menschen gesteckt hat.Auch in Zukunft werden Menschen wahrscheinlich ein wichtiger Teil des autonomen Rahmens bleiben, den ARL entwickelt."Das versuchen wir mit unseren Robotersystemen zu bauen", sagt Stump."Das ist unser Autoaufkleber: 'Vom Werkzeug zum Teamkollegen.'"Dieser Artikel erscheint in der Printausgabe vom Oktober 2021 als „Deep Learning Goes to Boot Camp“.Sonderbericht: Die große KI-Abrechnung WEITERLESEN: 7 aufschlussreiche Gründe für das Scheitern von KIs Oder sehen Sie sich den vollständigen Bericht an, um weitere Artikel über die Zukunft der KI zu erhalten.LESEN SIE NÄCHSTES: 7 aufschlussreiche Gründe für das Scheitern von KIsOder lesen Sie den vollständigen Bericht für weitere Artikel über die Zukunft der KI.