IEEE-Websites platzieren Cookies auf Ihrem Gerät, um Ihnen die beste Benutzererfahrung zu bieten.Durch die Nutzung unserer Websites stimmen Sie der Platzierung dieser Cookies zu.Um mehr zu erfahren, lesen Sie unsere Datenschutzrichtlinie.Wenn wir unsere Muskeln benutzen, produzieren sie als Nebenprodukt Wärme.Wenn wir sie viel benutzen, müssen wir sie aktiv kühlen, weshalb wir schwitzen.Durch das Schwitzen pumpen wir Wasser aus unserem Körper, und wenn dieses Wasser verdunstet, kühlt es uns ab.Roboter, insbesondere dynamische Roboter wie Humanoide, die nahezu konstant hohe Drehmomentanforderungen an ihre Motoren stellen, erzeugen genug Wärme, die regelmäßig zu einer großen Einschränkung ihrer Leistung wird.Einer der Gründe, warum SCHAFT beispielsweise bei den DRC Trials so gut abgeschnitten hat, waren ihre schicken flüssigkeitsgekühlten Motoren, die über einen längeren Zeitraum viel Drehmoment abgeben konnten, ohne zu überhitzen.Ingenieure lösen dieses wärmeerzeugende Problem in den meisten mechanischen Systemen durch den Einsatz von Lüftern, Kühlkörpern und Radiatoren, was bedeutet, dass Sie über diese gesamte dedizierte Kühlinfrastruktur verfügen, die Platz beansprucht und Masse hinzufügt.Auf der IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) stellten japanische Forscher diese Woche eine neuartige Idee vor, wie humanoide Roboter viel effizienter gekühlt werden können: Sie so zu gestalten, dass sie Wasser direkt aus ihren Knochen schwitzen können .Die Forscher vom JSK Lab der Universität Tokio unter der Leitung von Professor Masayuki Inaba versuchten herauszufinden, wie sie ihrem 1,7 Meter großen, 56 Kilogramm schweren muskuloskelettalen Humanoiden namens Kengoro (der sich Kojiro und Kenshiro als Teil anschließt) ein Kühlsystem hinzufügen könnten der JSK-Roboterfamilie).Kengoro ist bereits randvoll mit Bauteilen, Platinen, Getrieben und 108-Motoren (!), und es war einfach kein Platz für eine aktive Wasserkühlung mit Röhren, Radiator und Lüftern.Die Forscher begannen zu prüfen, wie sie die vorhandenen Komponenten von Kengoro besser nutzen könnten, und kamen auf die Idee, die Skelettstruktur des Roboters (sein Metallrahmen) als Kühlmittelzufuhrsystem zu verwenden.Forscher an der Universität Tokio entwarfen Kengoro, einen muskuloskelettalen Humanoiden mit mehr als 100 Motoren, um Bewegungen zu untersuchen, die Kontakt mit der Umgebung beinhalten.Bild: JSK Lab/Universität TokioDer Ansatz geht weit darüber hinaus, nur Wasserkanäle durch den Rahmen zu führen und Wasser durch sie zu zirkulieren, da dies das Problem nicht gelöst hätte, irgendwo einen Heizkörper dort platzieren zu müssen.Die Forscher entschieden sich stattdessen für eine passive Technik, bei der das Wasser durch den Rahmen um die Motoren herum sickern konnte, um sie durch Verdunstung zu kühlen.Mit anderen Worten, Kengoro schwitzt.Der Trick dabei ist, wie Kengoros Rahmen konstruiert ist.Es wird aus Aluminiumpulver lasergesintert, einer additiven Fertigungstechnik, mit der komplexe Strukturen aus Metall gedruckt werden können.Dieses Bild zeigt ein Stück lasergesintertes Aluminium mit einem durchlässigen Kanal darin (es ist der rechteckige Bereich, der eine etwas andere Textur hat).Bild: JSK Lab/Universität TokioGenau wie bei einem 3D-Drucker erhalten Sie eine enorme Kontrolle über den Druckprozess, und indem Sie die Energiedichte des Lasers während der Herstellung ändern, können Sie die Durchlässigkeit des herzustellenden Metalls selektiv variieren.Ein Metallstück mit geringer Permeabilität wäre so etwas wie ein massiver Aluminiumblock, während ein Metallstück mit hoher Permeabilität eine Struktur voller winziger Lücken und Tunnel hätte, wie ein Schwamm.Die Laser-Sinter-Technik ist präzise genug, um Aluminiumstrukturen mit Bereichen sowohl niedriger als auch hoher Permeabilität aufzubauen, sodass Sie nahtlose Metallkomponenten herstellen können, in die Mikrokanäle eingebettet sind, durch die Wasser fließen kann.Jetzt, da Sie Aluminiumknochen haben, die Wasser um Ihren Roboter herum transportieren können, besteht der andere Trick (hier gibt es definitiv mehr als einen Trick) darin, den Roboter auf nützliche Weise zum Schwitzen zu bringen, anstatt nur Wasser über den ganzen Boden zu lecken.Auch hier bietet sich das Lasersintern an, indem es das Wasser aus einer inneren porösen Schicht in einen poröseren Bereich nahe der Rahmenoberfläche sickern lässt, von wo es in die Luft verdunsten kann.Die Schweißdrüsen, die Wasser durch den Rahmen sickern lassen, befinden sich neben den Motoren des Roboters (das Modul mit den herausstehenden Drähten).Da sich die Motoren während des Betriebs erwärmen, werden sie durch das verdunstende Wasser effizient gekühlt.Bild: JSK Lab/Universität TokioKengoro kann einen halben Tag lang mit etwa einer Tasse entionisiertem Wasser laufen, obwohl es sich genau wie Sie selbst hydriert halten muss, damit die Kühlung effektiv ist, insbesondere wenn es hart arbeitet.Tests haben gezeigt, dass diese Kühlmethode dreimal besser funktioniert als Luftkühlung und deutlich besser als nur Wasser durch den Innenkanal zirkulieren zu lassen, obwohl sie nicht so effektiv ist wie ein herkömmlicher Radiator mit aktiver Kühlung.In der Praxis bedeutet dies, dass Kengoro länger mit voller Leistung laufen kann, sodass es 11 Minuten lang Liegestütze machen kann, ohne dass seine Motoren durchbrennen.„Normalerweise wird der Rahmen eines Roboters nur zur Unterstützung von Kräften verwendet“, sagte uns Hauptautorin Toyotaka Kozuki.„Unser Konzept bestand darin, dem Rahmen weitere Funktionen hinzuzufügen, um Wasser zu übertragen, Wärme abzugeben und gleichzeitig Kräfte zu unterstützen.“Ingenieure kämpfen mit den Grenzen des Deep Learning für Battlefield-BotsRoMan, der Robotermanipulator des Army Research Laboratory, erwägt die beste Möglichkeit, einen Ast im Adelphi Laboratory Center in Maryland zu greifen und zu bewegen.„Ich sollte wahrscheinlich nicht so nah stehen“, denke ich mir, als der Roboter sich langsam einem großen Ast auf dem Boden vor mir nähert. Es ist nicht die Größe des Astes, die mich nervös macht – der Roboter ist es autonom operiert, und obwohl ich weiß, was es tun soll, bin ich mir nicht ganz sicher, was es tun wird. Wenn alles so funktioniert, wie es die Robotiker des US Army Research Laboratory (ARL) in Adelphi, Md Der Roboter erkennt den Ast, greift ihn und zieht ihn aus dem Weg. Diese Leute wissen, was sie tun, aber ich habe genug Zeit mit Robotern verbracht, dass ich trotzdem einen kleinen Schritt zurückgehe.Dieser Artikel ist Teil unseres Sonderberichts über KI „The Great AI Reckoning“.Dieser Artikel ist Teil unseres Sonderberichts über KI „The Great AI Reckoning“.Der Roboter mit dem Namen RoMan, für Robotic Manipulator, ist etwa so groß wie ein großer Rasenmäher, mit einer Raupenbasis, die ihm hilft, die meisten Geländearten zu bewältigen.An der Vorderseite hat es einen gedrungenen Oberkörper, der mit Kameras und Tiefensensoren ausgestattet ist, sowie ein Paar Arme, die von einem Prototyp eines Katastrophenschutzroboters stammen, der ursprünglich am Jet Propulsion Laboratory der NASA für einen DARPA-Robotikwettbewerb entwickelt wurde.Der Job von RoMan ist heute das Räumen von Fahrbahnen, eine mehrstufige Aufgabe, die der Roboter so autonom wie möglich erledigen soll.Anstatt den Roboter anzuweisen, bestimmte Objekte auf bestimmte Weise zu greifen und an bestimmte Orte zu bewegen, weisen die Bediener RoMan an, „einen Weg frei zu machen“.Es liegt dann am Roboter, alle notwendigen Entscheidungen zu treffen, um dieses Ziel zu erreichen.Die Fähigkeit, autonom Entscheidungen zu treffen, macht Roboter nicht nur nützlich, sondern Roboter zu Robotern.Wir schätzen Roboter wegen ihrer Fähigkeit zu spüren, was um sie herum vor sich geht, Entscheidungen auf der Grundlage dieser Informationen zu treffen und dann ohne unser Zutun nützliche Maßnahmen zu ergreifen.In der Vergangenheit folgten robotergestützte Entscheidungen streng strukturierten Regeln – wenn Sie das spüren, dann tun Sie das.In strukturierten Umgebungen wie Fabriken funktioniert dies gut genug.Aber in chaotischen, unbekannten oder schlecht definierten Umgebungen macht das Vertrauen auf Regeln Roboter notorisch schlecht darin, mit allem umzugehen, das nicht genau vorhergesagt und im Voraus geplant werden konnte.RoMan bewältigt zusammen mit vielen anderen Robotern, darunter Haushaltsstaubsauger, Drohnen und autonome Autos, die Herausforderungen halbstrukturierter Umgebungen durch künstliche neuronale Netze – ein Computeransatz, der die Struktur von Neuronen in biologischen Gehirnen lose nachahmt.Vor etwa einem Jahrzehnt wurden künstliche neuronale Netze auf eine Vielzahl halbstrukturierter Daten angewendet, die zuvor für Computer mit regelbasierter Programmierung (allgemein als symbolisches Denken bezeichnet) sehr schwierig zu interpretieren waren.Anstatt spezifische Datenstrukturen zu erkennen, ist ein künstliches neuronales Netzwerk in der Lage, Datenmuster zu erkennen und neue Daten zu identifizieren, die ähnlich (aber nicht identisch) mit Daten sind, auf die das Netzwerk zuvor gestoßen ist.Tatsächlich besteht ein Teil des Reizes künstlicher neuronaler Netze darin, dass sie anhand von Beispielen trainiert werden, indem das Netz annotierte Daten aufnehmen und sein eigenes System der Mustererkennung lernen kann.Für neuronale Netze mit mehreren Abstraktionsebenen wird diese Technik als Deep Learning bezeichnet.Obwohl Menschen typischerweise am Trainingsprozess beteiligt sind und obwohl künstliche neuronale Netze von den neuronalen Netzen im menschlichen Gehirn inspiriert wurden, unterscheidet sich die Art der Mustererkennung, die ein Deep-Learning-System leistet, grundlegend von der Art und Weise, wie Menschen die Welt sehen.Es ist oft fast unmöglich, die Beziehung zwischen der Dateneingabe in das System und der Interpretation der Daten, die das System ausgibt, zu verstehen.Und dieser Unterschied – die „Black Box“-Opazität von Deep Learning – stellt ein potenzielles Problem für Roboter wie RoMan und für das Army Research Lab dar.In chaotischen, ungewohnten oder schlecht definierten Umgebungen macht das Vertrauen auf Regeln Roboter notorisch schlecht darin, mit allem umzugehen, das nicht genau vorhergesagt und im Voraus geplant werden konnte.Diese Undurchsichtigkeit bedeutet, dass Roboter, die auf Deep Learning angewiesen sind, vorsichtig eingesetzt werden müssen.Ein Deep-Learning-System ist gut darin, Muster zu erkennen, aber es fehlt ihm das Weltverständnis, das ein Mensch normalerweise verwendet, um Entscheidungen zu treffen, weshalb solche Systeme am besten funktionieren, wenn ihre Anwendungen gut definiert und eng begrenzt sind.„Wenn Sie gut strukturierte Inputs und Outputs haben und Ihr Problem in dieser Art von Beziehung einkapseln können, funktioniert Deep Learning meiner Meinung nach sehr gut“, sagt Tom Howard, der das Robotics and Artificial Intelligence Laboratory der University of Rochester leitet und entwickelt hat Natürlichsprachliche Interaktionsalgorithmen für RoMan und andere Bodenroboter."Die Frage bei der Programmierung eines intelligenten Roboters lautet: Ab welcher praktischen Größe existieren diese Deep-Learning-Bausteine?"Howard erklärt, dass die Anzahl der möglichen Eingaben sehr groß wird, wenn man Deep Learning auf Probleme auf höherer Ebene anwendet, und das Lösen von Problemen in dieser Größenordnung eine Herausforderung sein kann.Und die potenziellen Folgen eines unerwarteten oder unerklärlichen Verhaltens sind viel bedeutsamer, wenn sich dieses Verhalten durch einen 170 Kilogramm schweren zweiarmigen Militärroboter manifestiert.Nach ein paar Minuten hat sich RoMan nicht bewegt – es sitzt immer noch da, grübelt über den Ast und hält die Arme wie eine Gottesanbeterin.In den letzten 10 Jahren hat die Robotics Collaborative Technology Alliance (RCTA) des Army Research Lab mit Robotikern der Carnegie Mellon University, der Florida State University, General Dynamics Land Systems, JPL, MIT, QinetiQ North America, University of Central Florida, the University of Pennsylvania und anderen führenden Forschungseinrichtungen, um die Roboterautonomie für den Einsatz in zukünftigen Bodenkampffahrzeugen zu entwickeln.RoMan ist ein Teil dieses Prozesses.Die Aufgabe „Einen Weg frei machen“, die RoMan langsam durchdenkt, ist für einen Roboter schwierig, weil die Aufgabe so abstrakt ist.RoMan muss Objekte identifizieren, die den Weg blockieren könnten, über die physikalischen Eigenschaften dieser Objekte nachdenken, herausfinden, wie man sie greift und welche Art von Manipulationstechnik am besten anzuwenden ist (wie Schieben, Ziehen oder Heben), und dann mach es möglich.Das sind viele Schritte und viele Unbekannte für einen Roboter mit einem begrenzten Verständnis der Welt.An diesem begrenzten Verständnis fangen die ARL-Roboter an, sich von anderen Robotern zu unterscheiden, die auf Deep Learning angewiesen sind, sagt Ethan Stump, leitender Wissenschaftler des AI for Maneuver and Mobility-Programms bei ARL.„Die Armee kann praktisch überall auf der Welt operieren. Wir haben keinen Mechanismus zum Sammeln von Daten in all den verschiedenen Bereichen, in denen wir möglicherweise operieren. Wir werden möglicherweise in einem unbekannten Wald auf der anderen Seite der Welt eingesetzt Welt, aber von uns wird erwartet, dass wir genauso gut abschneiden wie in unserem eigenen Garten", sagt er.Die meisten Deep-Learning-Systeme funktionieren zuverlässig nur innerhalb der Domänen und Umgebungen, in denen sie trainiert wurden.Selbst wenn die Domain so etwas wie „jede befahrbare Straße in San Francisco“ ist, reicht der Roboter aus, denn das ist ein bereits gesammelter Datensatz.Aber, sagt Stump, das sei keine Option für das Militär.Wenn ein Deep-Learning-System der Armee nicht gut funktioniert, können sie das Problem nicht einfach lösen, indem sie mehr Daten sammeln.Die Roboter von ARL müssen auch ein breites Bewusstsein dafür haben, was sie tun.„In einem Standard-Operationsbefehl für eine Mission gibt es Ziele, Einschränkungen, einen Absatz über die Absicht des Kommandanten – im Grunde eine Erzählung über den Zweck der Mission – die kontextbezogene Informationen liefert, die Menschen interpretieren können, und ihnen die Struktur gibt, wenn sie sie brauchen Entscheidungen zu treffen und wenn sie improvisieren müssen", erklärt Stump.Mit anderen Worten, RoMan muss je nach den allgemeinen Zielen der Mission möglicherweise schnell oder leise einen Weg freimachen.Das ist selbst für den fortschrittlichsten Roboter eine große Herausforderung.„Mir fällt kein Deep-Learning-Ansatz ein, der mit dieser Art von Informationen umgehen kann“, sagt Stump.Roboter im Army Research Lab testen autonome Navigationstechniken in unwegsamem Gelände [oben, Mitte] mit dem Ziel, mit ihren menschlichen Teamkollegen Schritt halten zu können.ARL entwickelt auch Roboter mit Manipulationsfähigkeiten [unten], die mit Objekten interagieren können, ohne dass Menschen dies tun müssen. Evan AckermanWährend ich zuschaue, wird RoMan für einen zweiten Versuch, Zweige zu entfernen, zurückgesetzt.Der Autonomieansatz von ARL ist modular, wobei Deep Learning mit anderen Techniken kombiniert wird und der Roboter ARL hilft, herauszufinden, welche Aufgaben für welche Techniken geeignet sind.Im Moment testet RoMan zwei verschiedene Möglichkeiten, Objekte anhand von 3D-Sensordaten zu identifizieren: Der Ansatz von UPenn basiert auf Deep Learning, während Carnegie Mellon eine Methode namens Perception Through Search verwendet, die auf einer traditionelleren Datenbank mit 3D-Modellen basiert.Wahrnehmung durch Suche funktioniert nur, wenn Sie im Voraus genau wissen, nach welchen Objekten Sie suchen, aber das Training ist viel schneller, da Sie nur ein einziges Modell pro Objekt benötigen.Es kann auch genauer sein, wenn die Wahrnehmung des Objekts schwierig ist – wenn das Objekt beispielsweise teilweise verdeckt oder auf dem Kopf steht.ARL testet diese Strategien, um festzustellen, welche am vielseitigsten und effektivsten ist, und lässt sie gleichzeitig laufen und gegeneinander antreten.Wahrnehmung ist eines der Dinge, bei denen sich Deep Learning auszeichnet.„Die Computer-Vision-Community hat mit Deep Learning für diese Dinge verrückte Fortschritte gemacht“, sagt Maggie Wigness, Informatikerin bei ARL.„Wir hatten gute Erfolge mit einigen dieser Modelle, die in einer Umgebung trainiert wurden, die auf eine neue Umgebung verallgemeinert wurden, und wir beabsichtigen, Deep Learning weiterhin für diese Art von Aufgaben zu verwenden, da es der neueste Stand der Technik ist.“Der modulare Ansatz von ARL könnte mehrere Techniken so kombinieren, dass ihre jeweiligen Stärken wirksam zum Tragen kommen.Beispielsweise könnte ein Wahrnehmungssystem, das Deep-Learning-basiertes Sehen zur Klassifizierung von Gelände verwendet, neben einem autonomen Fahrsystem arbeiten, das auf einem Ansatz namens inverses Verstärkungslernen basiert, bei dem das Modell durch Beobachtungen menschlicher Soldaten schnell erstellt oder verfeinert werden kann.Herkömmliches Reinforcement Learning optimiert eine Lösung basierend auf etablierten Belohnungsfunktionen und wird oft angewendet, wenn Sie nicht unbedingt sicher sind, wie optimales Verhalten aussieht.Das Heer stört dies weniger, da es in der Regel davon ausgehen kann, dass gut ausgebildete Menschen in der Nähe sind, um einem Roboter den richtigen Weg zu zeigen.„Wenn wir diese Roboter einsetzen, können sich die Dinge sehr schnell ändern“, sagt Wigness.„Also wollten wir eine Technik, bei der wir einen Soldaten eingreifen lassen können, und mit nur wenigen Beispielen von einem Benutzer im Feld können wir das System aktualisieren, wenn wir ein neues Verhalten benötigen.“Eine Deep-Learning-Technik würde „viel mehr Daten und Zeit“ erfordern, sagt sie.Es sind nicht nur datensparsame Probleme und schnelle Anpassungen, mit denen Deep Learning zu kämpfen hat.Hinzu kommen Fragen der Robustheit, Erklärbarkeit und Sicherheit."Diese Fragen betreffen nicht nur das Militär", sagt Stump, "aber sie sind besonders wichtig, wenn wir über Systeme sprechen, die möglicherweise tödlich sind."Um es klarzustellen, ARL arbeitet derzeit nicht an tödlichen autonomen Waffensystemen, aber das Labor hilft dabei, die Grundlagen für autonome Systeme im US-Militär auf breiterer Ebene zu legen, was bedeutet, dass Möglichkeiten in Betracht gezogen werden, wie solche Systeme in Zukunft eingesetzt werden können.Die Anforderungen an ein tiefes Netzwerk stimmen zu einem großen Teil nicht mit den Anforderungen einer Armeemission überein, und das ist ein Problem.Sicherheit hat offensichtlich Priorität, und dennoch gibt es laut Stump keine eindeutige Möglichkeit, ein Deep-Learning-System nachweislich sicher zu machen.„Deep Learning mit Sicherheitsbeschränkungen durchzuführen, ist ein großer Forschungsaufwand. Es ist schwierig, diese Beschränkungen in das System aufzunehmen, weil man nicht weiß, woher die bereits im System vorhandenen Beschränkungen stammen. Wenn sich also die Mission oder der Kontext ändert, Es ist schwer, damit umzugehen. Es ist nicht einmal eine Datenfrage, es ist eine Architekturfrage.“Die modulare Architektur von ARL, sei es ein Wahrnehmungsmodul, das Deep Learning verwendet, oder ein autonomes Fahrmodul, das inverses Verstärkungslernen oder etwas anderes verwendet, kann Teile eines umfassenderen autonomen Systems bilden, das die Arten von Sicherheit und Anpassungsfähigkeit beinhaltet, die das Militär benötigt.Andere Module im System können auf einer höheren Ebene arbeiten und andere Techniken verwenden, die besser verifizierbar oder erklärbar sind und die eingreifen können, um das Gesamtsystem vor nachteiligem, unvorhersehbarem Verhalten zu schützen.„Wenn andere Informationen hereinkommen und unsere Vorgehensweise ändern, gibt es eine Hierarchie“, sagt Stump."Es passiert alles auf rationale Weise."Nicholas Roy, der die Robust Robotics Group am MIT leitet und sich aufgrund seiner Skepsis gegenüber einigen Behauptungen über die Leistungsfähigkeit von Deep Learning als „etwas Aufrührer“ bezeichnet, stimmt mit den ARL-Robotikern darin überein, dass Deep-Learning-Ansätze herankommen können die Art von Herausforderungen, auf die die Armee vorbereitet sein muss, oft nicht bewältigen.„Die Armee dringt immer in neue Umgebungen ein, und der Gegner wird immer versuchen, die Umgebung so zu verändern, dass der Trainingsprozess, den die Roboter durchlaufen haben, einfach nicht mit dem übereinstimmt, was sie sehen“, sagt Roy."Die Anforderungen eines tiefen Netzwerks sind also zu einem großen Teil nicht mit den Anforderungen einer Armeemission abgestimmt, und das ist ein Problem."Roy, der im Rahmen des RCTA an abstraktem Denken für Bodenroboter gearbeitet hat, betont, dass Deep Learning eine nützliche Technologie ist, wenn sie auf Probleme mit klaren funktionalen Beziehungen angewendet wird, aber wenn man sich mit abstrakten Konzepten befasst, ist nicht klar, ob Deep Learning eine ist ein gangbarer Ansatz.„Ich bin sehr daran interessiert herauszufinden, wie neuronale Netze und Deep Learning so zusammengesetzt werden können, dass sie das Denken auf höherer Ebene unterstützen“, sagt Roy.„Ich denke, es läuft auf die Idee hinaus, mehrere neuronale Netzwerke auf niedriger Ebene zu kombinieren, um Konzepte auf höherer Ebene auszudrücken, und ich glaube nicht, dass wir bereits verstehen, wie das geht.“Roy gibt das Beispiel der Verwendung von zwei separaten neuronalen Netzwerken, eines zum Erkennen von Objekten, die Autos sind, und das andere zum Erkennen von Objekten, die rot sind.Es ist schwieriger, diese beiden Netzwerke zu einem größeren Netzwerk zu kombinieren, das rote Autos erkennt, als wenn Sie ein symbolisches Argumentationssystem verwenden würden, das auf strukturierten Regeln mit logischen Beziehungen basiert.„Viele Leute arbeiten daran, aber ich habe keinen wirklichen Erfolg gesehen, der abstraktes Denken dieser Art vorantreibt.“Für die absehbare Zukunft stellt ARL sicher, dass seine autonomen Systeme sicher und robust sind, indem Menschen sowohl für übergeordnete Argumente als auch gelegentliche Ratschläge auf niedriger Ebene in der Nähe bleiben.Menschen sind vielleicht nicht immer direkt auf dem Laufenden, aber die Idee ist, dass Menschen und Roboter effektiver sind, wenn sie als Team zusammenarbeiten.Als 2009 die jüngste Phase des Robotics Collaborative Technology Alliance-Programms begann, sagt Stump: „Wir waren bereits viele Jahre im Irak und in Afghanistan, wo Roboter oft als Werkzeuge eingesetzt wurden. Wir haben versucht, es herauszufinden was wir tun können, um Roboter von Werkzeugen zu Robotern zu machen, die eher als Teamkollegen innerhalb des Teams fungieren."RoMan bekommt ein wenig Hilfe, wenn ein menschlicher Betreuer auf eine Region des Astes hinweist, in der das Greifen am effektivsten sein könnte.Der Roboter hat kein grundlegendes Wissen darüber, was ein Ast eigentlich ist, und dieses fehlende Weltwissen (was wir als gesunden Menschenverstand bezeichnen) ist ein grundlegendes Problem bei autonomen Systemen aller Art.Wenn ein Mensch unsere große Erfahrung in ein wenig Anleitung einfließen lässt, kann die Arbeit von RoMan viel einfacher werden.Und tatsächlich gelingt es RoMan diesmal, den Ast erfolgreich zu greifen und geräuschvoll durch den Raum zu schleppen.Einen Roboter in einen guten Teamkollegen zu verwandeln, kann schwierig sein, da es schwierig sein kann, das richtige Maß an Autonomie zu finden.Zu wenig und es würde den größten Teil oder die gesamte Konzentration eines Menschen erfordern, um einen Roboter zu steuern, was in besonderen Situationen wie der Beseitigung von Sprengkörpern angemessen sein kann, aber ansonsten nicht effizient ist.Zu viel Autonomie und Sie würden Probleme mit Vertrauen, Sicherheit und Erklärbarkeit bekommen.„Ich denke, die Ebene, die wir hier suchen, ist, dass Roboter auf der Ebene von Arbeitshunden operieren“, erklärt Stump.„Sie verstehen genau, was wir unter eingeschränkten Umständen von ihnen erwarten, sie haben ein wenig Flexibilität und Kreativität, wenn sie mit neuen Umständen konfrontiert werden, aber wir erwarten nicht, dass sie kreative Problemlösungen leisten. Und wenn sie Hilfe brauchen , sie fallen auf uns zurück."Es ist unwahrscheinlich, dass sich RoMan in absehbarer Zeit auf einer Mission im Feld wiederfindet, nicht einmal als Teil eines Teams mit Menschen.Es ist sehr viel eine Forschungsplattform.Aber die Software, die für RoMan und andere Roboter bei ARL entwickelt wird und Adaptive Planner Parameter Learning (APPL) heißt, wird wahrscheinlich zuerst beim autonomen Fahren und später in komplexeren Robotersystemen verwendet, die mobile Manipulatoren wie RoMan umfassen könnten.APPL kombiniert verschiedene maschinelle Lerntechniken (einschließlich inversem Reinforcement Learning und Deep Learning), die hierarchisch unter klassischen autonomen Navigationssystemen angeordnet sind.Dadurch können übergeordnete Ziele und Einschränkungen zusätzlich zur Programmierung auf niedrigerer Ebene angewendet werden.Menschen können teleoperierte Demonstrationen, korrigierende Eingriffe und bewertendes Feedback verwenden, um Robotern zu helfen, sich an neue Umgebungen anzupassen, während die Roboter unbeaufsichtigtes Verstärkungslernen verwenden können, um ihre Verhaltensparameter spontan anzupassen.Das Ergebnis ist ein Autonomiesystem, das viele der Vorteile des maschinellen Lernens nutzen kann und gleichzeitig die Art von Sicherheit und Erklärbarkeit bietet, die die Armee benötigt.Mit APPL kann ein lernbasiertes System wie RoMan selbst unter Unsicherheit auf vorhersehbare Weise arbeiten und auf menschliches Tuning oder menschliche Demonstrationen zurückgreifen, wenn es in einer Umgebung landet, die sich zu sehr von der Umgebung unterscheidet, in der es trainiert wurde.Es ist verlockend, sich den schnellen Fortschritt kommerzieller und industrieller autonomer Systeme (autonome Autos sind nur ein Beispiel) anzusehen und sich zu fragen, warum die Armee dem Stand der Technik etwas hinterherhinkt.Aber wie Stump den Generälen der Armee erklären muss, wenn es um autonome Systeme geht, "gibt es viele schwierige Probleme, aber die schwierigen Probleme der Industrie unterscheiden sich von den schwierigen Problemen der Armee."Die Armee kann sich nicht den Luxus leisten, ihre Roboter in strukturierten Umgebungen mit vielen Daten zu betreiben, weshalb ARL so viel Mühe in APPL und in die Aufrechterhaltung eines Platzes für Menschen gesteckt hat.Auch in Zukunft werden Menschen wahrscheinlich ein wichtiger Teil des autonomen Rahmens bleiben, den ARL entwickelt."Das versuchen wir mit unseren Robotersystemen zu bauen", sagt Stump."Das ist unser Autoaufkleber: 'Vom Werkzeug zum Teamkollegen.'"Dieser Artikel erscheint in der Printausgabe vom Oktober 2021 als „Deep Learning Goes to Boot Camp“.Sonderbericht: Die große KI-Abrechnung WEITERLESEN: 7 aufschlussreiche Gründe für das Scheitern von KIs Oder sehen Sie sich den vollständigen Bericht an, um weitere Artikel über die Zukunft der KI zu erhalten.LESEN SIE NÄCHSTES: 7 aufschlussreiche Gründe für das Scheitern von KIsOder lesen Sie den vollständigen Bericht für weitere Artikel über die Zukunft der KI.