Industrielle Fertigung
Industrielles Internet der Dinge | Industrielle Materialien | Gerätewartung und Reparatur | Industrielle Programmierung |
home  MfgRobots >> Industrielle Fertigung >  >> Manufacturing Technology >> Industrietechnik

Entdecken von „toten Winkeln“ in der KI zur Verbesserung der Sicherheit selbstfahrender Fahrzeuge

Die jüngsten Fortschritte im Bereich der künstlichen Intelligenz haben selbstfahrende Fahrzeuge und autonome Roboter intelligenter gemacht. Obwohl sie noch in den Kinderschuhen steckt, werden fahrerlose Autos immer häufiger und könnten unser Transportsystem in den kommenden Jahren radikal verändern.

Kürzlich haben Forscher des MIT und von Microsoft ein Modell entwickelt, das mit Hilfe menschlicher Eingaben „blinde Flecken“ autonomer Systeme aufdecken kann. Es identifiziert Fälle, in denen diese autonomen Systeme lernen (aus Trainingsbeispielen oder Simulationen), wenn sie in realen Umgebungen Fehler machen könnten.

Die KI, die selbstfahrende Autos antreibt, wird beispielsweise umfassend in der Simulation trainiert, um das Fahrzeug auf nahezu alle möglichen Szenarien auf der Straße vorzubereiten. In der realen Welt macht das System jedoch manchmal Fehler:Es ändert sein Verhalten (wo es sollte) in bestimmten Szenarien nicht.

Wenn beispielsweise ein fahrerloses Auto (nicht umfassend geschult) die Autobahn entlangfährt und ein Krankenwagen seine Sirene anspringt, nimmt das Auto den Krankenwagen möglicherweise nur als großes weißes Auto wahr und hält möglicherweise nicht an oder weicht dem Krankenwagen oder einem anderen Notfall aus. Fahrzeuge.

Forscher möchten die Lücke zwischen Simulation und realer Welt schließen, indem sie menschliche Eingaben integrieren und autonomen Systemen helfen, besser zu wissen, was sie nicht wissen.

Wie nimmt das Modell menschliches Feedback auf?

Das autonome System wird zunächst in einer virtuellen Simulation trainiert, in der es jede Situation auf die beste Aktion abbildet. Es wird dann in der realen Welt eingesetzt, wo Menschen das System unterbrechen, wenn es falsche Aktionen durchführt.

Menschen können Daten entweder durch Korrekturen oder durch Demonstrationen füttern. Zur Korrektur kann eine Person auf dem Fahrersitz sitzen, während das Fahrzeug selbst eine geplante Route abfährt. Wenn das System unangemessene Maßnahmen ergreift, kann der Mensch das Steuer übernehmen und dies sendet ein Signal an die KI, dass sie falsche Maßnahmen ergriffen hat und was sie in dieser bestimmten Situation tun sollte.

Referenz: arXiv:1805.08966 | MIT

Alternativ können Menschen das System trainieren, indem sie das Fahrzeug in der realen Welt demonstrieren/fahren. Das System analysiert und vergleicht jede menschliche Handlung mit dem, was es in diesem Zustand getan hätte. Jede Nichtübereinstimmung (gibt es welche) weist auf eine inakzeptable Aktion des Systems hin.

Umgang mit toten Winkeln

Nach Abschluss der manuellen Schulung verfügt das System im Wesentlichen über eine Liste akzeptabler und inakzeptabler Aktionen. Das Ziel besteht darin, die mehrdeutigen Situationen (oder blinden Flecken) zu erkennen, die die KI nur schwer unterscheiden kann.

Mit freundlicher Genehmigung der Forscher | MIT

Beispielsweise kann das autonome System mehrmals neben einem großen Fahrzeug vorbeigefahren sein, ohne anzuhalten. Wenn er jedoch dasselbe mit einem Krankenwagen tut (der für die KI genau gleich aussieht), erhält er ein Feedback-Signal, das eine inakzeptable Aktion darstellt.

Um mit dieser Art von Situation umzugehen, verwendete das Team eine Methode des maschinellen Lernens, die als Dawid-Skene-Algorithmus bekannt ist. Es nimmt alle blinden Flecken, die als "akzeptabel" und inakzeptabel" gekennzeichnet sind, aggregiert sie und verwendet Wahrscheinlichkeitsberechnungen, um Muster in diesen Etiketten zu erkennen.

Der Algorithmus ergibt dann einen einzelnen aggregierten blinden Fleck zusammen mit einem Konfidenzniveau für jede Situation. Es generiert auch eine Heatmap, die eine geringe bis hohe Wahrscheinlichkeit zeigt, in jeder Situation ein blinder Fleck zu sein.

Lesen Sie:Neuer Algorithmus für selbstfahrende Fahrzeuge kann Spur aggressiv ändern

Wenn das Modell in der realen Welt eine Situation mit hoher Wahrscheinlichkeit als blinden Fleck abbildet, kann es einen Menschen um eine angemessene Aktion bitten, was eine sicherere Ausführung ermöglicht. Diese Art von Modell kann auch autonomen Robotern helfen, vorherzusagen, wann sie unter neuartigen Bedingungen unangemessene Maßnahmen ergreifen könnten.


Industrietechnik

  1. 4 erschwingliche Technologie-Upgrades zur Verbesserung der Leistung vorhandener Geräte
  2. Wie verbessern zuverlässigkeitsbasierte Programme die Sicherheit?
  3. Selbstfahrende Fahrzeuge können dunkelhäutige Fußgänger nur schwer erkennen
  4. Neue KI für selbstfahrende Fahrzeuge kann Fußgängerbewegungen vorhersagen
  5. Einsatz von Drohnen zur Verbesserung der Sicherheit am Arbeitsplatz
  6. 5 Wege zur sofortigen Verbesserung der Werkssicherheit
  7. 3 Dinge zur Verbesserung der Arbeitssicherheit
  8. Infografik:3 Schritte zur Verbesserung der Bedienersicherheit
  9. Wie kann die Anzahl der Fehler reduziert und das Produktionsqualitätssystem verbessert werden?
  10. Diese tragbaren technischen Innovationen verbessern die Gesundheit und Sicherheit am Arbeitsplatz