Industrielle Fertigung
Industrielles Internet der Dinge | Industrielle Materialien | Gerätewartung und Reparatur | Industrielle Programmierung |
home  MfgRobots >> Industrielle Fertigung >  >> Industrial Internet of Things >> Eingebettet

ADAS-Experten erwägen die Sensorintegration in zukünftige Fahrzeuge

Es kann nie einen einzigen, effektivsten Weg geben, um Sensortechnologie für assistierte Fahrsysteme (ADAS) und autonome Fahrzeuge (AV) zu implementieren. Die magische Zahl könnte stattdessen sechs sein – wie in sechs grundlegenden Überlegungen, die jeder Autohersteller auf seine eigene Weise erreichen wird, was dazu führen wird, dass jeder seinen eigenen einzigartigen Ansatz für die Integration von Sensoren in zukünftige Fahrzeuge entwickelt. Bei der Abschlusssitzung der virtuellen Konferenz AutoSens Brussels 2020 diskutierte eine Expertenrunde über den richtigen Sensormix und wie man sicherstellen kann, dass das Design niemals die Sicherheit beeinträchtigt – und umgekehrt.

Die Podiumsteilnehmer waren Patrick Denny, Senior Expert für Vision-Systeme und fortschrittliche Fahrerassistenzsysteme beim Automobilzulieferer Valeo; Paul-Henri Matha, technischer Leiter bei Volvo Car Corp.; Robert Stead, Geschäftsführer der Sense Media Group; und Carsten Astheimer, Direktor der Designfirma Astheimer Ltd. EE Times Europe wandte sich auch an Pierrick Boulay, Technologie- und Marktanalyst bei Yole Développement (Lyon, Frankreich), um Yoles Einblicke in die Einführung und Verwendung verschiedener Sensortypen in Automobilsystemen zu erhalten.

Die richtige Nummer bestimmen

Immer mehr Sensoren werden im gesamten Fahrzeug eingesetzt, um Sicherheitsbedenken proaktiv anzugehen. Wie viele Sensoren haben wir heute in Autos und wie viele brauchen wir, um weitere Autonomiegrade zu erreichen? „Wenn wir Sensoren für ADAS berücksichtigen – Ultraschall, Radar, Kamera zum Erfassen, Kamera zum Betrachten und LiDAR – schätzen wir, dass ein Fahrzeug je nach Fahrzeugtyp zwischen 10 und 20 Sensoren hat“, sagte Boulay von Yole gegenüber EE Times . Natürlich betten High-End-Fahrzeuge mehr Sensoren ein als Low-End-Fahrzeuge oder solche im mittleren Leistungs- und Funktionsbereich.

Sensoren werden für die Erschließung hoher Automatisierungsgrade von entscheidender Bedeutung sein, und es wird erwartet, dass die Anzahl und Art von Sensoren zunehmen wird. „Wir erwarten, dass für diese Automatisierungsebenen 35 bis 40 Sensoren implementiert werden“, so Boulay. „Sensoren werden insofern spezifischer sein, als wir Sensoren für Anwendungen mit kurzer, mittlerer und langer Reichweite sehen werden. Ein Sensor wird nicht alle Anwendungen abdecken können. Jede Anwendung oder jeder Anwendungsfall hat ihre Spezifikationen und Anforderungen in Bezug auf Sensoren.“

Die steigende Zahl von Sensoren ist nur die Spitze des Eisbergs. Sensoren erzeugen Unmengen an Daten und Systeme sind stark durch die Rechenleistung limitiert. In Zukunft wird es ein Schlüsselmerkmal sein, über genügend Rechenleistung zu verfügen, um alle von diesen Sensoren erzeugten Daten zu verarbeiten, sagte Boulay. „Während typische ADAS-Systeme mit Intel-Mobileye-Chips den Sprung zwischen 0,25 TOPS [10-fache Leistung eines High-End-Laptops] und 2,5 TOPS für den neuen EyeQ4-Chip schafften, liegen Roboterautos bereits über 250 TOPS“, sagte er. „Die E/E-Architektur [elektrisch/elektronisch] eines Fahrzeugs muss sich schließlich von einer verteilten Architektur zu einer zentralisierten Architektur mit Domänencontrollern ändern, die in der Lage sind, die Fusion der von den Sensoren kommenden Rohdaten zu verwalten.“

Je mehr Sensoren, desto besser? „Manche mögen das denken, aber die Zahl der Sensoren in Autos wird aus Kosten- oder Integrationsgründen nicht unbegrenzt zunehmen“, sagt Boulay, der davon ausgeht, dass die Zahl der Sensoren für die Automatisierung irgendwann stabil sein wird. „Der Hauptunterschied wird auf der Softwareebene und der Fähigkeit der Unternehmen liegen, die enorme Datenmenge effizient zu verarbeiten. Einige OEMs wie Tesla verwenden LiDAR immer noch nicht und setzen auf die Kombination von Sensoren und KI-Computing, um einen hohen Automatisierungsgrad zu erreichen.“

Objektiv gesehen „werden einige OEMs mit weniger Sensoren besser abschneiden als andere, und der Unterschied wird auf Software- und Computerebene liegen“, fügte er hinzu.

Optimierung der Mischung

Ein Fahrzeug könnte in einem Moment unter einem großen blauen Himmel fahren und im nächsten durch einen Regenschauer. Sensoren müssen ständig verfügbar sein, um Variablen zu messen und zu überwachen. Eine effiziente Möglichkeit zur Erhöhung der Verfügbarkeit besteht darin, redundante Sensoren einzusetzen, um mögliche Ausfälle zu kompensieren. „Es muss mehr als eine Möglichkeit geben, die Umwelt zu betrachten“, sagte Denny von Valeo während der Podiumssitzung. „Wenn Sie sich in völliger Dunkelheit befinden oder schlechte Wetterbedingungen haben, benötigen Sie eine Vielzahl von Modalitäten und Funktionen, um zusammenzuarbeiten.“

Sensoren helfen in Situationen, in denen das menschliche Sehvermögen benachteiligt ist, und die Vielfalt der Sensoren macht das Auto zuverlässig bei allen Wetter- und Lichtverhältnissen. „Kameras sind tagsüber gut“, sagt Boulay, während nachts oder bei Nebel oder Regen „andere Sensoren nicht ‚blind‘ [wie Kameras] sind und das Fahrzeug sich trotzdem bewegen kann, selbst wenn es so ist.“ in einem herabgesetzten Modus.“

Die richtige Platzierung sicherstellen

Genau wie die menschlichen Sinne müssen Sensoren strategisch positioniert werden, um kontinuierlich Informationen über die Umgebung des Autos zurückzugeben. Es gibt jedoch technische Einschränkungen, wo die Sensoren platziert werden können. Kondenswasser in einem Scheinwerfer kann beispielsweise die Funktion von LiDARs beeinträchtigen. Bei Schnee oder Kälte kann Frost zu einer Fehlfunktion des Sensors führen. Infrarotsensoren können nicht durch Glas sehen und können nicht hinter einer Windschutzscheibe angebracht werden. In ähnlicher Weise kann das Überstreichen eines Ultraschallsensors seine akustischen Eigenschaften verändern, sagte Denny.

Auch der Stromverbrauch von Sensoren sei eine zentrale Herausforderung, sagte Matha von Volvo. „Jeder Sensor verbraucht zwischen 1 und 10 W. Wenn Sie alle Sensoren für ADAS-Funktionalitäten hinzufügen, können Sie 100 oder 200 W und bis zu 4 g CO2 erreichen . Wir müssen den Stromverbrauch reduzieren. [Zum Beispiel], vielleicht ist die Funktionalität des Sensors nicht die ganze Zeit aktiv.“

Das Wärmemanagement ist eine weitere zu berücksichtigende Einschränkung. Hinter einer Windschutzscheibe kann die Temperatur bis zu 90 °C erreichen, und geeignete Sensoren sind möglicherweise nicht verfügbar, sagte Matha. „Wenn man sie in einem anderen Bereich anbringt, zum Beispiel in Scheinwerfern, haben wir einige Kühlsysteme, aber das ist komplex und teuer.“

Simulationen und Fahrtests können helfen, die beste Position für einen Sensor zu bestimmen, sagten die Diskussionsteilnehmer.

Vor allem, so Boulay von Yole, „ist die Position der Sensoren eng mit den von OEMs angestrebten Anwendungsfällen verknüpft. Nach dem, was wir derzeit an Fahrzeugen sehen, die LiDAR für das automatisierte Fahren auf Autobahnen implementieren, befindet sich der LiDAR in einer zentralen Position, fast auf der Höhe der ADAS-Kamera und des Fernbereichsradars. Für andere Anwendungsfälle, wie Parken oder Fahren in der Stadt, ist die Position dieser LiDAR-Einheiten unterschiedlich und wird erwartet, dass sie sich an der Seite oder in den Ecken von Fahrzeugen befinden.“

Ästhetisch integrieren

Volvo-Autos integrieren derzeit 20 Arten von Sensoren, sagte Matha. Viele von ihnen sind völlig versteckt. Beim Volvo XC90 zum Beispiel befindet sich die vordere Einparkkamera im Kühlergrill, während die seitlichen Kameras in jedem Außenspiegel positioniert sind und die nach hinten gerichtete Kamera über dem Kennzeichen angebracht ist. „Wir können Sensoren integrieren und sie schön aussehen lassen“, sagt Matha.


Frontkamera im Volvo XC90 (Quelle:Volvo)

Aber müssen wir die Sensoren unbedingt verstecken? Können sie nicht ein Feature sein?

Wenn das Auto ein intelligentes Produkt ist, sollte es für Astheimer auch so aussehen und „nicht alles versteckt werden“. Sensoren sind klein genug, um vollständig integriert zu werden und sind jetzt fast unbemerkt. Wenn wir uns jedoch der vollständigen Autonomie nähern, bei der Autos selbst fahren, müssen einige Sensoren „extrem prominent sein“. Ein 360°-LiDAR muss volle Sichtbarkeit haben und seine Position darf keine Kompromisse eingehen.

Noch wichtiger ist, dass Astheimer die Notwendigkeit hervorhebt, dass Designer und Ingenieure zusammenarbeiten, um Sensoren an die Identität des Fahrzeugs anzupassen. Der Deliver-E, ein von der Warwick Manufacturing Group (WMG), der University of Warwick und Astheimer gemeinsam entwickelter elektrischer Lieferwagen-Prototyp, integriert Kameras in die Seiten des Fahrzeugs und platziert den LiDAR prominent im Heck des Autos.

Auf die Frage nach der Relevanz der Konzentration von Sensoren in einem externen Pod zitierte Boulay die Smart Corner von Magneti Marelli, die Sensoren wie LiDARs, Radare, Kameras und Ultraschall sowie LED-basierte Beleuchtungsfunktionen wie adaptive Beam und digitale Lichtverarbeitung aufnehmen kann. „Für OEMs könnte es einfacher sein, diese Pods während des Herstellungsprozesses zu integrieren, aber im Falle eines Unfalls wären die Kosten für die Reparatur oder den Austausch dieser Pods für Versicherungen oder Verbraucher extrem hoch“, sagte er. „Es muss ein Gleichgewicht zwischen Integration, Reparierbarkeit und Kosten gefunden werden.“

Kognitive Überlastung reduzieren

Die Mensch-Maschine-Schnittstelle (HMI) verbindet nicht nur Fahrer und Auto, sondern verbindet den Fahrer auch mit der Außenwelt. Das Risiko besteht darin, dass der Fahrer von allen Funktionen abgelenkt wird und wichtige Fahrinformationen verpasst.


Elektro-Lieferwagen Zero von Volta Trucks (Quelle:Volta Trucks)

Astheimer war an der Entwicklung des elektrischen Zero-Lieferwagens von Volta Trucks beteiligt und erkannte, wie wichtig es ist, die Wachsamkeit des Fahrers zu erhöhen. „Obwohl schwere Fahrzeuge in London weniger als 4 % des Gesamtverkehrs ausmachen, sind sie für über 50 % der Todesfälle von gefährdeten Straßenbenutzern, d. h. Fußgängern und Radfahrern, verantwortlich“, sagte er. Dafür gibt es zwei Hauptgründe:die fehlende direkte Sichtbarkeit und die kognitive Überlastung.

„Kognitive Überlastung ist ein massives Thema“, sagt Astheimer. „Wir müssen sicherstellen, dass ECUs [elektronische Steuereinheiten] und CAN-Systeme [Controller Area Network] die richtigen Signale lesen und Informationen auf die klarste und einfachste Weise anzeigen können, sei es taktil, akustisch oder visuell.“

Sicherheit cool machen

Unter Bezugnahme auf einen Panel-Kommentar auf einer früheren AutoSens-Konferenz fragte Stead die Panel-Teilnehmer, ob „Sicherheit cool machen“ der Schlüssel zum Verkauf vernetzter Autos ist.

„Wir machen Geschäfte mit Sicherheit“, sagte Matha. „Unsere Kunden wollen Sicherheit, und Sicherheit können wir nur mit Sensoren erreichen. Also müssen wir schöne Autos mit Sensoren bauen.“

Es gibt noch eine andere Dimension zu berücksichtigen. Benutzer müssen das Intelligenzniveau ihres eigenen Autos verstehen, um ihre Aufmerksamkeit für Verkehrsteilnehmer und ihre Umgebung zu wahren. „Indem Sie das Produkt immer sicherer machen, distanzieren Sie den Fahrer von den Aktivitäten des Fahrzeugs“, sagte Astheimer. „Indem Sie dem Fahrzeug mehr Autonomie verleihen, unterstützen Sie den Fahrer bei den einfachen Dingen, erschweren jedoch die schwierigen Dinge. Der Fahrer ist nicht mehr aufmerksam, da das Fahrzeug immer mehr auffällt.“

Es ist wichtig, dass die Sensoren und das Feedback von ihnen dem Fahrer dabei helfen, das Geschehen im Auge zu behalten, "anstatt ihn nur von der Außenwelt abzuschirmen", sagte Astheimer.


Ein neues Buch, AspenCore Guide to Sensors in Automotive:Making Cars See and Think Ahead , mit Beiträgen führender Denker der Sicherheits- und Automobilindustrie, kündigt den Fortschritt der Branche an und identifiziert die verbleibenden Herausforderungen der Ingenieursgemeinschaft. Es ist ab sofort im Buchladen der EE Times erhältlich.

>> Dieser Artikel wurde ursprünglich auf unserer Schwesterseite EE Times veröffentlicht.


Eingebettet

  1. Mouser zeigt neue Sensortechnologie auf der Sensors Expo 2019
  2. Toposens bringt TS3-Ultraschallsensor für Autos, ADAS und Roboter auf den Markt
  3. Grundlagen digitaler Magnetsensoren
  4. Sensoren verstehen
  5. Induktiver berührungsloser Positionssensor
  6. Sensoren eliminieren Funkenbildung in Wasserstofffahrzeugen
  7. Tragbare Sensoren erkennen Gaslecks
  8. Innovative IoT-Sensoranwendungen ebnen den Weg in die Zukunft
  9. Sensoren eliminieren das Risiko von Funkenbildung in Wasserstofffahrzeugen
  10. Lab-On-Chip-Durchfluss- und Temperatursensor