Schlüsseltechnologien stärken die wachsende Rolle von Embedded Vision
Embedded Vision Technologie wird bald fast jeden Aspekt unseres täglichen Lebens berühren, aber wie ist der Stand der Technologie bereits im Einsatz? Welche Rolle spielt KI heute? Was passiert am Edge und in der Cloud? Diese Fragen standen im Mittelpunkt der Podiumsdiskussion zum Trendthema „Embedded Vision“ auf der embedded world 2021.
Angetrieben durch Fortschritte bei Sensoren, Prozessoren und Software findet Embedded Vision überall statt – von der Landwirtschaft bis zur Fabrik und von autonomen Fahrzeugen bis hin zum Profisport. Sogar die Covid-19-Pandemie hat dazu beigetragen, ihren Einsatz zu beschleunigen, da Bildverarbeitungssysteme in Anwendungen wie der öffentlichen Überwachung, der Gesundheits- und Sicherheitsinspektion verwendet werden.
KI-gestütztes eingebettetes Sehen
Künstliche Intelligenz (KI) gewinnt bei Embedded Vision- und Bildverarbeitungsanwendungen an Bedeutung, da Entwickler zunehmend Deep Learning und neuronale Netze anwenden, um die Objekterkennung und -klassifizierung zu verbessern.
Es besteht kein Zweifel, dass KI neue Möglichkeiten eröffnet, aber die Diskussionsteilnehmer waren sich einig, dass sie einfacher zu bedienen sein muss. „Einerseits gibt es viele Vorteile aus Kundensicht“, sagt Olaf Munkelt, Geschäftsführer von MVTec Software. „Auf der anderen Seite ist die KI-Technologie etwas ungeschickt. Wir müssen die Bedienung vereinfachen, damit Embedded Vision Kunden schnell an den Punkt kommen, an dem sie einen Mehrwert sehen. Das betrifft alle Schritte im Workflow KI-basierter Systeme von der Datenkennzeichnung, Dateninspektion, Datenverwaltung bis hin zur Verarbeitung mit unterschiedlichen Technologien wie semantischer Segmentierung, Klassifizierung und Anomalieerkennung.“ Munkelt forderte einen integrierten Ansatz, um den Kunden die Bereitstellung eines Embedded-Vision-Projekts zu erleichtern.
Ähnlich sieht es Fredrik Nilsson, Leiter der Geschäftseinheit Machine Vision bei Sick, dass KI und Deep Learning in der Lage sind, Aufgaben zu lösen, die mit konventioneller regelbasierter Bildverarbeitung schwer zu lösen sind. Deep Learning wird die konventionelle Bildverarbeitung jedoch nicht ersetzen. Beide Technologien werden „für lange Zeit“ nebeneinander existieren, argumentierte er. „Es gibt definitiv Anwendungen, bei denen die regelbasierten [Bildverarbeitungsalgorithmen] besser anwendbar sind als Deep Learning. Wir können beispielsweise hybride Lösungen sehen, die Objektsegmentierung mit Deep Learning durchführen und Messtools anwenden.“
Auf der Seite der KI-Beschleuniger-Hardware laufe ein Rennen, sagte Munkelt. Viele Startups entwickeln tatsächlich „wirklich interessante Hardware“, die manchmal „10-20 mal besser abschneidet als bestehende GPU-Hardware etablierter Anbieter“. Mit Blick in die Zukunft deutete er an, wie wichtig Geschwindigkeit bei der Verarbeitung von Bilddaten werden würde. „Jeder in unserer Vision-Community schaut sich diese KI-Beschleuniger an, weil sie einen großen Vorteil bieten können.“
Was passiert am Rand? Was passiert in der Cloud?
Diese Fragen an den Cloud-Anbieter AWS geben die Antwort. Es sei denn, es ist subtiler, als wir denken.
AWS verfolgt zwei Ziele, wenn es um Embedded Vision geht. Die erste, sagte Austin Ashe, Leiter der strategischen OEM-Partnerschaften, IoT, bei Amazon Web Services (AWS), senkt die Eintrittsbarriere für Kunden, die zum ersten Mal Embedded Vision übernehmen möchten oder bereit sind, sie zu erweitern und zu skalieren . Die zweite besteht darin, „Werte über den ursprünglichen Anwendungsfall hinaus zu liefern“.
„Was die Senkung der Markteintrittsbarriere betrifft, so erkennen wir an, dass 75 % der Unternehmen planen, in den nächsten zwei bis fünf Jahren von einer Pilotimplementierung zu einer vollständigen Betriebsimplementierung überzugehen. Wir positionieren uns, um Edge und Cloud auf einzigartige Weise zu orchestrieren.“ Er erklärte weiter:„Edge ist extrem wichtig, wenn es um Dinge wie Latenz, Bandbreite, Kosten für die Datenübertragung geht, sogar Sicherheit und Sicherheit spielen eine Rolle. Die Cloud kann hier die Eintrittsbarriere senken. Wir können Geräte überwachen, unabhängig davon, ob es sich um ein Gerät oder eine Flotte von ihnen handelt, und Echtzeitwarnungen oder -mechanismen bereitstellen, um zu verstehen, was diese Geräte tun.“ Diese Geräte, so Ashe weiter, können drahtlos aktualisiert werden. Wenn Sie also eingebettete Bildverarbeitungssysteme im großen Maßstab verwalten, ist es möglich, ein Modell zu verwenden, es in der Cloud zu trainieren und es dann drahtlos auf allen Maschinen bereitzustellen, die es benötigen.
Unternehmen verfügen möglicherweise nicht über die Datenwissenschaftler oder das Geld, um das Modell zu erstellen. Die Senkung der Eintrittsbarriere bedeutet für Ashe, dass zehn bis zwölf Bilder einer Anomalie aufgenommen und in die Cloud hochgeladen werden können. „Sofort erhalten Sie ein Anomalieerkennungsmodell zurück, das genau diese Anomalie erkennt. Dann iterieren Sie dieses Modell von Cloud zu Edge.“
Auf der diesjährigen Embedded World erklärten Basler und AWS, wie sie durch eine Zusammenarbeit mit den AWS-Services „AWS Panorama“ und „Amazon Lookout for Vision“ die Lücke zwischen Edge und Cloud schließen. AWS Panorama ist eine Machine-Learning-Appliance (ML) und ein SDK, das Kunden die Möglichkeit gibt, in Echtzeit Entscheidungen zur Verbesserung des Betriebsablaufs zu treffen, die Überwachung visueller Inspektionsaufgaben zu automatisieren, Engpässe in industriellen Prozessen zu finden und die Arbeitssicherheit in Einrichtungen zu bewerten. Amazon Lookout for Vision ist ein ML-Dienst, der Fehler und Anomalien in visuellen Darstellungen mithilfe von Computer Vision erkennt.
Auf die Frage, ob Embedded Vision zeitkritische Aufgaben in der Cloud lösen kann, sagte Ashe, dass die Edge immer stärker genutzt werden wird, da Anwendungen näher an den Benutzer und an die Erfahrung herangeführt werden müssen. „Wo immer es Latenzanforderungen gibt, wird Edge die oberste Priorität sein, aber wenn man einige der Hochgeschwindigkeitsnetzwerke bedenkt, die online gehen, insbesondere Dinge rund um 5G, bietet dies eine ganz neue Möglichkeit für Cloud und Edge Engere Interoperabilität und mehr Edge-to-Cloud-Anwendungsfälle.“
Komplexität, Größe, Kosten
Mit Blick auf die nächsten Jahre haben die Podiumsteilnehmer Bereiche aufgelistet, die verbessert werden müssen, um eine breitere Akzeptanz von Embedded-Vision-Systemen zu ermöglichen.
Komplexität :„Mit dem alten PC-System kauften Sie Ihre Kamera, Sie kauften Ihre Hardware, Sie hatten einen Prozessor und die Software lief auf dem Prozessor“, sagt Arndt Dake, CMO von Basler. Heute jedoch „ist die Verarbeitung nicht ein Prozessor. Sie haben eine CPU, eine GPU, Sie haben eine spezielle Hardware für KI, vielleicht ISP im SoC. Anstelle von einer haben Sie also vier Hardwareressourcen, und Sie müssen die Software diesen vier Ressourcen zuordnen.“ Systeme werden immer komplexer und Kunden kämpfen mit der ständig wachsenden Komplexität. Um die Penetration zu fördern, muss die Nützlichkeit nachgewiesen und die Nutzbarkeit angesprochen werden. Einige Unternehmen versuchen derzeit, die Teile zusammenzubringen und es den Kunden einfacher zu machen, denn "je einfacher es wird, desto höher ist die Akzeptanzrate und desto breiter die Nutzung dieser Technologie", sagte Dake.
Größe :Sind wir in Bezug auf die Größe zu einem stabilen Zustand gekommen? Nein, antwortete Dake. „Es wird kleiner. Wenn man sein Smartphone öffnet und sich die Verarbeitungs- und Kamerafunktionalität anschaut, sieht man, wie klein die Dinge werden können. Das Smartphone wird unser Maßstab sein.“
Kosten :Generell „geht es nur ums Geld“, sagte Munkelt. Heute sind manche Anträge nicht gerechtfertigt, weil die Preise zu hoch sind. Wenn die Kosten sinken, ergeben sich neue Möglichkeiten.
Mit einer höheren Benutzerfreundlichkeit, niedrigeren Preisen und kleineren Geräten, die in bestehende Maschinen passen, wird Embedded Vision für kleinere Unternehmen leichter zugänglich sein, die noch nie zuvor Embedded Vision verwendet haben, schloss Nilsson.
>> Dieser Artikel wurde ursprünglich veröffentlicht am unsere Schwesterseite EE Times Europe.
Internet der Dinge-Technologie
- VersaLogic veröffentlicht Computer der Serverklasse für eingebettete Anwendungen
- RF Energy Harvesting findet eine wachsende Rolle in KI-gesteuerten Anwendungen
- Embedded SRAM IP verbraucht 50 % weniger Strom
- ROHM:fortschrittliche Energieverwaltung und Sensortechnologien auf der Embedded World 2019
- ADI zeigt Technologien für alle Bereiche des Embedded-System-Designs
- Infineon bringt eingebettete TLE985x-Leistungsserie für Automobilanwendungen auf den Markt
- TDK präsentiert seine Produkthighlights für eingebettete Technologien
- USB-C findet eine wachsende Rolle bei Wearables und mobilen Produkten
- congatec:neue Embedded Edge Server-Technologien für den Energiesektor
- Die Nachfrage nach digitalen Zwillingen und KI in den Bereichen Automobil, Stromerzeugung und Luftfahrt wächst schnell, sagt der CDO von GE