Industrielle Fertigung
Industrielles Internet der Dinge | Industrielle Materialien | Gerätewartung und Reparatur | Industrielle Programmierung |
home  MfgRobots >> Industrielle Fertigung >  >> Industrial Internet of Things >> Internet der Dinge-Technologie

Edge-Computing-Vorteile für die KI-Kristallisation

Das Interesse am Edge-Computing nimmt ebenso zu wie die Verwirrung um die Architektur. Ähnlich verhält es sich mit der künstlichen Intelligenz. Die Aussicht, die KI an den Rand zu verlagern, mag wie ein Rezept für noch mehr Verwirrung klingen.

Die Leistung von künstlicher Intelligenz am Edge ist oft „nur Theorie, die in Artikeln zitiert wird“, sagte Martin Davis, geschäftsführender Gesellschafter bei DUNELM Associates.

Dennoch ist es für Industrie- und Unternehmensorganisationen immer schwieriger, das Konzept der Edge-KI zu ignorieren. Ressourcenintensive Vorgänge wie Deep Learning und Computer Vision finden traditionell in zentralisierten Computerumgebungen statt. Aber die wachsende Verfügbarkeit von leistungsstarker Netzwerk- und Computerhardware eröffnet die Möglichkeit, diese Aktivität in eine „zentralisierte Cloud-Architektur an den Rand] zu verlagern“, wie Berater Chaitan Sharma schrieb. "Es wird nicht über Nacht passieren, aber es ist unvermeidlich." Gartner prognostiziert, dass bis 2025 drei Viertel der Unternehmensdaten am Edge verarbeitet werden, während Grand View Research prognostiziert, dass der Edge-Computing-Markt bis 2025 jährlich um 54 % wachsen wird. 

Am Rande der Industrie

Die Frage, wo genau Edge Computing stattfindet, ist nicht immer klar. Das Open Glossary of Edge Computing definiert die Architektur als „die Bereitstellung von Rechenfähigkeiten bis zu den logischen Extremen eines Netzwerks“. Der Edge befindet sich außerhalb herkömmlicher Rechenzentren und der Cloud und konzentriert sich auf die „letzte Meile“ des Netzwerks und ist so nah wie möglich an den Dingen und Personen, die Daten oder Informationen produzieren.

[ IoT-Welt ist Nordamerikas größte IoT-Veranstaltung, bei der sich Strategen, Technologen und Implementierer vernetzen und IoT, KI, 5G und Edge in allen Branchen in die Tat umsetzen. Buchen Sie jetzt Ihr Ticket. ]

Angesichts der Schwierigkeiten beim Einsatz von Cloud Computing in Umgebungen wie Fabriken oder Bergwerken ist der Industriesektor ein guter Kandidat für eine Edge-Computing-Architektur. Eine Fabrik kann beispielsweise eine hohe Netzwerkzuverlässigkeit mit einer Verfügbarkeit von 99,9999 % und einer Latenz von wenigen Millisekunden erfordern und das Senden von Daten außerhalb des Standorts einschränken. Angesichts dieser Einschränkungen haben die meisten Fabriken traditionell physische Verkabelung und proprietäre verdrahtete Protokolle von Industrieanbietern eingesetzt. Das Ergebnis ist eine „fragmentierte Technologieumgebung“, die Technologien wie Edge-Computing laut Ovum Market Radar:CSPs’ Industrial IoT Strategies and Propositions zu vereinheitlichen helfen könnten.

Eine Edge-Computing-Architektur, die ohne Cloud auskommt, ist nicht zu verwechseln mit lokalen Computing-Szenarien, bei denen alle Daten auf einzelnen Geräten verarbeitet werden. Während solches On-Board-Computing kritische Entscheidungen in Echtzeit unterstützen kann, ist die Gerätehardware laut Harald Remmert, Senior Director, Research and Innovation bei Digi International, teuer. Darüber hinaus ist die Fähigkeit solcher lokaler Rechenkonfigurationen, Vorgänge wie maschinelles Lernen zu unterstützen, häufig eingeschränkt.

Umgekehrt könnte ein KI-fähiges Edge-Computing-System in einer Fabrik Daten von mehreren Maschinen kontextualisieren, um Probleme zu erkennen und letztendlich vorherzusagen, die Ausfallzeiten verursachen. „Die Durchführung von Machine-Learning-Inferenz am Edge ermöglicht die Skalierung von Anwendungen, selbst wenn keine niedrigen Latenzen erforderlich sind“, schloss Gal Ben-Haim, Head of Architecture von Augury, einem Unternehmen, das Machine-Learning-Technologien für die Prozessindustrie entwickelt.

Das bedeutet jedoch nicht, dass die Bereitstellung von maschinellem Lernen am Edge unbedingt einfach ist. Es „erfordert ausgereiftere Modelle des maschinellen Lernens und neue Wege, um ihre Bereitstellungen zu verwalten“, sagte Ben-Haim.

Von der Cloud zum Edge und zurück 

Während einige Edge-Computing-Szenarien möglicherweise überhaupt keine zentralisierten Computing-Modelle verwenden, sehen viele Analysten Edge-Computing, das ein Kontinuum von Computing mit verteilten und zentralisierten Aspekten ermöglicht. Anstatt einen Pendelschwung weg von den zentralisierten Rechenzentren darzustellen, bietet Edge Computing einen „Waffenstillstand“, sagte Gartner-Analyst Bob Gill in einem Webinar aus dem Jahr 2018.

„Einige Modelle des Edge Computing behaupten, dass es die Cloud ersetzen wird; Ich glaube nicht, dass das passieren wird“, sagte Bill Malik, Vizepräsident für Infrastrukturstrategien bei Trend Micro.

„Es gibt wenige Anwendungsfälle, in denen Edge in sich geschlossen ist“, stimmt Daniel Newman, Principal Analyst bei Futurum Research, zu.

Meistens erfolgt der Datenfluss zwischen Edge und Cloud bidirektional. Während die Cloud die Verfolgung allgemeiner Trends und Effekte zweiter Ordnung wie Änderungen des Energieverbrauchs oder der Luftqualität fördern kann, „gibt Edge Computing lokale Antworten auf lokale Fragen“, sagte Malik.

Accenture versteht Edge Computing als Cloud-Erweiterung. „Edge wird von vielen unserer Kunden zusammen mit Cloud-Analyse- und Machine-Learning-Technologien verwendet, um neue und wertvolle Geschäftsdienste zu ermöglichen“, sagte Charles Nebolsky, Managing Director und Network Practice Lead bei Accenture Technology. Ein Beispiel ist die Connected Mine-Initiative von Accenture, um die Art und Weise, wie Bergbauunternehmen ihre Grubenbetriebe verwalten, zu rationalisieren. „Wir haben die Connected Mine-Lösung um Edge-Computing bei einem industriellen Bergbaukunden erweitert, bei dem hochauflösende Videos von Bohrgeräten verwendet werden, um die Gesteinsdichte zu bestimmen“, fügte Nebolsky hinzu. Diese Fähigkeit ermöglicht es dem Bohrer, Winkel und Geschwindigkeit in Echtzeit anzupassen und auch die vorausschauende Wartung der Ausrüstung zu unterstützen. „Die Bandbreite der benötigten High-Density-Videostreams kann für die direkte Cloud-Verarbeitung nicht auf kostengünstige Weise mit den erforderlichen Bildern pro Sekunde in die Cloud zurücktransportiert werden“, sagte Nebolsky.

Ein weiteres Beispiel für diesen zirkulären Datenfluss ist Volvo Trucks, das Telematik- und Ferndiagnosesysteme in neueren Fahrzeugen einsetzt. Das System funktioniert zum Teil mithilfe des Bordcomputers, der abnormale Parameter erkennt und Fehlercodes auslöst. Von dort überträgt das Telematiksystem störende Betriebsdaten an das Uptime Center von Volvo, das Reaktionen mit relevanten Parteien wie Reparaturwerkstätten, Händlern und Kundendienstmitarbeitern koordinieren kann. Während On-Board-Computing auf Lkws bei der Diagnose von Problemen hilft, ermöglicht der zentralisierte Aspekt der Bereitstellung Werkstätten und Händlern, sich auf Lkws vorzubereiten, die zur Wartung ankommen.

„Volvo macht Fortschritte bei dem, was sich schnell zu einem gemeinsamen Reifegradmodell in Bezug auf Edge-Analytics, künstliche Intelligenz und maschinelles Lernen entwickelt“, sagte Bill Roberts, IoT-Direktor bei SAS. Ein sinnvoller nächster Schritt wäre, die Edge-Computing-Funktionalität von Lkw zu aktivieren, um zu bestimmen, welche Fehlerdaten umsetzbar sind. Eine solche Verschiebung würde „Bandbreite zum Sammeln zusätzlicher Telematikdaten freisetzen, die zu mehr analytischen Erkenntnissen führt, die in der Cloud entwickelt werden“, sagte Roberts. „Diese Erkenntnisse können je nach Anwendungsfall überall vom Edge oder der Cloud aus operationalisiert werden.“

Das Testbed für die Integration von verteilten Energieressourcen bietet ein weiteres Beispiel für kombiniertes verteiltes und Cloud-Computing. Das Projekt bietet eine Alternative zu traditionellen zentralen Wechselstromnetzen, die Schwierigkeiten haben, Strom aus verteilten Gleichstromquellen wie Sonnenkollektoren oder Windkraftanlagen effizient zu nutzen. Der Teststand nutzt Edge-basierte Echtzeit-Analysen, die auf Hardware im gesamten Grid verteilt sind, um heterogene Altgeräte und zentralisierte Steuerung mit vollen Fähigkeiten von Echtzeitreaktion und autonomem Betrieb zu verbinden, so Erik Felt, Market Development Director von Future Grid at RTI und Neil Puthuff, Softwareintegrationsingenieur bei RTI. Die Plattform ist für den autonomen Betrieb und Edge-basierte Analysen ausgestattet und bietet gleichzeitig Daten und Kontrolle für ein oder mehrere Kontrollzentren.

Die 5G-Konnektivität hat auch das Interesse an Edge-Architekturen geweckt, um Computing außerhalb traditioneller Rechenzentren zu ermöglichen. Es gibt zwar nur wenige Beispiele für Unternehmen mit 5G-fähigen Edge-Computing-Projekten, aber das könnte sich mit der Reife des 5G-Netzwerks ändern. Die Vorteile dieses Ansatzes ähneln denen der Cloud, allerdings mit geringerer Latenz, stellte Remmert fest. „Diese Architektur ist für Machine-Learning-Anwendungen sehr beliebt“, schloss er.


Internet der Dinge-Technologie

  1. Warum Edge Computing für das IoT?
  2. Edge Computing:Die Architektur der Zukunft
  3. Edge Computing:5 potenzielle Fallstricke
  4. Warum Edge Computing für das IIoT so wichtig ist
  5. Linux Foundation gründet Dachgruppe für Edge Computing
  6. Edge-Computing-Architektur auf der HPE Discover vorgestellt
  7. Edge Computing verstehen und warum es so wichtig ist
  8. 6 gute Gründe für Edge Computing
  9. Edge Computing bekommt endlich ein Framework
  10. Edge Computing verbessert den Einzelhandel im Geschäft