Industrielle Fertigung
Industrielles Internet der Dinge | Industrielle Materialien | Gerätewartung und Reparatur | Industrielle Programmierung |
home  MfgRobots >> Industrielle Fertigung >  >> Industrial Internet of Things >> Internet der Dinge-Technologie

Am Horizont nach dem „intelligenten“ Wandel im IoT suchen

Wir alle wurden von dem Hype um das „intelligente Zeug“ des Internets der Dinge und der bevorstehenden Ankunft unserer Roboter-Oberherren überschwemmt. Daher neigen wir dazu, das überwältigende Wunder der reaktionsschnellen und intelligenten Computermetamorphose, die uns bevorsteht, zu minimieren.

Seit Jahren sagt die IoT-Community, dass, wenn wir wirklich wollen, dass „Dinge“ von Wert sind, sie nicht dumm sein können. Die erste Welle bestand darin, alles miteinander zu verbinden, und wir sind dort vorangekommen. Der nächste Schritt besteht darin, „Dinge“ tatsächlich intelligenter zu machen.

Es gibt eine Vielzahl kommerzieller Lösungen, die das Versprechen, unseren Weg zu einem produktiveren Leben zu automatisieren, nicht wirklich einlösen. Und die Bedenken, unsere vernetzten Dinge richtig abzusichern, wiegen immer noch schwer. Aber es gab wirklich transformative Sprünge bei der Rechenleistung und der erreichbaren Funktionalität. Der Killer-Anwendungsfall für IoT ist am Horizont, aber bevor wir definieren, was das ist und wie es sich manifestieren wird, denke ich, dass es wichtig ist, grob zu identifizieren, wie wir hierher gekommen sind.

Die „Dreifaltigkeit“

Die Auswirkungen der Open-Source-Bewegung auf exponentielle Sprünge im technologischen Fortschritt können nicht minimiert werden. Die Algorithmen und die Computerinfrastruktur, die „intelligente“ Dinge vorantreiben – IoT, künstliche Intelligenz und Fähigkeiten für maschinelles Lernen – gibt es schon seit Jahrzehnten. Das kann dir jeder bei der NSA sagen.

Der Unterschied liegt jetzt in der Zugänglichkeit für die Massen. Diese Technologien wurden einst eifersüchtig bewacht, von der Welt abgeschottet und waren nur in beeindruckenden Institutionen verfügbar, die über enorme Ressourcen sowohl an Personal als auch an Rechenleistung verfügten. Open Source hat das alles geändert. Neues muss nicht mehr von Grund auf neu gebaut werden und kurbelt so den Innovationskreislauf an. Der weit verbreitete Zugang zu Wissensdatenbanken und Software ermöglicht es jedem, der dazu neigt, auf den Schultern von Giganten aufzubauen und die Weisheit der Massen zu nutzen.

Die durch Open Source angetriebene kreative Explosion hat zur Entstehung der Cloud beigetragen, die die zweite Bewegung ist, die dafür verantwortlich ist, unser neues Computerzeitalter einzuläuten. Befreit von den physischen Einschränkungen und Kosten einzelner Server-Stacks und On-Premise-Speicher brach das Zeitalter der „App für alles“ an und die Kapazitäten für die On-Demand-Erfassung und den Verbrauch von Big Data wurden freigesetzt. Nachdem wir die Rechenleistung ohne geografische Beschränkungen skalieren konnten, wurde unsere Technologie mobil und der Traum von kleineren und immer leistungsfähigeren Geräten, die riesige Mengen an Informationen transportieren, wurde Wirklichkeit.

Big Data ist das Lebenselixier moderner Computer. Aber Daten tun nicht alles und hat an sich keinen Wert. Damit kommen wir zum dritten Satz der „intelligenten“ Revolution:Analytics. Die Arten von Augmented Computing, denen der Mensch heute im Alltag begegnet – Spracherkennung, Bilderkennung, selbstfahrende und fahrerassistierende Autos – basieren auf Konzepten, die aus der Analytik und dem Streben nach Predictive-Analytics-Modellen hervorgegangen sind, die in aller Munde waren noch vor wenigen Jahren.

Die entmutigende Erkenntnis bei Predictive Analytics war, dass Sie zum Trainieren effektiver Modelle sowohl riesige Datenmengen als auch zahlreiche Data Scientists benötigen, um Datenmodelle kontinuierlich aufzubauen, zu pflegen und zu verbessern. Wir waren wieder einmal mit den Hindernissen des Zugangs und der Ressourcenbeschränkung konfrontiert.

Und so kommen wir in der Gegenwart an, in der sich die Dinge in eine neue Richtung verschieben. Der Unterschied besteht jetzt darin, dass wir keine Armee von Datenwissenschaftlern rekrutieren müssen, um Modelle zu erstellen; Wir haben unseren Programmen beigebracht, einige dieser Hindernisse für sich selbst zu beseitigen.

Inhärente Intelligenz

Unsere KI-gesteuerten Systeme, insbesondere Deep-Learning-Systeme, können jetzt mit Millionen von Trainingssätzen gefüttert, innerhalb von Tagen/Stunden trainiert und kontinuierlich neu trainiert werden, wenn mehr Daten verfügbar werden. Open-Source-Tools und Cloud-Computing sind immer noch wichtig und entwickeln sich weiter, und wir verarbeiten immer noch jede Menge Daten, um blitzschnelle Analysen durchzuführen, aber unsere Programme integrieren jetzt KI als Motor, um sich selbst „intelligenter“ zu machen.

Expertise aus sehr unterschiedlichen Computerbereichen ist erstarrt, um Programme mit bisher ungeahnten Fähigkeiten auszustatten. Das Paradoxe ist, dass die intelligente IoT-Strategie mit immer leistungsfähigerer und kostengünstigerer Cloud darin besteht, einen Großteil der Eingangsverarbeitung von der Cloud weg an den Edge zu verlagern. Dies dient zwei Zwecken:Entscheidungen auf dem Gerät zu ermöglichen, ohne dass ein Eingriff in die Cloud erforderlich ist, und Bereitstellung von Edge-Mustern und -Analysen in der Cloud für schnelle Analysen der zweiten Stufe. Winzige KI-Engines können jetzt Analysen nahezu in Echtzeit auf Edge-Geräten und „Dingen“ durchführen, die nicht größer als ein Streichholzbriefchen sind. Und da diese Rechenleistungspunkte in gewöhnlichen Objekten – intelligente Router und Gateways, autonome Fahrzeuge, medizinische Echtzeitüberwachungsgeräte – immer häufiger vorkommen, erweitert sich ihre potenzielle Funktionalität exponentiell.

Künstliche Intelligenz am Rande

In den Anfängen des IoT (auch bekannt als M2M) lag der Fokus darauf, Daten nach Möglichkeit in die Cloud zu bringen. Log-Dateien per FTP jede Nacht zu übertragen, war der letzte Schrei. Als General Electric mit dem „industriellen Internet“ auf die Bühne kam, begannen alle über Echtzeit-Live-Datenkonnektivität zu sprechen. Das war ein großer Sprung von FTP, aber die Leute behandelten Edge-Geräte einfach als „Dinge“, die Daten zu Analysezwecken in die Cloud übertragen. Wir befinden uns jetzt inmitten eines exponentiellen Reverse-Fans aus diesem Denken heraus. Echtzeitanforderungen definieren das Paradigma neu. Die Cloud verlagert sich jetzt in die Rolle des IoT-Supports und der Second-Tier-Analyse, und die Verarbeitung wird an den Rand verlagert.

Wir haben beispielsweise mit einem Unternehmen zusammengearbeitet, das ein medizinisches Überwachungsgerät der nächsten Generation entwickelt. Anfangs gingen wir davon aus, dass wir bei einem so kleinen Gerät Rohdaten vom Gerät zur Analyse in die Cloud senden würden. Aber das ist weder gewünscht noch ist es passiert. Das Unternehmen wollte die Analysen auf dem Monitor. Sie wollten, dass die Analysen und Mustererkennung direkt auf dem Gerät erfolgen, Aktionen auf dem Gerät ausführen und nur „intelligente“ (im Gegensatz zu Rohdaten) Daten in die Cloud gesendet werden. Das Modell unterschied sich dramatisch von standardmäßigen industriellen M2M-Operationen – bei denen alles verbunden war und Datenmengen aus allen Quellen gesammelt und nach einem festgelegten Zeitplan an einem zentralen Repository verarbeitet wurden.

Der ganze Zweck der Verbindung jetzt besteht darin, sofortige Präzisionsergebnisse am Eintrittspunkt für sofortige Antworten zu erhalten. Selbst die geringe Latenz, die bei der „traditionellen“ Cloud-Verarbeitung mit Hunderttausenden, wenn nicht Millionen und Milliarden von Geräten einhergeht, ist für Echtzeit-Edge-Analytics nicht so effizient wie die Verwendung dieser neuen Architektur. In einigen Fällen können Sie eine Datenreduktion um das 1.000-fache erreichen, indem Sie einfach die Analysen und Muster im Vergleich zu den Rohdaten in die Cloud senden.

Wir handeln nicht mehr mit dummen Sammelgeräten; wir brauchen sie, um mehr zu tun, als nur zu kuratieren. Sie müssen künstlich (und natürlich) intelligent sein – in der Lage, Mustererkennung und -analyse in ihren winzigen Motoren durchzuführen. Sie übertragen diese Ergebnisse für andere Zwecke in die Cloud. So wie sich dieses Ideal vermehrt, so wachsen auch die möglichen Anwendungen.

Wie im Beispiel eines autonomen Autos perfekt verkörpert, liefert dieses Dual-Edge/Cloud-Analysemodell präzise Echtzeitergebnisse, die kontinuierlich und automatisch anhand der ständig wachsenden Datenmengen verfeinert werden können. Dadurch werden wertvolle, nutzbare Informationen erzeugt und produktives Handeln gefördert. Noch vor einem Jahr hätte ich B.S. zu dieser Idee einer weit verbreiteten IoT- und KI-Integration – aber Edge Computing und KI sind wirklich aus dem Labor und in unsere Welt ausgebrochen. Es wird zu Ergebnissen führen, die wir noch nie zuvor gesehen haben.

Die Killer-Anwendungsfälle für das IoT manifestieren sich in wirklich intelligenten Edge-Geräten – in Lösungen, die speziell für bestimmte Probleme oder Aufgaben entwickelt, dann miteinander verbunden und Mustern unterworfen werden, die über ihre ursprüngliche Anwendung hinausgehen. Da immer intelligentere, KI-fähige „Dinge“ in unseren Alltag integriert werden und an den Rändern unserer miteinander kommunizierenden Netzwerke operieren, werden wir sehen, dass sich Dinge über das bloße Vernetzen hinaus zu einer aktiven Verkörperung von Intelligenz entwickeln. Wirklich kluges Zeug.

Dieser Artikel wurde in Zusammenarbeit mit Greenwave Systems erstellt.

Der Autor ist Vice President und Engineering System Architect bei Greenwave Systems, wo er die Entwicklung der Edge-basierten visuellen Analyse- und Echtzeit-Mustererkennungsumgebung AXON Predict leitet. Er verfügt über mehr als 25 Jahre Erfahrung in der Ausführung von Unternehmenssystemen und fortschrittlichen visuellen Analyselösungen.


Internet der Dinge-Technologie

  1. Smart Data:Die nächste Grenze im IoT
  2. IoT:Das Heilmittel gegen steigende Gesundheitskosten?
  3. Aussichten für die Entwicklung des industriellen IoT
  4. Das Potenzial für die Integration visueller Daten in das IoT
  5. Digitale Zwillinge können der intelligente Vorsprung für das IoT im Fertigungssektor sein – Teil 2
  6. Die 3 wichtigsten Herausforderungen bei der Aufbereitung von IoT-Daten
  7. Das operative Gehirn:Ein neues Paradigma für intelligentes Datenmanagement im industriellen IoT
  8. Ist Ihr System bereit für IoT?
  9. Demokratisierung des IoT
  10. Maximierung des Wertes von IoT-Daten