Industrielle Fertigung
Industrielles Internet der Dinge | Industrielle Materialien | Gerätewartung und Reparatur | Industrielle Programmierung |
home  MfgRobots >> Industrielle Fertigung >  >> Industrial Internet of Things >> Internet der Dinge-Technologie

Ein gutes Datenanalyseprogramm beruht auf guten DataOps

Wenn Ihr DataOps-Prozess nicht gut verstanden wird, kann dies zu Inkonsistenzen in Ihren Daten und Ihren Analyseergebnissen führen.

Die Notwendigkeit eines starken DataOps-Prozesses wird oft unterschätzt – und missverstanden, wenn er auf Datenanalyseprojekte angewendet wird. Einfach ausgedrückt ist DataOps DevOps (eine Reihe von Praktiken, die Tools und IT-Operationen kombinieren) für Daten – und ist der Prozess der Operationalisierung von Daten und der Umsetzung der Kernidee, dass Sie bei jeder Bereitstellung oder Änderung achtsam sein müssen der bereits vorhandenen Daten und der potenziellen Auswirkungen der Änderungen, die gefördert werden.

Die Herausforderung in Situationen, in denen dem zugrunde liegenden DataOps-Prozess nicht die angemessene Aufmerksamkeit geschenkt wird, besteht darin, dass eine Vielzahl von Problemen auftreten können, die letztendlich zu einigen schwerwiegenden Folgen führen können.

Siehe auch: DataOps:So verwandeln Sie Daten in umsetzbare Erkenntnisse

Sie treiben eine Änderung voran, die etwas in der Produktion kaputt macht

Das ist der schlimmste Albtraum jedes Datenteams. Noch schlimmer ist es jedoch, keinen Prozess zu haben, um zu wissen, 1) welche Änderung eingeführt wurde und 2) wie das Problem behoben werden kann. Wenn Sie keine Sicht darauf haben, welche Änderungen bereitgestellt werden, haben Sie keine Möglichkeit, das neu eingeführte Problem schnell anzugehen. Dies ist ein Entwicklerproblem, aber es wird schnell zu einem Geschäftsproblem, da Sie anfangen können, Ihr Geschäftspublikum zu verlieren. Wenn Ihr Kundenstamm Ihrem System und den zugrunde liegenden Prozessen nicht vertraut (und sie beginnen, beschädigte Daten in Echtzeit zu sehen), wird die Glaubwürdigkeit Ihres gesamten Datenprogramms in Frage gestellt – und es wird wegen etwas in Frage gestellt durch einen klaren, getesteten und dokumentierten Prozess gelöst werden könnten.

Die Liefergeschwindigkeit für Erweiterungen

Wenn Sie keinen soliden Prozess haben und Daten sehen, die nicht korrekt sind, wird Ihre Zeit zur Behebung von Problemen und zur Bereitstellung von Verbesserungen extrem lang sein. Das Ergebnis? Sie sehen sich länger schlechte (oder unvollständige) Daten an. Der Bereitstellungsprozess selbst muss als Teil Ihres gesamten Datenprogramms betrachtet werden. Implementieren Sie keine Codeänderung, um den Bereitstellungsprozess einfach zu testen. Funktioniert der Prozess selbst so, wie er sollte – oder führt dieser Prozess tatsächlich die falschen Dinge in die Produktion ein?

Du hast die Möglichkeit entfernt, einen Hotfix durchzuführen

Probleme treten auf, das ist unvermeidlich, und Entwicklerteams müssen in der Lage sein, schnell einzugreifen und einen Hotfix durchzuführen, um das unmittelbare Problem zu beheben. Das Problem ist jedoch, dass Sie riskieren, denselben Fehler bei Ihrer nächsten Bereitstellung erneut einzuführen, wenn Sie keinen DataOps-Prozess eingerichtet haben.

Siehe auch: Time-to-Market ist alles – machen Sie es möglich mit DataOps

Menschliches Versagen und Kosten

Egal wie vorsichtig die Leute sind, es werden Fehler gemacht. Ein DevOps-Prozess ist darauf ausgelegt, so viele menschliche Fehler wie möglich aus Ihrem Datenanalyseprogramm zu entfernen. Je weniger menschliche Fehler, desto genauer Ihre Daten – und Programme. Menschen sind teuer, und Prozesse können dazu beitragen, diese Kosten zu senken. Je mehr Personen an einer Bereitstellung beteiligt sind, desto teurer ist dieser Prozess. Entfernen Sie die manuellen Aspekte Ihres Datenanalyseprogramms und Sie erhalten ein besseres, billigeres und schnelleres Programm.

Wenn Sie sich über den aktuellen Stand Ihres DataOps-Prozesses nicht sicher sind, stellen Sie Ihrem Team diese Fragen. Die Antworten werden Ihnen alles sagen, was Sie wissen müssen.

  1. Wie sieht unser aktueller Prozess aus, um Datenänderungen in die Produktion zu bringen? Ist es konsistent und gut dokumentiert?
  2. Gibt es isolierte Entwicklungs- und Testumgebungen, in denen gearbeitet wird?
  3. Haben die Leute Administratorzugriff auf die Produktion, um Änderungen vorzunehmen? Gibt es einen Prozess, um zu verhindern, dass Benutzer ihre eigenen Änderungen in die Produktion übertragen (d. h. wie ist die Governance zwischen Entwicklung und Bereitstellung)?

Wenn Ihr DataOps-Prozess nicht gut verstanden wird, kann dies zu Inkonsistenzen in Ihren Daten führen. Inkonsistenzen in Ihren Daten führen dazu, dass Ihre Kunden an der Qualität ihrer Informationen zweifeln und dass sie dem, was sie als Quelle der Wahrheit sehen, nicht wirklich vertrauen können. Bauen Sie einen besseren Prozess auf, und Sie werden schneller vorankommen, in den Augen Ihrer Kunden vertrauenswürdig bleiben und wissen, dass Sie eine einzige Version der Wahrheit aufgebaut haben, auf die Sie sich verlassen können, um wichtige Geschäftsentscheidungen zu treffen.


Internet der Dinge-Technologie

  1. Sensai enthüllt die wichtigsten Risiken des Pflanzenbodens
  2. Upgrade von Industrie 4.0 mit Edge Analytics
  3. Optimierung der Fertigung mit Big Data Analytics
  4. Top IoT Data Analytics Platforms
  5. BI-Dashboards integrieren Smart Factory-Daten für aussagekräftige Analysen
  6. Process Insights:Was nach der Prozessanalyse zu tun ist
  7. IIoT und Predictive Analytics
  8. Predictive Analytics erklärt
  9. Prozess + Stammdaten &Digitale Transformation, Teil II
  10. 6 gute Gründe für Edge Computing