Industrielle Fertigung
Industrielles Internet der Dinge | Industrielle Materialien | Gerätewartung und Reparatur | Industrielle Programmierung |
home  MfgRobots >> Industrielle Fertigung >  >> Industrial Internet of Things >> Internet der Dinge-Technologie

NVIDIA verbündet sich mit VMware, um die KI-Wirtschaft zu transformieren

Durch die Erhöhung der Auslastungsraten von GPUs werden die Kosten für die Erstellung und Bereitstellung von KI-Anwendungen erheblich sinken.

Auf der heutigen VMworld 2019-Konferenz gaben NVIDIA und VMware bekannt, dass sie es jetzt gemeinsam ermöglichen werden, virtuelle VMware-Maschinen auf grafischen Prozessoreinheiten (GPUs) bereitzustellen.

Als Teil dieser Initiative kündigte NVIDIA an, dass seine Software für virtuelle GPUs (vGPU) jetzt zusätzlich zur bestehenden Unterstützung für Client-Systeme auf virtuellen Maschinen auf Servern bereitgestellt werden kann. NVIDIA Virtual Compute Server (vComputeServer)-Software für GPUs wird ebenfalls erweitert, um Unterstützung für VMware vSphere-Plattformen hinzuzufügen. NVIDIA hat sich außerdem verpflichtet, seinen Hub für den Zugriff auf Tools zum Erstellen von Anwendungen mit künstlicher Intelligenz (KI) auf VMware-Plattformen verfügbar zu machen.

Siehe auch: Was sind die 3 Schlüsselkomponenten der Bereitschaft für künstliche Intelligenz?

Unter Verwendung dieser NVIDIA-Technologien hat VMware zugesagt, einen Cloud-Service bereitzustellen, der aus Amazon EC2-Bare-Metal-Instanzen besteht, die durch NVIDIA T4-GPUs beschleunigt werden, auf denen vComputeServer-Software auf VMware Cloud on AWS ausgeführt wird.

Insgesamt haben diese Fortschritte nicht nur erhebliche Auswirkungen auf die Verbesserung der GPU-Auslastung, sondern ermöglichen es Datenwissenschaftlern auch, mehrere Workloads auf GPUs zu aggregieren, die auf VMware-Servern vor Ort oder in der Cloud ausgeführt werden, sagt John Fanelli, Vice President of Product bei NVIDIAGrid /P>

Während das Interesse am Einsatz von GPUs zum Erstellen von Anwendungen für künstliche Intelligenz (KI) enorm war, waren die Kosten für die Erstellung dieser Anwendungen oft unerschwinglich. In Ermangelung einer virtuellen Maschine war jede GPU zuvor dazu bestimmt, jeweils eine Arbeitslast auszuführen. Durch die Erhöhung der Auslastungsraten von GPUs werden die Kosten für die Erstellung und Bereitstellung von KI-Anwendungen erheblich sinken, sagt Fanelli.

Das ist entscheidend, weil diese Kosten Unternehmen daran gehindert haben, mehr in KI-Anwendungen zu investieren, die das Potenzial haben, fast jeden Aspekt der menschlichen Existenz zu verändern.

„KI ist die leistungsfähigste Technologie unserer Zeit“, sagt Fanelli.

Die Leistung dieser KI-Arbeitslasten, die auf virtuellen Maschinen ausgeführt werden, wird jedoch je nach ihren individuellen Attributen variieren, sagt Fanelli. Viele Entwickler werden in der Lage sein, Leistungsprobleme auszugleichen, indem sie die Vorteile eines NVIDIA CUDA-Toolkits nutzen, um KI-Workloads parallel auszuführen, bemerkte Fanelli.

Da es erschwinglicher wird, KI-Anwendungen effizient zu erstellen und einzusetzen, dürfte die Zahl der KI-Projekte, die in den kommenden Monaten gestartet werden, steigen. Um diesen Prozess zu beschleunigen, sagte VMware auch, dass Kunden in der Lage sein werden, Workloads von GPU-Instanzen, die in lokalen Rechenzentren ausgeführt werden, in die Cloud zu migrieren, indem sie VMware HCX-Tools verwenden, die die Verschiebung virtueller Maschinen automatisieren und die Übertragung von Daten zwischen Plattformen beschleunigen.

GPUs, auf die hauptsächlich in der Cloud zugegriffen wird, sind aufgrund der effizienten Verwaltung von Speicher und I/O-Overhead durch GPUs zur bevorzugten Plattform für das Training von KI-Modellen geworden. NVIDIA hat sich jedoch mit gemischtem Erfolg dafür eingesetzt, sich auch auf GPUs zu verlassen, um die Inferenz-Engines auszuführen, die zur Ausführung dieser KI-Modelle anstelle von x86-Servern erforderlich sind. Durch Hinzufügen von Unterstützung für virtuelle Servermaschinen zu seiner Software sollte es viel einfacher werden, mehrere Inferenz-Engines auf derselben GPU-Plattform auszuführen, ähnlich wie Inferenz-Engines auf x86-Plattformen bereitgestellt werden.

Natürlich garantiert der Zugriff auf zusätzliche Infrastrukturressourcen nicht unbedingt den Erfolg von KI. Diese Ressourcen werden jedoch sehr dazu beitragen, die Kosten für Fehler während des KI-Entwicklungsprozesses zu reduzieren.


Internet der Dinge-Technologie

  1. Fehler vermeiden mit ISO 26262
  2. Advantech bringt mit NVIDIA beschleunigtes Computing von der Cloud zum Edge
  3. ADLINK:Bereitstellung von KI vom Edge bis zur Cloud mit Edge AI Solutions und der NVIDIA EGX-Plattform
  4. Syslogic:Robuster KI-Computer mit IP67-Schutz und Nvidia-Prozessorplattform
  5. Was mache ich mit den Daten?!
  6. Brandbekämpfung mit IoT
  7. Einstieg ins Geschäft mit IoT
  8. Unterwegs mit IoT
  9. Vielseitig mit IoT
  10. Die Volvo Group arbeitet mit Nvidia an einer KI-Plattform für autonome Lkw zusammen