KI-gesteuertes NaaS führt Innovationen auf der GNE 2025 an
Das Trainieren und Ausführen von KI-Modellen ist oft ein verteiltes Unterfangen. Verschiedene Rechen- und Datenressourcen werden in der Regel strategisch eingesetzt, um die Leistung zu optimieren und Kosten zu senken. Ein solches verteiltes Modell hat einen neuen Schwerpunkt auf die zugrunde liegende Netzwerkinfrastruktur gelegt, die die verschiedenen Elemente verbindet. Dieser Netzwerkaspekt der KI stand diese Woche im Mittelpunkt der GNE 2025-Konferenz in Arlington, TX.
Der Einfluss der KI auf das jährliche Global NaaS Event (GNE) war während der gesamten Konferenz deutlich zu erkennen. In den vergangenen Jahren war das Hauptthema der Konferenz Network-as-a-Service (NaaS) selbst. In den letzten Jahren hat sich der Konferenzveranstalter Mplify (ehemals MEF), die internationale Organisation, die sich aus Dienstanbietern, Anbietern von Technologielösungen und Unternehmensanwendern zusammensetzt, auf die Entwicklung von Frameworks, Lifecycle Service Orchestration (LSO)-APIs und Zertifizierungen konzentriert, die es ermöglichten, NaaS-Angebote bei Bedarf zuverlässig zu bestellen und sicher bereitzustellen.
Siehe auch: Warum moderne KI NaaS braucht
Ein Fokus auf NaaS für KI
Anfang dieses Jahres erweiterte Mplify seinen Zuständigkeitsbereich, um den Bedarf an einem robusten Netzwerk zur Unterstützung von KI, verteilter Intelligenz und modernen Angeboten wie Neoclouds und GPUs-as-a-Service zu decken.
Pascal Menezes, CTO von Mplify, relativierte in seiner Eröffnungsrede den Netzwerkaspekt von KI. „Das Netzwerk wird von entscheidender Bedeutung. Es muss Leistungsgarantien haben und Qualität und Sicherheit bieten“, sagte Menezes. „Es muss außerdem dynamisch, bei Bedarf flüssig, programmierbar und automatisiert sein.“
Er wies auf mehrere Schlüsselbereiche hin, auf die sich Mplify und andere konzentrieren, um NaaS für KI zu unterstützen.
Zunächst wies er darauf hin, dass die verschiedenen Transportmethoden für KI immer strategischer werden. Es besteht ein großer Bedarf an Bandbreite zur Unterstützung von KI-Workloads. Die Branche reagiert mit neuen und weiteren Angeboten in Bereichen wie Carrier Ethernet, IP-Breitband und Low Earth Orbit (LEO)-Satelliten.
Damit solche Angebote verteilte KI-Arbeitslasten unterstützen können, muss es eine Möglichkeit geben, die verschiedenen Transporttechnologien so anzuordnen, zu nutzen und zu verwalten, als wären sie eine einzige Einheit. Zu diesem Zweck gab Mplify auf der Konferenz bekannt, dass es dem GSMA Open Gateway Framework beitritt, um einheitliche Netzwerk-APIs zu entwickeln, die sowohl in kabelgebundenen als auch in kabellosen Domänen funktionieren und KI-Konnektivität unterstützen.
Insbesondere erklärte Mplify, dass es dazu beitragen werde, die domänenübergreifende Integration von drahtlosen zu drahtgebundenen Umgebungen voranzutreiben, indem es seine LSO-APIs als Ergänzung zu den CAMARA-APIs des GSMA Open Gateway Framework für mobile Netzwerke nutzt. Die Kombination wird dazu beitragen, eine nahtlose End-to-End-Konnektivität zu ermöglichen.
Siehe auch: Was sind Neoclouds und warum braucht KI sie?
KI treibt die Carrier-Ethernet-Zertifizierungsanforderungen voran
Interessanterweise stellte Menezes fest, dass Mplify in diesem Jahr einen Anstieg der Nachfrage nach Carrier-Ethernet-Zertifizierungen von Anbietern aller Art verzeichnete. Sie benötigten die Zertifizierung, da Unternehmens- und Dienstanbieterkunden für ihre KI-Bemühungen Zertifizierungsanforderungen zu Transport- und Konnektivitätsdienst-RFPs hinzufügten.
Der Anstieg kam völlig unerwartet. Carrier Ethernet ist seit über zwei Jahrzehnten im Einsatz und wird weithin eingesetzt und genutzt. Mplify war unter seinem früheren Namen MEF aufgrund seiner Frameworks, LSO-APIs und Zertifizierungen maßgeblich am Erfolg von Carrier Ethernet beteiligt.
Um die neue Nachfrage nach Zertifizierung zu unterstützen, hat Mplify die Carrier-Ethernet-Zertifizierung für das KI-Zeitalter neu definiert. Konkret definiert die Carrier-Ethernet-Zertifizierung von Mplify nun zwei komplementäre Profile, Carrier Ethernet for Business und Carrier Ethernet for AI, die die Bereitschaft sowohl für Unternehmens- als auch KI-gesteuerte Dienste validieren.
Warum ist die neue Zertifizierung notwendig? „KI definiert neu, was Netzwerke leisten müssen“, sagte Daniel Bar Lev, Chief Product Officer bei Mplify. „Mit der Carrier Ethernet for AI-Zertifizierung erweitert Mplify die bewährte Grundlage von Carrier Ethernet for Business in die KI-Ära und versetzt Anbieter in die Lage, deterministische Leistung, automatisierte und intelligente Netzwerke bereitzustellen, die die nächste Generation von NaaS- und agentischen KI-Anwendungen unterstützen.“
Die Carrier Ethernet for AI-Zertifizierung wurde für KI-intensive Echtzeit-Workloads entwickelt und baut auf der Carrier Ethernet for Business-Zertifizierung auf. Sie validiert die Zuverlässigkeit, Flexibilität und Effizienz, die zur Koordinierung von KI-Modellen und Peripheriegeräten erforderlich sind. Laut Mplify gehören zu den wichtigsten Anwendungsfällen die Konnektivität von Rechenzentrum zu Rechenzentrum und Edge-zu-Rechenzentrum für verteiltes KI-Training und -Inferenz sowie die Konnektivität zwischen KI-Peripheriegeräten oder -Anwendungen und den Edge-GPU-Clustern.
Siehe auch: Was ist NaaS und warum braucht KI es?
NaaS, KI und Automatisierung
Das Training von KI-Modellen und die Ausführung von KI-Workloads erfordern mehr als reine Transport- und Konnektivitätsfähigkeiten. Menezes wies darauf hin, dass es weitere Bereiche gibt, die derzeit Aufmerksamkeit erhalten oder in naher Zukunft mehr Aufmerksamkeit erfordern werden.
Ein Aspekt, den Mplify anspricht, besteht darin, dass sich die Automatisierung vom Ost-West-Fluss zwischen Unternehmen und Partnern hin zur Automatisierung der Interaktionen zwischen KI-Agenten und -Modellen entwickelt. Er wies darauf hin, dass dies robuste Identitäts-Frameworks, Authentifizierungs-, Autorisierungs- und Prüffunktionen erfordert.
Auf der Konferenz veröffentlichte der Mplify Enterprise Leadership Council (ELC) ein Manifest zur LSO-Automatisierung mit dem TitelAccelerating Enterprise Connectivity and Automation through LSO APIs . Das Manifest fordert Dienstanbieter auf, die standardisierten Geschäfts- und Betriebs-APIs von Mplify zu übernehmen. Konkret fordert das Manifest Dienstanbieter dazu auf, manuelle Prozesse durch standardisierte, maschinenlesbare APIs zu ersetzen, die Unternehmens-IT-Systeme und Anbieternetzwerke verbinden. Solche APIs ermöglichen eine Echtzeitautomatisierung über globale Netzwerke hinweg.
In dem Manifest betonte die ELC-Gruppe, dass die Automatisierung die gesamte Lieferkette umfassen muss, vom Unternehmensrand über die Anbieternetzwerke bis hin zur Cloud, um die Agilität, Skalierbarkeit und Sicherheit zu bieten, die die digitalen Unternehmen von heute benötigen.
Zukünftige Probleme
Es wird erwartet, dass KI in Zukunft in verschiedenen Aspekten von Geschäfts- und Regierungsabläufen eine entscheidende Rolle spielen wird.
Daher ist Cybersicherheit von entscheidender Bedeutung für den Schutz von KI-Flüssen, die Klassifizierung von KI-Anwendungen, die Durchsetzung von Zero-Trust-Richtlinien sowie das Scannen und Isolieren anomaler KI-Agenten und -Modelle. Dies sind alles Bereiche, in denen Mplify seine bestehenden Bemühungen unterstützen und erweitern wird.
Auch in naher Zukunft werden Regierungen weltweit auf KI zurückgreifen, um mehr Dienste bereitzustellen und ein breiteres Spektrum von Operationen zu unterstützen. Solche Aktivitäten erfordern eine erhöhte Sicherheit. Zu diesem Zweck wies Menezes darauf hin, dass souveräne KI, bei der Länder ihre eigene KI-Infrastruktur und -Modelle aufbauen, ein wichtiger Trend sei. Erwarten Sie heute und in naher Zukunft, dass Telekommunikationsunternehmen und Dienstanbieter eine zentrale Rolle bei der Bereitstellung der erforderlichen Transport-, Rechenzentren- und GPU-as-a-Service-Funktionen zur Unterstützung dieser souveränen KI-Einsätze spielen werden.
Cloud Computing
- Ein Leitfaden für eine erfolgreiche Cloud-Migration
- Datensicherungsstrategie:Ultimative Schritt-für-Schritt-Anleitung für Unternehmen
- 10 coolste Cloud-Programmiersprachen
- Wie DevOps einen neuen Ansatz für die Cloud-Entwicklung diktiert
- Ein Leitfaden zum Cloud-Kostenmanagement für Unternehmen – Kosten verstehen und senken
- Unstrukturierte Daten:Die versteckten Kosten für die Industrie – wie man sie in Wert umwandelt
- Verbessern Sie Ihre Hybrid Cloud:Bewährte Schritte zur Überbrückung von Leistungslücken
- Cloud-Migrations-Checkliste:8 Schritte zur Gewährleistung einer reibungslosen (und sicheren) Cloud-Reise
- Was ist Cloud Computing und wie funktioniert die Cloud?
- Best Practices für Multi-Cloud-Sicherheit