2. August – Echtzeitanalyse- und KI-Marktupdate
Mit Neuigkeiten und Entwicklungen auf dem Markt für Echtzeitanalysen und KI Schritt zu halten, kann eine gewaltige Aufgabe sein. Glücklicherweise haben wir für Sie eine Zusammenfassung der Artikel, auf die unsere Mitarbeiter jede Woche stoßen. Und wenn Sie es lieber in Ihrem Posteingang haben möchten, melden Sie sich hier an !
Die Linux Foundation begrüßte das AGNTCY-Projekt, eine Open-Source-Infrastruktur, die Erkennung, Identität, Nachrichtenübermittlung und Beobachtbarkeit zwischen KI-Agenten verschiedener Anbieter und Frameworks ermöglicht. Cisco , Dell Technologies , Google Cloud , Oracle , und Red Hat sind als prägende Mitglieder dem AGNTCY-Projekt unter der Leitung der Linux Foundation beigetreten.
Ursprünglich von Cisco im März 2025 als Open Source bereitgestellt, in Zusammenarbeit mit LangChain und Galileo , AGNTCY ist auf mehr als 75 unterstützende Unternehmen angewachsen und stellt die grundlegende Infrastruktur für das „Internet der Agenten“ bereit, eine neue Ebene der Zusammenarbeit, die es Multiagentensystemen ermöglicht, zusammenzuarbeiten, unabhängig davon, wer sie erstellt hat oder wo sie ausgeführt werden.
Was ist AGNTCY?
Die offene, gemeinsame Infrastruktur des AGNTCY-Projekts bietet Entwicklern und Organisationen eine sichere Agentenidentität, zuverlässiges Messaging und eine durchgängige Beobachtbarkeit, um Transparenz, Leistung, Effizienz und Vertrauen zu verbessern.
Darüber hinaus ist das AGNTCY-Projekt mit führenden KI-Agententechnologien interoperabel, darunter dem Agent2Agent (A2A)-Projekt, das kürzlich zur Linux Foundation beigetragen wurde, und dem Model Context Protocol (MCP) von Anthropic. Das AGNTCY-Projekt ermöglicht dynamische Umgebungen mit mehreren Agenten, indem es A2A-Agenten und MCP-Server über AGNTCY-Verzeichnisse auffindbar macht, die Transparenz durch AGNTCY Observable Software Development Kits (SDKs) erhöht und den Nachrichtentransport über das SLIM-Protokoll (Secure Low Latency Interactive Messaging) unterstützt.
Neuigkeiten zur Echtzeitanalyse in Kürze
MLCommons kündigte die Veröffentlichung von MLPerf Client v1.0 an, einem Benchmark zur Messung der Leistung großer Sprachmodelle (LLMs) auf PCs und anderen Systemen der Client-Klasse. MLPerf Client v1.0 führt einen erweiterten Satz unterstützter Modelle ein, darunter Llama 2 7B Chat, Llama 3.1 8B Instruct und Phi 3.5 Mini Instruct. Außerdem wird Phi 4 Reasoning 14B als experimentelle Option hinzugefügt, um eine Vorschau auf die nächste Generation von LLMs mit hoher Reasoning-Fähigkeit zu erhalten. Durch diese Ergänzungen kann der Benchmark reale Anwendungsfälle über ein breiteres Spektrum an Modellgrößen und -funktionen widerspiegeln.
Amazon Web Services (AWS) gab bekannt, dass es sein serverloses Datenbankportfolio mit der allgemeinen Verfügbarkeit von Amazon DocumentDB Serverless (mit MongoDB-Kompatibilität) erweitert, einem vollständig verwalteten, kostengünstigen Dokumentendatenbankdienst. Serverlose Datenbanken wie Amazon DocumentDB Serverless sind besonders nützlich für Agenten. Dies liegt daran, dass die Arbeitsabläufe von Agenten schwer vorherzusagen sind und die Aktivität in einem Moment schnell zunehmen kann, nur um dann genauso schnell wieder abzunehmen.
Azul kündigte sein neues Managed Services Provider-Programm für Azul Intelligence Cloud an, ein Programm, das es Managed Service Providern (MSPs) ermöglicht, die Java-Bestands-, Schwachstellen- und Codenutzungsanalysen von Azul Intelligence Cloud direkt in ihre Java-Beratung, Lizenzverwaltung, Sicherheitsvorgänge und DevOps-Dienste einzubetten. Das Programm versetzt Partner in die Lage, ihre Kunden mit Berichten und analytischen Einblicken in ihre gesamte Java-Flotte zu unterstützen.
Erkennend kündigte die Einführung von AI Training Data Services an, einem neuen Angebot, das Unternehmen dabei helfen soll, KI-Modelle schnell und in großem Maßstab zu erstellen, zu verfeinern und zu implementieren. Das neue Angebot vereint Fachwissen in den Bereichen Datentechnik und KI-Schulung mit fundiertem Funktions- und Branchenwissen, um multimodale Daten in hochwertige Eingaben für maschinelles Lernen und generative KI-Modelle umzuwandeln.
DataRobot stellte die Agent Workforce Platform vor, eine Lösung zum Aufbau, Betrieb und zur Verwaltung einer voll funktionsfähigen Agentenbelegschaft. Gemeinsam mit NVIDIA entwickelt Mit dieser Plattform können Unternehmen Agenten wie digitale Mitarbeiter verwalten, von der Bereitstellung und Integration bis hin zur Echtzeitüberwachung, Umschulung und Außerbetriebnahme. Unternehmen können KI-Agent-Workloads überall schnell ausführen, orchestrieren und automatisch skalieren, sei es in Cross-Cloud-, On-Premise- oder Hybridumgebungen.
Elastisch kündigte ein großes Update der Elasticsearch Query Language (ES|QL) in Elasticsearch 8.19 und 9.1 an. ES|QL unterstützt jetzt Anwendungsfälle der Unternehmensklasse mit der allgemeinen Verfügbarkeit von LOOKUP JOIN und Cross-Cluster Search (CCS), einer neuen Standardeinstellung für Teilergebnisse, verbesserter Abfragebeobachtbarkeit sowie mehr als 30 zusätzlichen internen Verbesserungen, die die Latenz und den Ressourcenverbrauch in großen Umgebungen weiter reduzieren.
HelixML kündigte Helix 2.0 an, eine private KI-Plattform der nächsten Generation, mit der Unternehmen und Entwickler schnell produktionsbereite KI-Agenten auf ihrer eigenen Infrastruktur bereitstellen können. Helix 2.0 eliminiert die Komplexität, die hohen Kosten und Sicherheitsrisiken herkömmlicher KI-Bereitstellungen und bietet alles, was zum Erstellen, Bereitstellen und Verwalten leistungsstarker KI-Lösungen mit vollständiger Datensouveränität und vorhersehbarer Wirtschaftlichkeit erforderlich ist.
Hyland kündigte die Einführung von Agent Builder an, einem Tool, das Unternehmen dabei helfen soll, KI-Agenten der Enterprise-Klasse zu erstellen und bereitzustellen, die die betriebliche Effizienz steigern und die Entscheidungsfindung verbessern. Agent Builder automatisiert die zeitaufwändige Arbeit des Lesens, Verstehens und Reagierens großer Informationsmengen, sodass sich Teams auf höherwertige Aktivitäten konzentrieren können.
Informatica kündigte erweiterte Funktionen seiner Intelligent Data Management Cloud (IDMC)-Plattform an. Die neuen KI-gestützten Datenverwaltungsfunktionen sollen den unternehmensweiten Zugriff auf KI-fähige Daten vereinfachen und verbessern. Die Version führt neue Funktionen in den Bereichen Datenintegration, Governance, Qualität, Stammdatenverwaltung und iPaaS ein.
Legit Security führte neue KI-gestützte Funktionen ein, die sich auf die Verbesserung der Entwicklerproduktivität konzentrieren, indem die Behebung rationalisiert und das Application Security Posture Management (ASPM) erweitert wird, um KI-generierten Code besser zu schützen. Die neuen KI-Funktionen von Legit liefern Kontext für eine schnellere und intelligentere Priorisierung und Behebung von Schwachstellen – und das alles über eine einzige Ansicht in natürlicher Sprache.
Pangäa kündigte die Einführung von Pangea AI Detection and Response (AIDR) an, einer Sicherheitsplattform zur Überwachung, Erkennung und Sicherung von GenAI im gesamten Unternehmen. Die Lösung hilft Unternehmen, sich gegen neu auftretende KI-Risiken wie Schatten-KI und den Verlust sensibler Daten an LLMs zu verteidigen. Die Plattform ist ab sofort für den frühen Zugriff verfügbar und wird im September allgemein verfügbar sein.
Parallele Arbeiten kündigte den Start seines ACTIVATE AI Partner-Ökosystems an. Das Ökosystem bietet Zugriff auf modernste GPU-Kapazität über Neoclouds und Aggregatoren und bietet sicheren Zugriff auf Kubernetes-Umgebungen mit GPU-Pooling sowie herstellerneutralen, verteilten Objektspeicher. Vertriebspartner können auch die ACTIVATE AI-Steuerungsebene für Hybrid-Cloud-Bursting mit verteiltem Speicher integrieren.
Scality kündigte die Veröffentlichung von zwei Open-Source-Kubernetes-Treibern an. Sie enthalten einen COSI-Treiber (Container Object Storage Interface), der mit jeder S3-kompatiblen Objektspeicherlösung kompatibel ist. und einen CSI-Treiber (Container Storage Interface), der es Kubernetes ermöglicht, Dateispeicher direkt aus RING S3-Buckets bereitzustellen. Die beiden Treiber übernehmen automatisch die Backend-Bereitstellung von S3-Buckets, IAM-Anmeldeinformationen und Zugriffskonfiguration, alles ohne Benutzereingriff.
Silverfort stellte den Silverfort MCP Server vor. Die Lösung bietet KI-Agenten eine direkte und sichere Verbindung zur Interaktion mit den Kernfunktionen von Silverfort. Der Silverfort MCP-Server basiert auf Streamable HTTP, dem neuesten und robustesten MCP-Transportprotokoll. Dies ermöglicht eine Remote-, gleichzeitige und zustandslose Kommunikation zwischen KI-Agenten und der Silverfort-Cloud. Es ist außerdem auf Zuverlässigkeit und Skalierbarkeit optimiert.
Schneeflocke kündigte die öffentliche Vorschau von Snowpark Connect für Spark an. Mit Snowpark Connect können Kunden die Vorteile der vektorisierten Snowflake-Engine für ihren Spark-Code nutzen und gleichzeitig die Komplexität der Wartung oder Optimierung separater Spark-Umgebungen vermeiden, einschließlich der Verwaltung von Abhängigkeiten, Versionskompatibilität und Upgrades. Benutzer können jetzt alle modernen Spark DataFrame-, Spark SQL- und benutzerdefinierten Funktionscodes (UDF) mit Snowflake ausführen.
StackGen kündigte die Einführung seiner Autonomous Infrastructure Platform an, einer KI-gestützten Plattform mit KI-Agenten zum Aufbau und zur Verwaltung einer Cloud-Infrastruktur mit autonomen Funktionen. Die Plattform von StackGen beseitigt das grundlegende Geschwindigkeitsgefälle bei der Bereitstellung von KI durch KI-Agenten, die den spezifischen Infrastrukturkontext und die Organisationsstandards verstehen, wodurch die Geschwindigkeit erhöht und der betriebliche Aufwand für Entwickler und Plattformteams reduziert wird.
Teradata kündigte ModelOps-Updates für ClearScape Analytics an, die den Weg von der Forschung zur Produktion für Anwendungsfälle von Agentic AI und Generative AI rationalisieren. Die neue einheitliche ModelOps-Plattform soll Analyseleitern und Datenwissenschaftlern nahtlose, native Unterstützung für Open-Source-ONNX-Einbettungsmodelle sowie LLM-APIs von Cloud-Dienstanbietern bieten. Dank der neu erweiterten LLMOps-Funktionen können diese Modelle ohne benutzerdefinierte Entwicklung bereitgestellt, verwaltet und überwacht werden.
ThoughtSpot gab die allgemeine Verfügbarkeit seines Agentic Model Context Protocol (MCP) Servers bekannt. Der Agentic MCP Server ermöglicht es Unternehmen, die Agentenanalysefunktionen von ThoughtSpot nahtlos in ihre KI-Agenten, Plattformen und Schnittstellen zu integrieren, die MCP unterstützen, einschließlich Claude, Gemini und ChatGPT. Anweisungen zum Einstieg in die Verwendung des Agentic MCP Servers sind öffentlich auf dem GitHub von ThoughtSpot verfügbar.
Partnerschaften, Kooperationen und mehr
Datavault AI kündigte die erweiterte Kommerzialisierung seiner Flaggschiff-KI-Agenten DataScore und DataValue an, die mit IBM entwickelt wurden watsonx.ai. Darüber hinaus hat IBM über mehrere Jahre hinweg talentierte KI-Ingenieure und umfassendes technisches Fachwissen eingesetzt, um Datavault dabei zu helfen, die Wirkung seiner Angebote für Kunden zu erweitern und zu beschleunigen.
dbt Labs gab bekannt, dass es eine strategische Kooperationsvereinbarung (SCA) mit Amazon Web Services unterzeichnet hat (AWS). Durch die Vereinbarung werden die technischen Integrationen verschiedener Dienste erweitert, darunter Amazon Redshift, Amazon Athena und Amazon SageMaker Lakehouse, und gleichzeitig die Verfügbarkeit des AWS Marketplace erweitert, um den Zugriff und die Beschaffung für Unternehmenskunden zu vereinfachen.
Google Cloud ist eine Partnerschaft mit SUSE eingegangen um zielgerichtete Lösungen zu entwickeln, die es Unternehmen ermöglichen, ihre sensiblen Workloads in der Cloud auszuführen. Die Partnerschaft kombiniert die hardwarebasierte Sicherheit von Google Cloud Confidential Virtual Machines (Confidential VMs) mit der Sicherheit von SUSE Linux Enterprise Server (SLES).
Hitachi Vantara kündigte neue Funktionen für Virtual Storage Platform One Software-Defined Storage an, die jetzt auf Google Cloud verfügbar sind Marktplatz. Die neuen Funktionen bringen Unternehmensfunktionen und mehr Flexibilität in die öffentliche Cloud, einschließlich bidirektionaler asynchroner Replikation, Thin Provisioning und erweiterter Datenkomprimierung.
RAVEL kündigte wichtige Updates für RAVEL Orchestrate AI sowie die Einführung von Lösungen an, die Supermicro nutzen Schlüsselfertige KI-Workload-Lösung, ein leistungsstarkes und einsatzbereites KI-Angebot. Diese Produkte vereinfachen die Einführung skalierbarer KI für Organisationen aller Branchen, beispielsweise Rechenzentren, Studios zur Erstellung von Inhalten, Forschungslabors und große Unternehmen.
Wenn Ihr Unternehmen Echtzeit-Analysenachrichten hat, senden Sie Ihre Ankündigungen an ssalamone@rtinsights.com .
Falls Sie es verpasst haben, finden Sie hier unsere neuesten wöchentlichen Nachrichtenzusammenfassungen zur Echtzeitanalyse:
- Echtzeit-Analysenachrichten für die Woche bis zum 26. Juli
- Echtzeit-Analysenachrichten für die Woche bis zum 19. Juli
- Echtzeit-Analysenachrichten für die Woche bis zum 12. Juli
- Echtzeit-Analysenachrichten für die Woche bis zum 28. Juni
- Echtzeit-Analysenachrichten für die Woche bis zum 21. Juni
- Echtzeit-Analysenachrichten für die Woche bis zum 14. Juni
- Echtzeit-Analysenachrichten für die Woche bis zum 7. Juni
- Echtzeit-Analysenachrichten für die Woche bis zum 31. Mai
- Echtzeit-Analysenachrichten für die Woche bis zum 24. Mai
- Echtzeit-Analysenachrichten für die Woche bis zum 17. Mai
Cloud Computing
- Warum das Cloud-Institut der beste Ort für Cloud-Schulungen ist
- Top 10 Cloud-Speicher- und File-Sharing-Dienste für 2020
- So migrieren Sie ERP in die Cloud
- Cloud-native Architektur:Die Zukunft der Entwicklung
- Datensicherheit beim Cloud Computing:Wie sicher sind Ihre Daten?
- Cloud-natives Computing übernimmt die IT-Infrastruktur
- Hybrid-Cloud-Umgebungen:Ein Leitfaden für die besten Anwendungen, Workloads und Strategien
- Wie wird sich Cloud Computing auf IT-Jobs auswirken?
- Übernehmen Sie die Kontrolle über das zweischneidige SaaS-Schwert
- Inwiefern unterscheidet sich Cloud Computing von herkömmlichem Computing?