Wöchentliche Echtzeitanalyse- und KI-Markthighlights – 1. November
Mit Neuigkeiten und Entwicklungen auf dem Markt für Echtzeitanalysen und KI Schritt zu halten, kann eine gewaltige Aufgabe sein. Glücklicherweise haben wir für Sie eine Zusammenfassung der Artikel, auf die unsere Mitarbeiter jede Woche stoßen. Und wenn Sie es lieber in Ihrem Posteingang haben möchten, melden Sie sich hier an !
Konfluent machte auf der Current-Konferenz dieser Woche eine Reihe von Ankündigungen. Das diesjährige Konferenzthema „Wo Echtzeitdaten und KI zusammenkommen“ verdeutlicht die zunehmende Notwendigkeit für diejenigen, die KI-Initiativen entwickeln, Streams, Ereignisse und andere Formen von Daten in Bewegung in ihre Bemühungen einzubeziehen. Die auf der Konferenz gemachten Ankündigungen spiegelten diese Forderung wider. Konkret gab das Unternehmen bekannt:
- Die Einführung von Confluent Intelligence zum Aufbau und zur Unterstützung kontextreicher künstlicher Intelligenz (KI) in Echtzeit. Der vollständig verwaltete Stack basiert auf Confluent Cloud und streamt und verarbeitet kontinuierlich historische Daten und Echtzeitdaten und liefert diesen Kontext direkt an KI-Anwendungen. Mit Confluent Intelligence sind Unternehmen in der Lage, KI-Systeme zu etablieren, die auf dynamischen, vertrauenswürdigen Daten basieren.
- Die allgemeine Verfügbarkeit (GA) von Delta Lake- und Databricks Unity Catalog-Integrationen in Confluent Tableflow sowie die Early Access (EA)-Verfügbarkeit auf Microsoft OneLake. Diese Funktionen machen Tableflow zu einer vollständig verwalteten End-to-End-Lösung, die betriebliche, analytische und künstliche Intelligenz (KI)-Systeme in Hybrid- und Multi-Cloud-Umgebungen verbindet. Darüber hinaus überträgt Confluent jetzt Apache Kafka-Themen direkt in Delta Lake- oder Apache Iceberg-Tabellen mit automatisierten Qualitätskontrollen, Katalogsynchronisierung und Sicherheit auf Unternehmensniveau.
- Die Einführung seiner Real-Time Context Engine, eines vollständig verwalteten Dienstes unter Verwendung des Model Context Protocol (MCP). Der Dienst liefert in Echtzeit strukturierte Daten und genauen, relevanten Kontext für jeden Agenten, Copiloten oder jede LLM-basierte (LLM) Anwendung mit künstlicher Intelligenz (KI). Mit der Real-Time Context Engine können Entwickler die Daten-Streaming-Plattform von Confluent nutzen, um ihre Dateninfrastruktur zu verwalten und überall schnell vertrauenswürdigen Kontext für alle ihre KI-Agenten und -Anwendungen freizuschalten.
Neuigkeiten zur Echtzeitanalyse in Kürze
NVIDIA und seine Partner machten auf der NVIDIA GTC-Konferenz diese Woche eine Reihe von Ankündigungen im Zusammenhang mit KI und Echtzeitanalysen. Unter den NVIDIA-Produkten kündigte das Unternehmen NVIDIA NVQLink an, eine offene Systemarchitektur zur engen Kopplung der extremen Leistung von GPU-Computing mit Quantenprozessoren zum Aufbau beschleunigter Quanten-Supercomputer. NVQLink verbindet die vielen Ansätze für Quantenprozessoren und die Steuerung von Hardwaresystemen direkt mit KI-Supercomputing und bietet so eine einheitliche, schlüsselfertige Lösung zur Bewältigung der wichtigsten Integrationsherausforderungen, mit denen Quantenforscher bei der Skalierung ihrer Hardware konfrontiert sind.
Zu den weiteren bemerkenswerten Ankündigungen der Partner des Unternehmens gehören:
- Hammerspace stellte seine Lösung vor, die darauf ausgelegt ist, den Zugriff auf Unternehmensdaten für Agenten-KI-Anwendungen zu optimieren. Die neue Lösung ist auf das Referenzdesign der NVIDIA AI Data Platform abgestimmt und macht kostspielige Infrastrukturüberholungen oder neue Speichersilos überflüssig, sodass Unternehmen ihre vorhandenen Daten nahtlos für beschleunigtes KI-Computing nutzen können.
- Red Hat kündigte Unterstützung für Red Hat OpenShift auf NVIDIA BlueField DPUs an. Das Unternehmen kündigte außerdem an, dass es das NVIDIA CUDA Toolkit über RHEL, OpenShift und Red Hat AI vertreiben werde. Außerdem wurde Red Hats STIG-gehärtetes UBI für NVIDIA-GPUs auf Red Hat OpenShift eingeführt.
Actian , die Datenabteilung von HCLSoftware, gab die Einführung des Actian Model Context Protocol (MCP) Servers bekannt, einer neuen Funktion der Actian Data Intelligence Platform. Der MCP-Server ermöglicht es Unternehmen, verwaltete, qualitativ hochwertige Daten direkt in Assistenten für künstliche Intelligenz (KI) zu übertragen, die auf großen Sprachmodellen (LLMs) wie Claude und ChatGPT basieren.
Akamai Technologies hat die Akamai Inference Cloud eingeführt, eine Plattform, die Inferenz von zentralen Rechenzentren bis zum Rand des Internets erweitert. Konkret ermöglicht die Lösung eine intelligente, agentenbasierte KI-Inferenz am Edge, nahe an Benutzern und Geräten. Die Plattform wurde speziell entwickelt, um Echtzeit-Edge-KI-Verarbeitung mit geringer Latenz auf globaler Ebene bereitzustellen. Diese Einführung der Akamai Inference Cloud nutzt die global verteilte Architektur von Akamai und die von NVIDIA Blackwell KI-Infrastruktur.
Altair kündigte wichtige Aktualisierungen für Altair RapidMiner an, um Unternehmen bei der Operationalisierung von Informationen zu unterstützen und menschliche Erkenntnisse, Datenautomatisierung und agentische KI-Zusammenarbeit in einem einheitlichen Ökosystem zu verbinden. Die neuesten Updates stärken das Datenanalyse- und KI-Ökosystem von Altair und ermöglichen es Unternehmen, skalierbare, vertrauenswürdige und intelligente Datenumgebungen aufzubauen.
Anomalo stellte AIDA vor, den Intelligent Data Analyst von Anomalo, einen KI-Datenanalysten, der direkt auf seiner Datenqualitätsplattform aufbaut. Mit AIDA kann jeder Datennutzer mit seinen Daten in natürlicher Sprache interagieren, sofort Erkenntnisse gewinnen und wissen, dass jede Antwort aus überwachten, hochwertigen Datensätzen stammt. AIDA nutzt die vorhandenen sofort einsatzbereiten Konnektoren von Anomalo für mehr als 17 verschiedene Datenquellen, darunter Google BigQuery, Databricks , und Schneeflocke .
CelerData gab die allgemeine Verfügbarkeit von StarRocks 4.0 bekannt, der neuesten Hauptversion des Open-Source-Analysedatenbankprojekts, das Hochleistungsanalysen für moderne Unternehmen ermöglicht. StarRocks 4.0 kombiniert die Flexibilität eines offenen Datensees mit extremer Leistung und einheitlicher Governance und verbessert so Geschwindigkeit, Konsistenz und Skalierbarkeit in einem offenen Analyse-Ökosystem.
Commvault führte Data Rooms ein, eine sichere Umgebung, die es Unternehmen ermöglicht, ihre vertrauenswürdigen Backup-Daten sicher mit den KI-Plattformen, auf die sie sich verlassen, oder mit ihren eigenen KI-Initiativen wie internen Data Lakes zu verbinden. Das Unternehmen gab außerdem bekannt, dass Konversation zur neuen Schnittstelle für das Management der Unternehmensresilienz geworden sei. Dies wird durch den Model Context Protocol (MCP)-Server von Commvault ermöglicht. Damit können Benutzer in einfacher natürlicher Sprache mit Commvault Cloud interagieren, um Resilienzaufgaben zu konfigurieren, zu verwalten und auszuführen.
DeltaStream kündigte die breitere Verfügbarkeit von DeltaStream Fusion an, seiner einheitlichen Streaming-Datenplattform, die Streaming, Echtzeit- und Batch-Analysen in einem einzigen, serverlosen Erlebnis vereint. Ursprünglich im Early Access eingeführt, ist DeltaStream Fusion nun produktionsreif und von Kunden validiert. Es ist auch auf Microsoft Azure verfügbar Dies gibt Unternehmen noch mehr Flexibilität bei der Bereitstellung dort, wo ihre Daten gespeichert sind.
Espresso AI hat eine neue Lösung auf den Markt gebracht, die Databricks umwandelt in ein zauberhaftes Seehaus. Die Lösung nutzt maschinelles Lernen, um moderne Data Warehouses in Echtzeit zu optimieren. Insbesondere basiert Espresso AI für Databricks auf drei Säulen:einem Autoscaling-Agenten, einem Scheduling-Agenten und einem Abfrage-Agenten.
Zuflussdaten gab bekannt, dass InfluxDB 3.6 jetzt sowohl für Core als auch für Enterprise verfügbar ist. Mit dieser Version wird das Update 1.4 für InfluxDB 3 Explorer vorgestellt, das den Beta-Start von Ask AI beinhaltet. InfluxDB 3 Core ist kostenlos und Open Source, optimiert für aktuelle Daten und lizenziert unter MIT und Apache 2. InfluxDB 3 Enterprise erweitert Core um langfristige Datenaufbewahrung, Clustering, differenzierte Sicherheit und Verwaltungsfunktionen.
Informatica kündigte seine Veröffentlichung im Herbst 2025 an und führt neue Funktionen und Fähigkeiten ein, die Unternehmensdaten mit der nächsten Generation von KI-Agenten verbinden. Insbesondere die neuen Funktionen auf der Intelligent Data Management Cloud (IDMC)-Plattform des Unternehmens sollen Kunden dabei helfen, ihre Produktivität zu steigern, die Datensicherheit zu stärken und Vertrauen in KI-gestützte Entscheidungsfindung aufzubauen. Ein Beispiel ist die Veröffentlichung der ersten CLAIRE-Agenten, die es Benutzern ermöglichen, komplexe Datenverwaltungsziele zu automatisieren.
Leaseweb gab die Verfügbarkeit von NVIDIA bekannt L4-GPUs in seiner Public-Cloud-Plattform in den USA und Kanada. Dies ist bereits in Europa verfügbar und markiert die Ausweitung der GPU-Beschleunigung auf die souveräne Cloud-Infrastruktur von Leaseweb in ganz Nordamerika. Dadurch wird die KI-fähige Cloud über dedizierte Server hinaus erweitert und Unternehmen werden in die Lage versetzt, anspruchsvolle Arbeitslasten mit größerer Leistung, Flexibilität und Kosteneffizienz auszuführen.
OPAK kündigte sein OPAQUE Studio zur Beschleunigung der sicheren Entwicklung vertraulicher KI-Agenten an. OPAQUE Studio basiert auf LangGraph und ist jetzt auf der OPAQUE Confidential AI Platform verfügbar. Es bietet zur Laufzeit überprüfbare Vertrauenswürdigkeit, die es Unternehmen ermöglicht, Agentenbereitstellungen schneller und sicherer von Pilot- in Produktionsumgebungen zu verlagern.
Qlik gab die allgemeine Verfügbarkeit von Multivariate Time Series (MVTS) in Qlik Predict bekannt und bringt GPU-beschleunigte, erklärbare Prognosen direkt in Qlik Cloud. Neben MVTS gab Qlik auch bekannt, dass seine WriteTable-Funktion voraussichtlich im Dezember 2025 allgemein verfügbar sein soll. Mit WriteTable können Teams auf KI-generierte Prognosen reagieren, indem sie Betriebstabellen aktualisieren und nachgelagerte Aktionen auslösen, ohne Qlik zu verlassen.
SUSE kündigte SUSE Linux Enterprise Server (SLES) 16 an. Die neue Version bietet tiefere Transparenz, Einblicke und automatisiertes Management zur Rationalisierung von Abläufen. Darüber hinaus führt SLES 16 agentische KI mit einer Implementierung des Model Context Protocol (MCP)-Standards ein. Die SUSE Linux Agent AI-Implementierung bietet eine sichere, erweiterbare Möglichkeit, KI-Modelle mit externen Tools und Datenquellen zu verbinden.
Teradata kündigte Einzelheiten zu seinen neuen KI-Diensten an, die sich einer entscheidenden Unternehmensherausforderung stellen:der Umwandlung von KI-Piloten in produktionsbereite Agentenlösungen, die einen erheblichen Geschäftswert bieten. Das integrierte Angebot kombiniert eingebettete Experten mit bewährter Methodik und der Wissensplattform von Teradata, um Unternehmen bei der Entwicklung und Skalierung von KI-Agenten in ihrem gesamten Unternehmen zu unterstützen.
Partnerschaften, Kooperationen und mehr
Amplitude kündigte eine Zusammenarbeit mit GitHub an um eine Agent-zu-Agent-Integration für Unternehmensprodukt- und Engineering-Teams zu starten. Diese Agentenintegration ermöglicht KI-gestützte Arbeitsabläufe, bei denen Amplitude als agentischer Produktmanager fungiert und die Lücke zwischen Produkterkenntnissen und Codeimplementierung schließt.
Elastisch kündigte eine neue Integration mit Azure an AI Foundry bietet Beobachtbarkeit für Agenten-KI-Anwendungen und große Sprachmodelle (LLMs). Die Integration bietet Echtzeiteinblicke in LLMs, generative KI und Agenten-KI-Workloads und ermöglicht es Unternehmen, intelligente Agenten auf Azure AI Foundry zu erstellen, zu überwachen und zu optimieren.
SAS bietet jetzt SAS Viya Essentials an, eine standardmäßige, sichere Bereitstellung ausgewählter SAS Viya-Produkte auf Microsoft Azure mit SAS Managed Cloud Services. Das gebrauchsfertige Angebot erleichtert Kunden den standardisierten und vereinfachten Zugriff auf die Daten- und KI-Software von SAS.
WEKA gab bekannt, dass es die nächste Generation von NeuralMesh by WEKA, seinem intelligenten Speichersystem, für die neu angekündigte NVIDIA entwickelt BlueField-4 Datenverarbeitungseinheit (DPU). Dieser Ansatz macht eigenständige CPU-Server überflüssig und nutzt stattdessen die Netzwerkbandbreite und die Rechenleistung von NVIDIA BlueField-4 für moderne KI-Dateninfrastrukturen.
Wenn Ihr Unternehmen Echtzeit-Analysenachrichten hat, senden Sie Ihre Ankündigungen an ssalamone@rtinsights.com .
Falls Sie es verpasst haben, finden Sie hier unsere neuesten wöchentlichen Nachrichtenzusammenfassungen zur Echtzeitanalyse:
- Echtzeit-Analysenachrichten für die Woche bis zum 25. Oktober
- Echtzeit-Analysenachrichten für die Woche bis zum 18. Oktober
- Echtzeit-Analysenachrichten für die Woche bis zum 11. Oktober
- Echtzeit-Analysenachrichten für die Woche bis zum 4. Oktober
- Echtzeit-Analysenachrichten für die Woche bis zum 27. September
- Echtzeit-Analysenachrichten für die Woche bis zum 20. September
- Echtzeit-Analysenachrichten für die Woche bis zum 13. September
- Echtzeit-Analysenachrichten für die Woche bis zum 6. September
- Echtzeit-Analysenachrichten für die Woche bis zum 30. August
- Echtzeit-Analysenachrichten für die Woche bis zum 23. August
- Echtzeit-Analysenachrichten für die Woche bis zum 16. August
Cloud Computing
- Einführung in die Netzwerkarchitektur in der AWS Cloud
- Ist die AWS DevOps-Zertifizierung das Richtige für mich?
- Top 5 der Cloud-basierten Anwendungen
- Wie Cloud Services ERP modernisieren?
- Wochenpaket:Public Cloud, Big Data regiert den Schlafplatz
- Die 7 größten Risiken, auf die Sie bei der Cloud-Migration achten sollten
- Bei Gartner geht es um IT-Relevanz
- Wetten Sie auf die richtige Cloud
- Wie funktioniert Google Cloud Storage?
- Cloud-Migration meistern:Ein vollständiger Leitfaden für die Geschäftstransformation