Wöchentlicher Marktbericht für Echtzeitanalysen und KI – 6. Dezember
Mit Neuigkeiten und Entwicklungen auf dem Markt für Echtzeitanalysen und KI Schritt zu halten, kann eine gewaltige Aufgabe sein. Glücklicherweise haben wir für Sie eine Zusammenfassung der Artikel, auf die unsere Mitarbeiter jede Woche stoßen. Und wenn Sie es lieber in Ihrem Posteingang haben möchten, melden Sie sich hier an !
Die jährlichen Amazon Web Services Die AWS re:Invent-Konferenz brachte zahlreiche Ankündigungen von AWS und seinen Partnern hervor. Zu den wichtigsten AWS-Ankündigungen gehören:
AWS kündigte eine umfassende Erweiterung seines Nova-Portfolios an mit vier neuen Modellen, einem bahnbrechenden „offenen Schulungs“-Dienst, der es Unternehmen ermöglicht, ihre benutzerdefinierten Modellvarianten mit Nova zu erstellen, und einem Dienst zur Erstellung äußerst zuverlässiger KI-Agenten. Zu den Elementen der Ankündigung gehören:
- Nova 2 Lite, ein schnelles, kostengünstiges Argumentationsmodell für alltägliche Arbeitslasten, das Text, Bilder und Videos verarbeiten kann, um Text zu generieren.
- Nova 2 Pro, das intelligenteste Argumentationsmodell von Amazon, das Text, Bilder, Videos und Sprache verarbeiten kann, um Text zu generieren.
- Nova 2 Sonic, das Speech-to-Speech-Modell von Amazon, das Text- und Sprachverständnis und -generierung für eine menschenähnliche Konversations-KI in Echtzeit vereint.
- Nova 2 Omni, ein einheitliches multimodales Argumentations- und Generierungsmodell, das Text-, Bilder-, Video- und Spracheingaben verarbeiten und gleichzeitig Text und Bilder generieren kann – eine Branchenneuheit.
- Nova Forge ermöglicht es Unternehmen, ihre eigenen optimierten Varianten von Nova – oder „Novellas“ – zu erstellen, indem sie ihre proprietären Daten mit den Grenzfunktionen von Nova kombinieren.
- Nova Act (jetzt als Service auf AWS verfügbar), der zum Erstellen und Bereitstellen äußerst zuverlässiger KI-Agenten verwendet wird, die Aktionen in Webbrowsern ausführen können. Basierend auf einem benutzerdefinierten Nova 2 Lite-Modell bietet Nova Act den schnellsten und einfachsten Weg zum Aufbau und zur Verwaltung von Agentenflotten, die browserbasierte Aufgaben automatisieren.
Das Unternehmen gab außerdem Folgendes bekannt:
Die allgemeine Verfügbarkeit von Amazon EC2 Trn3 UltraServern . Angetrieben durch den neuen Trainium3-Chip, der auf 3-nm-Technologie basiert, ermöglichen Trn3 UltraServers Unternehmen jeder Größe, größere KI-Modelle schneller zu trainieren und mehr Benutzer zu geringeren Kosten zu bedienen.
Die Einführung von Graviton5-Prozessoren , der nach Angaben des Unternehmens der bisher fortschrittlichste kundenspezifische Chip für eine breite Palette von Cloud-Workloads ist. Graviton5-basierte EC2 M9g-Instances ermöglichen Benutzern eine effizientere Verarbeitung von Informationen mit der höchsten in Amazon EC2 verfügbaren CPU-Kerndichte – 192 Kerne in einem einzigen Paket.
Die allgemeine Verfügbarkeit von Amazon S3 Vectors . S3 Vectors ist ein Cloud-Objektspeicher mit nativer Unterstützung zum Speichern und Abfragen von Vektordaten. Kunden können damit die Gesamtkosten für die Speicherung und Abfrage von Vektoren im Vergleich zu spezialisierten Vektordatenbanklösungen senken.
Neue Amazon Bedrock- und Amazon SageMaker AI-Funktionen die die erweiterte Modellanpassung für Entwickler in jeder Organisation zugänglich machen. Reinforcement Fine Tuning (RFT) in Amazon Bedrock und serverlose Modellanpassung in Amazon SageMaker AI mit Reinforcement Learning vereinfachen den Prozess der Erstellung effizienter KI, die im Vergleich zu Basismodellen schnell, kostengünstig und genauer ist.
Eine Erweiterung der Amazon CloudWatch Funktionen Protokolldaten über Betriebs-, Sicherheits- und Compliance-Anwendungsfälle hinweg zu vereinheitlichen und zu verwalten, mit flexiblen und leistungsstarken Analysen an einem Ort und mit reduzierter Datenduplizierung und geringeren Kosten.
Partnerankündigungen
NVIDIA und AWS kündigten Integrationen an, um globale KI-Innovationen zu beschleunigen und Kunden weltweit eine fortschrittliche Infrastruktur bereitzustellen. Zu den Ankündigungen dieser Woche gehören:
- AWS übernimmt NVLink Fusion, um Trainium4-Plattformen zu betreiben und so das Training und die Inferenz groß angelegter Modelle zu verbessern.
- Die Einführung von AWS AI Factories, angetrieben von NVIDIA Blackwell GPUs, um sichere, souveräne KI-Infrastrukturlösungen für Unternehmen und Regierungsorganisationen bereitzustellen.
- Nemotron-Modelle sind jetzt auf der serverlosen Amazon Bedrock-Plattform verfügbar und ermöglichen Entwicklern die Erstellung spezialisierter Agenten-KI-Anwendungen mit skalierbarer Infrastruktur.
- NVIDIA und AWS erweitern ihre Softwareintegrationen, darunter Amazon OpenSearch und NVIDIA NeMo Agent Toolkit, die mit AWS-Agenten-Frameworks arbeiten, um Produktions-KI-Agenten zu optimieren und zu skalieren.
Algoien kündigte eine Integration zwischen seiner Such- und Entdeckungsplattform und Amazon Bedrock an, die es Teams jeder Größe ermöglicht, generative und agentische KI-Anwendungen mit beispielloser Einfachheit, Sicherheit und Geschwindigkeit zu erstellen, zu skalieren und zu betreiben. Für Algolia AI Search-Kunden verwandelt die Integration mit Amazon Bedrock die Suche in die Grundlage für fortschrittliche generative KI-Erlebnisse und bietet leistungsstarke Funktionen, ohne dass zusätzliche Anbieter, komplexe Infrastruktur oder langwierige Entwicklungszyklen erforderlich sind.
Zusammenhalt gab bekannt, dass es ein Startpartner für die AWS European Sovereign Cloud ist, die voraussichtlich Ende 2025 eingeführt wird. Das Unternehmen wird eine dedizierte europäische Cloud-Umgebung bereitstellen, die es Kunden ermöglichen soll, strenge Datenresidenz-, Betriebsunabhängigkeits- und Souveränitätsanforderungen zu erfüllen. Als Startpartner wird Cohesity Datenschutz- und Sicherheitslösungen für Kunden bereitstellen, die die AWS European Sovereign Cloud nutzen.
Deepgram kündigte die native Integration mit Amazon SageMaker AI an, die Streaming, Echtzeit-Speech-to-Text (STT), Text-to-Speech (TTS) und die Voice Agent API als Amazon SageMaker AI-Echtzeit-Endpunkte bereitstellt, ohne dass benutzerdefinierte Pipelines oder Orchestrierung erforderlich sind. Das Unternehmen kündigte die Integration seiner Speech-to-Text- (STT) und Text-to-Speech- (TTS) Modelle der Enterprise-Klasse mit Amazon Connect und Amazon Lex an, die Transkription in Echtzeit, Sprachbots mit geringer Latenz und Analysen in den bestehenden AWS-Umgebungen der Kunden ermöglichen.
Elastisch kündigte eine neue Integration für Amazon Bedrock AgentCore an, die Beobachtbarkeit für KI-Agenten und -Anwendungen direkt in die Elasticsearch-Plattform bringt. Die Integration ermöglicht Site Reliability Engineers (SREs) und Entwicklern die Überwachung, Optimierung und Fehlerbehebung von Agenten, die auf Amazon Bedrock AgentCore ausgeführt werden.
Informatica von Salesforce stellte neue Fortschritte vor, die die Integration zwischen der Intelligent Data Management Cloud (IDMC)-Plattform von Informatica und Amazon Web Services (AWS) vertiefen. Diese Updates bieten Kunden eine stärkere Grundlage für die Entwicklung von KI-Agenten der Enterprise-Klasse, die auf vertrauenswürdigen, hochwertigen und gut verwalteten Daten basieren.
Neo4j kündigte die Veröffentlichung des Neo4j Connectors für AWS Glue an, der als benutzerdefinierter Connector für die Verwendung mit AWS Glue verfügbar ist. Dieser Connector vereinfacht die Diagrammerstellung aus Tabellendaten. Unabhängig davon, ob ein Benutzer Neo4j AuraDB auf AWS ausführt oder selbst gehostete Neo4j-Instanzen auf Amazon EC2 verwaltet, kann er jetzt die Leistung von serverlosem AWS Glue nutzen, um Daten von Amazon-Diensten wie S3, DynamoDB, RDS, Redshift und Kinesis Data Streams sowie beliebten Datenspeichern wie Apache Kafka, Snowflake und MySQL direkt in Neo4j umzuwandeln und zu laden.
Neues Relikt kündigte eine Reihe von Integrationen mit AWS an, die die KI-Funktionen und Beobachtbarkeitserkenntnisse von New Relic direkt an AWS-KI-Dienste liefern. Darüber hinaus vertiefte New Relic seine AWS-Zusammenarbeit durch die Integration seines MCP-Servers mit AWS DevOps Agent und Amazon Quick Suite, um den manuellen Aufwand zu reduzieren und die Lösung von Vorfällen zu beschleunigen.
Genau kündigte eine Ausweitung seiner Zusammenarbeit mit AWS durch neue Verbesserungen von Precisely Connect an, die eine direkte Datenreplikation in Echtzeit von Mainframes zum Amazon Simple Storage Service (Amazon S3) ermöglichen. Die neue Funktion macht Zwischenhändler überflüssig, vereinfacht die Modernisierung und versetzt Unternehmen in die Lage, den vollen Wert ihrer Daten für Analysen und KI-Initiativen auf AWS auszuschöpfen.
Qlik kündigte an, dass es ein Startpartner für die AWS European Sovereign Cloud sein wird, die bis Ende 2025 starten wird. Die Daten- und Analyselösungen von Qlik werden in der AWS European Sovereign Cloud verfügbar sein und europäischen Organisationen kontrollierte Analysen und KI mit EU-Datenresidenz und Sicherheit, Verfügbarkeit und Leistung auf AWS-Niveau bieten. Dies hilft Kunden, die strengen EU-Anforderungen an Betriebsautonomie und Datenresidenz zu erfüllen.
Salesforce kündigte Agentforce 360 für AWS an. Die Lösung wird die AI-Agent-Plattform von Salesforce vollständig auf der AWS-Infrastruktur ausführen und gleichzeitig Amazon Bedrock für die Reasoning-Engine und die Prompt-Builder-Funktionen nutzen. Die Lösung wird Anfang 2026 exklusiv im AWS Marketplace verfügbar sein.
SIOS-Technologie gab bekannt, dass es die Amazon Web Services (AWS) Resilience Software Competency in der Kategorie „Design“ erhalten hat. Diese Spezialisierung erkennt SIOS als AWS-Partner an, der validierte Lösungen bereitstellt, um Kunden dabei zu helfen, die Verfügbarkeit und Belastbarkeit ihrer kritischen Systeme mithilfe von AWS Resilience Services zu verbessern.
Trost kündigte die allgemeine Verfügbarkeit (GA) von Solace Agent Mesh Enterprise an, einer offenen Agenten-KI-Plattform, die es Unternehmen ermöglicht, intelligente und gut verwaltete KI-gestützte Anwendungen zu erstellen, bereitzustellen und zu betreiben, die in Echtzeit mit Unternehmensanwendungen und -daten interagieren. Solace Agent Mesh wurde von Grund auf als offene, flexible Plattform entwickelt, die es Unternehmen erleichtert, mit Systemen mit einem oder mehreren Agenten zu experimentieren, um ihre Agenten-KI-Ziele zu erreichen.
SUSE kündigte SUSE Rancher für AWS an, eine KI-fähige Container-Management-Plattform, die von AWS unterstützt wird. Die Lösung vereint Management, Sicherheit und Beobachtbarkeit und ermöglicht Entwicklern die Skalierung cloudnativer Arbeitslasten auf Amazon EKS. Insbesondere ist SUSE Rancher für AWS in AWS-Technologien integriert, darunter Amazon Q und Amazon Bedrock, sodass Kunden die volle Leistung der KI-fähigen, robusten Plattformen von SUSE nutzen können, um die Verwaltung ihrer Amazon EKS-Bestände zu vereinfachen.
Weitere Partnerankündigungen
Caylent gab bekannt, dass es die Amazon Web Services (AWS) Agentic AI Specialization erhalten hat, eine neue Kategorie, die innerhalb der AWS AI Competency eingeführt wurde.
Datenbank gab bekannt, dass seine Datenpipeline-Management-Plattform jetzt im Amazon Web Services (AWS) Marketplace verfügbar ist.
Datadog kündigte eine neue strategische Kooperationsvereinbarung (SCA) mit AWS an und präsentierte mehrere Produkteinführungen in den Bereichen KI, Beobachtbarkeit und Sicherheit, um Organisationen, die AWS nutzen, bei der Überwachung, Optimierung und Sicherung ihrer Cloud-Umgebungen zu helfen.
Mission , ein CDW-Unternehmen, gab bekannt, dass es die Amazon Web Services (AWS) Agentic AI Specialization erhalten hat, eine neue Kategorie, die innerhalb der AWS AI Competency eingeführt wurde.
NetApp kündigte eine neue Funktion an, die Amazon S3 Access Points direkt mit Amazon FSx für NetApp ONTAP verbindet und es Unternehmen so erleichtert, ihre ONTAP-Daten mit dem AWS-Portfolio an KI-, ML- und Analysediensten zu nutzen.
Selektor ist jetzt auf dem AWS Marketplace verfügbar und ermöglicht Benutzern die einfache Bereitstellung der KI-gesteuerten Observability-Plattform von Selector in Hybrid- und Multi-Cloud-Umgebungen.
Neuigkeiten zur Echtzeitanalyse in Kürze
Airbyte kündigte bedeutende Updates an, die den Benutzern schnellere Datenübertragungen sowie vorhersehbare Preise bieten und so genaue und sichere Daten für KI und Analysen ermöglichen. Enthalten sind Aktualisierungen des Snowflake-Ziel-Connectors, des Microsoft SQL Server-Connectors und Synchronisierungen von MySQL zu S3. Für kleine und mittlere Unternehmen bietet der neue Airbyte Plus-Plan feste Jahrespreise mit vollem Support, sodass Kunden ihre Budgets mithilfe von Airbyte-Service-Level-Agreements effektiver planen können.
Aquant kündigte die Einführung seiner Agentenbibliothek an, einem wachsenden Katalog gebrauchsfertiger KI-Agenten, die auf der Agentic AI-Plattform von Aquant basieren. Die Agentenbibliothek, die aus mehr als 25 vorgefertigten und anpassbaren Agenten besteht, ermöglicht es Funktionen im gesamten Unternehmen (vom Service über den Vertrieb und das Marketing bis hin zu Produkt und Technik), auf die Daten und das Fachwissen zuzugreifen, die in der Vergangenheit im Servicebetrieb verborgen waren.
Qlik kündigte die private Vorschau seines neuen Agentenerlebnisses in Qlik Cloud an. Das Angebot wird über Qlik Answers als einheitliche Konversationsschnittstelle bereitgestellt, die strukturierte Datenanalysen, unstrukturierte Dokumente und die Argumentationsleistung großer Sprachmodelle in einer einzigen, verwalteten Erfahrung vereint.
In weiteren Qlik-Nachrichten kündigte das Unternehmen neue Funktionen in Qlik Open Lakehouse an, die Streaming-Aufnahme und Echtzeittransformationen in sein verwaltetes, auf Apache Iceberg basierendes Lakehouse ermöglichen. Mit diesen Ergänzungen können Teams hochvolumige Ereignisse von Apache Kafka, Amazon Kinesis und Amazon Simple Storage Service (Amazon S3) in verwaltete Iceberg-Tabellen aufnehmen und bei der Datenlandung Transformationen anwenden.
Tannenzapfen gab bekannt, dass Dedicated Read Nodes (DRN) jetzt in der öffentlichen Vorschau verfügbar sind. Die DRNs wurden speziell für diese anspruchsvollen Arbeitslasten entwickelt und bieten Benutzern reservierte Kapazität für Abfragen mit vorhersehbarer Leistung und Kosten. Die Kombination von DRN- und On-Demand-Diensten ermöglicht es Pinecone, eine breite Palette von Anwendungsfällen (RAG zur Suche nach Empfehlungssystemen und mehr) mit unterschiedlichen Anforderungen in der Produktion mit Leistung auf Unternehmensniveau zu unterstützen.
Partnerschaften, Kooperationen und mehr
Akamai gab bekannt, dass es Fermyon übernommen hat , das serverlose WebAssembly-Unternehmen. Da sich die Inferenz von künstlicher Intelligenz (KI) an den Rand verlagert, können Unternehmen durch die Kombination der Cloud-nativen WebAssembly (Wasm) Function-as-a-Service (FaaS) von Fermyon mit der weltweit verteilten Plattform von Akamai Edge-native Anwendungen erstellen, die im Vergleich zu herkömmlichen Cloud-nativen Apps eine verbesserte Leistung und geringere Kosten bieten.
AtScale kündigte seine Integration mit den Databricks an MCP-Marktplatz. Diese Partnerschaft ermöglicht es Unternehmen, mithilfe von Databricks Agent Bricks intelligente KI-Agenten zu entwickeln, die auf kontrollierten semantischen Modellen basieren, die genaue, vertrauenswürdige Geschäftsentscheidungen auf Unternehmensebene gewährleisten. Die Integration nutzt das Model Context Protocol (MCP) von Databricks, einen offenen Standard, der Agenten den sicheren Zugriff auf externe Dienste ermöglicht.
Mistral-KI kündigte die Mistral 3-Familie mehrsprachiger, multimodaler Open-Source-Modelle an, die für NVIDIA optimiert sind Plattformen. Durch die Kombination von NVIDIA GB200 NVL72-Systemen und der MoE-Architektur von Mistral AI können Unternehmen umfangreiche KI-Modelle effizient bereitstellen und skalieren und dabei von fortschrittlicher Parallelität und Hardwareoptimierungen profitieren. Diese Kombination macht die Ankündigung zu einem Schritt in Richtung der Ära dessen, was Mistral AI „verteilte Intelligenz“ nennt und die Lücke zwischen Forschungsdurchbrüchen und realen Anwendungen schließt.
Schneeflocke und anthropisch gaben eine deutliche Ausweitung ihrer strategischen Partnerschaft bekannt. Durch die mehrjährige Vereinbarung im Wert von 200 Millionen US-Dollar werden die Claude-Modelle von Anthropic auf der Snowflake-Plattform mehr als 12.600 Kunden weltweit in allen drei großen Clouds verfügbar gemacht und außerdem eine gemeinsame globale Go-to-Market-Initiative (GTM) ins Leben gerufen, die sich auf den Einsatz von KI-Agenten in den größten Unternehmen der Welt konzentriert. Claude wird auch als Schlüsselmodell für den Enterprise-Intelligence-Agenten von Snowflake, Snowflake Intelligence, fungieren.
Vultr kündigte einen wichtigen Meilenstein in seiner langjährigen strategischen Zusammenarbeit mit AMD an um KI-Workloads weltweit voranzutreiben und zu skalieren. Vultr wird einen KI-Supercluster starten, der auf AMD Instinct MI355X-GPUs basiert und an seinem neuen Cloud-Rechenzentrumsstandort in Springfield, Ohio, bereitgestellt wird. Diese 50-MW-Erweiterung bietet eine beispiellose Leistung pro Dollar für KI-Training und Inferenz.
Wenn Ihr Unternehmen Echtzeit-Analysenachrichten hat, senden Sie Ihre Ankündigungen an ssalamone@rtinsights.com .
#SovereignAI #Mainframe
Falls Sie es verpasst haben, finden Sie hier unsere neuesten wöchentlichen Nachrichtenzusammenfassungen zur Echtzeitanalyse:
- Echtzeit-Analysenachrichten für die Woche bis zum 29. November
- Echtzeit-Analysenachrichten für die Woche bis zum 22. November
- Echtzeit-Analysenachrichten für die Woche bis zum 15. November
- Echtzeit-Analysenachrichten für die Woche bis zum 8. November
- Echtzeit-Analysenachrichten für die Woche bis zum 1. November
- Echtzeit-Analysenachrichten für die Woche bis zum 25. Oktober
- Echtzeit-Analysenachrichten für die Woche bis zum 18. Oktober
- Echtzeit-Analysenachrichten für die Woche bis zum 11. Oktober
- Echtzeit-Analysenachrichten für die Woche bis zum 4. Oktober
- Echtzeit-Analysenachrichten für die Woche bis zum 27. September
- Echtzeit-Analysenachrichten für die Woche bis zum 20. September
Cloud Computing
- Kubernetes als Service:Was ist das - und brauchen Sie es wirklich
- AWS DevOps-Zertifizierung vs. Azure DevOps-Zertifizierung:Welche sollte man wählen?
- So erstellen Sie eine automatische Google-Suche
- Google Spanner vs. Microsoft CosmosDB; Cloud-Datenbank
- Alles, was Sie über Azure Cloud wissen müssen
- BGP:Ihr Fahrplan für die "Information Superhighway"
- Wie Cloud-Softwareunternehmen Kosten senken können, ohne die Qualität zu beeinträchtigen
- Azure VS AWS:Welche Zertifizierung bietet die bessere Zukunft?
- Wöchentliche Highlights des Echtzeitanalyse- und KI-Marktes – 16. August
- Was ist Cloud-Migration? Vorteile des Wechsels in die Cloud