Markteinblicke für Echtzeitanalysen:Woche bis 28. Februar – Highlights und KI-Trends
Mit Neuigkeiten und Entwicklungen auf dem Markt für Echtzeitanalysen und KI Schritt zu halten, kann eine gewaltige Aufgabe sein. Glücklicherweise haben wir für Sie eine Zusammenfassung der Artikel, auf die unsere Mitarbeiter jede Woche stoßen. Und wenn Sie es lieber in Ihrem Posteingang haben möchten, melden Sie sich hier an !
Red Hat kündigte die Red Hat AI Factory mit NVIDIA an, eine gemeinsam entwickelte Softwareplattform, die Red Hat AI Enterprise und NVIDIA kombiniert AI Enterprise bietet eine End-to-End-KI-Lösung, die für Unternehmen optimiert ist, die KI in großem Maßstab einsetzen. Die Lösung ermöglicht es IT-Betriebsteams, die Verwaltung sowohl der traditionellen Infrastruktur als auch der sich ändernden Anforderungen des KI-Stacks zu optimieren.
Die Lösung beschleunigt den Weg zur Produktions-KI und stellt die Softwareplattform für KI-Fabriken bereit, die auf einer beschleunigten Recheninfrastruktur läuft, die eine höhere Leistung für die Modelle und NVIDIA-GPUs ermöglicht, die den Inferenzstapel antreiben. Die Plattform wird von der KI-Fabrik-Infrastruktur führender Systemhersteller unterstützt, darunter Cisco , Dell Technologies , Lenovo , und Supermicro . Dies ermöglicht es IT-Administratoren und Betriebsteams, KI-Bereitstellungen mit der gleichen operativen Genauigkeit und Vorhersehbarkeit zu skalieren und zu verwalten wie jede Unternehmens-Workload.
In weiteren Unternehmensnachrichten kündigte Red Hat Red Hat AI Enterprise an, eine integrierte KI-Plattform für die Bereitstellung und Verwaltung von KI-Modellen, Agenten und Anwendungen in der Hybrid Cloud. Es ergänzt das Red Hat AI-Portfolio, das Red Hat AI Inference Server, Red Hat OpenShift AI und Red Hat Enterprise Linux AI umfasst. Darüber hinaus führte Red Hat Red Hat AI 3.3 ein, das bedeutende Aktualisierungen und Verbesserungen für das gesamte KI-Portfolio des Unternehmens mit sich bringt.
Neuigkeiten zur Echtzeitanalyse in Kürze
Ataccama kündigte Agentic Data Observability in Ataccama ONE an, seine End-to-End-Agentic-Data-Trust-Plattform für regulierte Unternehmen. Die Version erweitert die Datenqualität von Ataccama auf Pipelines und Vorfall-Workflows und bietet Teams einen direkten Weg von der Erkennung zur Triage und Behebung, indem Beobachtbarkeit mit automatisierter Datenqualität und geregeltem Geschäftskontext vereint wird. Dies schließt die Lücken, die die eigenständige Datenbeobachtbarkeit hinterlässt, und trägt dazu bei, die Integrität der Daten sicherzustellen, die KI-Agenten und wichtige Geschäftsentscheidungen unterstützen.
Backblaze kündigte B2 Neo an, ein speziell entwickeltes Angebot für Neocloud-Plattformen. B2 Neo stellt diesen Plattformen den Cloud-Objektspeicher der Enterprise-Klasse zur Verfügung, den Unternehmen für datenintensive KI- und maschinelle Lernaufgaben benötigen. Auf diese Weise stellt B2 Neo Neoclouds eine Speicherebene zur Verfügung, die sie in ihre bestehenden Plattformen integrieren und den Kunden nahtlos anbieten können.
Kettenschutz gab bekannt, dass es die Abdeckung der Chainguard-Bibliotheken auf Python, Java und JavaScript ausgeweitet hat. Angesichts der Tatsache, dass Chainguard-Bibliotheken aus öffentlich überprüfbarem Quellcode in der SLSA L2-kompatiblen Chainguard Factory neu erstellt werden, ist diese umfassende Abdeckung ein wichtiger Schritt vorwärts bei der Verhinderung von Malware in den Open-Source-Bibliotheken, die der meisten Software zugrunde liegen. Dadurch können Entwicklungsteams ihre Entwicklungsgeschwindigkeit beibehalten, ohne die Sicherheit zu beeinträchtigen.
CIQ , der Gründungs-Support- und Servicepartner von Rocky Linux, startete Rocky Linux von CIQ Pro (RLC Pro), einem kommerziell unterstützten Enterprise Linux-Abonnement. Mit der Enterprise Linux-Binärkompatibilität bündelt RLC Pro langfristigen Support und Lebenszyklusmanagement, FIPS 140-3-Validierung, Entschädigung, Sicherheits- und Support-SLAs sowie kundengesteuerte, direkte Fehlerbehebungen als notwendige Funktionen und schafft so einen klaren Weg von der Community-basierten zur geschäftskritischen Unternehmensproduktion.
Konfluent kündigte neue Funktionen von Confluent Intelligence an, die KI-Agenten verbinden und genauere, intelligentere Datenanalysen ermöglichen. Die Streaming-Agenten von Confluent nutzen das Agent2Agent-Protokoll (A2A), um externe KI-Agenten mithilfe von Echtzeit-Datenströmen auszulösen und zu koordinieren. Die multivariate Anomalieerkennung untersucht mehrere Metriken, um ungewöhnliche Muster in Datenströmen automatisch zu erkennen und Teams dabei zu helfen, Probleme mit größerer Genauigkeit zu verhindern. Zusammengenommen schaffen diese Fähigkeiten intelligente kontextbewusste KI-Systeme, die sich anpassen, wenn sich Daten, Agenten und Geschäftsbedingungen ändern.
Databricks gab die allgemeine Verfügbarkeit von Lakeflow Zerobus Ingest bekannt, einem Teil von Lakeflow Connect. Die Lösung bietet einen vollständig verwalteten, serverlosen Dienst, der Daten direkt in Delta-Tabellen streamt, wodurch zwischengeschaltete Nachrichtenbusse wie Kafka überflüssig werden. Darüber hinaus ersetzt die Lösung herkömmliche Multi-Hop-Streaming-Architekturen durch ein Single-Sink-Design, das speziell für die Übertragung von Daten an das Lakehouse optimiert ist. Diese GA-Veröffentlichung umfasst produktionsbereite gRPC-APIs und REST-APIs (Beta) sowie SDKs für Python, Java, Rust, Go und TypeScript und ermöglicht die Integration aus jeder Anwendung.
Datadobi hat ein Early-Access-Programm zur Überprüfung des Datenzugriffs gestartet, eine neue Funktion für seine StorageMAP-Plattform. Data Access Review wurde als direkte Reaktion auf die Kundennachfrage nach tieferer Transparenz und Kontrolle über Datenberechtigungen entwickelt und erweitert den Wert von StorageMAP, indem es umsetzbare Berechtigungsinformationen zur unstrukturierten Datenverwaltung hinzufügt. Während des Early-Access-Programms haben ausgewählte Kunden die Möglichkeit, neue Permissions-Intelligence-Funktionen zu testen und mitzugestalten.
Digi International kündigte die Einführung seines neuen Model Context Protocol (MCP)-Servers für Digi Remote Manager (DRM) und Genesis an. Diese neue Funktion ermöglicht es Kunden, große Sprachmodellprodukte wie Claude und andere KI-Assistenten für Unternehmen sicher direkt in DRM und Genesis zu integrieren und so die Art und Weise zu verändern, wie Unternehmen ihre vernetzte Infrastruktur und ihre drahtlosen WAN-Bereitstellungen in großem Maßstab überwachen, verwalten und optimieren.
Domino Data Lab kündigte ein großes neues Plattform-Update an, das eine vollständig verwaltete End-to-End-Plattform für die Operationalisierung von Agenten-KI-Systemen schafft. Diese neueste Winterversion stattet Unternehmen mit einem neuen Agent Development Lifecycle (ADLC)-Erlebnis und zugrunde liegenden LLM-Hosting-Funktionen aus. Diese zusammen ermöglichen es Unternehmen, schnell und in großem Maßstab Agenten-KI-Systeme mit integrierter Governance, Reproduzierbarkeit und Kontrolle zu erstellen, zu bewerten, bereitzustellen und zu überwachen.
Druva kündigte eine Erweiterung von DruAI an und führt Deep Analysis Agents ein, die komplexe, mehrtägige forensische und Compliance-Untersuchungen automatisieren können. Die KI-Agenten führen umfassende Untersuchungen zu Telemetrie, Protokollen, Identitätsdaten, Konfigurationen und historischen Signalen durch. Sie unterteilen komplexe Aufgaben in Schritte, koordinieren systemübergreifend und analysieren Ergebnisse im Laufe der Zeit, um klare, umsetzbare Erkenntnisse und Berichte zu erstellen.
Neues Relikt kündigte eine Reihe von Plattforminnovationen an, die technische Leistung mit Kundenauswirkungen und Geschäftsergebnissen verbinden. Angeführt von Intelligent Workloads, die die Erkennung komplexer Abhängigkeiten automatisieren und den Systemzustand an Geschäfts-KPIs anpassen, überwacht New Relic, was für seine Kunden im KI-Zeitalter wichtig ist, und versetzt sie in die Lage, Vorfälle schneller zu lösen und die direkten Auswirkungen der Leistung auf den Umsatz zu quantifizieren.
Genau kündigte neue Agenten für Datenqualität, Datenanreicherung und Standortintelligenz für die Precisely Data Integrity Suite an. Die neuen Agenten beschleunigen die Normalisierung, Standardisierung, Regelerstellung und Anreicherung von Daten durch Konversationsinteraktion. In Abstimmung mit dem Gio AI Assistant der Data Integrity Suite automatisieren und rationalisieren die neuen KI-Agenten komplexe, arbeitsintensive Datenworkflows und helfen Unternehmen dabei, vertrauenswürdige, kontextreiche Datengrundlagen für KI-, Analyse- und Automatisierungsinitiativen aufzubauen.
Sinch kündigte eine Reihe neuer Funktionen an, die darauf ausgelegt sind, KI-Agenten über globale Kommunikationskanäle hinweg zu implementieren und es Unternehmen zu ermöglichen, intelligente Agenten für Messaging, Sprache und E-Mail auf globaler Ebene einzusetzen. Mit Agentengesprächen bietet Sinch eine flexible, sichere und offene Plattform, die es Unternehmen ermöglicht, KI-Agenten in ihrem eigenen Tempo und entsprechend ihrer technischen Reife zu implementieren. Kunden sind nicht an ein einzelnes Agentenmodell, eine proprietäre Datenschicht oder ein geschlossenes Ökosystem gebunden.
Siteimprove gab die Verfügbarkeit seiner neuesten KI-Agent-Funktionen bekannt. Zu den wichtigsten KI-Updates gehören Konversationsanalysen, die es technisch nicht versierten Benutzern ermöglichen, Antworten zu erhalten, Berichte und Dashboards in natürlicher Sprache zu erstellen. Diese Funktionen versetzen Unternehmen in eine starke Position, um Vorschriften zur digitalen Barrierefreiheit wie den Americans with Disabilities Act (ADA) und den European Accessibility Act (EAA) einzuhalten und gleichzeitig Marken dabei zu helfen, die Auffindbarkeit über Antwort-Engines und generative Engines zu verbessern.
Schneeflocke gab bekannt, dass Cortex Code CLI, der KI-Codierungsagent von Snowflake für lokale Entwicklungsumgebungen, über die nativen Snowflake-Workflows hinaus erweitert wird und jede Datenquelle systemübergreifend unterstützt, beginnend mit dbt und Apache Airflow (jetzt allgemein verfügbar). Mit dieser erweiterten Unterstützung schalten Entwickler sichere, kontextbezogene KI-Unterstützung in ihren bevorzugten Data-Engineering-Systemen frei und ermöglichen es Teams, mit Daten zu arbeiten, wo auch immer sie sich befinden, und Arbeitsabläufe in Produktionsqualität effizienter zu erstellen, zu verwalten und zu optimieren.
Das Technology Innovation Institute (TII), die angewandte Forschungssäule des Advanced Technology Research Council (ATRC) von Abu Dhabi, kündigte die Einführung eines Cloud-Dienstes an, der Zugriff auf Quantum Processing Units (QPUs) bietet, die vom Quantum Computing Hardware Lab von TII entwickelt wurden. Der Dienst ist zunächst für TII-Partner verfügbar und ermöglicht es Benutzern, Quanten-Workloads direkt auf der physischen Quanten-Hardware von TII in der Cloud auszuführen.
Tray.ai kündigte Tray Data Engineering an, eine neue Lösung, die Datentransformation, KI und Agentenentwicklung kombiniert. Die Grundlage des Data Engineering ist der neue Tray SQL Transformer. Teams können anspruchsvolle Datenvorbereitungsaufgaben direkt in ihren Tray-Workflows ausführen und Daten mithilfe einer integrierten Hochleistungsdatenbank und direkter SQL-basierter Transformationen während der Übertragung umformen, verbinden und transformieren. Darüber hinaus können Teams die gesamte Daten-zu-Intelligence-Pipeline in einem System verwalten.
VAST-Daten kündigte Polaris an, eine globale Steuerungsebene, die für die Bereitstellung, den Betrieb und die Orchestrierung verteilter KI-Infrastrukturen in öffentlichen Cloud-, Neocloud- und lokalen Rechenzentrumsumgebungen konzipiert ist. Polaris wandelt VAST-Bereitstellungen in eine einheitliche Plattform im Flottenmaßstab um und ermöglicht Unternehmen die Verwaltung von KI-Daten und -Infrastruktur überall dort, wo Schulungs- und Inferenz-Workloads ausgeführt werden.
Siehe auch: Was sind Neoclouds und warum braucht KI sie?
Partnerschaften, Kooperationen und mehr
IBM und Deepgram kündigte eine Zusammenarbeit zur Integration der Speech-to-Text- und Text-to-Speech-Funktionen von Deepgram in die generative KI-Lösung watsonx Orchestrate von IBM an. Die Zusammenarbeit bietet Sprach-KI-Technologie, die Unternehmen dabei hilft, ihre Abläufe zu automatisieren und der wachsenden Nachfrage nach Konversations-KI-Technologie gerecht zu werden, einschließlich fortschrittlicher Sprache-zu-Text-Spracherkennung, sodass Benutzer mit digitalen Agenten über natürliche Sprache interagieren können.
Scalität und WEKA kündigte eine neue gemeinsam validierte Lösung an, die den Hochleistungsspeicher NeuralMesh von WEKA mit der kosteneffizienten Objektschicht von Scality RING kombiniert. Die Lösung bietet Unternehmen das Beste aus beiden Welten:Flash-Geschwindigkeit für aktive KI- und High-Performance-Computing-Daten (HPC), kombiniert mit skalierbarer, dauerhafter Kapazität für große Datenmengen, während gleichzeitig Kosten und Komplexität reduziert werden, ohne dass die Geschwindigkeit beeinträchtigt wird.
VAST-Daten kündigte einen durchgängigen, vollständig CUDA-beschleunigten KI-Datenstapel an, der im Rahmen einer erweiterten Zusammenarbeit mit NVIDIA bereitgestellt wird . Da das VAST AI-Betriebssystem jetzt direkt auf NVIDIA-basierten Servern läuft, können Kunden Datenengpässe in der gesamten KI-Pipeline beseitigen und Aufnahme, Abruf, Analyse und Inferenz auf einer einzigen einheitlichen Plattform bereitstellen.
Wenn Ihr Unternehmen Echtzeit-Analysenachrichten hat, senden Sie Ihre Ankündigungen an ssalamone@rtinsights.com .
Falls Sie es verpasst haben, finden Sie hier unsere neuesten wöchentlichen Nachrichtenzusammenfassungen zur Echtzeitanalyse:
- Echtzeit-Analysenachrichten für die Woche bis zum 21. Februar
- Echtzeit-Analysenachrichten für die Woche bis zum 14. Februar
- Echtzeit-Analysenachrichten für die Woche bis zum 7. Februar
- Echtzeit-Analysenachrichten für die Woche bis zum 31. Januar
- Echtzeit-Analysenachrichten für die Woche bis zum 24. Januar
- Echtzeit-Analysenachrichten für die Woche bis zum 17. Januar
- Echtzeit-Analysenachrichten für die Woche bis zum 10. Januar
- Echtzeit-Analysenachrichten für die Woche bis zum 27. Dezember
- Echtzeit-Analysenachrichten für die Woche bis zum 20. Dezember
- Echtzeit-Analysenachrichten für die Woche bis zum 13. Dezember
- Echtzeit-Analysenachrichten für die Woche bis zum 6. Dezember
Cloud Computing
- Azure DevOps-Spickzettel
- AWS-Überwachungstools – Überbrückung der Lücke
- Der große Gewinn:Cloud Computing im Gaming
- Markteinblicke für Echtzeitanalysen:Woche bis 28. Februar – Highlights und KI-Trends
- WiFi-Netzwerke, SaaS-Anbieter und die damit verbundenen Herausforderungen für die IT
- Wie wird man ein AWS-Experte?
- Was ist ein Service Mesh? Was sind die verfügbaren Open-Source-Service-Meshes?
- Warum IT-Experten Kartenerstellungsfähigkeiten brauchen
- Leitfaden zur Cloud-Computing-Architektur
- 9 effektive Best Practices für den Einsatz von DevOps in der Cloud