Red Hat AI Enterprise: Integrierte KI-Plattform für die Hybrid Cloud
Unternehmen stehen zunehmend vor der Herausforderung, KI-Modelle und agentenbasierte Workflows zuverlässig in bestehende IT-Stacks zu integrieren. Fragmentierte Tools und inkonsistente Infrastrukturen bremsen die produktive Nutzung von KI in vielen Organisationen. Gleichzeitig wächst der Bedarf, KI-Bereitstellungen wie standardisierte Enterprise-Systeme zu verwalten. Red Hat reagiert darauf mit einem umfassenden Ansatz, der die gesamte Hybrid-Cloud-Umgebung abdeckt und die Brücke zwischen Infrastruktur und operativen KI-Anwendungen schlägt. Die neue Version Red Hat AI 3.3 ergänzt diese Strategie um zusätzliche Modelle, Hardware-Unterstützung und Sicherheitsfunktionen.
Red Hat hat mit Red Hat AI Enterprise eine integrierte Plattform vorgestellt, die die Bereitstellung, Verwaltung und Überwachung von KI-Modellen, Agenten und Anwendungen in hybriden Cloud-Umgebungen ermöglicht. Ergänzt wird das Portfolio durch Red Hat AI Inference Server, Red Hat OpenShift AI und Red Hat Enterprise Linux AI, wodurch ein vollständiger „Metal to Agent“-Stack entsteht, der Linux- und Kubernetes-Infrastruktur mit fortschrittlichen Inference- und agentenbasierten Funktionen verbindet. Ziel ist es, fragmentierte KI-Experimente in regulierte, autonome Produktionsprozesse zu überführen.
Kernfunktionen von Red Hat AI Enterprise
- KI-Inferencing und Agentenmanagement: Leistungsfähiges Inference, Modell-Tuning und Verwaltung von Agenten auf beliebiger Hardware und in jeder Umgebung.
- Integration in OpenShift: Aufbau auf der Kubernetes-basierten Hybrid-Cloud-Plattform für Skalierbarkeit, Sicherheit und konsistente Benutzererfahrung.
- Red Hat AI Factory with NVIDIA: Kooperation mit NVIDIA zur Beschleunigung des produktiven KI-Einsatzes und einfacher Skalierung von KI-Workloads.
- Optimiertes Deployment: Nutzung von vLLM und llm-d für verteilte Modelle, wodurch GenAI-Modelle effizient in hybriden Umgebungen bereitgestellt werden können.
- Überwachung und Lifecycle Management: Vollständig integrierter Stack für Enterprise-KI, der Risiko- und Performancemanagement über den gesamten Lebenszyklus unterstützt.
Erweiterungen in Red Hat AI 3.3
- Neue produktionsreife Modelle: Komprimierte Versionen von Mistral-Large-3, Nemotron-Nano und Apertus-8B-Instruct; Unterstützung für State-of-the-art-Modelle wie Mistral 3 und DeepSeek-V3.2.
- Self-Service-Zugriff (Models-as-a-Service, MaaS): Zentralisierte APIs für interne Teams zur vereinfachten Bereitstellung und Nutzung eigener Modelle.
- Erweiterte Hardware-Unterstützung: GenAI-Support für Intel-CPUs, NVIDIAs Blackwell Ultra und AMD MI325X-Beschleuniger.
- Data-to-Model Lifecycle Management: Red Hat AI Python Index als vertrauenswürdiges Repository für reproduzierbare, sichere Produktionspipelines.
- KI-Überwachung und Sicherheit: Echtzeit-Telemetrie, integrierte NeMo Guardrails und umfassendes Monitoring von Modellen, Agenten und Clustern.
- GPU-on-Demand: Interner GPU-as-a-Service-Betrieb mit intelligenter Orchestrierung und automatisiertem Checkpointing für Trainingsaufgaben.
Joe Fernandes, Vice President und General Manager der AI Business Unit bei Red Hat, betont:
„Red Hat AI Enterprise ermöglicht, KI als integralen Bestandteil von Unternehmenssoftware zu operationalisieren. Mit der ‚Metal to Agent‘-Plattform überführen Unternehmen fragmentierte Pilotprojekte in konsistente, wiederholbare und hochperformante KI-Workflows über die gesamte Hybrid Cloud.“
Weitere Informationen
- Red Hat AI Enterprise
- Red Hat AI Factory with NVIDIA
- IBM-Blog: IBM Fusion for Red Hat AI
- Deep Dive am 3. März 2026: What’s new and what’s next for Red Hat AI
Weitere Informationen zu Red Hat
- Erfahren Sie mehr über Red Hat
- Lesen Sie Neuigkeiten und Presseinformationen im Red Hat Newsroom oder im Red Hat Blog
- Folgen Sie Red Hat auf X, Facebook, YouTube und LinkedIn
