CloudKünstliche Intelligenz

Red Hat AI Enterprise: Integrierte KI-Plattform für die Hybrid Cloud

Unternehmen stehen zunehmend vor der Herausforderung, KI-Modelle und agentenbasierte Workflows zuverlässig in bestehende IT-Stacks zu integrieren. Fragmentierte Tools und inkonsistente Infrastrukturen bremsen die produktive Nutzung von KI in vielen Organisationen. Gleichzeitig wächst der Bedarf, KI-Bereitstellungen wie standardisierte Enterprise-Systeme zu verwalten. Red Hat reagiert darauf mit einem umfassenden Ansatz, der die gesamte Hybrid-Cloud-Umgebung abdeckt und die Brücke zwischen Infrastruktur und operativen KI-Anwendungen schlägt. Die neue Version Red Hat AI 3.3 ergänzt diese Strategie um zusätzliche Modelle, Hardware-Unterstützung und Sicherheitsfunktionen.

Red Hat hat mit Red Hat AI Enterprise eine integrierte Plattform vorgestellt, die die Bereitstellung, Verwaltung und Überwachung von KI-Modellen, Agenten und Anwendungen in hybriden Cloud-Umgebungen ermöglicht. Ergänzt wird das Portfolio durch Red Hat AI Inference Server, Red Hat OpenShift AI und Red Hat Enterprise Linux AI, wodurch ein vollständiger „Metal to Agent“-Stack entsteht, der Linux- und Kubernetes-Infrastruktur mit fortschrittlichen Inference- und agentenbasierten Funktionen verbindet. Ziel ist es, fragmentierte KI-Experimente in regulierte, autonome Produktionsprozesse zu überführen.

Kernfunktionen von Red Hat AI Enterprise

  • KI-Inferencing und Agentenmanagement: Leistungsfähiges Inference, Modell-Tuning und Verwaltung von Agenten auf beliebiger Hardware und in jeder Umgebung.
  • Integration in OpenShift: Aufbau auf der Kubernetes-basierten Hybrid-Cloud-Plattform für Skalierbarkeit, Sicherheit und konsistente Benutzererfahrung.
  • Red Hat AI Factory with NVIDIA: Kooperation mit NVIDIA zur Beschleunigung des produktiven KI-Einsatzes und einfacher Skalierung von KI-Workloads.
  • Optimiertes Deployment: Nutzung von vLLM und llm-d für verteilte Modelle, wodurch GenAI-Modelle effizient in hybriden Umgebungen bereitgestellt werden können.
  • Überwachung und Lifecycle Management: Vollständig integrierter Stack für Enterprise-KI, der Risiko- und Performancemanagement über den gesamten Lebenszyklus unterstützt.

Erweiterungen in Red Hat AI 3.3

  • Neue produktionsreife Modelle: Komprimierte Versionen von Mistral-Large-3, Nemotron-Nano und Apertus-8B-Instruct; Unterstützung für State-of-the-art-Modelle wie Mistral 3 und DeepSeek-V3.2.
  • Self-Service-Zugriff (Models-as-a-Service, MaaS): Zentralisierte APIs für interne Teams zur vereinfachten Bereitstellung und Nutzung eigener Modelle.
  • Erweiterte Hardware-Unterstützung: GenAI-Support für Intel-CPUs, NVIDIAs Blackwell Ultra und AMD MI325X-Beschleuniger.
  • Data-to-Model Lifecycle Management: Red Hat AI Python Index als vertrauenswürdiges Repository für reproduzierbare, sichere Produktionspipelines.
  • KI-Überwachung und Sicherheit: Echtzeit-Telemetrie, integrierte NeMo Guardrails und umfassendes Monitoring von Modellen, Agenten und Clustern.
  • GPU-on-Demand: Interner GPU-as-a-Service-Betrieb mit intelligenter Orchestrierung und automatisiertem Checkpointing für Trainingsaufgaben.

Joe Fernandes, Vice President und General Manager der AI Business Unit bei Red Hat, betont:
„Red Hat AI Enterprise ermöglicht, KI als integralen Bestandteil von Unternehmenssoftware zu operationalisieren. Mit der ‚Metal to Agent‘-Plattform überführen Unternehmen fragmentierte Pilotprojekte in konsistente, wiederholbare und hochperformante KI-Workflows über die gesamte Hybrid Cloud.“

Weitere Informationen

Weitere Informationen zu Red Hat

Datenschutz-Übersicht

Diese Website verwendet Cookies, damit wir Ihnen die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in Ihrem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von Ihnen, wenn Sie auf unsere Website zurückkehren, und hilft unserem Team zu verstehen, welche Abschnitte der Website für Sie am interessantesten und nützlichsten sind.