Offene GenAI-Plattformen für den Unternehmenseinsatz: Red Hat und Meta erweitern strategische Kooperation
Red Hat und Meta haben eine vertiefte Zusammenarbeit angekündigt, um generative KI (GenAI) auf Basis offener Technologien für Unternehmen breiter verfügbar zu machen. Im Zentrum stehen zwei Open-Source-Projekte, die sowohl technische als auch infrastrukturelle Herausforderungen adressieren: Llama Stack und vLLM.

Die Kooperation begann mit der technischen Unterstützung für Llama 4, der neuesten Generation großer Sprachmodelle von Meta, durch Red Hat AI sowie durch den Inference-Server vLLM. In einem nächsten Schritt wird die Ausrichtung beider Projekte stärker harmonisiert, um einheitliche, offene Frameworks für GenAI-Workloads zu ermöglichen. Ziel ist es, eine Infrastruktur zu schaffen, die unabhängig von Plattform, Cloud-Umgebung oder KI-Beschleuniger effizient funktioniert – insbesondere bei der Ausführung von Modellen (Inferencing).
Laut einer Analyse von Gartner ist davon auszugehen, dass bis 2026 über 80 % der unabhängigen Softwareanbieter generative KI-Funktionen in ihre Anwendungen integriert haben werden. Vor diesem Hintergrund ergibt sich ein wachsender Bedarf an offenen und standardisierten Schnittstellen, die sowohl Skalierbarkeit als auch Flexibilität ermöglichen. Llama Stack, von Meta als Open Source bereitgestellt, bietet APIs und Bausteine für den gesamten Lebenszyklus generativer Anwendungen. Red Hat bringt sich aktiv in die Weiterentwicklung des Stacks ein, insbesondere im Hinblick auf den Einsatz in hybriden Cloud-Umgebungen.
vLLM wiederum, ein Bestandteil des PyTorch-Ökosystems, dient der performanten und ressourcenschonenden Ausführung großer Sprachmodelle. Es bietet bereits Day-0-Support für Llama 4 und richtet sich insbesondere an Entwickler:innen, die GenAI-Anwendungen in Produktivumgebungen implementieren möchten.
Im Rahmen des Red Hat Summit wurden zentrale Aspekte dieser Kooperation vorgestellt. Thematische Schwerpunkte waren unter anderem die Integration von GenAI in moderne Infrastruktur sowie die Rolle hybrider Cloud-Architekturen bei der Umsetzung skalierbarer KI-Projekte. Beide Unternehmen betonen, dass Fortschritte bei der praktischen Anwendbarkeit von GenAI – insbesondere beim Inferencing – für den langfristigen Erfolg von KI-Lösungen im Enterprise-Umfeld entscheidend sind.
Die Zusammenarbeit steht exemplarisch für eine technologische Entwicklung, die sich klar in Richtung offener Standards und interoperabler Systeme bewegt. Sie verfolgt das Ziel, Unternehmen eine verlässliche, leistungsfähige und anpassungsfähige Basis für KI-Anwendungen der nächsten Generation zur Verfügung zu stellen – sowohl für klassische Unternehmenssoftware als auch für Agentic-AI-Lösungen, die autonome Funktionen in komplexen Umgebungen übernehmen.
Link zum Red Hat Summit: Red Hat Summit 2025 Homepage