{"id":29380,"date":"2025-06-21T10:12:12","date_gmt":"2025-06-21T08:12:12","guid":{"rendered":"https:\/\/www.sysbus.eu\/?p=29380"},"modified":"2025-06-11T10:22:55","modified_gmt":"2025-06-11T08:22:55","slug":"offene-genai-plattformen-fuer-den-unternehmenseinsatz-red-hat-und-meta-erweitern-strategische-kooperation","status":"publish","type":"post","link":"https:\/\/www.sysbus.eu\/?p=29380","title":{"rendered":"Offene GenAI-Plattformen f\u00fcr den Unternehmenseinsatz: Red Hat und Meta erweitern strategische Kooperation"},"content":{"rendered":"\n<p>Red Hat und Meta haben eine vertiefte Zusammenarbeit angek\u00fcndigt, um generative KI (GenAI) auf Basis offener Technologien f\u00fcr Unternehmen breiter verf\u00fcgbar zu machen. Im Zentrum stehen zwei Open-Source-Projekte, die sowohl technische als auch infrastrukturelle Herausforderungen adressieren: <em>Llama Stack<\/em> und <em>vLLM<\/em>.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"450\" height=\"450\" src=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2025\/06\/RedhatMikeFerrisSeniorVicePresidentundChiefStrategyOfficer.webp\" alt=\"\" class=\"wp-image-29384\" srcset=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2025\/06\/RedhatMikeFerrisSeniorVicePresidentundChiefStrategyOfficer.webp 450w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2025\/06\/RedhatMikeFerrisSeniorVicePresidentundChiefStrategyOfficer-300x300.webp 300w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2025\/06\/RedhatMikeFerrisSeniorVicePresidentundChiefStrategyOfficer-150x150.webp 150w\" sizes=\"auto, (max-width: 450px) 100vw, 450px\" \/><figcaption class=\"wp-element-caption\">Mike Ferris, Senior Vice President und Chief Strategy Officer, Red Hat- Quelle: Red Hat<\/figcaption><\/figure>\n\n\n\n<p>Die Kooperation begann mit der technischen Unterst\u00fctzung f\u00fcr <em>Llama 4<\/em>, der neuesten Generation gro\u00dfer Sprachmodelle von Meta, durch <em>Red Hat AI<\/em> sowie durch den Inference-Server <em>vLLM<\/em>. In einem n\u00e4chsten Schritt wird die Ausrichtung beider Projekte st\u00e4rker harmonisiert, um einheitliche, offene Frameworks f\u00fcr GenAI-Workloads zu erm\u00f6glichen. Ziel ist es, eine Infrastruktur zu schaffen, die unabh\u00e4ngig von Plattform, Cloud-Umgebung oder KI-Beschleuniger effizient funktioniert \u2013 insbesondere bei der Ausf\u00fchrung von Modellen (Inferencing).<\/p>\n\n\n\n<p>Laut einer Analyse von Gartner ist davon auszugehen, dass bis 2026 \u00fcber 80\u202f% der unabh\u00e4ngigen Softwareanbieter generative KI-Funktionen in ihre Anwendungen integriert haben werden. Vor diesem Hintergrund ergibt sich ein wachsender Bedarf an offenen und standardisierten Schnittstellen, die sowohl Skalierbarkeit als auch Flexibilit\u00e4t erm\u00f6glichen. Llama Stack, von Meta als Open Source bereitgestellt, bietet APIs und Bausteine f\u00fcr den gesamten Lebenszyklus generativer Anwendungen. Red Hat bringt sich aktiv in die Weiterentwicklung des Stacks ein, insbesondere im Hinblick auf den Einsatz in hybriden Cloud-Umgebungen.<\/p>\n\n\n\n<p>vLLM wiederum, ein Bestandteil des PyTorch-\u00d6kosystems, dient der performanten und ressourcenschonenden Ausf\u00fchrung gro\u00dfer Sprachmodelle. Es bietet bereits Day-0-Support f\u00fcr Llama 4 und richtet sich insbesondere an Entwickler:innen, die GenAI-Anwendungen in Produktivumgebungen implementieren m\u00f6chten.<\/p>\n\n\n\n<p>Im Rahmen des Red Hat Summit wurden zentrale Aspekte dieser Kooperation vorgestellt. Thematische Schwerpunkte waren unter anderem die Integration von GenAI in moderne Infrastruktur sowie die Rolle hybrider Cloud-Architekturen bei der Umsetzung skalierbarer KI-Projekte. Beide Unternehmen betonen, dass Fortschritte bei der praktischen Anwendbarkeit von GenAI \u2013 insbesondere beim Inferencing \u2013 f\u00fcr den langfristigen Erfolg von KI-L\u00f6sungen im Enterprise-Umfeld entscheidend sind.<\/p>\n\n\n\n<p>Die Zusammenarbeit steht exemplarisch f\u00fcr eine technologische Entwicklung, die sich klar in Richtung offener Standards und interoperabler Systeme bewegt. Sie verfolgt das Ziel, Unternehmen eine verl\u00e4ssliche, leistungsf\u00e4hige und anpassungsf\u00e4hige Basis f\u00fcr KI-Anwendungen der n\u00e4chsten Generation zur Verf\u00fcgung zu stellen \u2013 sowohl f\u00fcr klassische Unternehmenssoftware als auch f\u00fcr Agentic-AI-L\u00f6sungen, die autonome Funktionen in komplexen Umgebungen \u00fcbernehmen.<\/p>\n\n\n\n<p>Link zum Red Hat Summit: <a href=\"https:\/\/www.redhat.com\/en\/summit\">Red Hat Summit 2025 Homepage<\/a><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Unternehmen stehen zunehmend vor der Herausforderung, generative KI effizient und nachhaltig in bestehende IT-Strukturen zu integrieren. Mit ihrer Kooperation wollen Red Hat und Meta genau diese Anforderungen addressieren. Ziel ist es, offene und interoperable Grundlagen f\u00fcr GenAI-Anwendungen zu schaffen, die flexibel \u00fcber Plattformen und Clouds hinweg einsetzbar sind. Im Mittelpunkt stehen zwei Open-Source-Projekte, die sich gezielt an EntwicklerInnen und Softwareanbieter richten: Llama Stack und vLLM. <\/p>\n","protected":false},"author":81,"featured_media":29383,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"colormag_page_container_layout":"default_layout","colormag_page_sidebar_layout":"default_layout","footnotes":""},"categories":[4],"tags":[21327,21521,21713,21712,21714],"class_list":["post-29380","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news","tag-enterpriseai","tag-generativeki","tag-llamatack","tag-opensourceinfrastruktur","tag-vllm"],"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/29380","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/users\/81"}],"replies":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=29380"}],"version-history":[{"count":2,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/29380\/revisions"}],"predecessor-version":[{"id":29386,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/29380\/revisions\/29386"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/media\/29383"}],"wp:attachment":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=29380"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=29380"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=29380"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}