KI-Modelle im Vergleich: Die Integration generativer KI ist auf dem Vormarsch
Autorin/Redakteur: Elena Simon ist General Manager für die Region DACH bei Gcore/gg
Die Einbindung von Künstlicher Intelligenz (KI) in geschäftliche und industrielle Anwendungen kann Wettbewerbsvorteile schaffen – Unternehmen können effizienter und produktiver arbeiten und schneller am Markt agieren. Doch welche Integrationsmöglichkeiten gibt es heute und welches Modell eignet sich für Ihr Unternehmen?
Das Thema generative KI ist derzeit in aller Munde. Der bahnbrechende Erfolg von Large Language Models (LLMs) wie ChatGPT (Chat Generative Pre-trained Transformer), Google Bard und Dall-E hat das Thema aus IT-Labors, die im Verborgenen arbeiten, in die Schlagzeilen katapultiert. Aber dies ist nicht nur ein Hype. In den vergangenen Jahren hat die generative KI tatsächlich einen Quantensprung vollzogen und kann heute in einer Reihe von wegweisenden Unternehmensanwendungen zum Einsatz kommen. Wenn Sie Ideen entwickeln und über genügend Daten verfügen, um Ihr Modell zu trainieren, ist die generative KI zu atemberaubenden Leistungen fähig.
In diesem Zusammenhang ist die Prognose der Unternehmensberatung McKinsey, dass generative KI „das Potenzial hat, einen jährlichen Produktivitätszuwachs von 2,6 bis 4,4 Billionen US-Dollar zu ermöglichen“, durchaus einleuchtend. Auch die Bundesregierung ist sich der großen Chancen bewusst, die diese Technologie für Unternehmen in Deutschland bieten kann. Sie stellte bereits im Jahr 2018 ihre erste KI-Strategie vor, aktualisierte diese im Jahr 2020 und verfeinert ihren Ansatz weiter, um sicherzustellen, dass Deutschland und seine Unternehmen weiterhin an der Spitze der Innovation stehen.
Buy versus Build – welche Strategie ist die richtige?
CIOs und ihre Teams stehen heute vor der einmaligen Chance, sich von der Konkurrenz abzuheben und ihren Mitbewerbern einen Schritt voraus zu sein, wenn sie KI-Modelle nutzen, um schneller, effizienter und produktiver zu arbeiten als andere Unternehmen. Um diese Chance zu nutzen, müssen sie abwägen, welcher Ansatz für die KI-Integration der Beste ist. Bis vor Kurzem gab es im Wesentlichen zwei Optionen: kaufen oder selbst entwickeln.
Bei dem Ansatz „Buy“ verbinden sich Unternehmen einfach über eine API mit einem generativen Standard-KI-Tool, beispielsweise von OpenAI. Das KI-Tool greift dann auf die Daten des Unternehmens zu und wendet seine generativen AI-Funktionalitäten auf die Daten an. Die Alternative ist die Entwicklung eines eigenen KI-Systems. Bei diesem Ansatz stellt das IT-Team seine eigene technologische Infrastruktur zusammen, um maßgeschneiderte LLMs zu unterstützen, die dann ihre Datenbestände nutzen.
Natürlich hat jeder Ansatz Vor- und Nachteile. So ist beispielsweise die Verwendung einer Standardversion schnell und einfach, bietet jedoch nur begrenzte Möglichkeiten zur Anpassung, für die Kontrolle oder den Aufbau von Wettbewerbsvorteilen. Zudem werden Unternehmen nicht bereit sein, ihre eigenen Datenbestände an externe Service-Provider weiterzugeben, über die sie dann nur noch begrenzte Kontrolle haben. Wenn Sie hingegen Ihr eigenes Modell erstellen, können Sie dieses anpassen, haben die Kontrolle über Ihre Daten und können sich damit von Mitbewerbern absetzen.
Die größte Herausforderung bei dem Ansatz „Build“ sind jedoch die Kosten – und das ist das fatale. Der Aufbau eines generativen KI-Systems von Grund auf verschlingt Millionen von Euro an Initialkosten und erfordert den Einsatz von ohnehin schon knappen IT-Komponenten: Der weltweite Mangel an Grafikprozessoren, die Bilder, Texte und andere Daten besser, schneller und zielgerichteter auswerten und analysieren sowie KI-Modelle effizient erstellen, an Chips, die die Entwicklung fortschrittlicher KI-Funktionen voranbringen, treibt die Preise in die Höhe. Folglich ist die Aussicht, LLMs intern aufzubauen, für die überwiegende Mehrheit der Unternehmen außer Reichweite.
AI-Infrastructure-as-a-Service – die dritte Variante
Glücklicherweise gibt es jetzt eine neue Option, die die besten Elemente der Ansätze „Buy“ und „Build“ kombiniert. Diese dritte Möglichkeit besteht darin, die KI-Infrastruktur „as-a-Service“ zu nutzen. In diesem Fall können Unternehmen die KI-Technologie – einschließlich Hardware, Cloud-Services und Experten-Support – von einem Managed-Service-Provider beziehen. Das heißt, dass Unternehmen jeder Größenordnung kosteneffizient auf generative KI-Ressourcen im Hyperscale-Verfahren zugreifen, ohne die Kontrolle über ihre Modelle oder Daten aufgeben zu müssen.
Der Ansatz hat bereits bewiesen, dass er für Unternehmen zu bahnbrechenden Ergebnissen führt. Kürzlich haben wir bei Gcore beispielsweise AI-Infrastructure-as-a-Service genutzt, um ein eigenes KI-Modell in nur zwei Stunden zu erstellen, zu testen und auszuführen. Das Modell wurde anhand von 112.000 Röntgenbildern des Brustkorbs trainiert und ist nun in der Lage, Erkrankungen des Brustkorbs zu diagnostizieren. Die meisten Prognosen stimmten ganz oder teilweise mit der Diagnose eines Arztes überein.
Die Hürden der KI-Integration überwinden
Abgesehen von der Geschwindigkeit, der Leistung und der komfortablen Nutzung besteht ein weiterer großer Vorteil von AI-Infrastructure-as-a-Service darin, dass dieses Modell Unternehmen dabei unterstützen kann, mehrere große Herausforderungen zu überwinden, die bisher die KI-Innovation gebremst haben. Die erste Herausforderung bezieht sich auf den Zugang zur richtigen Art von Rechenleistung.
Standard-CPUs sind nicht leistungsstark genug, um große Datenmengen zu verarbeiten, während GPUs teuer und knapp sind. Mit AI-Infrastructure-as-a-Service können IT-Teams nun jedoch auf eine neue Art von Processing Unit zugreifen: Die Intelligence Processing Unit (IPU) wurde die speziell für die Verarbeitung von KI-Workloads entwickelt.
Die Verbesserung der Qualität von Trainingsdaten
Eine zweite Herausforderung bei KI-Implementierungen in Unternehmen ist häufig die Datenqualität. KI-Anwendungen sind nur so gut wie die Daten, auf denen sie basieren. Daher müssen die Daten kuratiert und bereinigt, zugänglich und sicher sein. Die Erfassung und Speicherung von KI-Datenbeständen kann jedoch komplex und kostspielig werden. Viele Unternehmen müssen ihre Daten zunächst von lokalen Legacy-Systemen in die Cloud migrieren. Das kostet Mühe und nimmt viel Zeit in Anspruch – insbesondere dann, wenn die jeweiligen Verantwortlichen ältere Dateiformate manuell nachbearbeiten müssen.
AI Infrastructure as a Service rationalisiert diesen Datenvorbereitungsprozess. Wenn Entwickler ihre KI-Daten bereits in einem sicheren Cloud-Rechenzentrum gespeichert haben, können sie die Daten direkt auf lokale Festplatten herunterladen und ihre Trainingsdaten sofort für das maschinelle Lernen vorbereiten. Für diesen Prozess sind lokale NVMe-Festplatten (Nonvolatile Memory Express) erforderlich, da sonst die Netzwerkbandbreite zu einem Problem für leistungsstarke IPUs werden könnte. Da die Daten aus einer nativen Cloud-Umgebung stammen, stehen sie den Entwicklern sofort zur Verfügung, wenn ihre Modelle fertig sind.
Die Integration in bestehende Systeme
Die KI-Integration ist ein drittes, wesentliches Hindernis. Um eine schnelle und nahtlose Integration in die bestehenden Systeme eines Unternehmens zu ermöglichen, muss die KI-Infrastruktur eine breite Palette von Werkzeugen und Integrationsmöglichkeiten unterstützen – einschließlich Daten-Tools, Entwicklungs-Tools und KI-Plattformen. Die geeigneten Lösungen für AI-Infrastructure-as-a-Service leisten genau dies und ermöglichen es den IT-Verantwortlichen, sich auf die Wertschöpfung und nicht auf die Back-Office-Integration zu konzentrieren.
Ein sofort einsatzbereiter AI-Infrastructure-as-a-Service kann die Herausforderungen bewältigen, mit denen Unternehmen bei der Integration von KI konfrontiert werden. Dieser Managed-Service bietet einen praktikablen Mittelweg zwischen der Erstellung und dem Training eines eigenen KI-Modells von Grund auf und der Einbindung allgemeiner, generativer KI-Funktionen.
Laut einer Studie von McKinsey könnte Deutschland sein BIP-Ziel für 2030 um vier Prozent übertreffen, wenn es frühzeitig auf KI setzt. Dieselbe Studie deutet darauf hin, dass KI die Leistung in allen Branchen in Deutschland steigern wird, insbesondere in solchen, in denen die prädikative Analytik eine große Rolle spielt, wie beispielsweise im deutschen Industriesektor. Infolgedessen könnte KI-gestütztes Arbeiten die Produktivität in Deutschland jährlich um 0,8 bis 1,4 Prozent steigern.
Der Einsatz von KI dürfte daher das nächste große Differenzierungsmerkmal in der Wirtschaft sein und wird maßgeblich darüber entscheiden, welche Unternehmen in den kommenden Jahren erfolgreich sein werden. Ein frühzeitiger Einstieg in die KI ist daher unerlässlich. Diejenigen, die die Vorteile von AI-Infrastructure-as-a-Service nutzen, um zu experimentieren und ihre Modelle zu verfeinern, werden ein beispielloses Maß an Erkenntnissen, Automatisierung und Innovation freisetzen und das Beste aus den Möglichkeiten machen, die sich bieten. Die anderen Unternehmen hingegen werden es schwer haben, mitzuhalten.