ChatGPT ist mehr als nur eine Spielerei: Technische Handbücher oder Softwarecodes aus der Maschine
Autor/Redakteur: Jörg Hecke, Produktmarketing Manager bei der SEH Computertechnik GmbH/gg
Seit einigen Monaten beherrscht ein Kürzel die Nachrichtenwelt, von dem die wenigsten überhaupt wissen, was es komplett ausgeschrieben bedeutet: ChatGPT oder auch „Chat Generative Pre-trained Transformer“. Es ist also ein Chatprogramm, das durch vorherige Einspeisung einer Vielzahl von Basisdaten mehr oder weniger sinnvolle Texte auszugeben vermag. Die Basis ist das Sprachmodell GPT. Dieses wurde über Jahre mit großen Mengen an Daten trainiert. Als Large Language Model (LLM) verfügt die aktuelle Version GPT über mehr als 175 Milliarden Parameter und 800 Gigabyte an Speicherkapazität. Der Entwickler OpenAI hat Mitte März 2023 ein den Vorgängerversionen deutlich überlegeneres System veröffentlicht.
Als erste Spielereien ließen Journalisten in den vergangenen Wochen damit beispielsweise redaktionelle Artikel erstellen. Autoren stellten mittels ChatGPT generierte Texte ihren bislang veröffentlichten Literaturwerken gegenüber, indem ChatGPT mit einer Kette von Begriffen aus diesen Büchern gefüttert wurde. Ja, selbst Kochrezepte versuchten einige Nutzer dem Text-Bot zu entlocken, nachdem sie kurzerhand den Inhalt ihres Kühlschranks als Ausgangsinformation einspeisten.
Geistesblitz oder logische Konsequenz?
Die Idee der „automatischen Chatprogramme“ ist nicht neu. Denken wir beispielweise an den Bot „Tay“ von Microsoft im Jahr 2016 oder Metas „Galactica“ Ende 2022. Schon zu deren Zeit habe ich bereits darüber nachgedacht, welche sinnvollen Nutzungsmöglichkeiten solche Technologien sowohl für die Menschheit, aber auch und im Speziellen für ein Unternehmen, das Soft- und Hardware herstellt, mitbringen könnten. Die ersten Gedanken kreisen dabei sicher um die naheliegenden Anwendungsbereiche wie etwa eine automatisierte Kundenhotline per Chat. Das habe ich aber schnell verworfen. Warum? Nun, ein Kunde, der sich an den Hersteller-Support wendet, möchte sicher nicht das Gefühl haben, mit einer Maschine zu sprechen. Zudem ist jedes Problem, mit dem Hotline-Mitarbeiter konfrontiert werden, individuell und in wenigen Einzelfällen reproduzierbar. Andere Beispiele, wie man die Künstliche Intelligenz gepaart mit Textqualität sinnvoll einsetzen kann, liegen ganz woanders.
Der erwähnte Literatur-Vergleich wäre dabei schon ein guter Ansatz, um bestehende Informationen – hier das bereits veröffentlichte Buch – als Ausgangsinformation für die Aufgabe des KI-Chatprogramms zu verwenden. Dem kommt zugute, dass neben Texten auch Bilder und sogar Audiosequenzen als Futter dienen können. ChatGPT ist nun mal ein „Multimodal Large Language Model“ (MLLM). Damit wäre folgender Gedanke nur logisch: Warum lassen wir die KI nicht künftig beispielsweise ganze Produkthandbücher verfassen?
Technische Details bleiben doch technische Details
Grundsätzlich brächte ChatGPT sämtliche Voraussetzungen mit, um verständlich und ausführlich eine logische Abfolge von technischen Gegebenheiten und Spezifikationen in die Form eines Benutzerhandbuchs zu bringen. Anwender einer Hardware oder eines Software-Programms wären dadurch in der Lage, diese zu bedienen beziehungsweise zu nutzen.
Ein großer Vorteil ist, dass es ja grundsätzlich bereits eine Menge an Informationen gibt, die als „Futter“ für die Chat Generative Pre-trained Transformer dienen können. Vorangegangene Versionen eines technischen Handbuchs, deren Inhalte lediglich marginal aktualisiert oder angepasst werden müssen, sind dabei nur eine unspektakuläre Variante. Man stelle sich folgendes Szenario vor: Ein USB-Server, bisher lediglich als Desktop-Variante auf dem Markt, soll ab sofort für den Einsatz in Racks als Hutschienen-Variante auf den Markt kommen. Grundlage des Handbuchs wäre also das bestehende Handbuch des Desktop-Modells. Daraus abgeleitet und um spezifische Informationen der Rack-mounted-Version erweitert, erstellt ChatGPT damit ein völlig neues Handbuch. Dieses würde nach einem kurzen Check durch technisch versierte Mitarbeiter gegebenenfalls angeglichen und finalisiert. Schon hat man ohne große Mühe und Aufwand ein aktuelles technisches Benutzerhandbuch für eine völlig neue Produktlinie in der Hand. Ist das wirklich so einfach?
Ein weiteres Szenario ist dabei noch viel weitreichender: Man denke dabei an Softwareentwicklung aus der Maschine, quasi als Unterstützung beim Schreiben von Codes. Zu nennen wären hier etwa repetitive Tasks, bei denen ChatGPT gut unterstützen könnte, denn die Eingaben und Ausgaben sind ja mehr oder weniger stets gleich. Oder sogar beim schnellen Testen, ob ein Programmcode schon in einem bestimmten Stadium funktioniert. Auch beim Debugging kann die Maschine nach Fehlern suchen und Alternativen vorschlagen. Selbst fertige Codeblöcke könnte man ChatGPT zur Optimierung geben. Gerade hier sehen Experten schon heute ein großes Potential für ChatGPT und Konsorten, um Entwickler zu unterstützen und ihnen zeitraubende Routinearbeiten abzunehmen.
Grenzen des Machbaren und der Faktor Mensch
Zum jetzigen Zeitpunkt beherrscht ChatGPT in der vierten Generation GPT-4 eine Textleistung von rund 24.000 Wörtern. Das ist schon eine ganze Menge, wenn man bedenkt, dass dieser Beitrag hier bisher fast 700 Wörter lang ist. Man kann also davon ausgehen, dass Produkthandbücher, die kein besonders erklärungsbedürftiges Produkt darstellen, leicht innerhalb dieses Umfangs bleiben. Wo sind also Grenzen gesetzt? Da wäre zunächst die Restriktion in Sachen Eingabekapazität: Zum jetzigen Zeitpunkt erkennt oder verarbeitet ChatGPT Sätze mit bis zu 1.500 Wörtern. Die vollständige Eingabe eines komplett bestehenden Handbuchs müsste demnach in mehreren Schritten vonstattengehen. Wer diesen Aufwand nicht scheut, dem steht die nächste virtuelle Hürde im Weg: die bisherigen Informationen, die die Technologie zu einem Thema gespeichert hat. Wir kennen die Presseberichte zu ChatGPT-Abhandlungen, die mit rassistischen Inhalten oder grammatikalisch völlig absurden Resultaten ausgespuckt wurden. Das könnte auch bei der vermeintlich sicheren und einfachen Erstellung einer technischen Anleitung passieren. Somit ist von Anfang an klar, dass bei der Auswertung und Korrektur eines solchen technischen Leitfadens viel Handarbeit notwendig sein wird.
Nutzer von ChatGPT berichten immer wieder von Problemen, beispielsweise von falschen oder fehlerhaften Informationen, oder sie bemängeln gar schablonenhafte Antworten. Das überrascht nicht, denn letztendlich ist ChatGPT keine Intelligenz im klassischen Sinne, sondern gibt nur das aus, was man vorher eingespeist hat. Die Interpretation, die Reihenfolge oder der Stil des Outputs ist hingegen komplett Sache der Technologie. Kann das gefährlich werden? Nicht, wenn man gewissenhaft und mit doppelter und dreifacher Genauigkeit jedes Resultat gegencheckt und mit der gebotenen Logik vergleicht.
Ausblick und Grenzen des Machbaren
In die kommenden Generationen von ChatGPT wollen die Entwickler mehr von allem Guten integrieren: mehr Genauigkeit, mehr Wörtererkennung, mehr Plausibilität, mehr Kapazität. Man kann davon ausgehen, dass das auch möglich ist. Denn in der Geschwindigkeit, mit der die 2015 in San Francisco gegründete Stiftung das heute vorliegende und für die Öffentlichkeit nutzbare Produkt vorgelegt hat, war schon enorm. In diesem Tempo weiterentwickelt, werden sehr sicher die bisherigen Grenzen des Machbaren verschoben und kleinere Mankos soweit ausgeräumt, dass ChatGPT ein fester Bestandteil unseres Lebens wird. Und solange dadurch keine Jobs obsolet werden – man denke da an maschinell erstellte Zeitungen, Zeitschriften oder Liedgut – ist diese Technologie ein großer Gewinn, der eine Chance verdient. ChatGPT macht aktuell sicher keine Entwickler, Journalisten oder technische Redakteure überflüssig. Es kann bei bewusstem Einsatz und Berücksichtigung der Einschränkungen zusammen mit dem Anwender ein sehr gutes Team bilden.
Übrigens: Fragt man ChatGPT, wie es zur Erstellung von Handbüchern genutzt werden kann, antwortet die KI folgendermaßen:
Technisch korrekt, und wenn man es so liest, sicher einfach. Aber vor allem den letzten Absatz dieser Antwort sollte man bei der Nutzung von ChatGPT als eine Art Mantra verstehen.