Bessere Abläufe? Nur mit verlässlicher Automatisierung!

Autor/Redakteur: Stefan Welcker, Managing Director DACH bei der Expert System Deutschland GmbH/gg

Sowohl auf der theoretischen als auch auf der strategischen Seite gibt es mittlerweile mehr als reichlich Bewegung bei der Digitalisierung. Unternehmen jedweder Größenordnung und auch Branche haben die Bedeutung des Themas mittlerweile erkannt und investieren in digitale Geschäftsmodelle. Die beteiligten Player haben verstanden, wie wichtig es ist, diese Zukunftsfelder adäquat zu besetzen. Kein Wunder, denn auch die finanziellen Aussichten sind glänzend. Ein Beispiel etwa die Sparte „Connected Car“. Allein der europäische Markt dafür wird nach einer aktuellen Deloitte-Studie bis 2021 um mehr als das Elf-fache wachsen – von 62 Millionen im vergangenen Jahr auf schätzungsweise 715 Millionen Euro. So weit, so gut.

Doch Theorie und Strategie sind das Eine. Die meisten dieser Szenarien müssen auch schlicht die daraus resultierende Quintessenz auf dem Zettel haben: Dreh- und Angelpunkt für gelungene digitale Geschäftsmodelle und Unternehmensprozesse ist eine verlässliche Automatisierung. Sie wird im Mittelpunkt all dieser zukünftigen Erfolgsgeschichten stehen. Das wird klar, wenn man die digitale Prozesskette analysiert.

Denn seziert man das, was momentan heiß diskutiert wird, so ergibt sich schnell ein klares Bild. Ob es um die Werkzeugmaschine geht, die künftig proaktiv nach einer Wartung verlangt oder das Auto, das ohne menschlichen Einfluss abbiegt: Im Mittelpunkt steht stets die sichere Weitergabe von Informationen in einer Prozesskette, die ohne menschlichen Einfluss auskommen soll — oder sogar muss. Und nicht nur das: Zwischenschritte können sogar weitere Entscheidungen bedeuten, die von der jeweiligen Maschine dann ebenfalls autonom getroffen werden müssen. Hierzu lässt sich die bekannte Frage des Schmetterlingseffektes – „Kann der Flügelschlag eines Schmetterlings in Brasilien einen Tornado in Texas auslösen?“ – eindeutig mit „Ja“ beantworten. In diesem Szenario ist dann das Sammeln und Auswerten von Informationen die eine Seite der Medaille. Die noch wichtigere zweite Seite ist jedoch das Lernen daraus. Ein verlässlicher, automatisierter Prozess ist demnach erst eine Kombination aus beiden Vorgängen. Ohne zu lernen, ist die Digitalisierung nicht konsequent zu Ende gedacht, es mangelt schlicht und einfach an maschineller Intelligenz.

Cognitive Computing als Grundvoraussetzung für Automatisierung

Das anders zu interpretieren, ist ein nicht zu unterschätzendes Risiko vieler Digitalszenarien, etwa bei der Prozessoptimierung in Unternehmen. Deshalb sollte hier unbedingt Cognitive Computing greifen. Diese Technologie ist in vielen Fällen die zwingende Voraussetzung, damit Organisationen hieb- und stichfest automatisieren können.

Cognitive Computing ist viel mehr als nur Machine Learning

Um diesen Mangel an Intelligenz zu verstehen, wirft man bestenfalls einen kurzen Blick auf die jeweiligen Technologien. Cognitive Computing setzen manche Beobachter oft mit Machine Learning gleich – was aber der gesamten Sache nicht gerecht wird. Diese Technologie ist nämlich vielfältiger als reines Machine Learning oder einfache Textanalysen. Cognitive Computing steht als Überbegriff für eine Kombinatorik verschiedener Technologien. Diese werden dann anders als bisher eingesetzt und erschließen einem Unternehmen neue Möglichkeiten. Beispielsweise sind darin auch Elemente von NLP (Natural Language Processing), semantischer Analyse oder die in sozialen Medien sehr gängige Sentimentanalyse (englisch für „Stimmungserkennung“) enthalten. Letzt genannte Technologie wertet Texte automatisch aus, um daraufhin eine geäußerte Haltung als positiv oder negativ zu erkennen.

Cognitive Computing kombiniert allerdings diese Technologien nicht nur, sondern ist darüber hinaus lernfähig, da es nicht allein lediglich strengen Wortanalysen oder Regeln folgt. Beispiel dafür: ein „mitdenkender“ Chatbot. Soll dieser Prozesse im Kundenservice optimieren, so muss er in der Lage sein, aus Texten die passenden Antworten abzuleiten. Pures Machine Learning oder reine Textanalyse reichen hier bei Weitem nicht aus.

Oder ein anderes Beispiel aus der Prozessindustrie: In einer Gießerei bestimmen enorm viele Parameter die Produktionsabläufe. Von der wetterbedingten Luftfeuchtigkeit über Gießtempo, Presszeit- und Druck bis zu einer im Promillebereich liegenden unterschiedlichen Menge an Spurenelementen im Formsand können in der Regel mehrere hundert verschiedene Parameter das Endergebnis beeinflussen. So dass die Ausschussquote branchentypisch sehr hoch ist. Ein Mensch allein kann diese vielen Parameter gar nicht kontrollieren. Üblich war es deshalb von Fertigung zu Fertigung, die Fehlerquote zu überprüfen und händisch die möglichen Stellschrauben zu bedienen. Doch in der Digitalisierung entwickeln immer mehr Unternehmen Prozesse, bei denen sie spezifische Regeln des Fertigungsprozesses extrahieren, um zu beschreiben, welche Kombination von Prozessparametern sich besonders negativ oder positiv auf die Qualität einzelner Gussteile auswirkt. Erneut muss dafür aber die Prozessregel „Sammeln, Auswerten und dann daraus Lernen“ angewandt werden.