Kaum ein Konzept erfährt derzeit ein höheres Maß an Aufmerksamkeit in Wirtschaft, Politik und Medien wie das der Digitalisierung. Zweifellos nimmt sie mittlerweile in nahezu allen Lebenslagen und vermehrt auch in den Gedankenspielen der Entscheider in Unternehmen eine tragende Rolle ein. Katalysator für die Aufbruchstimmung sind weitreichende Fortschritte auf dem Gebiet der Künstlichen Intelligenz (KI), die es Computern zunehmend ermöglichen, menschliche Intelligenz zu simulieren. Durch den Einsatz von Logik und maschinellem Lernen erfahren KI-gesteuerte Systeme immer mehr Eigenständigkeit und damit mehr Verantwortung. So reinigen Staubsaugerroboter Ihr Heim ganz selbstverständlich vollautomatisiert und Fahrassistenten heben die PKW-Fahrt auf ein ganz neues Level in Puncto Sicherheit und Fahrspaß. Doch das ist nur der Anfang. Intelligente Straßennetze, selbstfahrende Autos und ähnliche Technologien kannte man vor zehn Jahren lediglich aus Science-Fiction-Filmen. Heute ist ihr flächendeckender Einsatz nur noch einen Steinwurf weit entfernt.

Wie funktioniert die Digitalisierung und was sind ihre wichtigsten Merkmale? Was bedeutet die Entwicklung für den künftigen Unternehmenserfolg? Ist die Digitalisierung auch für den Klein- und Mittelstand interessant, und, wenn ja, welche Möglichkeiten bieten sich in diesem Bereich? Gibt es Limitierungen? Fragen über Fragen; wir liefern Antworten und Ideen.

Ausfahrt: Digitale Welt

Vor 200 Jahren markierte die industrielle Revolution den Übergang der Agrar- zur Industriegesellschaft. Mit sich brachte sie eine tiefgreifende und dauerhafte Umgestaltung der wirtschaftlichen und sozialen Verhältnisse, der Arbeitsbedingungen und Lebensumstände. Auslöser war eine rasante Entwicklung von Technik, Produktivität und Wissenschaften, die wiederum eine vermehrte Produktion in Fabriken und einen hohen Grad der Arbeitsteilung zur Folge hatte.

Heute, im 21. Jahrhundert, befinden wir uns einmal mehr inmitten einer Revolution. Ähnlich wie damals sind wieder technologische Entwicklungen die treibende Kraft, und wie damals verzeichnen wir weitreichende Veränderungen in der Wirtschafts- und Arbeitswelt, in Öffentlichkeit und Privatleben. Die Digitalisierung, so der Arbeitstitel des neuerlichen Umbruchs, modifiziert die Art, wie wir kommunizieren und konsumieren, sowie, im nächsten Schritt, auch die Geschäftsprozesse in Unternehmen.

Im persönlichen Lebensbereich fest verankert

Ihr Heim gleicht schon jetzt der Brücke der Enterprise. Nein, die Rede ist nicht vom Flugzeugträger gleichen Namens, sondern tatsächlich vom Raumschiff Enterprise, das mit Captain Kirk und Commander Spock im 23. Jahrhundert „viele Lichtjahre von der Erde entfernt, in Galaxien vordringt, die nie ein Mensch zuvor gesehen hat“. Zugegeben, Transportertechnologie, Tarnvorrichtungen und Replikatoren bleiben nach wie vor Science-Fiction, sind zum Teil sogar selbst theoretisch gar nicht umsetzbar. Eine ganze Reihe von Technologien aus dem Star Trek-Universum sind im Rahmen der Digitalisierung mittlerweile jedoch Science Facts. Personal Access Display Devices, kurz PADDs, die in der Serie als tragbare Schnittstelle zwischen Computerkern und Crewmitgliedern fungieren, finden sich heute in vielen Haushalten in Form von Tablet-Computern oder iPads. Tools wie der Watson Language Translator können, wie der Universalübersetzer des Bordcomputers der Enterprise, Texte aus einer Sprache in eine andere übersetzen und dabei sogar unterschiedliche Aussprachevarianten berücksichtigen. Und nicht zuletzt unterstützen Sie Spracherkennungssysteme wie Alexa oder Siri genauso zuverlässig als digitale Sekretärinnen dabei, den Alltag effizienter zu gestalten, wie der sprechende Computer im Raumschiff. Sogar die Ansprache des Gerätes ähnelt sich.

Doch damit nicht genug. Smart Home-Lösungen bieten intelligentes Wohnen bei erhöhter Lebensqualität; und das alles zum bezahlbaren Preis. Alarmanlage, Beleuchtung, Jalousien und Heizung können ganz einfach mit dem Smartphone gesteuert werden. Die Zeiten, in denen Sie nach der Arbeit in eine kalte Wohnung zurückkehren, gehören der Vergangenheit an. Elektronische Türschlösser öffnen und verschließen die Haustür bei Ihrer Ankunft auf Basis von GPS-Daten automatisch; und die zentral gespeicherte Entspannungsmusik zum Runterkommen nach einem stressigen Tag rufen Sie hausweit über WLAN ab. Das Glas Milch muss jedoch ausbleiben, weil der dank Digitalisierung ebenfalls smarte Kühlschrank ja gemeldet hatte, dass die Milch alle ist.

KI – Die treibende Kraft

Was in den 80ern und 90ern noch als reine Fantasie galt, ist heute in vielen Fällen Wirklichkeit. Diese gewaltige Veränderung haben wir in erster Linie der digitalen Revolution zu verdanken. Diese zeichnet sich besonders durch große Fortschritte im Bereich der Künstlichen Intelligenz (KI) aus.

Theoretische Ansätze auf diesem Gebiet lassen sich bis in die frühen 1950er Jahre zurückverfolgen. Damals formulierte der britische Informatiker Alan Turing, seines Zeichens Meistercodeknacker der Enigma-Schlüsselmaschine während des Zweiten Weltkriegs, den Turing-Test, der prüfen sollte, ob eine Maschine über ein dem Menschen gleichwertiges Denkvermögen verfügt. Anlass war eine fast grenzenlose Erwartungshaltung im Hinblick auf die Fähigkeit von Computern. So ging der Sozialwissenschaftler Herbert A. Simon davon aus, dass innerhalb von zehn Jahren ein Computer Schachweltmeister werden würde, eine Prognose, die erst 40 Jahre später mit dem von IBM entwickelten System Deep Blue wahr werden sollte. Eine ähnliche Leistung vollbrachte im Jahr 2011 dann das Computerprogramm Watson, dass im Fernseh-Quiz Jeopardy! die beiden bis dahin erfolgreichsten Spieler bezwang.

Erste Expertensysteme, wie das Diagnoseprogramm Mycin der Stanford University, die Menschen bei der Lösung komplexerer Probleme durch aus einer Wissensbasis abgeleiteten Handlungsempfehlungen unterstützen können, brachten die später 60er und 70er Jahre hervor. Erste Versuche, diese Systeme automatisiert auch eintönige menschliche Arbeit übernehmen zu lassen, ermöglichten verbesserte Hard- und Softwareentwicklungen der frühen 80er Jahre. Die Ära der selbstlernenden Maschinen war geboren.

Maschinelles Lernen – ein Definitionsversuch

Die Online-Enzyklopädie Wikipedia definiert „Maschinelles Lernen“ als „Oberbegriff für die ‚künstliche‘ Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es ‚erkennt‘ Muster und Gesetzmäßigkeiten in den Lerndaten. So kann das System auch unbekannte Daten beurteilen (Lerntransfer) oder aber am Lernen unbekannter Daten scheitern (Überanpassung; englisch overfitting).“

Dankenswerterweise verzichtet der Autor in dieser kurzen Einordnung des Begriffs, anders als im weiteren Verlauf des Artikels, auf allzu technischen Jargon. Dennoch bleibt der Erklärversuch dem Wesen von Lexika entsprechend im Ansatz theoretisch und für den interessierten Laien wenig greifbar. Wollen wir uns dem Konzept des maschinellen Lernens nun praktisch nähern, müssen wir uns anderweitig nach Hilfe umsehen.

Maschinelles Lernen – bildlich erklärt

Unter die Arme greifen kann uns an dieser Stelle eine Person, die auf den ersten, und vermutlich auch zweiten Blick höchst ungeeignet zu sein scheint, das digitale Zeitalter zu verdeutlichen. Die Rede ist von der fiktiven Kunstfigur Sherlock Holmes, die in den weltberühmten Romanen und Kurzgeschichten von Sir Arthur Conan Doyle im wenig digitalen viktorianischen England knifflige Kriminalfälle löst. In einem Sekretär des Detektivs in der Baker Street 221b steht neben Encyclopædia Britannica und Bradshaw’s Kursbuch auch eine umfangreiche Aktenmappe mit akribisch zusammengesammelten Aufzeichnungen über vergangene Kriminalfälle aus dem In- und Ausland. Diese Materialsammlung bildet unter anderem die Grundlage der beeindruckenden Deduktionen, die den Leser seit über 100 Jahren immer wieder von neuem fesseln. Indem er den aktuellen Fall mit seinen Notizen vergleicht, Ähnlichkeiten herausarbeitet, Erkenntnisse überträgt und individuelle Variablen mitberücksichtigt, kommt Holmes dem neuen Rätsel auf die Spur. Schlüssel dieser Vorgehensweise ist die Menge zusammengetragener Informationen. Je mehr Fälle die Aktenmappe enthält, desto wahrscheinlicher ist es, dass sich einer darin befindet, der Gemeinsamkeiten mit dem aktuellen Sachverhalt aufweist. Zudem helfen Label dabei, sich schnell zurechtzufinden. Natürlich spielt aber immer auch die Qualität der Daten eine Rolle.

Genauso funktioniert das maschinelle Lernen im Zeitalter der Digitalisierung; nur muss der Computer nicht wie der Meisterdetektiv eine lange und ermüdende Recherche vor dem Kamin mit einplanen. Stattdessen erlaubt es ihm die Technik von Heute, bis zu 1.000.000.000.000.000.000, in Worten eine Trillion oder eine Million hoch drei Rechenoperationen in der Sekunde auszuführen, um eine Datenmenge zu bearbeiten, für die Sherlock Holmes mindestens ein ganzes Lagerhaus benötigen würde. Alles was das System braucht, ist genügend Input. Ein solches Beispiel aus der Gegenwart ist der Einsatz künstlicher Intelligenz in der Medizin. Dort wird der Computer mit unzähligen Krankenakten gefüttert, auf deren Basis er eigenständig Krankheitsbilder analysiert und zum Beispiel Krebsarten diagnostiziert. Mit zunehmender Menge an Input nimmt im weiteren Verlauf die Genauigkeit des Ergebnisses zu. Auf lange Sicht wird dieser Schritt jedoch überflüssig werden. Schon jetzt können aber gerade in einem so komplexen Feld wie der Medizin KI-Ansätze den Arzt aktiv bei seiner Arbeit unterstützen.

Fallstricke der Digitalisierung überwinden

Bleiben wir noch einen Moment beim Beispiel des maschinellen Lernens in der Medizin. Aktuell bedarf es dort noch eines menschlichen Faktors, um Fehlentscheidungen des KI-Systems auszuschließen. Blindes Vertrauen kann in kritischen Anwendungsbereichen nach wie vor sehr gefährlich sein.

Ein nicht zu unterschätzendes Problem stellen falsche Korrelationen durch ein selbstlernendes System dar. Ein in Fachkreisen bekanntes Beispiel solcher fehlerhaften Schlüsse einer KI ist die automatisierte Einstufung von erkrankten Personen nach Risikopotenzial. Die diesbezüglich eingesetzte Software kam zu dem Ergebnis, dass Patienten mit Asthma, Brustschmerzen und Herzproblemen nicht als Risikopatienten einzuordnen sind. Grund für diese Fehleinschätzung war, dass das Sterberisiko als wichtigstes Kriterium für die Bewertung herangezogen wurde. Die ist bei Asthmapatienten im 21. Jahrhundert sehr gering. Tatsächlich liegt das aber nur daran, dass Betroffene aufgrund ihres anhaltenden Gesundheitszustands stets sofortige Hilfe in medizinischen Einrichtungen bekommen. Gerade deshalb ist es also essenziell, dass Asthmapatienten als Risikopatienten eingeordnet werden. Über dieses Wissen verfügte die Maschine zunächst nicht. Wie ein Medizinstudent im ersten Semester muss sie erst darüber unterrichtet werden, damit die Entscheidungsgrenze entsprechend verschoben werden kann.

Dieser Vorgang kann nun auf zwei Arten erfolgen. Zum einen kann der Entwickler eingreifen, indem er dem System genauere Features zur Verfügung stellt. Alternativ können die Daten, welche zum Fehlverhalten geführt haben, aber auch gesammelt werden, um sie anschließend in die Trainingsmenge aufzunehmen. Diesen Ansatz nennt man klassische Mustererkennung.

Der nächste Schritt: Neuronale Netze

Während bei der klassischen Mustererkennung maschinellen Lernens das System im Lernprozess noch vom Entwickler „angeschubst“ werden muss, gehen Neuronale Netze noch einen Schritt weiter. Stellen wir uns dazu einen Holzfäller in einem Echtzeit-Strategiespiel vor. Dieser hat die Aufgabe, die Baumeister seiner Zivilisation mit Holz zu versorgen. Greift er nun eigenständig einen Mitspieler an, ist gewissermaßen etwas faul im Staate Dänemark. Beim oben beschriebenen Vorgehen würde der Entwickler nun eingreifen, indem er dem System beibringt, dass Holzfäller dies nicht dürfen. Im Neuronalen Netz lege der Fehler jedoch in der Architektur des Netzes, denn lediglich dieses gibt der Mensch bei diesem Ansatz vor. Weiter bestimmt er nur den Grad der Komplexität, stellt eine geeignete Repräsentation an Daten zur Verfügung und optimiert das Training von außen. Neben der Erlernung von Entscheidungsgrenzen, ermittelt der Algorithmus in Neuronalen Netzen also auch Vorschriften, auf deren Basis er Merkmale generiert. Hier spricht der Fachmann vom „Deep Learning“, also dem Training tiefer neuronaler Netze. Neuronen, auch Knotenpunkte genannt, sind schichtweise in einer Netzarchitektur angeordnete Informationsverarbeitungseinheiten. Neuronalen Netze erinnern an den Aufbau des menschlichen Gehirns, sind sogar durch dieses inspiriert. Wie das menschliche Gehirn lernen Neuronale Netze umso besser, je komplexer die Features werden, wodurch jedoch die Menge an benötigten Daten mit zunehmender Komplexität der Netzarchitektur steigt.

Ob sich in der Praxis der Aufbau eines Neuronales Netzes lohnt, man auf die klassische Mustererkennung zurückgreifen sollte oder sich doch eher ein Expertensystem anbietet, hängt vom Einzelfall ab. Zwar werden in den meisten Fällen mit Neuronalen Netzen bessere Ergebnisse erzielt, gerade am Anfang bietet sich jedoch der Einsatz eines Expertensystems an, weil nur wenige Daten zur Verfügung stehen. Mit wachsender Datenmenge kann man dann auf die klassische Mustererkennung als erste Stufe des Maschinellen Lernens wechseln, um schließlich den Schritt hin zum Deep Learning zu wagen.

KI und Digitalisierung im Unternehmen

Sofern Sie sich nicht in einem der geschilderten Beispiele wiederfinden, fragen Sie sich jetzt vielleicht, was Ihnen der Einsatz einer Künstlichen Intelligenz nützt. Die Antwort kurz und knapp formuliert lautet: Eine ganze Menge. Auch in kleinen und mittelständischen Unternehmen gibt es eine ganze Reihe von Möglichkeiten, KI gewinnbringend einzusetzen, von großen, internationalen Konzernen ganz zu schweigen.

Haben Ihre Buchhalter nicht auch schon einmal darüber geklagt, jeden Monat aufs Neue stupide die Rechnung für den Telekommunikationsanbieter einzutippen. 149,90 Euro, immer wieder. Nicht mehr und nicht weniger. Dafür hält die Künstliche Intelligenz eine Alternative parat. KI-Software übernimmt die Buchung wiederkehrender Vorgänge voll automatisch. Einmal manuell vorgeführt, und die Software lernt in Zukunft die Arbeit mithilfe der Mustererkennung auszuführen. Preisabweichungen und falsche Mengenangaben auf Rechnungen identifiziert KI-gesteuerte Software ebenso automatisch und informiert den zuständigen Sachbearbeiter über die Diskrepanz.

Eine denkbare Einsatzmöglichkeit von Künstlicher Intelligenz in Unternehmen ist auch die Sprachsteuerung. Diese unterscheidet sich im Grunde gar nicht von der bereits skizzierten Nutzung im Privatleben. Erste sprechende Assistenten für den Gebrauch in Unternehmen sind bereits erhältlich. Verbunden mit der im Einsatz befindlichen Unternehmenssoftware können Sie via Sprachbefehl den aktuellen Monatsumsatz erfragen oder Recherche treiben. Mit speziellen Algorithmen für die Spracherkennung meistern die digitalen Assistenten der neuesten Generation alle Unschärfen in der Sprache wie Aussprachvarianten oder störende Umgebungsgeräusche.

Im Marketing kommen vermehrt sogenannte Chatbots zum Einsatz, die über die verschiedenen Kontaktkanäle selbstständig wiederkehrende und redundante Service-Anfragen abarbeiten. Sie erkennen die Fragestellung, indem sie sich wiederholende Muster identifizieren, und geben dem Interessenten anschließend die passende Antwort. Individuelle Anfragen leiten sie unverzüglich an den nächsten menschlichen Service-Mitarbeiter weiter. So entlasten sie Mitarbeiter von Routinearbeiten. Wo genau KI im Unternehmen eingesetzt werden kann, welche Operationen sie ausführt und wie sie dieses umsetzt, ist genauso vielfältig wie vielschichtig. Die genannten Beispiele sind deshalb nur drei aus einer ganzen Reihe von Möglichkeiten.

Egal in welcher Form Sie Künstliche Intelligenz auch abbilden wollen, essentiell für den Unternehmenserfolg ist dabei immer, geschlossene Systeme zu öffnen, um verschiedene interne Geschäftsbereiche miteinander verknüpfen zu können. Öffnen Sie auch sich für die Zukunft. Wagen Sie den Schritt. Es lohnt sich. Denn sicher ist eines: Die Digitalisierung ist nicht mehr aufzuhalten. Sich ihr zu verweigern macht wenig Sinn.

Epilog: Unsicherheitsfaktor Breitbandausbau

Neben Rechengeschwindigkeit und Verarbeitung von Massendaten spielt im digitalen Zeitalter ein weiterer Faktor eine wichtige Rolle, der jedoch in vielen Fällen vom Unternehmen nicht beeinflusst werden kann. Eine fortschrittliche Gesellschaft, aufgebaut auf dem Fundament der Digitalisierung und der Künstlichen Intelligenz, bedarf einer modernen Infrastruktur, ausgestattet mit leistungsfähigen Breitbandnetzen, die Geschwindigkeiten im Gigabit-pro-Sekunde-Bereich im Down- und Upload, zuverlässige echtzeitfähige Übertragungen und sichere Internetdienste in hoher Qualität ermöglicht. Der Grund dafür liegt auf der Hand. Rechenleistung und Datenspeicherung im benötigten Ausmaß können schwerlich lokal bereitgestellt, sondern müssen zwangsläufig in der Cloud umgesetzt werden.

Leider scheitert die Digitalisierung in vielen ländlichen Regionen in Deutschland an fehlender Infrastruktur. Zwar sind in den meisten größeren Städten bereits schnelle Internetzugänge verfügbar. Auf dem Land verhält es sich jedoch ganz anders. So landeten beispielsweise der Märkische Kreis, der Hochsauerlandkreis und der Kreis Olpe, also unser Revier, wenn man so will, im „Digitalisierungskompass 2018“, aufgestellt von Prognos und Index, allesamt auf den hinteren Rängen. Lange fehlte es am politischen Willen, die Digitalisierung voranzutreiben, und auch an klaren Konzepten. Das hat sich zwar inzwischen geändert, so hat sich die Bundesregierung das Ziel gesetzt, bis 2025 möglichst flächendeckende Gigabitnetze zu installieren. Bis dahin sind die Unternehmen jedoch auf sich allein gestellt.

Bei Rückfragen zum den Themenfeldern Digitalisierung und Künstliche Intelligenz oder unserem Leistungsportfolio stehen Ihnen unsere ausgewiesenen Experten jederzeit mit Rat und Tat zur Seite. Sprechen Sie uns einfach über das Kontaktformular auf dieser Seite, per E-Mail oder Telefon an!