Categories
Kommentar

Künstliche Intelligenz: Anspruch vs. Wirklichkeit

Das Thema Künstliche Intelligenz (KI) ist derzeit in aller Munde. Und geht es nach Elon Musk oder dem kürzlich verstorbenen Stephen Hawking, steht uns der KI-getriebene Weltuntergang bald bevor. Der Öffentlichkeit wird damit suggeriert, dass die Forschung und Entwicklung rund um KI kürzlich Quantensprünge gemacht hat. Ruhig bleiben, denn wir sind aktuell weit davon entfernt, eine Super-Intelligenz zu entwickeln, welche uns Hollywood mit Filmen wie “Ex_Machina”, “Her” or “AI” verkaufen möchte. Dennoch sei angemerkt, dass wir in einer Zeit des exponentiellen technologischen Fortschritts leben. Das bedeutet, eine „dies wird niemals geschehen“ Haltung ist die falsche Einstellung. Schließlich findet die Forschung und Entwicklung neuer Technologien in immer kürzeren Zeitabständen statt. Daher steht es außer Frage, dass es absolut notwendig ist, im Kontext von KI über Regulierungen und Ethik zu sprechen! Aber wie sollen wir einer KI Ethik beibringen, wenn unsere Gesellschaft selbst keine Ethik besitzt? Beispiele hierfür sehen wir tagtäglich.

Allerdings muss man Musk und Hawking in Schutz nehmen, schließlich führt Unwissenheit zu Unsicherheit und das sorgt für Angst. Oder wie Andrew Smith eins sagte: „Menschen fürchten was sie nicht verstehen.“ Dies untermauert eine aktuelle Sage-Studie, laut derer Ergebnisse 43 Prozent der Befragten in den USA und 46 Prozent der Befragten in UK keine Ahnung haben, um was es sich bei KI überhaupt handelt. Somit besteht aktuell die größte Problematik darin, dass die Allgemeinheit nicht darüber informiert ist, was KI tatsächlich bedeutet.

Künstliche Intelligenz in der Theorie

„Das Ziel der Künstlichen Intelligenz besteht darin, Maschinen zu entwickeln, welche sich so verhalten, als wären sie intelligent.“ (Prof. John McCarthy, 1955)

Sprechen wir in diesem Zusammenhang von intelligent, dann meinen wir ein sich dynamisch verhaltenes System. Ein System, das wie ein leerer IQ-Container betrachtet werden muss. Ein System, das unstrukturierte Informationen benötigt, um seine Sinne zu trainieren. Ein System, welches ein semantisches Verständnis der Welt benötigt, um in der Lage zu sein zu handeln. Ein System, das auf eine detaillierte Karte seines Kontexts angewiesen ist, um unabhängig zu agieren und Erfahrungen aus einem Kontext in den anderen zu übertragen. Ein System, das mit allen notwendigen Mitteln ausgestattet ist, um Wissen zu entwickeln, auszubauen und aufrechtzuerhalten.

Hierbei liegt es in unserer Verantwortung, unser Wissen mit diesen Maschinen zu teilen als würden wir es mit unseren Kindern, Partnern oder Kollegen teilen. Dies ist der einzige Weg, um diese Maschinen, bestehend aus Hard- und Software, in einen Status zu überführen, den wir als „intelligent“ beschreiben. Nur damit helfen wir ihnen, auf einer täglichen Basis intelligenter zu werden und legen damit die Grundlage, ein selbstlernendes System zu schaffen. Hierzu werden in der KI-Forschung drei unterschiedliche Typen von KIs (AI) unterschieden:

  • Strong AI: Bei einer Strong AI handelt es sich um eine selbstbewusste Maschine, die über Gedanken, Gefühle, einem Bewusstsein und den dazugehörigen neuronalen Verwachsungen verfügt. Wer sich allerdings schon auf eine Realität á la „Her“ oder „Ex_Machina“ freut, wird sich noch etwas gedulden müssen. Eine Strong AI existiert derzeit nicht und es wird noch eine unbestimmte Zeit dauern, bis diese Form existieren wird.
  • Narrow AI: Die meisten Anwendungsfälle im KI-Bereich fokussieren sich aktuell darauf, Lösungen für ein sehr spezielles Problem zu bieten. Diese sogenannten Narrow AIs sind sehr gut darin spezifische Aufgaben zu lösen, wie z.B. das Empfehlen von Songs auf Pandora oder Analysen, um die Tomatenzucht in einem Gewächshaus zu optimieren.
  • General AI: Eine General AI ist in der Lage, Aufgaben aus unterschiedlichen Bereichen und Ursprüngen zu bearbeiten. Hierzu besitzt sie die Fähigkeiten, die Trainingsintervalle von einem Bereich zu einem anderen zu verkürzen, indem sie die gesammelten Erfahrungen aus dem einen Bereich in einem anderen artfremden Bereich anwenden kann. Der hierfür notwendige Wissenstransfer ist nur dann möglich, wenn eine semantische Verbindung zwischen diesen Bereichen existiert. Hinzu kommt: Je stärker und verdichteter diese Verbindung ist, desto schneller und einfacher lässt sich der Wissensübergang erreichen.

Künstliche Intelligenz in der Wirklichkeit

Überführen wir die KI-Diskussion mal in Richtung vernünftiger Überlegungen. Heute geht es bei KI nicht darum, das menschliche Gehirn nachzubilden. Es geht darum, ein System zu entwickeln, das sich verhalten kann wie ein Mensch. Unterm Strich bedeutet KI somit die Vereinigung von Analysen, Problemlösungen und Autonomer Automation. Und dieses unter der Berücksichtigung von Daten, Wissen und Erfahrungen.

Amazon Alexa und Apple Siri sind KI-Technologien aber nicht intelligent

Haben Sie schon einmal versucht eine simple Konversation mit Amazon’s Alexa oder Apple’s Siri zu führen? Genau, das geht nicht gut aus. Dennoch, bei Alexa als auch Siri handelt es sich um KI-Technologien. Beide nutzen Natural Language Processing (NLP). Also, Machine Learning Algorithmen in Kombination mit Vorhersagemodellen. Zum Beispiel werden die Algorithmen eingesetzt, um Ihre Sprachkommandos in kleine Teile – so genannte Sound Bites – zu zerlegen. Anschließend werden diese Stücke anhand eines anderen Vorhersagemodells analysiert, mit welchem versucht wird zu erkennen, um was für eine Art von Anfrage es sich handelt. Allerdings sind Alexa als auch Siri weder intelligent noch selbstlernend. Betrachten Sie deren Systeme wie eine Datenbank, welche sich in den Cloud-Backends von Amazon und Apple befinden, und die eine Menge von fertigen Antworten bzw. Anweisungen bedienen. Sollten Sie bspw. ein stolzer Besitzer eines Amazon Echo sein, dann verstehen Sie wovon ich spreche. Jeden Freitag erhalten Sie dann nämlich eine E-Mail mit den neuesten Kommandos die Sie nutzen können, um Alexa zu kontrollieren bzw. mit ihr zu interagieren. Neben der ständig wachsenden Datenbank hinter Alexa helfen die sogenannten „Alexa Skills“ dabei, Alexa „intelligenter“ zu machen. Hierbei handelt es sich um nicht mehr als kleine Applikationen (wie für Ihr Android Smartphone oder iPhone), welche jemand entwickelt und mit weiteren Kommandos, Fragen die gestellt werden können sowie fertigen Antworten bzw. Anweisungen ausgestattet hat. Und je mehr Alexa Skills aktiviert sind, desto intelligenter erscheint Alexa, da Sie schließlich mehr Kommandos zur Verfügung haben, um mit ihr zu interagieren. Die aber derzeit wirklich interessante Geschichte um Alexa ist, dass Amazon mittlerweile 5000 Mitarbeiter exklusiv an Alexa arbeiten lässt, um sie zu verbessern. Damit können wir bald deutlich mehr Fortschritt erwarten.

Die gute Neuigkeit: selbstlernende Systeme existieren bereits. Wenn Sie bspw. Ihr iPhone über Bluetooth mit Ihr Fahrzeug verbinden und Ihre Heimatadresse und die Ihres Büros hinterlegen, wird das iPhone Ihnen in kurzer Zeit anzeigen, wie lange Sie nach Hause bzw. zur Arbeit benötigen. In anderen Fällen hat mir „Apple Maps Destination“ Vorhersagen für Ankunftszeiten zu Orten angezeigt, welche ich zwar öfters besucht habe, deren Adresse aber nicht auf meinem iPhone gespeichert ist. Also lediglich auf Basis meiner Reisegewohnheiten. Google Now arbeitet auf ähnliche Weise. Proaktiv stellt der Dienst dem Nutzer Informationen bereit, welche diese möglicherweise suchen. Also Vorhersagen basierend auf deren Suchverhalten. Und wenn Sie Google Now Zugang zur Ihrem Kalender gewähren, dann arbeitet der Dienst sogar als persönlicher Assistent/ Berater. So erinnert er Sie bspw. daran, dass Sie einen Termin haben und welches Verkehrsmittel Sie nehmen sollten, um rechtzeitig vor Ort zu sein.

Autonome Prozess Automation als Teil unseres täglichen Lebens

Versuchen Sie die KI-Diskussion von einem anderen Blickwinkel zu sehen. Betrachten Sie unser Leben als einen Prozess. Betrachten Sie jeden einzelnen Tag als einen Prozess, der in einzelne Schritte (Sub-Prozesse) unterteilt ist. Und dann betrachten Sie KI als Autonome Prozess Automation, welche uns mehr Komfort bietet und damit unser Leben einfacher macht. Ein paar Ideen:

  • Stellen Sie sich Alexa oder Siri als Ihren persönlichen Wachhund im Büro vor. Ein intelligenter Assistent, der Ihre Anrufe entgegennimmt und für Sie Termine mit Kollegen autonom aushandelt – insbesondere mit denen, die Ihnen ständig ungefragt Kalendereinladungen schicken. Ich denke dabei an eine frühe Variante von Iron Man’s KI „Jarvis“.
  • Oder wie wäre es mit Alexa oder Siri als einen persönlichen Assistenten für unterschiedliche Lebensbereiche. Sagen wir, Sie haben einen Vortrag auf einer Konferenz. Ihr Flug nach Hause startet um 16:00 Uhr. Damit Sie den Flug rechtzeitig erreichen, bestellt Ihr virtueller Assistent Ihnen ein Taxi zu um 14:15 Uhr, da Ihr Vortrag um 13:45 Uhr endet und nach der aktuellen Verkehrslage mit Stau zu rechnen ist. Der virtuelle Assistent sendet Ihnen lediglich die Standortinformationen, wo Ihr Taxi Sie abholen wird. Während des Vorgangs folgt der Assistent einfach nur den gesamten Prozess den Sie normalerweise durchschreiten würden: vom Herausnehmen des Smartphones aus der Tasche, über das Öffnen der App, Suchen des Reiseziels bis hin zum Bestellen des Taxis. Sie haben somit Ihre Hände und Gedanken frei für wesentlich wichtigere Dinge. Hierfür müssen Sie der KI natürlich Zugriff auf Ihren Kalender, Geolokation und weitere Informationen geben.
  • Oder stellen Sie sich eine intelligente Variante des Küchenhelfers “Thermomix” vor. Der Speiseberater: Anhand dessen was der Thermomix im Kühlschrank findet, macht er Vorschläge, welche Gerichte gekocht werden könnten. Sollten ein paar Zutaten für andere mögliche Gerichte fehlen, könnte er anbieten, diese direkt online zu bestellen. Oder der gesundheitsbewusste Berater: Basierend auf den Essgewohnheiten der letzten Wochen macht der Thermomix Sie freundlich darauf aufmerksam, dass Sie das Tiramisu, welches Sie gerade zubereiten, heute doch lieber nicht auf dem Speiseplan stehen sollte, da dies nicht gut für Ihre Kalorienaufnahme wäre.

Künstliche Intelligenz in der Zukunft

KI ist der nächste logische Schritt nach dem Cloud Computing und profitiert gleichermaßen von dessen Erfolg. Die Cloud ist der Antrieb aus einem technologischen Blickwinkel. Bei KI geht es um den Mehrwert für das Unternehmen und führt zu intelligenteren Anwendungen. Auf Basis komplexer Analysen verfeinern KI-Anwendungen im Hintergrund die Kundenansprache und passen Produkte und Dienste besser an die jeweiligen Bedürfnisse an. Immer mehr Unternehmen wie Netflix, Spotify, Amazon, Airbnb, Uber oder Expedia setzen bereits auf KI-basierende Funktionsweisen die auf umfangreiche Datenverarbeitungs- und Analyseaufgaben zurückgreifen, um enger mit ihren Kunden zu interagieren. Als Teil der Strategie befähigt eine KI Unternehmen dabei, ihren Geschäftsbetrieb und dessen Abläufe zu verbessern – u.a. durch:

  • Ein verbessertes Verständnis ihrer Kunden anhand von Interaktionen und des Verhaltens aus der Vergangenheit.
  • Eine neuartige Bedienung von Applikationen durch die Veränderung der Kundeninteraktion von der Tastatur- hin zur Spracheingabe.
  • Eine tiefergehende Kundenbeziehung anhand von “Advanced Virtual Assistants”, welche das Kundenerlebnis verbessern.
  • Kundenspezifische Produkte und Dienstleistungen angepasst an die Kundenanforderungen.
  • Vorhersagen durch Analysen von Kundendaten, -interaktionen und -verhalten aus der Vergangenheit und in Echtzeit.
  • Gesprächiger zu sein, anhand “Smart Personal Assistants” und Bots.
  • Erweiterung bestehender Produkte, Dienste, Anwendungen und Prozesse.

Eines sollte jedoch nicht vergessen werden. Bei KI geht es nicht nur darum, existierende Prozesse zu verbessern. In den kommenden 5 bis 10 Jahren wird KI zum Game Changer werden! Sie wird Innovationszyklen beschleunigen und zu neuen Geschäftsmodellen führen. KI-Anwendungen besitzen bereits heute den notwendigen Reifegrad, um die Effizienz einzelner Prozesse zu erhöhen. Allerdings sollte KI nicht ausschließlich aus einem operativen Blinkwinkel (Verbesserung der Effizienz) betrachtet werden, sondern ebenfalls eine strategische Sichtweise erhalten, um technische Möglichkeiten für neue Applikationen und Anwendungsfälle zu evaluieren. Und damit einen echten Mehrwert für Kunden, Partner sowie die eigenen Mitarbeiter schaffen.

Categories
Kommentar

Klartext: Artificial Intelligence (AI) ist Autonome Prozess Automation. Und Sie macht unser Leben einfacher.

Mal ernsthaft, sind Sie nicht auch langsam von Leuten wie Elon Musk oder Stephen Hawking gelangweilt, welche die Artificial Intelligence (AI) ständig als größte Bedrohung der Menschheit verteufeln? Deren Behauptungen lassen die Menschen denken, dass AI sämtliche Arbeitsplätze überflüssig machen oder den nächsten Weltkrieg starten wird. Schlimmer noch, die Erwartungshaltungen werden damit so weit nach oben geschraubt, dass die Öffentlichkeit davon ausgehen könnte, dass die Forschung und Entwicklung rund um AI kürzlich Quantensprünge gemacht hat. Und dank solcher übertriebenen Erwartungshaltungen ist es ein Leichtes, dass wir wieder geradewegs in den nächsten AI-Winter laufen. Ruhig bleiben, wir sind aktuell weit davon entfernt, eine Super-Intelligenz zu entwickeln, vor der sich Musk und Hawking fürchten oder welche uns Hollywood mit Filmen wie “Ex_Machina”, “Her” or “AI” präsentiert. Lassen Sie mich Ihnen lieber erzählen, was viel besorgniserregender ist. Nach Angaben einer Sage-Studie haben 43 Prozent der Befragten in den USA und 46 Prozent der Befragten in UK keine Ahnung, um was es sich bei AI überhaupt handelt. Somit besteht aktuell die größte Problematik darin, dass die Allgemeinheit nicht darüber informiert ist, was AI tatsächlich bedeutet.

Ethik und Regulierungen sind extrem wichtig

Selbstverständlich ist es absolut notwendig im Kontext von AI über Regulierungen und Ethik zu sprechen! Aber wie sollen wir einer AI eine Ethik beibringen, wenn unsere Gesellschaft selbst keine Ethik besitzt? Beispiele hierfür sehen wir tagtäglich.

In der Tat sind Boston Dynamics’ Roboter “Atlas” und “Handle” echt gruselig. Aber was passiert, wenn Tesla’s Autopilot jemanden über den Haufen fährt – wer ist dafür verantwortlich? Oder wenn der Autopilot entscheiden muss, wer überlebt. Der Fahrer? Der alte Mann oder der kleine Junge auf der Straße? Das sind aktuell die Fragen, welche ich regelmäßig aus dem Publikum bekomme. Das besorgt die Menschen derzeit. Aber vielleicht äußert sich Elon Musk eines Tages auch einmal dazu…

Derzeit leben wir in einer Zeit des exponentiellen technologischen Fortschritts. Das bedeutet, eine „dies wird niemals geschehen“ Haltung ist die falsche Einstellung. Schließlich findet die Forschung und Entwicklung neuer Technologien in immer kürzeren Zeitabständen statt. Dennoch lösen die derzeit erfolgreichsten AI-Systeme gerade einmal die Strategiespiele „Go“ oder „FreeCiv“.

AI ist nicht nur Machine Learning

Hinzu kommt, dass heutige AI-Projekte in den meisten Fällen auf Machine Learning setzen, welche dabei helfen Muster innerhalb von riesigen Datensätzen zu erkennen, um auf Basis existierender Daten Vorhersagen zu treffen. Allerdings ist es hierfür wichtig, Zugriff auf die richtigen und vor allem qualitativ hochwertigen Daten zu besitzen. Weiterhin muss im Nachgang unbedingt die Genauigkeit und Plausibilität der Ergebnisse überprüft werden. Schließlich lässt sich in riesigen Datenmengen immer etwas finden. Und das ist dann gleichzeitig auch ein großer Nachteil, wenn man sich im Rahmen seiner AI-Strategie ausschließlich auf Machine Learning konzentriert. Machine Learning benötigt Unmengen an Trainingsdaten, um in der Lage zu sein, wertvolle Informationen bzw. Resultate in Mustern zu erkennen.

Artificial Intelligence ist Autonome Prozess Automation

Überführen wir die große AI-Diskussion mal in Richtung vernünftiger Überlegungen. Heute geht es bei AI nicht darum, das menschliche Gehirn nachzubilden. Es geht darum, ein System zu entwickeln, das sich verhalten kann wie ein Mensch. Unterm Strich bedeutet AI somit die Vereinigung von Analysen, Problemlösungen und Autonomer Automation. Und dieses unter der Berücksichtigung von Daten, Wissen und Erfahrungen.

Versuchen Sie mal die ganze AI-Diskussion von einem anderen Blickwinkel zu sehen. Betrachten Sie unser Leben als einen Prozess. Betrachten Sie jeden einzelnen Tag als einen Prozess, der in einzelne Schritte (Sub-Prozesse) unterteilt ist. Und dann betrachten Sie AI als Autonome Prozess Automation, welche uns mehr Komfort bietet und damit unser Leben einfacher macht.

Amazon Alexa und Apple Siri sind AIs aber nicht intelligent

Haben Sie schon einmal versucht eine einfache Konversation mit Amazon’s Alexa oder Apple’s Siri zu führen? Genau, das geht nicht gut aus. Dennoch, bei Alexa als auch Siri handelt es sich um AI-Technologien. Beide nutzen Natural Language Processing (NLP). Also, Machine Learning Algorithmen in Kombination mit Vorhersagemodellen. Zum Beispiel werden die Algorithmen eingesetzt, um Ihre Sprachkommandos in kleine Teile – so genannte Sound Bites – zu zerlegen. Anschließend werden diese Stücke anhand eines anderen Vorhersagemodells analysiert, mit welchem versucht wird zu erkennen, um was für eine Art von Anfrage es sich handelt. Allerdings sind Alexa als auch Siri weder intelligent noch selbstlernend. Betrachten Sie deren „Gehirne“ (sie haben KEINE Gehirne) wie eine Datenbank, welche sich in den Cloud-Backends von Amazon und Apple befinden, und die eine Menge von fertigen Antworten bzw. Anweisungen bedienen. Sollten Sie bspw. ein stolzer Besitzer eines Amazon Echo sein, dann verstehen Sie wovon ich spreche. Jeden Freitag erhalten Sie dann nämlich eine E-Mail mit den neuesten Kommandos die Sie nutzen können, um Alexa zu kontrollieren bzw. mit ihr zu interagieren. Neben der ständig wachsenden Datenbank hinter Alexa helfen die sogenannten „Alexa Skills“ dabei, Alexa „intelligenter“ zu machen. Hierbei handelt es sich um nicht mehr als kleine Applikationen (wie für Ihr Android Smartphone oder iPhone), welche jemand entwickelt und mit weiteren Kommandos, Fragen die gestellt werden können sowie fertigen Antworten bzw. Anweisungen ausgestattet hat. Und je mehr Alexa Skills aktiviert sind, desto intelligenter erscheint Alexa, da Sie schließlich mehr Kommandos zur Verfügung haben, um mit ihr zu interagieren. Die aber derzeit wirklich interessante Geschichte um Alexa ist, dass Amazon mittlerweile 5000 Mitarbeiter exklusiv an Alexa arbeiten lässt, um sie zu verbessern. Damit können wir bald deutlich mehr Fortschritt erwarten.

Die gute Neuigkeit: selbstlernende Systeme existieren bereits. Wenn Sie bspw. Ihr iPhone über Bluetooth mit Ihr Fahrzeug verbinden und Ihre Heimatadresse und die Ihres Büros hinterlegen, wird das iPhone Ihnen in kurzer Zeit anzeigen, wie lange Sie nach Hause bzw. zur Arbeit benötigen. In anderen Fällen hat mir „Apple Maps Destination“ Vorhersagen für Ankunftszeiten zu Orten angezeigt, welche ich zwar öfters besucht habe, deren Adresse aber nicht auf meinem iPhone gespeichert ist. Also lediglich auf Basis meiner Reisegewohnheiten. Google Now arbeitet auf ähnliche Weise. Proaktiv stellt der Dienst dem Nutzer Informationen bereit, welche diese möglicherweise suchen. Also Vorhersagen basierend auf deren Suchverhalten. Und wenn Sie Google Now Zugang zur Ihrem Kalender gewähren, dann arbeitet der Dienst sogar als persönlicher Assistent/ Berater. So erinnert er Sie bspw. daran, dass Sie einen Termin haben und welches Verkehrsmittel Sie nehmen sollten, um rechtzeitig vor Ort zu sein.

Zu anderen AI-bezogenen Diensten, mit welchen Sie möglicherweise schon seit geraumer Zeit in Kontakt sind, gehören:

  • Seit den 1950er setzt die Finanzindustrie bereits auf Machine Learning Algorithmen, um Ihre Kreditwürdigkeit zu prüfen.
  • Webseiten zur Partnersuche nutzen Algorithmen, um Anzeichen zu erkennen, wie wahrscheinlich es ist, dass zwei Menschen miteinander ausgehen werden.
  • Am Flughafen Genf kümmert sich der autonome Roboter KATE um das Gepäck, hilft beim Check-in und der Navigation durch den Flughafen. Alles anhand von Datenanalysen und der Berücksichtigung von Geolokationen.
  • “Relay” von Savioke ist ein autonomer Roboter-Bote der in einigen Hotels für den Room Service eingesetzt.

Autonome Prozess Automation in unserem täglichen Leben

Kommen wir zurück zur AI als Autonome Prozess Automation, die unser Leben vereinfacht. Ein paar Ideen:

  • Stellen Sie sich Alexa oder Siri als Ihren persönlichen Wachhund im Büro vor. Ein intelligenter Assistent, der Ihre Anrufe entgegennimmt und für Sie Termine mit Kollegen autonom aushandelt – insbesondere mit denen, die Ihnen ständig ungefragt Kalendereinladungen schicken. Ich denke dabei an eine frühe Variante von Iron Man’s AI „Jarvis“.
  • Oder wie wäre es mit Alexa oder Siri als einen persönlichen Assistenten für unterschiedliche Lebensbereiche. Sagen wir, Sie haben einen Vortrag auf einer Konferenz. Ihr Flug nach Hause startet um 16:00 Uhr. Damit Sie den Flug rechtzeitig erreichen, bestellt Ihr virtueller Assistent Ihnen ein Taxi zu um 14:15 Uhr, da Ihr Vortrag um 13:45 Uhr endet und nach der aktuellen Verkehrslage mit Stau zu rechnen ist. Der virtuelle Assistent sendet Ihnen lediglich die Standortinformationen, wo Ihr Taxi Sie abholen wird. Während des Vorgangs folgt der Assistent einfach nur den gesamten Prozess den Sie normalerweise durchschreiten würden: vom Herausnehmen des Smartphones aus der Tasche, über das Öffnen der App, Suchen des Reiseziels bis hin zum Bestellen des Taxis. Sie haben somit Ihre Hände und Gedanken frei für wesentlich wichtigere Dinge. Hierfür müssen Sie der AI natürlich Zugriff auf Ihren Kalender, Geolokation und weitere Informationen geben.
  • Oder stellen Sie sich eine intelligente Variante des Küchenhelfers “Thermomix” vor. Der Speiseberater: Anhand dessen was der Thermomix im Kühlschrank findet, macht er Vorschläge, welche Gerichte gekocht werden könnten. Sollten ein paar Zutaten für andere mögliche Gerichte fehlen, könnte er anbieten, diese direkt online zu bestellen. Oder der gesundheitsbewusste Berater: Basierend auf den Essgewohnheiten der letzten Wochen macht der Thermomix Sie freundlich darauf aufmerksam, dass Sie das Tiramisu, welches Sie gerade zubereiten, heute doch lieber nicht auf dem Speiseplan stehen sollte, da dies nicht gut für Ihre Kalorienaufnahme wäre.

Autonome Prozess Automation innerhalb eines Unternehmens

AI als Autonome Prozess Automation hat auch im Unternehmensumfeld jede Menge Potentiale. Schauen wir uns zwei reale Beispiele an:

  • Eine AI-defined Infrastructure bspw. ist im Grunde genommen nichts Anderes als eine Autonomous Process Automation für den IT-Betrieb. Mit dieser Art von Umgebung ist ein Unternehmen in der Lage, eine selbstlernende bzw. selbstheilende Infrastruktur-Umgebungen aufzubauen und zu betreiben. Eine AI-defined Infrastructure kann ohne menschliche Interaktion, abhängig von den Workload-Anforderungen, die notwendigen Ressourcen bereitstellen und diese wieder de-allokieren, wenn sie nicht mehr benötigt werden. Hierzu analysiert sie fortlaufend das sich ständig verändernde Verhalten und den Status einzelner Infrastruktur-Komponenten. Damit kann sie auf den Status einzelner Infrastruktur-Komponenten reagieren bzw. proaktiv agieren, indem autonom Aktionen durchgeführt werden, um die Infrastruktur ständig wieder in einen fehlerfreien Zustand zu überführen.
  • In der Versicherungsindustrie befindet sich eine Autonome Prozess Automation bereits im Einsatz, um autonom Versicherungspolicen zu erstellen. Hierzu lernen Versicherungsexperten (Domain-Experten) einer AI den Prozessablauf Schritt für Schritt an, wie und warum sie eine bestimmte Versicherungspolice erstellen. Die AI ist außerdem mit externen Partnersystemen verbunden, die weitere Informationen zur Verfügung stellen. Im ersten Schritt erstellt die AI eine Versicherungspolice und informiert einen Experten. Der Experte prüft die Police und nimmt ggf. Änderungen vor. Anschließend übersendet er die Police an den Kunden. Das Ziel besteht darin, dass ein Kunde direkt mit der AI interagiert und nach Übermittlung aller notwendigen Informationen seine individuelle Versicherungspolice erhält.

Schrauben Sie Ihre Erwartungen nach unten

Zum Abschluss ein wichtiger Punkt. Anstatt AI ständig als größte Gefahr für die Menschheit zu diskutieren sollten wir lieber mal die größte Gefahr der AI-Forschung hervorheben. Die Ungeduld der Menschen! Das Problem: Die AI-Forschung besteht aus einem sich ergänzendem System verschiedener Techniken und Methoden. Immer dann wenn eine Vorgehensweise „die Aufgabe nicht vollständig erledigt“ hat, wendeten sich die Menschen von diesem Ansatz ab und verfolgten einen anderen. Sie wollen coole AI-Lösungen in der Zukunft sehen? Bleiben Sie ruhig und warten Sie ab. Es wird passieren! Wir müssen uns lediglich Schritt für Schritt nach vorne bewegen. Andernfalls werden die Erwartungen wieder nicht erfüllt, was uns umgehend in den nächsten AI-Winter treiben wird.

Verstehen Sie AI-Technologien daher als einen Ansatz unser Leben einfacher zu machen. Und strapazieren Sie dabei das Wort „Intelligenz“ nicht zu sehr. Seien Sie aber dennoch vorsichtig damit, welche Art von Daten und persönlichen Informationen Sie wirklich teilen wollen. Denn sind diese erst einmal außerhalb Ihres Kontrollbereiches, ist es nahezu unmöglich den Vorgang wieder rückgängig zu machen.

Categories
Kommentar

Interview: Cloud Use Cases Days 2018

Im März 2018 wurde ich im Rahmen des 5. Cloud Use Cases Day 2018 der Fachhochschule Nordwestschweiz (FHNW) interviewed.

Categories
Kommentar

Interview mit Cloud Expo Europe

Im Oktober 2017 wurde ich im Rahmen der Cloud Expo Europe von Closer Still Media zum Thema “Digital. Cloud. AI-driven.” interviewed.

Categories
Kommentar

Interview mit TechTag.de: Cloud Computing, IoT, Blockchain – die Digitale Evolution

Im Juli 2017 wurde ich von Markus Henkel von TechTag.de zu digitalen Technologien und Services wie Cloud Computing, Internet of Things (IoT) und Blockchain interviewed – und erkläre dabei, was das alles mit der digitalen Evolution zu tun hat.

Categories
Kommentar

Interview mit Speakers Excellence über Cloud Computing und die Digitale Evolution

Im Juli 2017 wurde ich von Philipp Hagebölling (Speakers Excellence) zu den Themen Cloud Computing und Digitale Evolution befragt.

Herr Büst, Sie sind Experte für Cloud Computing und der führende deutsche Blogger auf diesem Gebiet. Umreißen Sie doch einmal kurz, was wir unter Cloud Computing verstehen dürfen.

Cloud Computing lässt sich als ein Bereitstellungsmodell von IT-Ressourcen (Rechenleistung, Speicherkapazitäten, Software, etc.) beschreiben, auf die ein Nutzer via Datenverbindung (bevorzugt das Internet) zugreifen kann. Hierbei passen sich die Ressourcen dynamisch den jeweiligen Bedürfnissen an.

Wird z.B. mehr Speicherkapazität benötigt, stellt der Anbieter diesen bereit, ohne dass der Nutzer aktiv werden oder zumindest lange darauf warten muss. Darüber hinaus wird beim Cloud Computing nur für die Leistung bezahlt, die während eines bestimmten Zeitraums auch tatsächlich in Anspruch genommen wird. Firmen, bei denen intern wie extern transferierte und gespeicherte Datenmenge starken Schwankungen unterliegen, können durch Cloud Computing hohe Investitionskosten vermeiden. Die Einrichtung einer großen (oft zeitweise brachliegenden) IT-Umgebung wird quasi überflüssig.

Mit Software-as-a-Service (SaaS), Platform-as-a-Service (PaaS) und Infrastructure-as-a-Service (IaaS) werden drei Service-Modelle, mit der Public Cloud, der Private Cloud, der Hybrid Cloud und der Community Cloud vier Bereitstellungsmodelle unterschieden.

Welchen Vorteil bringt die „Cloud“ einem Unternehmen?

Cloud Computing trägt einerseits dazu bei, die Investitionskosten in IT-Umgebungen zu reduzieren. Dabei handelt es sich aber nur um einen Bruchteil der Vorteile, die von der Cloud ausgehen. Viel wichtiger ist jedoch der ständige Zugriff auf State-of-the-Art Technologien und neue Services wie Artificial Intelligence. Etwas das innerhalb von selbst betriebenen On-Premise-Umgebungen nicht möglich ist. Weiterhin ist die Skalierbarkeit und Elastizität von Cloud Computing essentiell, um auf die wechselnden Marktbedingungen und Kundenanfragen flexibel reagieren zu können. Cloud-Services sollten zudem in die Business-Strategie mit eingezogen werden. Vor allem für diejenigen Unternehmen, die auch in anderen Ländermärkten als nur Deutschland aktiv sind oder international expandieren wollen. Cloud Computing erleichtert es, die globale Reichweite mit einfachen Mitteln zu erhöhen, da die großen Public Cloud-Anbieter mittlerweile in allen wichtigen Regionen weltweit mit lokalen Rechenzentren vor Ort sind.

Software-as-a-Service zählt zu den Low-Hanging Fruits im Cloud-Umfeld. Hiermit lässt sich prinzipiell auf jegliche Art von Software über den Browser zugreifen. Beliebte Lösungen, die Unternehmen bevorzugt einsetzen sind typischerweise Office, E-Mail und CRM. Aber auch ERP und HR-Lösungen werden zunehmend beliebter.

Platform-as-a-Service eigenen sich am besten für die Entwicklung von SaaS- und Cloud-Applikationen aber auch für die Cross-Integration zwischen verschiedenen Cloud-Lösungen (iPaaS).

Infrastructure-as-a-Service kommt bevorzugt für den Betrieb dynamischer Infrastrukturen zum Einsatz. Auf Grund des hohen Freiheitsgrades hinsichtlich Technologien und Konfigurationsmöglichkeiten ist IaaS derzeit aber weiterhin die bevorzugte Wahl, wenn es um die Entwicklung neuer digitaler Produkte, Software (SaaS) und Services geht.

Die „Cloud“ wurde in der Vergangenheit des Öfteren als Sicherheitsrisiko bezeichnet. Wie wird vermieden, dass die gespeicherten Daten nicht in falsche Hände gelangen?

Die Krux ist, geht es um das Thema Sicherheit, werden leider immer wieder zwei Begriffe vermischt, die grundsätzlich unterschieden werden müssen: Die Datensicherheit und der Datenschutz.

Datensicherheit bedeutet die technischen und organisatorischen Maßnahmen umzusetzen, um Vertraulichkeit, Verfügbarkeit und Integrität der IT-Systeme sicherzustellen. Public Cloud-Anbieter bieten weit mehr Sicherheit, als es sich ein deutsches mittelständisches Unternehmen leisten kann. Das hängt damit zusammen, dass Cloud-Anbieter gezielt in den Aufbau und die Wartung ihrer Cloud Infrastrukturen investieren und ebenfalls das dafür notwendige Personal beschäftigen und die entsprechenden organisatorischen Strukturen geschaffen haben. Hierzu werden jährlich Milliarden von US-Dollar in die Hand genommen. Es gibt nur wenige Unternehmen außerhalb der IT-Branche, die in ähnlicher Weise in IT-Sicherheit investieren können und wollen.

Beim Datenschutz geht es um den Schutz der Persönlichkeitsrechte während der Datenverarbeitung und den Schutz der Privatsphäre. Dieses Thema sorgt bei den meisten Unternehmen für die echten Kopfschmerzen. Denn beim Verstoß gegen das Bundesdatenschutzgesetz macht der Gesetzgeber kurzen Prozess. Es geht zunächst also darum, den Cloud-Anbieter für die Einhaltung der im §9 festgehaltenen Regeln im Bundesdatenschutzgesetz in die Verantwortung zu nehmen und dies selbst auf Basis von §11 zu überprüfen. Für die Erfüllung von §11 empfiehlt es sich auf die Gutachten von Wirtschaftsprüfern zurückzugreifen, da kein Anbieter jeden Kunden einzeln ein Audit durchführen lassen kann. Der Datenschutz ist ein absolut wichtiges Thema, schließlich handelt es sich dabei um sensibles Datenmaterial. Es ist aber in erster Linie ein rechtliches Thema, was durch Maßnahmen der Datensicherheit gewährleistet werden muss.

Welche Prozesse vereinfacht das Cloud Computing?

Cloud Computing vereinfacht nicht einen einzigen Prozess. Das ist ein fataler Trugschluss. Die Cloud macht alles nur noch schlimmer. Denn sie bringt jede Menge neuer Prozesse mit sich und stiftet, wenn man es genau nimmt, erst einmal Unordnung. Andererseits ist sie die notwendige Bedingung, um Innovationen zu schaffen. Schritt 1 ist deshalb: mit Cloud-Infrastruktur, die ihrerseits für die notwendige Integration sorgt, das richtige Fundament legen. Anschließend lassen sich darauf die ersehnten neuen Prozesse gestalten. Aber: Die Konfigurationsaufwände dafür sollte man tunlichst nicht unterschätzen. Und für Einsteiger ist es als Lernprozess sicher erst einmal besser, die „schnelle Ernte“ einzufahren und mit kleinen, schnell umsetzbaren Lösungen, etwa als Software-as-a-Service, zu beginnen.

Und auch wenn mittlerweile alle Berater den Weg in die Cloud vorschreiben, warne ich vor blindem Aktionismus. Es ist nicht zielführend, bei Prozessverbesserungen von der Technologieseite zu kommen, das kann nach hinten losgehen. Technologie kann Ideen bringen, keine Frage. Aber sie ist auch immer nur Mittel zum Zweck.

Welche Auswirkungen wird die digitale Welt in den nächsten zehn Jahren auf unsere Gesellschaft haben?

Die Digitalisierung ist in vollem Gange und wird vor keinem Bereich unserer Gesellschaft haltmachen. In Deutschland steht unsere Industrie derzeit zwar weltweit noch gut da. Doch im weltweiten Vergleich tut sich Deutschland insgesamt schwer oder ist gar dabei den Anschluss zu verpassen. Ein Grund: meiner Ansicht nach fehlt in Deutschland die Risikobereitschafft. Es wird ständig zu lange gewartet, bis Best Practices vorhanden sind. Dann wird diskutiert. Dann werden Probleme/ Ausreden und künstliche Hürden (Thema: Datenschutz) herbeigezaubert. Und wenn man sich dann durchgerungen hat etwas zu starten, ist es zu spät und die Marktanteile sind vergeben oder der Mitbewerb aus Übersee ist technologisch meilenweit entfernt.

Ein Nachzügler zu sein ist ja per se nichts Schlimmes. Das ist aber nur dann sinnvoll, wenn man als Copycat á la Samwer schlichtweg einen Exit sucht. Aber ernsthafte Innovationen schafft man anders…

Ich hoffe daher nur, das Deutschland beim Thema Artificial Intelligence nicht auch wieder den Anschluss verliert. Das ist technologisch als auch strategisch ein immens wichtiges Thema für jedes deutsche und europäische Unternehmen, um das bestehende Geschäftsmodell und die dazugehörigen Produkte und Services zu erweitern und den Kunden noch mehr in den Mittelpunkt des Interesses zu stellen. Als Kunden liefern wir Anbietern mittlerweile jede Menge Daten, die gewinnbringend für uns genutzt werden können, um uns einen besseren Service zu bieten.

Hinsichtlich Trends sollten man etwas im Blick behalten, was ich als “Digital Correlation” bezeichne. Denn Trends wie Cloud Computing, Artificial Intelligence, Internet of Things, Data Analytics, Fog Computing und Blockchain spielen sehr eng miteinander zusammen und würden ohne einen anderen Trend wohlmöglich gar nicht existieren.

Außerdem reicht es heute nicht mehr, einfach nur den nächsten Megatrend nachzulaufen. Das Gesamtbild ist entscheidend und wie man selbst daran partizipieren kann und sollte.

Das Interview ist am 20. Juli 2017 zuerst unter “René Büst im Interview” erschienen.

Categories
Kommentar

Interview mit T-Systems MMS: Cloud Computing – Das Getriebe der Digitalisierung

René Büst ist einer der profiliertesten Cloud-Experten Deutschlands. Für ihn ist die Cloud wesentlicher Bestandteil der digitalen Transformation – aber nur dann, wenn sie entsprechend vorbereitet im Unternehmen zum Einsatz kommt.

Herr Büst, in diesen Tagen ist viel von der Weiterentwicklung der Cloud die Rede. Manchen gilt sie bereits als Allheilmittel. Und zwar für die Prozesslandschaft der Unternehmen in der Digitalisierung …

was allerdings ein fataler Trugschluss ist: Die Cloud macht alles nur noch schlimmer…

Bitte?

Ja, denn sie bringt jede Menge neuer Prozesse mit sich und stiftet, wenn man es genau nimmt, erst einmal Unordnung. Andererseits ist sie die notwendige Bedingung, um Innovationen zu schaffen. Schritt 1 ist deshalb: mit Cloud-Infrastruktur, die ihrerseits für die notwendige Integration sorgt, das richtige Fundament legen. Anschließend lassen sich darauf die ersehnten neuen Prozesse gestalten. Aber: Die Konfigurationsaufwände dafür sollte man tunlichst nicht unterschätzen. Und für Einsteiger ist es als Lernprozess sicher erst einmal besser, die „schnelle Ernte“ einzufahren und mit kleinen, schnell umsetzbaren Lösungen, etwa als Software-as-a-Service, zu beginnen.

Sie warnen demnach vor Aktionismus?

Absolut, es ist nicht zielführend, bei Prozessverbesserungen von der Technologieseite zu kommen, das kann nach hinten losgehen. Technologie kann Ideen bringen, keine Frage. Aber sie ist auch immer nur Mittel zum Zweck.

Wenn die Cloud sozusagen ein Getriebe im Motor der Digitalisierung ist, wie sind dann moderne Methoden wie DevOps einzuschätzen?

Auch hier ist es wichtig, zuerst die Business-Seite anzuschauen. DevOps, eine Methode, die IT-Entwicklung und IT-Betrieb mehr in Einklang bringt, hat oft ein Ziel: Dass Unternehmen ihre Lösungen schneller an den Markt bringen können, also damit die so genannte Time-to-Market beschleunigen. Dieses Momentum ist vor allem für tradierte Unternehmen wichtig, damit sie nicht von Start-ups überholt werden. Denn viele dieser vom Anbeginn weg digitalisierten Player haben ja kein klassisches „Ops“ mehr, sondern basieren vollständig auf Cloud-Strukturen. Das macht sie deutlich agiler und flexibler. DevOps kann also helfen, diesen Mangel an Tempo auszugleichen. Sie vereinfachen Schritte und Entwickler kommen mit ihrer Hilfe schneller an ihr Ziel. Kurz und gut: DevOps ist eine wertvolle Unterstützung.

Heißt das nicht auch, dass es in der Digitalisierung oftmals kein „Entweder-oder“ gibt sondern vielmehr ein „Sowohl-als auch“?

Richtig. Man hört ja momentan viel von der bimodalen IT, die ich lieber „IT der zwei Welten“ nennen möchte, und zwar geteilt in eine statische und eine dynamische Welt. In den nächsten Jahren wird für viele Unternehmen wichtig sein, diese Welten zu integrieren. Die Ablösung der statischen Seite findet eher sukzessive statt. Es wird sehr oft ein langsamer Wechsel aus einer hybriden Welt heraus sein.

Ist denn Langsamkeit in der digitalen Transformation kein Tabu?

Ich vertrete immer die These, dass wir uns bereits seit 30 Jahren in einem Prozess der Digitalisierung befinden. Mit SAP und Windows haben wir angefangen, mittlerweile stehen in jedem Büro Computer und auch der Einsatz mobiler Endgeräte nimmt stetig zu. Aber: Auch nach diesen drei Jahrzehnten sind längst nicht alle Abläufe digitalisiert worden. Auch hier gilt, dass Aktionismus fehl am Platze ist.

… stattdessen wäre wichtig?

… konkret im Einzelfall zu prüfen, wo digitale Prozesse Mehrwert stiften. Ich gebe ihnen ein Beispiel: Neulich habe ich meine Uhr in Reparatur gegeben. Vier Wochen lang habe ich vom Händler anschließend kein Lebenszeichen mehr gehört und dann bekam ich plötzliche eine Mitteilung, dass meine Uhr fertig sei. Zeitgemäßer Kundenservice? Nein, sicher nicht! Der Kunde möchte doch mal einen Statusbericht haben, wissen, wann die Reparatur ungefähr fertiggestellt sein wird, was konkret defekt war und nicht im Dunklen tappen. Deshalb ist es ein guter Weg, wenn Unternehmen ernsthaft prüfen, ob es ihrerseits solche dunklen Flecken in den Prozessen gibt und wo es sinnvoll ist, hier mit neuen digitalen Abläufen Abhilfe zu schaffen.

Wenn sie von Abhilfe sprechen: wo denn konkret?

In erster Linie ist es so, dass die Digitalisierung mehr Transparenz bringt. Sie legt offen, wie Unternehmen sich mit Lieferanten, Partnern und Kunden besser vernetzen und beispielsweise das Kundenerlebnis verbessern zu können. Sie hilft, Prozesse „sauber“ zu denken.

Angesichts dieser Positiveffekte: Wie ist denn grundsätzlich der Status quo der Digitalisierung in deutschen Unternehmen?

Durchwachsen. Es existiert offensichtlich ein Missverhältnis zwischen mittleren und großen Organisationen. Laut unseren Untersuchungen beschäftigen sich zwar bereits 83 Prozent der Mittelständler mit der Cloud, aber 58 Prozent verfügen noch nicht über eine Digitalstrategie. Und das ist fatal, denn um mit der Cloud umgehen zu können, braucht es angesichts ihrer Komplexität auch eine Strategie. Diese muss außerdem in sämtlichen Unternehmensbereichen bis rein in die Geschäftsführung etabliert sein.

Nur was heißt denn Strategie, ist das nicht ein zu schwammiger, allgemeingültiger Begriff?

Nein, nicht, wenn man ihn an handfeste Überlegungen knüpft. Wichtig ist immer zu prüfen, an welchen Stellen man angreifbar ist. Ich kenne selbst das Beispiel eines Wertstoffhändlers, der einen innerbetrieblichen Think-Tank gegründet hat mit dem Ziel, Mittel und Wege zu suchen, das Geschäftsmodell des eigenen Unternehmens zu attackieren – genauso geht´s.

Sind solche innovativen Ansätze mit Blick auf das Internet der Dinge und Industrie 4.0 nicht eine Pflicht, da hierbei eine noch viel massivere Umwälzung auf die gesamte Ökonomie zuläuft?

Unbedingt. Denn die Supply Chain muss zukünftig deutlich agiler sein, um im Wettbewerb bestehen zu können. Dabei wird es viel um Echtzeit gehen. Im Bestfall werden Unternehmen schon eine Stunde vorher wissen, was der Kunde dann benötigen wird, sprich: Predictive Analytics werden immer wichtiger. Es gilt die Rüstzeiten von Unternehmen runterzufahren, Vernetzung über die gesamte Lieferkette zu erreichen und mithilfe der Cloud schnell skalieren zu können. Denn ein Fakt wird uns auch in der Industrie 4.0 begleiten: Märkte sind nicht vorhersehbar, deshalb müssen die Reaktionszeiten schneller werden.

Also ist cloudbasierte Technologie letztlich dann aber doch entscheidend?

Ja, aber weiterhin gilt: Nur, wenn ich sie an den richtigen Stellen einsetze und vor allem, wenn ich auch weiß, warum ich sie überhaupt einsetze. Sind diese Bedingungen aber gegeben und möchte ich mich als Unternehmen dann dieser Technologie bedienen, um damit gegen den Wettbewerb zu bestehen, gilt in der Tat das Motto: Angriff ist die beste Verteidigung!

– – –
Das Interview ist zuerst unter „Cloud Computing – das Getriebe der Digitalisierung“ erschienen.

Categories
Kommentar

Interview mit T-Systems MMS: Wann man tatsächlich von erfolgreicher Digitalisierung sprechen kann

Analyst René Büst über die Herausforderungen der digitalen Transformation im B2B-Handel. Was Unternehmen veranlassen müssen, wo Chancen liegen und wann man erst von einer ganzheitlichen Umsetzung sprechen kann.

Das Ergebnis unserer aktuellen Digital Business Readiness Studie überrascht: „42 Prozent der Unternehmen haben bereits eine Digitalstrategie“, und ein gar nicht mal so kleiner Anteil der Befragten sagte sogar, dass man die Strategie bereits „erfolgreich umgesetzt“ habe. Höchstwahrscheinlich aber handelt es sich dabei nur um Wunschdenken. Denn vor allem in der IT-dominierten Welt hat es den Anschein, dass einige Unternehmen und Organisationen bei ihrer Definition der Digitalstrategie zu kurz gesprungen sind. Wenn wir bei Crisp Research in einer Studie danach fragen: „Wie stark ist Ihr Unternehmen von der digitalen Transformation betroffen?“ und knapp die Hälfte antwortet „schwach“ oder sogar „gar nicht“, dann ist eher Aufklärung vonnöten. Nicht nur, dass man davon ausgehen kann, dass nahezu jedes Unternehmen stark betroffen sein wird. Auch die Weichenstellungen für die Transformation werden augenscheinlich unterschätzt.

Wirft man einen Blick auf die Details, so zeigt sich nämlich, dass die Digitalisierung in ihrer Ganzheitlichkeit einem mehrere Ebenen umfassenden Großauftrag entspricht. Sie spielt sich auf einer IT-technologischen, prozessualen und organisatorischen Ebene mit jeweils tiefgehenden Änderungen ab. Gerade im Handel lässt sich gut darstellen, welch große Menge an Stellschrauben noch zu drehen sind, bis man tatsächlich von einer umfassenden Digitalstrategie und vor allem ansatzweise von deren Umsetzung sprechen kann.

Die Unternehmens-IT als Startpunkt

Um die Lagerhaltung im B2B-Handel zu modernisieren, bietet sich als Ausgangsbasis die Analyse des eingesetzten ERPs und der darüber laufenden Prozessketten an. Anhand dessen zeigt sich recht schnell, ob und wo Medienbrüche entstehen, sich also Lücken zwischen analoger und digitaler Welt auftun. Wie sind beispielsweise ERP, CRM und die E-Commerce-Lösung miteinander gekoppelt und wie ist das Lager bzw. die Lagerhaltung diesbezüglich eingebunden? Wie ist der Lauf von Lieferscheinen?

Um Missverständnisse zu vermeiden: Sind nur Teilsegmente dieser Bereiche bzw. Prozesse digitalisiert, so kann man eben nicht von einer Transformation sprechen. Das sieht man häufig bei den Beständen: Oftmals wissen nicht alle Beteiligten im Unternehmen, wo die Ware in Echtzeit ist, ob tatsächlich im Verkauf oder noch im Lager. Und fragt man mitunter Händler, wie viele Artikel exakt zum Zeitpunkt X auf der gesamten Fläche vorhanden sind, erntet man lediglich ein Schulterzucken. Sprich, bei Inventarisierung und Nachbestellung allein liegt mit hoher Wahrscheinlichkeit in vielen Unternehmen noch jede Menge digitales Potenzial brach.
Eine bekanntermaßen große Herausforderung von Handel und E-Commerce hinsichtlich der Digitalisierung, die ebenfalls voll umfänglich gelöst sein muss, ist die der Schnittstellen. Diese betrifft nicht nur das Unternehmen allein, sondern alle mit ihm vernetzten Partner oder Zulieferer. Denn Transformation ist vor allem ein Datenthema. Das hinlänglich bekannte Wachstum dieser Daten hin zu Big Data wird nicht allein aus Gründen der Quantität für Anstrengungen sorgen. Sondern auch die Frage der Datenqualität spielt eine immer wichtigere Rolle. Es mangelt allerorts an Standards, die Ausspielkanäle bzw. Anforderer für Daten werden immer vielfältiger und die Komplexität der Schnittstellen-Problematik wird – Stichwort Internet der Dinge – bereits mittelfristig ansteigen. Schon erscheint es sinnvoll, explizit „Schnittstellenbeauftragte“ für ein Unternehmen einzufordern.

Nächster Anknüpfungspunkt: die Prozessoptimierung

Im B2B-Handel können beispielsweise digitale Beschilderungen und RFID-Tags genutzt werden, damit nicht nur jederzeit die Bestände in Echtzeit erkennbar sind, sondern sich mittels der digitalen Vernetzung zwischen Prozess und System dann tatsächlich eine voll automatisierte Lagerhaltung erzielen lässt. Das sähe zum Beispiel so aus, dass beim Unterschreiten einer bestimmten Mindestmenge gleich ein autarker Nachbestellprozess aus dem Lager angestoßen wird – ohne menschliches Dazutun. Das heißt: Prozesse werden maschinell ausgelöst oder bestätigt.
Digitale Prozesskette heißt aber auch, dass sich die Beziehungen zum Kunden positiv verändern lassen. Wenn der Großhändler beispielsweise seinen Gabelstapler oder andere für das Lager dringend benötigte Geräte in Reparatur gibt, will er nicht wochenlang vom Servicedienstleister im Ungewissen gelassen werden, um dann endlich eine Mitteilung zu bekommen, dass die Maschinen nun fertig sind. Das ist kein zeitgemäßer Kundenservice mehr. Ein Kunde möchte über einen Statusbericht informiert werden, wann die Reparatur ungefähr fertiggestellt sein wird, was konkret defekt war und nicht im Dunklen tappen. Deshalb ist es ein guter Weg, wenn Unternehmen ernsthaft prüfen, ob es ihrerseits solche dunklen Flecken in den Prozessen gibt. Das heißt aber auch, dass die Händler sämtliche Unternehmensprozesse kritisch analysieren, Medienbrüche aufdecken und deren Übergänge dann digitalisieren sollten.

Verankerung auf der organisatorischen Unternehmensebene

Zur Realisierung einer ganzheitlichen Digitalstrategie ist es wichtig, dass die Prozesse erstens von der Unternehmensführung vorgelebt und zweitens für alle Mitarbeiter gewissermaßen mit erlebbar gemacht werden. Nur so ist es möglich, dass die Transformation übergreifend stattfinden kann. Wenn beispielsweise ein Unternehmen aktenbasierte Archive abschafft und stattdessen entsprechende Desktop-Umgebungen einführt, sollte zuerst der entsprechende Mehrwert für das gesamte Unternehmen bzw. den einzelnen Mitarbeiter deutlich gemacht werden. Denn für die operative Ebene können dadurch komplette Tätigkeiten obsolet werden oder sich Arbeitsplatzbeschreibungen in Gänze ändern. Deshalb: Digitale Transformation ist ein Thema, das tief in die Unternehmenskultur eindringt.
Aus diesem Grund brauchen Unternehmen eine umfassende Roadmap zum Thema Digitalisierung, die tatsächlich alle drei beschriebenen Ebenen umfasst. Ist diese mit Leben gefüllt und der Transformationsprozess auf allen drei Ebenen angekommen, winken neue Geschäftsmodelle und mehr Umsatzchancen als Lohn der Anstrengungen. Die Botschaft dabei: Erfolge fangen bereits im Kleinen an. Als ein gutes Beispiel lässt sich der Bereich Marketing benennen. Viele Händler setzen auf Newsletter und ähnliche Möglichkeiten, um mit dem Kunden in Kontakt zu treten. Aber längst nicht alle sind personalisiert, immer noch wird der Interessent von Massenmailings „erschlagen“, die deutlich zielgerichteter sein könnten. Hat das Unternehmen aber die drei Sektoren – IT, Prozesse und Organisation – digital miteinander verknüpft, fließen die Informationen ohne Brüche an die Bedarfsträger zurück und so ist eine deutlich qualifiziertere Ansprache der Kunden möglich. Ebenso ist langfristig der Wandel vom reinen Händler hin zum umfassenden Dienstleister eine Chance. Da der Lieferant beispielsweise durch seine Datenanalysen mit sehr hoher Wahrscheinlichkeit weiß, dass der Kunde in den Engpass eines Produktes gerät, den er vielleicht selbst noch gar nicht absieht, kann ihm sein Händler proaktiv im Sinne eines Predictive-Analytics-Modells schon im Vorwege eine Lösung anbieten.

Fazit: Erfolgreiche Digitalisierung im B2B-Handel ist ein IT-Thema, ein Prozessthema und auch ein Organisationsthema. Darüber hinaus ist es wichtig, dass diese drei Ebenen nicht singulär, sondern im Zusammenspiel analysiert und anschließend optimiert werden – dann, und nur dann, sind die Weichen für eine prosperierende Zukunft deutlich besser gestellt.

– – –
Das Interview ist zuerst unter “Im Gespräch mit René Büst, Wann man tatsächlich von erfolgreicher Digitalisierung sprechen kann” erschienen.

Categories
Kommentar

Egal ob Public oder Private, auf eine Cloud kann niemand mehr verzichten!

Im Jahr 2014 befinden wir uns endlich im Jahr der Cloud. Versprochen! Wie schon 2012 und 2013 wird sie auch in diesem Jahr den Durchbruch schaffen. Versprochen! Steht doch überall geschrieben. Legen wir den Sarkasmus mal ein wenig beiseite und schauen der Realität ins Auge, sieht die Wahrheit gar nicht so düster aus. Es kommt nur auf die Form der Cloud an. IDC und Gartner sprechen von Milliarden von Dollar, die in den kommenden Jahren in den weltweiten Public IaaS Markt investiert werden sollen. Crisp Research hat sich für 2013 den deutschen IaaS Markt angeschaut und kommt zu völlig gegensätzlichen Zahlen. In Public IaaS wurden in etwa 210 Millionen Euro, in Private Cloud Infrastrukturen hingegen mehrere Milliarden Euro investiert. Gegensätzlicher können sich zwei Märkte fast nicht verhalten. Aber das ist ok, das ist unsere deutsche Mentalität. Vorsichtig. Langsam. Erfolgreich. Eines sollten sich Unternehmen für 2014 und die kommenden Jahre jedoch auf die Agenda schreiben. Egal ob es nun um eine Public oder Private Cloud geht. Eines ist sicher, auf eine Cloud kann kein Unternehmen mehr verzichten! Garantiert! Warum? Weiterlesen.

Das Bereitstellungsmodell der IT hat sich verändert

Im Kern geht es bei einer Cloud um die Art und Weise wie IT-Ressourcen bereitgestellt werden. Das erfolgt on-Demand über einen Self-Service und nach einem Verrechnungsmodell, dass die Kosten nach dem tatsächlichen Verbrauch bestimmt.

Die oben genannten IT-Ressourcen, in Form von Applikationen (SaaS), Plattformen (Entwicklungsumgebungen; PaaS) und Infrastrukturen (virtuelle Server, Speicherplatz; IaaS), werden als Services bereitgestellt, die sich ein Nutzer bestellen kann. Das bedeutet im Umkehrschluss allerdings auch, dass bei einer gewöhnlichen Virtualisierung nicht aufgehört werden darf. Virtualisierung ist nur ein Mittel zum Zweck. Schließlich muss der Nutzer auch irgendwie an die Ressourcen gelangen. Zum Telefonhörer greifen, die IT-Abteilung anrufen und warten ist kein Zeichen davon, dass eine Cloud-Infrastruktur vorhanden ist. Ganz im Gegenteil.

Über welche Art von Cloud die Ressourcen nun bereitgestellt werden, das ist abhängig vom Use Case. Es gibt nicht die “Über Cloud”, die alle Probleme auf einmal löst. Für eine Public Cloud existieren genügend Anwendungsfälle. Sogar für Themen oder Industrien, die im ersten Moment weit weg erscheinen. Unterm Strich handelt es sich in vielen Fällen um eine Frage der Daten. Und genau diese gilt es zu klassifizieren. Dann kann es zur Entscheidung kommen, dass nur eine Private Cloud in Frage kommt. In diesem Fall wird man als Unternehmen dann selbst zum Cloud-Anbieter (mit allen Höhen und Tiefen die ein Public Cloud Anbieter zu bewältigen hat), baut eine eigene Cloud-Infrastruktur auf und versorgt direkt seine internen Kunden. Oder man geht zu einem der Managed Cloud Anbieter, die innerhalb einer dedizierten Umgebung eine Private Cloud exklusiv nur für einen Kunden betreiben und zudem Professional Services im Portfolio haben, die Public Cloud Anbieter in der Regel nur über ein Partnernetzwerk bieten.

Es ist einzig und alleine entscheidend, dass Unternehmen sich einem Cloud-Modell zuwenden, denn …

Mitarbeiter fordern Services on Demand

Mitarbeiter wollen Service(s) und sie wollen diese(n) jetzt und nicht in zwei Wochen oder drei Monaten. Und wenn sie nicht das bekommen was sie benötigen, dann finden sie einen Weg es zu bekommen. Ehrlich! Es existieren seit geraumer Zeit viele attraktive Alternativen auf dem IT-Markt, die nur ein paar Mausklicks und eine Kreditkartennummer entfernt sind die Bedürfnisse zu befriedigen. Das speziell im IaaS Bereich dann noch sehr viel Arbeit wartet, diese Falle ist den meisten nicht IT-lern erst einmal nicht bewusst. Aber Sie haben augenscheinlich das bekommen, was sie brauchten und wenn es nur der Wunsch nach Aufmerksamkeit war. Der Cloud-Anbieter hat schließlich sofort reagiert. Das Wunder des Self-Service!

IT-as-a-Service ist nicht nur irgendein Buzz-Word. Es ist die Realität. IT-Abteilungen sind dem Druck ausgesetzt, wie eine eigene Business Einheit geführt zu werden und selbst Produkte und Services für das eigene Unternehmen zu entwickeln oder zumindest nach den Bedürfnissen bereitzustellen. Sie müssen daher proaktiv reagieren. Und damit ist nicht das Anlegen von Handschellen gemeint, indem die Ports der Firewall geschlossen werden. Nein, hier geht es darum sich selbst zu hinterfragen.

Das dies funktioniert hat die Deutsche Bahn Tochter DB-Systel eindrucksvoll bewiesen, indem sie den Bereitstellungsprozess mit einer eigenen Private Cloud von 5 Tagen auf 5 Minuten(!) pro virtuellen Server reduziert hat.

Hybrid Cloud im Auge behalten

Bei den ständigen Diskussionen, ob nun eine Public oder Private Cloud in Frage kommt, sollte immer die Option einer Hybrid Cloud im Hinterkopf behalten werden.

Eine Hybrid Cloud ermöglicht einen eindeutigen Use Case für den Einsatz einer Public Cloud. Dabei können bestimmte Bereiche der IT-Infrastruktur (Rechenleistung und Speicherplatz) in einer Public Cloud Umgebung abgebildet werden. Der Rest und unternehmenskritische Bereiche bleiben innerhalb der selbstverwalteten on-Premise IT-Infrastruktur oder Private Cloud.

Darüber hinaus liefert das Hybrid Cloud Modell einen wertvollen Ansatz für das Architektur-Design, indem Teile der lokalen Infrastruktur, die hohe Kosten verursachen, aber gleichermaßen schwierig zu skalieren sind, mit Infrastrukturen kombiniert werden, die massiv skalierbar und bei Bedarf provisioniert werden können. Die Anwendungen und Daten werden auf der für den Einzelfall besten Plattform ausgerollt und die Verarbeitung zwischen beiden integriert.

Der Einsatz hybrider Szenarien bestätigt die Tatsache, dass nicht alle IT-Ressourcen in Public Cloud Umgebungen abgebildet werden sollten und für einige sogar niemals in Frage kommen. Werden Themen wie die Compliance, Geschwindigkeitsanforderungen und Sicherheitsbeschränkungen betrachtet, ist eine lokale Infrastruktur weiterhin notwendig. Die Erfahrungen aus dem hybriden Modell helfen dabei aber zu verstehen, welche Daten lokal bleiben sollten und welche innerhalb einer Public Cloud Umgebung verarbeitet werden können.

Categories
Kommentar

Warum Unternehmen ohne ihre IT-Abteilung auf dem Schlauch stehen

Cloud Computing und Bring your own Device (BYOD) treiben moderne IT-Lösungen in die Unternehmen. Vom gewöhnlichen Mitarbeiter, über die Fachabteilungen bis hin zu den Vorstandsmitgliedern werden ständig neue Cloud-Services und innovative Endgeräte mit in das Unternehmen gebracht und dort für die tägliche Arbeit eingesetzt. Insbesondere der schnelle Zugriff und die einfache Nutzung machen Cloud Lösungen und Consumer Produkte zu attraktiven Gelegenheiten. Was sich im ersten Moment nach einer praktikablen Idee anhört, ist in Wirklichkeit ein riesiges Problem für CIOs und IT-Manager. Denn Cloud Computing und BYOD haben zu einer neuen Form der Schatten-IT geführt. Dabei handelt es sich um den unkontrollierten Wildwuchs von IT-Lösungen, welche Mitarbeiter und Fachabteilungen ohne dem Wissen von IT-Abteilungen einsetzen. Die Zahlung läuft dabei in der Regel über Kreditkarten oder das Spesenkonto an der IT vorbei. Nach dem Motto: „Was ihr, liebe IT-Abteilungen, uns nicht schnell genug und in ausreichend guter Qualität liefern könnt, dass besorgen wir uns dann eigenmächtig.“. Das führt jedoch zu Situationen, in denen Unternehmensdaten z.B. auf privaten Dropbox Accounts gespeichert werden, wo diese, nicht nur auf Grund von Unternehmensrichtlinien, nichts zu suchen haben.

Kompetenzen, Lust und Zeit

Der einfache Zugriff auf Cloud Services im Allgemeinen hat erste Meinungen in den Markt getrieben, dass die IT-Abteilungen in dieser Dekade aussterben könnten und die Line of Business Manager (LOB) die IT-Fäden alleine in der Hand haben werden, um IT-Einkäufe vorzunehmen. Eine fatale Aussage. Fakt ist, die meisten LOBs haben nicht die Zeit, Lust und das Wissen, um solche Entscheidungen zu treffen.

Es stellt sich die Frage, welche Aufgaben und Verantwortungen ein LOB Manager noch übernehmen soll. Neben der strategischen Ausrichtung seines Bereiches, der Mitarbeiterführung und weiteren organisatorischen Themen, bleibt da noch ausreichend Motivation übrig, um sich zusätzlich auch noch um die “lästige” IT zu kümmern? Das ist zu bezweifeln.

Sicherlich existiert der eine oder andere LOB Manager, der sich den Herausforderungen gewachsen fühlt und darüber mehr Einfluss gewinnen möchte. Aber nur weil man sein iPhone nahezu perfekt versteht und eine SaaS Applikation bedienen kann, verfügt man bei weitem noch nicht über die Kompetenzen, um wichtige IT-Prozesse zu implementieren und einzukaufen.

Datensilos und Integration

Natürlich sind LOB Manager darüber informiert, was sie für ihren eigenen Bereich benötigen. Aber haben sie auch Kenntnisse darüber, welche Systeme und Schnittstellen noch zusammenspielen müssen? Es hört sich toll an, wenn der Marketing- und Vertriebsleiter jeder für sich und ungefragt eigene IT-Services einkaufen kann. Aber was passiert, wenn das Marketing auf die Vertriebsdaten und umgekehrt zugreifen will?

Dabei sollte nicht vergessen werden, dass Unternehmen seit vielen Jahren mit nicht optimal miteinander integrierten Insellösungen von Applikationen und Datensilos kämpfen. Cloud Services potenzieren dieses Problem um ein Vielfaches und Lösungen wie Dropbox sind nur die Spitze des Eisbergs.

IT-Abteilungen haben die Verantwortung

IT-Abteilungen benötigen wieder mehr Kontrolle. Nicht um den Status quo aufrechtzuerhalten, sondern weil jemand die Verantwortung und den Überblick über die zukünftige hybride IT-Infrastruktur haben muss. Gleichzeitig sind nur die IT-Abteilungen in der Lage, die verschiedenen IT-Prozesse im Unternehmen zu überwachen und einheitliche Schnittstellen für den bereichsübergreifenden Zugriff zu definieren. Denn wer darf am Ende den Scherbenhaufen wieder wegkehren, wenn jede Fachabteilung ihren ganz eigenen Weg geht? Richtig die IT-Abteilungen! Das sollten auch Anbieter von Cloud Services verstehen.

IT-Abteilungen müssen mit den LOBs wieder mehr zusammenarbeiten, um die fachlichen Anforderungen zu verstehen und umzusetzen. Das bedeutet aber, dass auch IT Abteilungen kommunikativer werden müssen.