Cloud Computing

AI Becomes the Game Changer in the Public Cloud

Today, the artificial intelligence (AI) hype wouldn’t exist without cloud computing. Only the easy access to cloud-based innovative AI services (machine learning etc.) and the necessary and fast available computing power enable the developments of novel “intelligent” products, services and business models. At the same time, AI services ensure growth of public cloud providers like Amazon Web Services, Microsoft and Google. Thus, one can observe a “Cloud-AI interdependency”.

After more than 10 years, cloud computing has evolved into a fertile business for providers such as Amazon Web Services or Microsoft. However, competition is getting stronger from laggards like Google and Alibaba. And with the massive and ongoing introduction of AI-related cloud services, providers have increased the competitive pressure themselves, in order to raise attractiveness among their customers.

The Cloud Backs AI and Vice Versa

To build and operate powerful and highly-scalable AI systems is an expensive matter for companies of any size. Eventually, training algorithms and operating the corresponding analytics systems afterwards need oodles of computing power. Providing the necessary computing power in an accurate amount and on time via the own basement, server room or data center is impossible. Computing power that afterwards is not required anymore.

Looking into the spheres of Amazon, Microsoft or Google, all three providers built up an enormous amount of computing power in recent years and equally own a big stake of the 40 billion USD cloud computing industry. For all of them, expanding their portfolios with AI services is the next logical step in the cloud. On one side, developing AI applications respectively the intelligent enhancement of existing applications requires easy access to computing power, data, connectivity and additive platform services. Otherwise, it is necessary to obtain attractiveness among existing customers and to win new customers. Both are looking for accessible solutions to integrate AI into their applications and business models.

Amazon Web Services

Amazon Web Services (AWS) is not only the cloud pioneer and innovation leader, but still by far market leader of the worldwide public cloud market. Right now, AWS is the leading cloud environment for developing as well as deploying cloud and AI application, due to its scalability and comprehensive set of platform services. Among other announcements, AWS presented Amazon Cloud 9 (acquisition of Cloud9 IDE Inc. in July 2016) at the recent re:Invent summit. A cloud-based development environment that is directly integrated into AWS cloud platform to develop cloud-native applications. Moreover, AWS announced six machine learning as a service (MLaaS) services, including a video analysis service as well as a NLP service and a translation service. In addition, AWS offers MXNet, Lex, Rekognition and SageMaker, powerful services for the development of AI applications. SageMaker, in particular, attracts attention, since it helps to control the entire lifecycle of machine learning applications.

However, as with all cloud services, AWS pursues the lock-in approach with AI-related services as well. All AI services are tightly meshed with AWS’ environment to make sure that AWS remains the operating platform after the development of an AI solution.
Amazon also sticks to its yet successful strategy. After Amazon made the technologies behind its massive scalable ecommerce platform publicly available as a service via AWS, technologies behind Alexa, for example, has followed to help customers integrate own chatbots or voice assistants into their applications.


Microsoft has access to a broad customer base in the business environment. This along with a broad portfolio of cloud and AI services offer basically good preconditions to also establish oneself as a leading AI market player. Particularly because of the comprehensive offering of productivity and business process solutions, Microsoft could be high on the agenda of enterprise customer.

Microsoft sticks deep in the middle of digital ecosystems of companies worldwide with products like Windows, Office 365 or Dynamics 365. And that is exactly the point where the data exist respectively the dataflows happen that could be used to train machine learning algorithms and build neural networks. Microsoft Azure is the central hub where everything runs together and provides the necessary cloud-based AI services to execute a company’s AI strategy.


In the cloud, Google is still behind AWS and Microsoft. However, AI could become the game changer. Comparing today’s Google AI services portfolio with AWS and Microsoft you can see that Google is the clear laggard among the innovative provider of public cloud and AI services. This is astounding if you consider that Google invested USD 3.9 billion in AI so far. Compared to the competition, Amazon has invested USD 871 million and Microsoft only USD 690 million. Google simply lacks in consistent execution.

But! Google already has over 1 million AI user (mainly through the acquisition of data science community “Kaggle”) and owns a lot of AI know-how (among others due to the acquisition of “DeepMind”). Moreover, among developers Google is considered as the most powerful AI platform with the most advanced AI tools. Furthermore, TensorFlow is the leading AI engine and for developers the most important AI platform, which serves as the foundation of numerous AI projects. In addition, Google has developed its own Tensor Processing Units (TPUs) that are specifically adapted for the use with TensorFlow. Recently, Google announced Cloud AutoML, a MLaaS that addresses unexperienced machine learning developer, to help creating deep learning models.

And if you keep in mind where Google via Android OS has its fingers in the pie (e.g. Smartphones, home appliances, smart home or cars) the potential of AI services running on the Google Cloud Platform is clearly visible. The only downer is that Google is still only able to serve developers. The tie-breaking access to enterprise customers, something that Microsoft owns, is still missing.

AI Becomes the Game Changer in the Public Cloud

The AI platform and services market is still at an early stage. But in line with the increasing demand to serve their customers with intelligent products and services, companies are going to proceed to search for the necessary technologies and support. And it’s a fact that only the easy access to cloud-based AI services as well as the necessary and fast accessible computing power is imperative for developing novel “intelligent” products, services and business models. Hence, for enterprises it doesn’t make any sense to build in-house AI systems since it is nearly impossible to operate them in a performant and scalable way. Moreover, it is important not to underestimate the access to globally distributed devices and data that has to be analyzed. Only globally scalable and well-connected cloud platforms are able to achieve this.
For providers, AI could become the game changer in the public cloud. After AWS and Microsoft started leading the pack, Google wasn’t able to significantly play catch-up. However, Google’s AI portfolio could make a difference. TensorFlow, particularly and its popularity among developers could play into Google’s hands. But AWS and Microsoft are beware of it and act together against this. “Gluon” is an open source deep learning library both companies have developed together, which looks quite similar to TensorFlow. In addition, AWS and Microsoft provide a broad range of AI engines (frameworks) rather than just TensorFlow.

It is doubtful that AI services are enough for Google to catch up with AWS. But Microsoft could quickly feel the competition. For Microsoft it is crucial, how fast the provider is able to convince its enterprise customer of its AI services portfolio. And at the same time to convey how important other Microsoft products (e.g. Azure IoT) are and to consider them for the AI strategy. AWS is going to stick to its dual strategy and focus on developers as well as enterprise customers and will still lead the public cloud market. AWS will be the home for all those who solely do not want to harness TensorFlow – in particular cloud-native AI users. And not to forget the large customer base that is innovation oriented and is aware of the benefits of AI services.


Alles über Mesh Computing

Sowohl Cloud Computing als auch das Internet of Things (IoT) gelten als die beiden zentralen Technologietrends der letzten Dekade. Insbesondere das IoT hat in den vergangenen fünf Jahren ein großes Wachstum zu verzeichnen und wird als heiliger Gral der industriellen Revolution betrachtet. Und es ist kein Ende in Sicht. Im Durchschnitt ergeben Schätzungen, dass bis zum Jahr 2020 etwa 13 Milliarden „Dinge“ nur für das IoT auf dem Markt erscheinen werden. Angesichts dieser Menge an Objekten steigen die Bedenken, ob das Internet als Medium überhaupt noch dafür geeignet ist, um die Masse an Daten, die von den Objekten erzeugt und übertragen werden, performant genug zu handhaben.

Ein aus diesen Herausforderungen entstandener Technologietrend ist das Fog Computing. Es soll dabei helfen, die verteilten Daten näher an die Endgeräte und IoT-Objekte zu transportieren und dabei die Latenz und Anzahl der dafür benötigten Hops zu verringern, um z.B. Mobile Computing und Datendienste dadurch besser zu unterstützen. Dennoch bleibt das Internet der zentrale Ankerpunkt, um die Dinge bzw. Objekte untereinander zu verbinden. Es stellt sich die Frage, ob das unterbunden werden kann und ob das IoT ohne das Internet funktionieren kann.

Aus diesen Überlegungen heraus, stärken sich derzeit Diskussionen um das Mesh Computing, eine Netzwerktopologie, die das Internet nicht benötigt, um Daten zu übertragen. Dadurch wäre es potentiell möglich, die Abhängigkeiten des IoT und anderer Systeme zum Internet zu verringern.

Was ist Mesh Computing?

Mesh Computing bzw. Mesh Networking ist eine Netzwerktopologie, bei welcher jeder Host/ Node (Infrastrukturkomponente) direkt miteinander verbunden ist. Das Internet wird für den Datenaustausch nicht benötigt. Die Kommunikation erfolgt direkt zwischen einer größtmöglichen Anzahl von Hosts, die miteinander zusammenarbeiten, um Daten effizient zwischen den Hosts auszutauschen. Hierfür wird entweder Flooding oder Routing eingesetzt. Während des Flooding wird ein eingehendes Netzwerkpaket an jeden ausgehenden Port weitergeleitet, außer an denjenigen, von welchem es ursprünglich gekommen ist. Beim Routing erhält das Netzwerkpaket vorab Informationen für den Pfad (von Node zu Node) zum endgültigen Ziel. Um sicherzustellen, dass ein Netzwerkpaket ständig einen verfügbaren Pfad zum Ziel findet, sind Mesh Networks in der Lage, sich dynamisch selbst neu zu organisieren und hierfür selbst zu konfigurieren. Es geht hierbei also um eine Selbstheilung, um defekte Pfade zu umgehen. Damit ist ein Netzwerk ziemlich zuverlässig aufgebaut, da mehr als ein Pfad zwischen Start und Ziel existiert. Die Fähigkeit, sich selbst neu zu konfigurieren erlaubt es zudem, Workloads dynamisch zu verteilen, insbesondere dann, wenn ein Node unvorhergesehen ausfällt.


Was sind die Vorteile von Mesh Computing?

Mit dem Einsatz lokaler autonomer Meshing-Verfahren lässt sich die Effizienz eines Netzwerks verbessern. Daten von IoT-Geräten wie Thermostate, Haushaltsgeräte und anderer vernetzter Geräte im Haushalt lassen Daten nun direkt und ohne Internetverbindung untereinander austauschen. Da hierfür keine Verbindung zur Cloud notwendig ist, um Daten zu speichern, werden damit Sicherheitsbedenken verringert.

Ein defekter Node beeinträchtigt die Datenübertragung innerhalb eines Mesh Networks nicht. Jeder Node ist mit einer Vielzahl anderer Nodes verbunden, was es einfacher macht, Daten zu übertragen. So wird bspw. ein defektes Gerät von dem Netzwerk ignoriert und der nächstmögliche Node genutzt. Hinzu kommt, dass ein weiteres Gerät, welches dem Netzwerk hinzugefügt wird, keinen Einfluss auf die Netzwerkkonnektivität hat. Im Gegenteil, es wird dafür sorgen, den Verkehr innerhalb des Netzwerks zu verbessern, indem Routing-Algorithmen plötzlich mehr Möglichkeiten besitzen, um Datenpakete effizienter zu vermitteln. Damit kann ein Mesh Network einen hohen Netzwerkverkehr handhaben, da jedes einzelne Gerät als Node betrachtet wird. Im Netzwerk zusammengeschaltete Geräte können zeitgleich Daten übertragen und die Netzwerkverbindungen dabei nicht beeinflussen.

Was sind Anwendungsbeispiele für Mesh Computing?

Betrachtet man Mesh Networks konkret aus dem Blinkwinkel des Mesh Computing, liegen just in diesem Moment Unmengen an CPU- und GPU-Rechenleistungen weltweit ungenutzt, die für unterschiedliche Zwecke verwendet werden können. Hierzu gehören:

  • Machine Learning: Die Algorithmen und dafür notwendigen Datensätze lassen sich über eine nahezu unendliche Anzahl von Nodes weltweit verteilen und verarbeiten.
  • Wissenschaftliche Forschung: Die parallele Verarbeitung von Datensätzen lässt sich über viele Computer verteilen ohne einen Supercomputer zu nutzen.
  • Verteilte Applikationen: In Kombination mit dem Mesh Networking Konzept lassen sich fehlertolerante und hochskalierbare Applikationen entwickeln und verteilt betreiben.
  • Internet of Things: Jedes Endgerät kann Teil eines Edge Netzwerks werden, um Daten zu sammeln und zu analysieren, ohne dafür eine neue Infrastruktur aufzubauen.
  • Graphikverarbeitung: Rendering Jobs für Bilder und Filme können auf mehrere verteilte Computer ausgelagert werden.
  • Mining von Kryptowährung: Jede Art von System, sei es ein nicht genutzter Spiele-PC, ein Server oder eine gewöhnliche Workstation, lässt sich für das Mining von Kryptowährungen einsetzen.

Ein Unternehmen, was Mesh Computing aktiv verfolgt ist, welches eine dezentrale Mesh Computing Platform für Unternehmen und Non-Profit Organisationen entwickelt hat. Computes möchte ein Gegengewicht zum Cloud Computing darstellen und es Unternehmen ermöglichen, die Rechenleistung ihrer vorhandenen Computer zu nutzen, anstatt in „traditionelle“ Cloud Computing Lösung zu investieren. Eine Non-Profit Organisation, die bereits auf Mesh Computing von setzt, ist die University of Wisconsins, im Rahmen ihrer Forschung gegen Parkinson.

Computes CEO Chris Matthieu scheint sich zudem mit den Herausforderungen hinsichtlich Datensicherheit und Datenschutz im Kontext des Mesh Computing beschäftigt zu haben und nennt hierbei Stichworte wie Crypto, Encryption, Containers und Sandbox.

Wir dürfen gespannt sein.

Eine Randnotiz zu Mesh Computing

Der Ansatz des Mesh Computing kommt dem einen oder anderen sicherlich bekannt vor. Und in der Tat sieht es dem SETI@home (Suche nach Außerirdischen) oder dem Folding@home (Krebsforschung) Projekten sehr ähnlich. Zur Auswertung der riesigen Datenmengen benötigen die Projekte selbst wenig eigene Rechenleistung. Stattdessen werden die Workloads an die Computer der SETI@home/ Folding@home Projektteilnehmer ausgelagert. Hierzu gehören u.a. auch Unternehmen wie Intel und Sun, die SETI@home mit Rechenleistung und Spenden unterstützen.


Figure: The World of IT Automation.

The World of IT Automation.

Analyst Cast

dotmagazine Podcast: The Magic Triangle – Digitization, Cloud and AI in Enterprises

In November 2017, I was interviewed by Judith Ellis from dotmagazine, which is powered by eco – Association of the Internet Industry. In this podcast we are talking about digitization, the significance of the cloud, the advantages of Artificial Intelligence (AI) in enterprise solutions and the power of digital correlation.


Interview mit Cloud Computing, IoT, Blockchain – die Digitale Evolution

Im Juli 2017 wurde ich von Markus Henkel von zu digitalen Technologien und Services wie Cloud Computing, Internet of Things (IoT) und Blockchain interviewed – und erkläre dabei, was das alles mit der digitalen Evolution zu tun hat.

Analyst Cast @de

Panel Diskussion @ Work Awesome 2017: “Kollege KI: Wie künstliche Intelligenz unsere Arbeitswelt revolutioniert”

Am 30. November 2017 war ich Teil von einer der zahlreichen Panel Diskussionen auf der Work Awesome in Berlin. Hier hatte ich die Gelegenheit, zusammen mit Moderator Lars Gaede und Lars Trieloff von Adobe, über das Thema “Kollege KI: Wie künstliche Intelligenz unsere Arbeitswelt revolutioniert” zu diskutieren.

Analyst Cast

Rozee’s Podcast: AI-based Business Process Automation

In November 2017, I was interviewed by Rosalie Bartlett for her tech podcast series Rozee. We discussed how Artificial Intelligence (AI) has a significant impact on business process automation.


Interview mit Speakers Excellence über Cloud Computing und die Digitale Evolution

Im Juli 2017 wurde ich von Philipp Hagebölling (Speakers Excellence) zu den Themen Cloud Computing und Digitale Evolution befragt.

Herr Büst, Sie sind Experte für Cloud Computing und der führende deutsche Blogger auf diesem Gebiet. Umreißen Sie doch einmal kurz, was wir unter Cloud Computing verstehen dürfen.

Cloud Computing lässt sich als ein Bereitstellungsmodell von IT-Ressourcen (Rechenleistung, Speicherkapazitäten, Software, etc.) beschreiben, auf die ein Nutzer via Datenverbindung (bevorzugt das Internet) zugreifen kann. Hierbei passen sich die Ressourcen dynamisch den jeweiligen Bedürfnissen an.

Wird z.B. mehr Speicherkapazität benötigt, stellt der Anbieter diesen bereit, ohne dass der Nutzer aktiv werden oder zumindest lange darauf warten muss. Darüber hinaus wird beim Cloud Computing nur für die Leistung bezahlt, die während eines bestimmten Zeitraums auch tatsächlich in Anspruch genommen wird. Firmen, bei denen intern wie extern transferierte und gespeicherte Datenmenge starken Schwankungen unterliegen, können durch Cloud Computing hohe Investitionskosten vermeiden. Die Einrichtung einer großen (oft zeitweise brachliegenden) IT-Umgebung wird quasi überflüssig.

Mit Software-as-a-Service (SaaS), Platform-as-a-Service (PaaS) und Infrastructure-as-a-Service (IaaS) werden drei Service-Modelle, mit der Public Cloud, der Private Cloud, der Hybrid Cloud und der Community Cloud vier Bereitstellungsmodelle unterschieden.

Welchen Vorteil bringt die „Cloud“ einem Unternehmen?

Cloud Computing trägt einerseits dazu bei, die Investitionskosten in IT-Umgebungen zu reduzieren. Dabei handelt es sich aber nur um einen Bruchteil der Vorteile, die von der Cloud ausgehen. Viel wichtiger ist jedoch der ständige Zugriff auf State-of-the-Art Technologien und neue Services wie Artificial Intelligence. Etwas das innerhalb von selbst betriebenen On-Premise-Umgebungen nicht möglich ist. Weiterhin ist die Skalierbarkeit und Elastizität von Cloud Computing essentiell, um auf die wechselnden Marktbedingungen und Kundenanfragen flexibel reagieren zu können. Cloud-Services sollten zudem in die Business-Strategie mit eingezogen werden. Vor allem für diejenigen Unternehmen, die auch in anderen Ländermärkten als nur Deutschland aktiv sind oder international expandieren wollen. Cloud Computing erleichtert es, die globale Reichweite mit einfachen Mitteln zu erhöhen, da die großen Public Cloud-Anbieter mittlerweile in allen wichtigen Regionen weltweit mit lokalen Rechenzentren vor Ort sind.

Software-as-a-Service zählt zu den Low-Hanging Fruits im Cloud-Umfeld. Hiermit lässt sich prinzipiell auf jegliche Art von Software über den Browser zugreifen. Beliebte Lösungen, die Unternehmen bevorzugt einsetzen sind typischerweise Office, E-Mail und CRM. Aber auch ERP und HR-Lösungen werden zunehmend beliebter.

Platform-as-a-Service eigenen sich am besten für die Entwicklung von SaaS- und Cloud-Applikationen aber auch für die Cross-Integration zwischen verschiedenen Cloud-Lösungen (iPaaS).

Infrastructure-as-a-Service kommt bevorzugt für den Betrieb dynamischer Infrastrukturen zum Einsatz. Auf Grund des hohen Freiheitsgrades hinsichtlich Technologien und Konfigurationsmöglichkeiten ist IaaS derzeit aber weiterhin die bevorzugte Wahl, wenn es um die Entwicklung neuer digitaler Produkte, Software (SaaS) und Services geht.

Die „Cloud“ wurde in der Vergangenheit des Öfteren als Sicherheitsrisiko bezeichnet. Wie wird vermieden, dass die gespeicherten Daten nicht in falsche Hände gelangen?

Die Krux ist, geht es um das Thema Sicherheit, werden leider immer wieder zwei Begriffe vermischt, die grundsätzlich unterschieden werden müssen: Die Datensicherheit und der Datenschutz.

Datensicherheit bedeutet die technischen und organisatorischen Maßnahmen umzusetzen, um Vertraulichkeit, Verfügbarkeit und Integrität der IT-Systeme sicherzustellen. Public Cloud-Anbieter bieten weit mehr Sicherheit, als es sich ein deutsches mittelständisches Unternehmen leisten kann. Das hängt damit zusammen, dass Cloud-Anbieter gezielt in den Aufbau und die Wartung ihrer Cloud Infrastrukturen investieren und ebenfalls das dafür notwendige Personal beschäftigen und die entsprechenden organisatorischen Strukturen geschaffen haben. Hierzu werden jährlich Milliarden von US-Dollar in die Hand genommen. Es gibt nur wenige Unternehmen außerhalb der IT-Branche, die in ähnlicher Weise in IT-Sicherheit investieren können und wollen.

Beim Datenschutz geht es um den Schutz der Persönlichkeitsrechte während der Datenverarbeitung und den Schutz der Privatsphäre. Dieses Thema sorgt bei den meisten Unternehmen für die echten Kopfschmerzen. Denn beim Verstoß gegen das Bundesdatenschutzgesetz macht der Gesetzgeber kurzen Prozess. Es geht zunächst also darum, den Cloud-Anbieter für die Einhaltung der im §9 festgehaltenen Regeln im Bundesdatenschutzgesetz in die Verantwortung zu nehmen und dies selbst auf Basis von §11 zu überprüfen. Für die Erfüllung von §11 empfiehlt es sich auf die Gutachten von Wirtschaftsprüfern zurückzugreifen, da kein Anbieter jeden Kunden einzeln ein Audit durchführen lassen kann. Der Datenschutz ist ein absolut wichtiges Thema, schließlich handelt es sich dabei um sensibles Datenmaterial. Es ist aber in erster Linie ein rechtliches Thema, was durch Maßnahmen der Datensicherheit gewährleistet werden muss.

Welche Prozesse vereinfacht das Cloud Computing?

Cloud Computing vereinfacht nicht einen einzigen Prozess. Das ist ein fataler Trugschluss. Die Cloud macht alles nur noch schlimmer. Denn sie bringt jede Menge neuer Prozesse mit sich und stiftet, wenn man es genau nimmt, erst einmal Unordnung. Andererseits ist sie die notwendige Bedingung, um Innovationen zu schaffen. Schritt 1 ist deshalb: mit Cloud-Infrastruktur, die ihrerseits für die notwendige Integration sorgt, das richtige Fundament legen. Anschließend lassen sich darauf die ersehnten neuen Prozesse gestalten. Aber: Die Konfigurationsaufwände dafür sollte man tunlichst nicht unterschätzen. Und für Einsteiger ist es als Lernprozess sicher erst einmal besser, die „schnelle Ernte“ einzufahren und mit kleinen, schnell umsetzbaren Lösungen, etwa als Software-as-a-Service, zu beginnen.

Und auch wenn mittlerweile alle Berater den Weg in die Cloud vorschreiben, warne ich vor blindem Aktionismus. Es ist nicht zielführend, bei Prozessverbesserungen von der Technologieseite zu kommen, das kann nach hinten losgehen. Technologie kann Ideen bringen, keine Frage. Aber sie ist auch immer nur Mittel zum Zweck.

Welche Auswirkungen wird die digitale Welt in den nächsten zehn Jahren auf unsere Gesellschaft haben?

Die Digitalisierung ist in vollem Gange und wird vor keinem Bereich unserer Gesellschaft haltmachen. In Deutschland steht unsere Industrie derzeit zwar weltweit noch gut da. Doch im weltweiten Vergleich tut sich Deutschland insgesamt schwer oder ist gar dabei den Anschluss zu verpassen. Ein Grund: meiner Ansicht nach fehlt in Deutschland die Risikobereitschafft. Es wird ständig zu lange gewartet, bis Best Practices vorhanden sind. Dann wird diskutiert. Dann werden Probleme/ Ausreden und künstliche Hürden (Thema: Datenschutz) herbeigezaubert. Und wenn man sich dann durchgerungen hat etwas zu starten, ist es zu spät und die Marktanteile sind vergeben oder der Mitbewerb aus Übersee ist technologisch meilenweit entfernt.

Ein Nachzügler zu sein ist ja per se nichts Schlimmes. Das ist aber nur dann sinnvoll, wenn man als Copycat á la Samwer schlichtweg einen Exit sucht. Aber ernsthafte Innovationen schafft man anders…

Ich hoffe daher nur, das Deutschland beim Thema Artificial Intelligence nicht auch wieder den Anschluss verliert. Das ist technologisch als auch strategisch ein immens wichtiges Thema für jedes deutsche und europäische Unternehmen, um das bestehende Geschäftsmodell und die dazugehörigen Produkte und Services zu erweitern und den Kunden noch mehr in den Mittelpunkt des Interesses zu stellen. Als Kunden liefern wir Anbietern mittlerweile jede Menge Daten, die gewinnbringend für uns genutzt werden können, um uns einen besseren Service zu bieten.

Hinsichtlich Trends sollten man etwas im Blick behalten, was ich als “Digital Correlation” bezeichne. Denn Trends wie Cloud Computing, Artificial Intelligence, Internet of Things, Data Analytics, Fog Computing und Blockchain spielen sehr eng miteinander zusammen und würden ohne einen anderen Trend wohlmöglich gar nicht existieren.

Außerdem reicht es heute nicht mehr, einfach nur den nächsten Megatrend nachzulaufen. Das Gesamtbild ist entscheidend und wie man selbst daran partizipieren kann und sollte.

Das Interview ist am 20. Juli 2017 zuerst unter “René Büst im Interview” erschienen.


Figure: State-Of-The-Art IT Stack: Cloud Occupies Center Stage.

State-Of-The-Art IT Stack: Cloud Occupies Center Stage.


Digital. Cloud. AI-Driven. Die essentiellen Grundlagen für moderne Unternehmensstrategien

In der Geschäftsführung eines Unternehmens der Old Economy zu arbeiten ist derzeit nicht unbedingt ein angenehmer Job. Den Mitbewerb auf Distanz zu halten und gleichzeitig das bestehende Geschäftsmodell gegen die Internetgiganten wie Amazon, Google, Facebook & Co. zu verteidigen ist eine zähe Aufgabe. Hinzu kommt – soll ein Unternehmen nach digitalen Disziplinen geführt und mit der passenden Rüstung ausgestattet werden, geht es schlichtweg um die Umsetzung und nicht darum, ständig die Frage nach dem Warum zu stellen. Als ein unterstützendes Element werden moderne Unternehmensstrategien anhand eines „magischen Dreiecks“ aufgebaut, dessen Eckpunkte die notwendigen Grundlagen bilden: Sei digital. Nutze die Cloud. Profitiere von Artificial Intelligence (AI). In diesem Artikel wird das Dreieck im Detail entfaltet.

Digital: Einfach machen!

Zunächst, reden wir über Digitalisierung, dann sprechen wir von einer digitalen Evolution und nicht einer Transformation. Wir befinden uns innerhalb eines Digitalisierungsprozess, der vor über 40 Jahren gestartet wurde, als Intel mit seinem „Intel 4004“ erstmals einen Prozessor in Serie auf den Markt brachte und SAP, Microsoft und Apple gegründet wurden. In der Zwischenzeit finden sich PCs oder Macs in jedem Büro und die Nutzung mobiler Endgeräte steigt kontinuierlich an. Dennoch, auch nach über 40 Jahren ist bei weitem noch nicht jeder Prozess digitalisiert.

Die Digitalisierung setzt die Führungsetagen heutzutage insofern unter Druck, dass sie einerseits ihre bestehenden Geschäftsmodelle hinterfragen und sich neu erfinden müssen, um mit einem digitalisierten Unternehmen dem Wettbewerb gegenüberzutreten. Hierzu gehört es, den Kunden beharrlich in den Mittelpunkt des Interesses zu stellen. Denn, spricht man heute von Digitalisierung, bedeutet dies, den Vernetzungsgrad mit Kunden, Partnern und Lieferanten zu maximieren und anhand smarter Produkte und AI-Technologien alle Gruppen besser zu verstehen. Auf dieser Basis gilt es dann zu erkennen, welche Bedürfnisse existieren, um darauf proaktiv reagieren zu können. Hierbei sollten anhand von „Data Driven Apps“ so viele qualitative Daten wie möglich erhoben werden und diese am Ort des Geschehens (Digital Touchpoint) für Kunden, Partner und Lieferanten gewinnbringend einzusetzen, um damit die Digital User Experience zu erhöhen.

Tatsache ist, die Supply Chain muss zukünftig deutlich agiler sein, um im Wettbewerb bestehen zu können. Dabei geht es um Echtzeit. Im Bestfall werden Unternehmen schon eine Stunde vorher wissen, was der Kunde benötigen wird, sprich: Predictive Analytics wird immer wichtiger. Es gilt die Rüstzeiten von Unternehmen runterzufahren, Vernetzung über die gesamte Lieferkette zu erreichen und mit Hilfe der Cloud schnell skalieren zu können. Denn ein Fakt wird uns auch in der Industrie 4.0 begleiten: Märkte sind nicht vorhersehbar, deshalb müssen die Reaktionszeiten schneller werden.

Amazon ist das Paradebeispiel des digitalen Zeitalters. Als einfacher Webshop gestartet, würde Amazon derzeit nur noch ein eigenes Music-Label benötigen, um nahezu 100 Prozent der digitalen Güter Ende-zu-Ende zu kontrollieren. Amazon Video ist dafür nur ein Beispiel:

  • Amazon produziert eigene Filme und Serien (die bereits Golden Globes gewonnen haben)
  • Amazon betreibt seine eigene Infrastruktur, um Videos abzuspielen und auszuliefern (Amazon Web Services)
  • Amazon hat seine eigene Plattform, um Videos zu streamen (Amazon Video)
  • Amazon kontrolliert die Distributionskanäle anhand von Apps (Multi-OS) und eigener Geräte (Kindle)

Das Musterbeispiel der digitalen Evolution ist Vorkwerk’s Thermomix. Im Jahr 1972 auf dem Markt erschienen, wurde das Küchengerät über die vergangenen 40 Jahre kontinuierlich weiterentwickelt. In 2014 kam die derzeit aktuelle Version TM5 auf den Markt. Eines der wichtigsten Eigenschaften dieses Modells besteht im Einsatz digitaler Technologien. So ermöglicht der TM5 das sogenannte „Guided Cooking“ anhand von proprietären Speicherchips, auf welchen die für die jeweiligen Rezepte notwendigen Einstellungen und Kochinstruktionen gespeichert sind. Zudem wurden alle Knöpfe vorheriger Modelle entfernt und durch ein Touchdisplay ersetzt. Weiterhin ermöglicht eine mobile Applikation die wöchentliche (monatliche) Planung und kommuniziert mit dem Thermomix. Ein neues WLAN-Modul ersetzt die Speicherchips und verbindet den Thermomix mit der Webseite „Cookidoo“ über welche der Thermomix Zugriff auf Rezepte erhält. Vorwerk hat es geschafft, ein 40 Jahre altes Produkt ständig zu verbessern und sogar zu digitalisieren und hat somit verstanden, den Thermomix als Teil der digitalen Evolution anzupassen.

Ein weiteres gutes Beispiel der digitalen Evolution ist Tesla – das digitalisierte Auto. Meiner Meinung nach ist der tatsächliche Fortschritt eines Teslas nicht der elektrische Antrieb sondern der Software-Anteil – das Software-defined Car. Dies macht es für Tesla deutlich einfacher, neue Funktionen und dieselbe Software für jede physikalische Plattform auszurollen.

Fakt ist, dass die Geschäftsführung verinnerlichen muss, das ihr Unternehmen heute vollständig digital ausgerichtet sein sollte oder wie Forrester Analyst Glenn O` Donell twittert: “There actually is no such thing as #DigitalBusiness. It’s just Business. If it isn’t “Digital,” you are likely out of business!”

Cloud: Die essentielle Grundlage

Die Cloud ist einer der wichtigsten Treiber der digitalen Evolution. Nur mit dem Einsatz dynamisch agierender und global skalierbarer Infrastrukturen und Plattformen können Unternehmen ihre IT-Strategien an die sich ständig verändernde Marktbegebenheiten anpassen und die Unternehmensstrategie damit agiler unterstützen. Cloud-Infrastrukturen bilden ein solides Fundament, um die Digitalisierungsstrategien von Unternehmen jeder Größe zu unterstützen. Startups können dort langsam wachsen, ohne von Beginn an massiv in IT-Ressourcen zu investieren. Unternehmen erhalten damit eine der wichtigsten Eigenschaften, um in der digitalen Evolution ein Wort mitzureden: Geschwindigkeit. Eine Idee zu haben, ist nur der Anfang. Meistens scheitert der schnelle Go-to-Market an der technischen Umsetzung wegen nicht rasch genug verfügbarer IT-Ressourcen sowie dem Mangel an modernen Tools und Services, die bei der Entwicklung maßgeblich unterstützen können.

Cloud-Infrastrukturen und Plattformen ermöglichen es IT-Organisationen Agilität bereitzustellen und die Innovationsfähigkeit eines Unternehmens zu erhöhen. Hierzu zählen:

  • Zugriff auf State-of-the-art Technologien und höherwertige Services, um neue digitale Produkte und Dienste zu entwickeln.
  • Kostengünstige Entwicklung und Tests von PoCs.
  • Verbesserung der Customer Experience anhand der Entwicklung neuer kundenzentrierter Lösungen, um die Kundenbeziehung zu optimieren.
  • Engere Integration der gesamten Prozess- und Lieferkette innerhalb der Organisation sowie mit Partnern und Lieferanten.
  • Beschleunigung des Release-Zyklus (Continuous Development und Deployment)

Ein wichtiger Bestandteil besteht darin, dass Organisationen sich ausschließlich nicht auf ihren Heimatmarkt konzentrieren sollten. Getrieben durch die Globalisierung, welche ihren aktuellen Höhepunkt durch die Digitalisierung unserer Gesellschaft erreicht, muss Skalierbarkeit ebenfalls von einer globalen Perspektive betrachtet werden. Die Cloud ermöglicht den elastischen Betrieb von Infrastrukturen und unterstützt die globale Expansion auf eine einfache Art und Weise durch:

  • Flexibler Zugriff auf IT Ressourcen „ohne Limit“.
  • Nutzung der Infrastruktur nach Bedarf.
  • Vermeidung technischer Herausforderungen wie beispielsweise eine hohe Latenz.
  • Erfüllung lokaler rechtlicher Anforderungen im entsprechenden Zielmarkt.
  • Weltweite Erreichbarkeit von Kunden.

Als Teil digitaler Strategien wird die Cloud immer wichtiger. Sie dient als die ideale Basis für einen unkomplizierten Zugriff auf IT-Ressourcen und befähigt jede Organisation dazu, auf eine agile Art und Weise zu agieren. Als technologische Grundlage ist die Cloud ein Mittel zum Zweck und ermöglicht den Zugang zu permanenten Innovationen wie AI-Dienste.

AI-Driven: Die Zukunft für jedes digitale Unternehmen

Stellen Sie sich vor, dass jeder Prozess von einer AI gesteuert werden kann und wird. Denn mit einer AI lässt sicher jeder Prozess innerhalb eines Unternehmens automatisieren. Hierbei handelt es sich um einen wichtigen Aspekt auf dem Weg zu neuen Geschäftsmodellen, da eine AI-betriebene Organisation Unternehmen befähigt, finanzielle Ressourcen und Talent wesentlich effizienter einzusetzen.

AI ist der nächste logische Schritt nach der Cloud und profitiert gleichermaßen von deren Erfolg. Die Cloud ist der Antrieb aus einem technologischen Blickwinkel. Bei AI geht es um den Mehrwert für das Unternehmen und führt zu intelligenteren Anwendungen. Auf Basis komplexer Analysen verfeinern AI-Anwendungen im Hintergrund die Kundenansprache und passen Produkte und Dienste besser an die jeweiligen Bedürfnisse an.

Aber AI hilft ebenfalls dabei, IT-Umgebungen effizienter zu betreiben. Wie beispielsweise eine AI-defined Infrastructure, welche das existierende Wissen innerhalb des IT-Betriebs automatisch verwendet und nach einem gewissen Zeitraum die Infrastrukturumgebung eigenständig verwalten kann. Ein Anwendungsfall ist der autonome Betrieb eines AI-gestützten IT-Managementsystems, welches dabei hilft, Ausfälle von Public Cloud-Anbietern zu vermeiden. Unterm Strich macht eine AI bzw. eine AI-defined Infrastructure den Betrieb einer Cloud-Umgebung intelligenter und damit effizienter.

Als Teil der Digitalstrategie befähigt eine AI Unternehmen, ihren Geschäftsbetrieb und dessen Abläufe zu verbessern – u.a. durch:

  • Ein verbessertes Verständnis ihrer Kunden anhand von Interaktionen und des Verhaltens aus der Vergangenheit.
  • Eine neuartige Bedienung von Applikationen durch die Veränderung der Kundeninteraktion von der Tastatur- hin zur Spracheingabe.
  • Eine tiefergehende Kundenbeziehung anhand von “Advanced Virtual Assistants”, welche das Kundenerlebnis verbessern.
  • Kundenspezifische Produkte und Dienstleistungen angepasst an die Kundenanforderungen.
  • Vorhersagen durch Analysen von Kundendaten, -interaktionen und -verhalten aus der Vergangenheit und in Echtzeit.
  • Gesprächiger zu sein, anhand “Smart Personal Assistants” und Bots.
  • Erweiterung bestehender Produkte, Dienste, Anwendungen und Prozesse.

Eines sollte jedoch nicht vergessen werden. Bei AI geht es nicht nur darum, existierende Prozesse zu verbessern. In den kommenden 5 bis 10 Jahren wird AI zum Game Changer werden! Sie wird Innovationszyklen beschleunigen und zu neuen Geschäftsmodellen führen. AI-Anwendungen besitzen bereits heute den notwendigen Reifegrad, um die Effizienz einzelner Prozesse zu erhöhen. Allerdings sollte AI nicht ausschließlich aus einem operativen Blinkwinkel (Verbesserung der Effizienz) betrachtet werden, sondern ebenfalls eine strategische Sichtweise erhalten, um technische Möglichkeiten für neue Applikationen und Anwendungsfälle zu evaluieren. Und damit einen echten Mehrwert für Kunden, Partner sowie die eigenen Mitarbeiter schaffen.

Digitale Disziplinen

Digitale Technologien wie AI, Cloud Computing, Internet of Things (IoT) und Blockchain sind die Basis für Innovationen und neue Geschäftsmodelle. Sie verändern heutige Spielregeln und Gesetze und werden damit für eine fortlaufende Disruption innerhalb und über Industrien hinweg sorgen. Ein Teil des digitalen Strategie-Mix besteht daher darin, den Kunden in den unmittelbaren Mittelpunkt des Interesses zu stellen, auf die Bedürfnisse einzugehen und die Kundenerwartungen damit ständig zu erhöhen. Digital Customer Engagement und Kundenservice als USP? Ja, Amazon, Google, Netflix, Uber und Airbnb sind nur ein paar erfolgreiche Beispiele dafür.

Unterm Strich ist es egal, in welcher Industrie man sich als ein Unternehmen befindet. Es geht darum, auf Augenhöhe mit aktuellen Technologien und Trends zu sein. Selbst dann, wenn man derzeit keinen Einfluss spüren mag. Hierzu gehört es, ein Verständnis für bestimmte Technologien zu entwickeln und zu evaluieren, was diese für das bestehende Geschäftsmodell bedeuten oder ob sie zu einer Gefahr werden können, die das Unternehmen negativ beeinflussen.