Categories
Analysen

Artificial Intelligence als Teil der Unternehmensstrategie: In Sieben Schritten zum AI-enabled Enterprise

Nach zwei Dekaden sammeln Plattform-Unternehmen ungehindert Unmengen an Daten, um ihre Datenbanken mit Informationen über jedermanns Wissen, Meinungen, Empfehlungen, Orte, Bewegungen, Kaufverhalten, Beziehungsstatus, Lebensstil usw. zu bereichern. Das ist kein Geheimnis und schon gar nichts Neues. Und geht es um Artificial Intelligence (AI), lässt sich festhalten, dass auch hier die Plattform-Unternehmen die Nase vorn haben. Sie haben die Bedeutung schon vor vielen Jahren erkannt und investieren gezielt enormes Kapital in die Forschung und Entwicklung sowie Akquisition von AI-Technologien. Leider unterschätzen die meisten Geschäftsführer, welche Auswirkungen diese Entwicklungen auf die Zukunftsfähigkeit ihres Unternehmens haben. Insbesondere Unternehmen aus der Old Economy werden dabei zu den großen Verlierern gehören. Dieser Artikel erläutert die Kräfte die aktuell von den Plattform-Unternehmen ausgehen und warum Unternehmen eine General AI-Strategie benötigen, um ihren IT-Betrieb und andere Geschäftsprozesse autonom zu betreiben.

Herausforderungen der Old Economy

Heutzutage stehen Unternehmen der Old Economy gleich mehreren Herausforderungen gegenüber. Dazu gehören der oft zitierte War for Talent oder die Unfähigkeit großer Unternehmen, sich nicht schnell genug den dynamischen Marktbedingungen anpassen zu können. Aber es existiert eine weitere oft unterschätze Bedrohung – der Wettbewerb. Allerdings nicht der Wettbewerb aus dem eigenen Wirkungskreis, sondern von High-Tech Unternehmen, die unaufhaltsam in alle Märkte und Industrien einmarschieren. Diese sogenannten Plattform-Unternehmen, genauer Google, Amazon, Facebook, Alibaba, Baidu, Tencent usw., dringen mit unvorstellbaren finanziellen Mitteln in die bekannten Wettbewerbsbereiche ein und kapern den Lebenszyklus der Kundenbeziehungen. Dies führt dazu, das Unternehmen der Old Economy überzeugende Antworten finden müssen, wenn sie ihren Fortbestand sichern wollen. Die folgenden drei Bedrohungen gehen von den Plattform-Unternehmen aus:

Die Möglichkeit, Geld zu verbrennen

Plattform-Unternehmen stehen große finanzielle Mittel zur Verfügung, welche sie investieren, ohne Budgets großartig priorisieren zu müssen. Das Geld setzen sie schlichtweg dafür ein, um zu experimentieren. Im Vergleich dazu steht Unternehmen aus der Old Economy nur ein kleiner finanzieller Spielraum zur Verfügung, den sie nutzen können, um zu investieren bzw. um zu spielen. Das hängt damit zusammen, dass sie ständig dem Druck durch externe Stakeholder wie dem Kapitalmarkt, Aktionären, Kunden usw. ausgesetzt sind.

Stellen Sie sich bspw. vor, dass ein Pharma-Riese wie Pfizer aus den USA oder Bayer aus Deutschland ein neues Mittel zur Krebsbekämpfung entwickelt wollen und hierfür 500 Millionen US-Dollar in dieses Abenteuer investieren. Nun, dieses Projekt muss funktionieren. Andernfalls werden die CEOs beider Unternehmen höchstwahrscheinlich noch am selben Tag gefeuert und der Aktienkurs fällt um mindestens 30 Prozent, wenn das Projekt scheitert. Warum? Weil das Kerngeschäft von Pfizer und Bayer die Forschung & Entwicklung (F&E) von Medikamenten ist. Das bedeutet, dass jeder Dollar, der von beiden in F&E investiert wird, einen direkten Einfluss auf das Kerngeschäft hat.

Nun stellen Sie sich vor, dass ein Plattform-Unternehmen wie Google oder Alibaba exakt dasselbe machen würde. Ein Medikament entwickeln, um Krebs zu bekämpfen. Ebenfalls mit einem Projektvolumen von 500 Millionen US-Dollar. Was würde passieren, wenn das Projekt scheitert? Nun, das wäre eine ganz andere Geschichte. Jack Ma von Alibaba würde sich vor die Finanzanalysten und andere Stakeholder stellen und etwa folgendes sagen: „Wir haben versucht Krebs zu heilen. Wir haben versagt. Wir haben 500 Millionen US-Dollar verbrannt. ABER, wir werden aus unseren Fehlern lernen und wir werden es weiter versuchen!“. Ma würde als Held dargestellt werden. Schließlich liegt Alibabas Kerngeschäft nicht darin, ein Pharma-Unternehmen zu sein, sondern Güter über einen Webshop zu vertreiben. Und dennoch „opfert“ sich Alibaba auf, um eine Lösung gegen Krebs zu finden. Hinzu kommt, dass die gemachten Fehler keinen Einfluss auf das eigene Kerngeschäft hatten. Ähnlich verhält es sich bei Google (Internetsuche und Werbung (98 Prozent von Alphabets Umsatz kommen aus Werbeeinnahmen) oder Amazon (Webshop).

Allerdings ist der Zugang zu Geld nur die eine Seite der Medaille. Denn viel wichtiger ist die Einstellung. Plattform-Unternehmen haben die Fähigkeit und die Einstellung, das Risiko einzugehen, Geld „zu verbrennen“. Etwas, was Unternehmen aus der Old Economy fehlt. Nehmen Sie sich einfach mal Jeff Bezos als Musterbeispiel. Anstatt ständig die Shareholder mit Dividenden zu befriedigen reinvestiert Bezos konsequent den Großteil der Erträge in F&E (16,1 Milliarden US-Dollar im Jahr 2016) und lässt Amazon experimentieren. Zum Vergleich, Bayer hat im Jahr 2016 nur 5,2 Milliarden US-Dollar in F&E investiert.

Die Strategie, direkte Kundenbeziehungen zu kapern

Plattform-Unternehmen kapern die direkten Beziehungen zwischen den Unternehmen der Old Economy und deren Kunden. In der Vergangenheit hat eine Marke seine direkten Kundenbeziehungen aufgebaut und gepflegt, indem Kunden über mehrere Kanäle wie den Einzelhandel, kundenspezifische Werbung oder e-Commerce erreicht wurden. Über diese Form von Plattformen waren Marken in der Lage, Kunden so zu beeinflussen, dass diese ihre Produkte und Dienstleistungen kauften. Allerdings war es der Kunde, er sich die entsprechende Plattform (Kanäle) ausgesucht hat, um die Güter und Dienstleistungen zu kaufen.

Heute wandert der Point of Sale verstärkt in die Plattformen von Unternehmen wie Google, Amazon, Alibaba oder Facebook. Und dies insbesondere deswegen, da jeder Social Media Berater den Ratschlag gibt, mit Kunden über Facebook anzubandeln, auf Google Werbung zu schalten und Produkte über Amazon oder Alibaba zu vertreiben. Von einer Seite betrachtet ist dieser Ratschlag völlig richtig. Schließlich erreicht man über die genannten Plattformen ein viel größeres Zielpublikum. Schaut man jedoch aus einer anderen Perspektive auf den Hinweis, lässt er Social Media Berater als alles andere dastehen als gute Freunde. Warum? Nun, wenn Sie sich dazu entscheiden, ihre Marketing- und Vertriebsaktivitäten zu einem Plattform-Unternehmen zu verlagern, dann verlieren Sie unmittelbar die direkte Kundenbeziehung. Sie erhalten möglicherweise von Facebook, Google, Amazon & Co. ein paar Daten und Analysen, aber sie verlieren die viel wertvollere direkte Beziehung zu Ihren Kunden. Eine Konsequenz daraus besteht darin, dass sich ein Kunde (möglicherweise einer Ihrer existierenden Kunden) damit auf einer Plattform mit AI-Assistent befindet. Sie denken nun vermutlich “Na und?”. Nun, in einem Interview mit „The Drum“ erklärt Alibabas Principal Engineer Rong Jin, dass Alibaba AI-Technologien einsetzt, um Produktempfehlungen zu verbessern und dabei hilft, exakt die Phasen im Einkaufsprozess zu identifizieren, um den Kunden bei seiner finalen Kaufentscheidung zu beeinflussen. Zudem setzt Alibaba auf AI, um für jeden Kunden ein maßgeschneidertes Einkaufserlebnis und zielgerichtetes Marketing für Marken zu schaffen. Jin erwähnt dabei ebenfalls, dass AI-Technologien das Geschäft von Alibaba in der Zukunft verändern werden, indem sämtliche Daten, die über das Unternehmen hinweg entstehen, besser zu verknüpfen, um die Kunden besser zu verstehen und somit deren Einkaufsprozess zu optimieren.

Somit wird eine Plattform (die AI-Technologien einsetzt) alles Mögliche tun, den Kunden zu befriedigen, um ihn am Verlassen oder Wechseln zu hindern. Hierzu wählt die Plattform (AI-Technologie) Güter und Dienstleistungen aus einem Pool von Marken, die zu den Anforderungen des Kunden passen. Dies ist gut für den Kunden und die Plattform, alarmierend für Unternehmen aus der Old Economy, da die Marke selbst potentiell in den Hintergrund rückt.

Die Macht, unendliche Datenmengen zu sammeln um eine General AI zu entwickeln

Plattform-Unternehmen sammeln unendliche Mengen an Daten und erstellen auf dieser Basis ihre eigenen General AIs. Eine General AI kann Aufgaben aus unterschiedlichen Bereichen handhaben. Hierfür wendet sie Erfahrungen, welche sie in einem Bereich gesammelt hat, in einem anderen Bereich an. Damit ist sie in der Lage schneller zu lernen. Allerdings ist der dafür notwendige Wissenstransfer nur möglich, wenn eine semantische Verbindung zwischen den unterschiedlichen Bereichen existiert. Und je stärker diese Verbindung ist, desto schneller lässt sich der Übergang des Wissens vornehmen.

Für den Aufbau ihrer General AIs folgen Plattform-Unternehmen dem Quidproquo Prinzip. Endkunden geben ihre Daten und Wissen an die Plattformen und erhalten im Gegenzug kostenlos Zugriff auf die angebotenen Services. Intelligent Private Assistants wie Amazon Echo oder Google Home sind der nächste Evolutionsschritt. Sie lassen sich einsetzen, um Smart-Home-Lösungen zu steuern oder unser Leben einfacher zu gestalten, indem wir unsere Stimme nutzen. Diese technologische Entwicklung zeigt uns eine wichtige Erkenntnis: Amazon, Google & Co finden neue Wege, um uns über andere Kanäle an sich zu binden. Sie sammeln Daten und Informationen, die sie benötigen, um bessere Entscheidungen zu treffen und uns bessere Antworten zu liefern. Die Absicht dahinter ist klar: Jeder von uns wird schlichtweg dafür genutzt, um die AI-Systeme auf einer täglichen Basis zu trainieren. Das bedeutet, dass alle Services, die Google & Co. ihren Kunden anbieten, letztlich dazu dienen, ihre General AIs zu bauen, die auf den gesammelten Daten basieren.

Im Gespräch mit „The Drum“ geht Rong Jin exakt auf diese Thematik ein, indem er erläutert, dass Datenanalysen und Pattern Matching Alibaba dabei helfen, Datenmodelle auf andere Bereiche anzuwenden, die über das eCommerce-Geschäft hinausgehen. So hat Alibaba angefangen, seine AI-Technologie zu nutzen, um andere Geschäftsbereiche wie Finanzen, Versand, Gesundheitswesen und Entertainment aufzurüsten und zu verknüpfen. Und das ist nichts anderes, als die Entwicklung einer General AI.

Plattform-Unternehmen nutzen diese General AIs für disruptive Ansätze und stellen damit eine Gefahr für Unternehmen aus der Old Economy dar. Hinzu kommt, dass ausschließlich die Plattform-Unternehmen Zugriff auf ihre General AIs besitzen und Dritten keinen Zugriff gewähren.

AI ist die mächtigste Lösung, um diese Gefahren zu bewältigen

Eine starke Marke, hervorragende Dienstleistungen und Innovationen sind die Grundvoraussetzungen, um im Kampf mit Plattform-Unternehmen zu überleben. Der Wandel hin zu einem exponentiellen Geschäftsmodell ist allerdings die einzige Möglichkeit, um erfolgreich gegen Unternehmen anzutreten, die bereits exponentiell agieren. Hinzu kommt, dass Plattform-Unternehmen nicht zurückhaltend agieren. Sie starten direkt mit der Disruption von milliardenschweren Industrien wie das Gesundheitswesen, den Finanzsektor, den Telekommunikations-, Logistik- oder Energiebereich.

AI ist eine der Lösungen – möglicherweise die Einzige – mit denen Unternehmen aus der Old Economy sich gegen diesen Wettbewerb entgegenstemmen können. Hierzu können sie auf das stärkste Mittel zurückgreifen, was Unternehmen aus der Old Economy besitzen: ihre langjährigen Erfahrungen. In Kombination mit einer General AI können Unternehmen jeden Prozess organisationsweit autonom betreiben, während sie ihr Wissen behalten und ihre Daten und Erfahrungen gewinnbringend einsetzen.

Hierfür benötigt die Old Economy einen eigenen unabhängigen Plattform-Ansatz, da jedes einzelne Unternehmen selbst zu wenig Daten besitzt, die notwendig sind, um eine eigene General AI zu bauen. Der Zugang zu dieser Form von General AI-Plattform hilft ihnen dabei, die Erfahrungen und das geistige Eigentum (IP) zu multiplizieren und voneinander zu lernen. Auch wenn die AI Zugriff auf einen vollumfänglichen Daten-Pool benötigt, müssen die individuellen Daten sowie die IP und die Erfahrungen stets unter der vollen Kontrolle des einzelnen Unternehmens liegen. Dafür ist eine unabhängige dritte Instanz notwendig, welche die Daten sicher organisiert und semantisch in Verbindung setzt. Die folgende Strategie zeigt, wie Unternehmen aus der Old Economy diesen Ansatz umsetzen können:

  1. Ein Unternehmen sammelt sämtliche Daten, die innerhalb der Organisation existieren.
  2. Die Daten werden an eine unabhängige und sichere Plattform übergeben, welche einen geteilten Daten-Pool für die Old Economy betreibt.
  3. Im Gegenzug erhält das Unternehmen Zugriff auf den geteilten Daten-Pool, in welchem Daten gesammelt und semantisch organisiert werden.
  4. Das Unternehmen nutzt die Daten und die notwendige Technologie, um eine eigene General AI für die Organisation zu entwickeln.
  5. Das auf der General AI basierende Ergebnis: Neue Geschäftsmodelle, Angebote, Services, etc.
  6. Die Daten, welche aus den neuen Geschäftsmodellen, Angeboten und Services resultieren, wandern anschließend wieder in den geteilten Daten-Pool.

Mit diesem Ansatz werden Unternehmen in die Lage versetzt, eine AI zu betreiben, ihr Wissen und Daten zu nutzen und ihre Erfahrungen autonom ausführbar zu machen. Im gleichen Zuge behalten sie ihre IP und schaffen Werte basierend auf ihren Erfahrungen.

AI-enabled Enterprise: Jeder Prozess kann und wird von einer AI betrieben werden

Heute lässt sich mit einer AI alles automatisieren, was als ein Prozess beschrieben werden kann. Das bedeutet, dass die Einführung einer AI zu höheren Automatisierungsraten führt, mit denen sich Kosten senken lassen und mehr Zeit für Mitarbeiter übrigbleibt, um diese für strategische Themen einzusetzen. Der Einsatz einer AI führt also zu mehr freien Kapital und Zeit, was ein Unternehmen dazu befähigt, sich mit innovativen Dingen zu beschäftigen. Stellen Sie sich auf Ihrer Reise zu neuen Geschäftsmodellen also vor, was sie mit dem frei werdenden Kapital und ihren Mitarbeitern anstellen können, wenn Ihre Unternehmensprozesse größtenteils von einer AI übernommen werden. Die folgenden sieben Schritte helfen Ihrem Unternehmen dabei, ein „AI-enabled Enterprise“ zu werden:

  1. Erstellen Sie eine semantische Karte aller Daten innerhalb Ihres Unternehmens: Akzeptieren Sie einen kontinuierlichen Datenfluss als Grundlage für Ihre zukünftige Strategie.
  2. Beginnen Sie mit der autonomen Automation Ihres IT-Betriebs: Die Automatisierung des IT-Betriebs führt unmittelbar zu einem Mehrwert durch die AI und hilft dabei, alle Daten zu sammeln, die im Unternehmen in digitaler Form existieren.
  3. Überdenken Sie Ihre Strategie: Denken Sie hierbei in neuen (exponentiellen) Geschäftsmodellen.
  4. Schulen Sie Ihre gesamte Organisation Top-Down: Schulen und Bereiten Sie Ihre Organisation darauf vor, sich zu einem AI-enabled Enterprise zu verändern und akzeptieren Sie neue Geschäftsmodelle.
  5. Erweitern Sie den autonomen Betrieb auf andere Geschäftsprozesse: Mit der Nutzung des Unternehmenswissen anhand der IT-Automation lassen sich fortwährend immer mehr Prozesse autonom betreiben.
  6. Setzen Sie auf Predictive Analytics: Nutzen Sie die Daten aus Ihrer semantischen Karte, um Ihre Geschäftsprozesse und zukünftigen Planungen zu optimieren und zu beschleunigen.
  7. Berücksichtigen Sie Data-Driven Prozesse: Nutzen Sie Ihre Daten und AI, um ergebnisorientierte Prozesse zu entwickeln. Lassen Sie sich Vorschläge von der AI unterbreiten.

Sämtliche Daten die bereits im Unternehmen existieren und in Zukunft gesammelt werden, finden sich am Ende in der IT-Umgebung wieder – gespeichert in Applikationen, Datenbanken oder Speichersystemen. Daher sollte eine AI von Beginn an in der IT-Umgebung eingebunden werden, da die IT den technischen Kern eines jedes Unternehmens bildet und dort alle relevanten Informationen durchlaufen. Die IT erzeugt einen regelmäßigen Datenfluss der sich sehr gut als statistische Grundlage für das semantische Mapping von Informationen einsetzen lässt. Im Laufe der Zeit kann ein Unternehmen darüber mehr über seine Organisation und den Markt lernen.

Viel wichtiger ist allerdings, dass Sie aus Ihrer Komfortzone kommen – Ihrem aktuellen Geschäftsmodell und der Industrie, in der Ihr Unternehmen derzeit aktiv ist! Es macht überhaupt keinen Sinn, wenn Sie ein Medienunternehmen sind und einfach nur etwas „Neues“ für die Medienindustrie entwickeln. Sie müssen industrieübergreifend denken und etwas entwickeln, dass für Ihre Kunden einen ergänzenden Zusatznutzen bietet und damit für Ihr Unternehmen eine neue Industrie erschließt.

Kleiner Hinweis: Amazon war mal ein Webshop. Mittlerweile hat das Unternehmen mehrere Geschäftseinheiten, die in unterschiedlichen Industrien aktiv sind. Zudem versucht Amazon durch Experimente zu wachsen und probiert einfach aus, was potentiell funktionieren könnte.

Categories
Analysen Cloud Computing @de

AI wird zum Game Changer in der Public Cloud

Ohne Cloud Computing wäre der aktuelle Hype um Artificial Intelligence (AI) nicht möglich. Erst der leichte Zugang zu Cloud-basierten innovativen AI-Services (Machine Learning etc.) und die dafür notwendige und schnell zur Verfügung stehende Rechenleistung, ermöglichen die Entwicklung neuer „intelligenter“ Produkte, Services und Geschäftsmodelle. Gleichzeitig sorgen AI-Services für weiteres Wachstum bei den Public Cloud-Anbietern Amazon Web Services, Microsoft und Google.

Cloud Computing hat sich in den vergangenen 10 Jahren zu einem ertragreichen Geschäft für Anbieter wie Amazon Web Services oder Microsoft entwickelt. Doch der Wettbewerb wird durch Nachzügler wie Google und Alibaba immer stärker. Mit der massiven Einführung von AI-bezogenen Cloud-Services haben die Anbieter den Wettbewerbsdruck selbst nochmal einmal erhöht, um die Attraktivität bei den Kunden zu erhöhen.

Die Cloud stützt AI… und umgekehrt

Für kleine und mittelständische Unternehmen kann der Aufbau von performanten und skalierbaren AI-Systemen schnell zu einer teuren Angelegenheit werden. Schließlich benötigt das Training von Algorithmen und der spätere Betrieb der entsprechenden Analytics-Systeme Unmengen an Rechenleistung. Im eigenen Keller, Serverraum oder Rechenzentrum ist es unmöglich die dafür benötigte Rechenkraft rechtzeitig und punktgenau bereitzustellen. Welche, nebenbei bemerkt, anschließend in der Regel nicht mehr benötigt wird.

Begibt man sich in die Sphären von Amazon, Microsoft oder Google, haben alle drei in den vergangenen Jahren riesige Mengen an Rechenleistung aufgebaut und besitzen gleichermaßen einen großen Anteil an der 40 Milliarden Dollar schweren Cloud Computing Industrie. Für alle drei handelt es sich bei der Erweiterung ihrer Portfolios mit AI-Services um den nächsten logischen Schritt in der Cloud. Einerseits, da die Entwicklung von AI-Anwendungen bzw. die intelligente Erweiterung von bestehenden Anwendungen den leichten Zugang zu Rechenleistung, Daten, Konnektivität aber vor allem additive Platform-Services erfordert. Andererseits, um die Attraktivität bei Bestandskunden zu erhalten und Neukunden zu gewinnen, welche immer stärker nach einfach zugänglichen Lösungen suchen, um AI in ihre Anwendungen und Geschäftsmodelle zu integrieren.

Amazon Web Services

Amazon mit Amazon Web Services (AWS) ist nicht nur Cloud-Pionier und Innovationstreiber, sondern weiterhin mit Abstand der Marktführer im weltweiten Public Cloud Markt. Auf Grund seiner Skalierbarkeit und dem umfangreichen Angebot an Platform-Services ist AWS derzeit die führende Cloud-Umgebung für die Entwicklung und der Bereitstellung von Cloud- und AI-Anwendungen. Im Rahmen der vergangenen re:Invent präsentierte AWS unter anderem Amazon Cloud 9 (durch Akquisition von Cloud9 IDE Inc. im Juli 2016), eine Cloud-basierte Entwicklungsumgebung, welche direkt in die AWS Cloud-Plattform integriert ist, um Cloud-native Anwendungen zu entwickeln. Weiterhin wurden sechs „Machine Learning as a Service“ (MLaaS) Dienste angekündigt, u.a. ein Videoanalyseservice sowie ein NLP-Service und ein Übersetzungsservice. Zudem bietet AWS mit MXNet, Lex, Rekognition und SageMaker mächtige Services für die einfache Entwicklung von AI-Anwendungen. Insbesondere SageMaker gilt Beachtung zu schenken, mit welchem sich der gesamte Lebenszyklus einer Machine Learning-Anwendungen steuern lässt. Wie bei allen Cloud-Services verfolgt AWS allerdings auch im AI-Bereich den Lock-In-Ansatz. Alle AI-Services sind sehr eng mit der AWS-Umgebung verzahnt, um sicherzustellen, dass AWS nach der Entwicklung der AI-Lösungen auch die Plattform für deren späteren Betrieb bleibt.

Auch hinsichtlich der Strategie bleibt Amazon seinem Erfolgsmodell treu. Nachdem Amazon die Technologien hinter seiner massiv skalierbaren eCommerce-Plattform als Services via AWS der Öffentlichkeit zur Verfügung gestellt hat, folgen nun z.B. die Technologien hinter Alexa, damit Kunden eigene Chatbot oder Sprachassistenten in Ihre Angebote integrieren können.

Microsoft

Auf Grund seiner breiten Kundenbasis im Unternehmensumfeld und seinem umfassenden Portfolio an Cloud- und AI-Services hat Microsoft grundsätzlich gute Voraussetzungen, sich auch im AI-Umfeld als eine führende Größe zu etablieren. Insbesondere durch das umfangreiche Angebot an Produktivitäts- und Geschäftsprozesslösungen stehen für Microsoft die Zeichen gut, um bei Unternehmensanwendern oben auf der Agenda zu stehen.

Microsoft steckt mit Produkten wie Windows, Office 365 oder Dynamics 365 mitten im digitalen Ökosystem vieler Unternehmen weltweit. Und damit genau an einem Punkt, wo sich exakt die Daten befinden bzw. Datenflüsse stattfinden, die genutzt werden können, um Machine Learning Algorithmen zu trainieren und Neuronale Netze aufzubauen. Microsoft Azure ist der zentrale Hub wo am Ende alles zusammenläuft und die dafür notwendigen Cloud-basierten AI-Services zur Verfügung stehen, um die AI-Strategie umzusetzen.

Google

Was die Cloud betrifft, hängt Google weiter hinter AWS und Microsoft hinterher. Allerdings könnte AI hier zum Game Changer werden. Vergleicht man zwar aktuell Googles AI-Service-Portfolio mit dem von AWS und Microsoft, dann lässt sich festhalten, dass Google der Laggard unter den innovativen Anbietern von Public Cloud- und AI-Services ist. Vor allem, wenn man Googles AI-Investitionen von 3,9 Milliarden US-Dollar betrachtet. Im Vergleich dazu hat Amazon bisher nur 871 Millionen US-Dollar und Microsoft nur 690 Millionen US-Dollar in AI investiert. Bei Google mangelt es halt an der konsequenten Exekution.

Aber! Google hat bereits weltweit über 1 Million AI-Nutzer (überwiegend durch die Akquisition der Data Science Community „Kaggle“) und besitzt extrem viel AI-Know-How (u.a. durch die Akquisition von „DeepMind“). Zudem gilt Google unter Entwicklern als die leistungsstärkste AI-Plattform mit den fortgeschrittensten AI-Tools. Zudem ist TensorFlow die führende AI-Engine und für Entwickler die wichtigste AI-Plattform, mit welcher schon zahlreiche AI-Projekte umgesetzt wurden. Weiterhin hat Google mit den Tensor Processing Units (TPUs) eigene Prozessorchips entwickelt, die speziell für den Einsatz mit TensorFlow abgestimmt sind. Mit Cloud AutoML hat Google erst kürzlich einen MLaaS-Dienst angekündigt, mit dem auch unerfahrene Machine Learning Entwickler eigene Deep Learning Modelle bauen können.

Wenn man sich dann noch vor Augen hält, wo Google u.a. mit dem Android OS seine Finger im Spiel hat (z.B. Smartphones, Haushaltsgeräte, Smart Home oder Autos), wird das Potenzial der AI-Services auf der Google Cloud Platform deutlich sichtbar. Der einzige Wehrmutstropfen besteht – weiterhin – darin, dass Google nur Entwickler bedienen kann. Der ausschlaggebende Zugang zu Unternehmen, wie Microsoft ihn besitzt, fehlt immer noch.

AI wird der Game Changer in der Public Cloud

Der Markt für AI-Plattformen und AI-Services befinden sich derzeit noch in der Anfangsphase. Doch mit dem wachsenden Bedarf, ihren Kunden intelligente Produkte und Services anbieten zu wollen, werden Unternehmen dazu übergehen, sich Unterstützung zu suchen. Und Fakt ist, dass nur der leichte Zugang zu Cloud-basierten AI-Services und die dafür notwendige und schnell zur Verfügung stehende Rechenleistung, die Entwicklung neuer „intelligenter“ Produkte, Services und Geschäftsmodelle ermöglicht. Für Unternehmen macht es daher keinen Sinn, AI-Systeme In-House aufzubauen, da sich diese dort u.a. nicht performant und skalierbar betreiben lassen. Zudem sollte der Zugriff auf die Endgeräte und die weltweit verteilten Daten, die ausgewertet werden müssen, nicht vernachlässigt werden. Das ist nur durch weltweit skalierte und gut vernetzte Cloud-Plattformen möglich.

Für die Anbieter könnte AI zum Game Changer in der Public Cloud werden. Nachdem AWS und Microsoft das Feld anführen, hat es Google bis heute dort nicht geschafft, signifikant Boden gut zu machen. Mit seinem AI-Portfolio könnte sich das aber ändern. Vor allem TensorFlow und die Beliebtheit und Entwicklern spielt Google dabei in die Karten. Aber hier sind AWS und Microsoft bereits auf der Hut und gehen sogar gemeinsam dagegen vor. Mit „Gluon“ haben beide zusammen eine Open-Source Deep Learning Bibliothek entwickelt, die sehr ähnlich funktioniert wie TensorFlow. Zudem muss man AWS und Microsoft zusprechen, dass sie ein breites Angebot von AI-Engines (Frameworks) unterstützen und eben nicht nur TensorFlow.

Ob Google damit AWS einholen wird, das bleibt zu bezweifeln. Aber Microsoft könnte schnell den Atem zu spüren bekommen. Für Microsoft wird es ausschlaggebend sein, wie schnell Unternehmenskunden von dem AI-Service-Portfolio überzeugt werden können und ob währenddessen das Verständnis vermittelt wird, andere Microsoft Produkte und Services (z.B. Azure IoT) in die AI-Strategie mit einfließen zu lassen. Amazon wird mit seiner dualen Strategie, dem Fokus auf Entwickler und Unternehmen, den Public Cloud-Markt auch weiterhin anführen und die Heimat für all diejenigen – insbesondere Cloud-nativen – AI-Nutzer sein, die nicht ausschließlich TensorFlow einsetzen wollen. Hinzu kommt die große und auf Innovationen ausgerichtete Kundenbasis, die zu verstehen weiß, welcher Nutzen von AI-Services ausgeht.

Categories
Analysen

Alles über Mesh Computing

Sowohl Cloud Computing als auch das Internet of Things (IoT) gelten als die beiden zentralen Technologietrends der letzten Dekade. Insbesondere das IoT hat in den vergangenen fünf Jahren ein großes Wachstum zu verzeichnen und wird als heiliger Gral der industriellen Revolution betrachtet. Und es ist kein Ende in Sicht. Im Durchschnitt ergeben Schätzungen, dass bis zum Jahr 2020 etwa 13 Milliarden „Dinge“ nur für das IoT auf dem Markt erscheinen werden. Angesichts dieser Menge an Objekten steigen die Bedenken, ob das Internet als Medium überhaupt noch dafür geeignet ist, um die Masse an Daten, die von den Objekten erzeugt und übertragen werden, performant genug zu handhaben.

Ein aus diesen Herausforderungen entstandener Technologietrend ist das Fog Computing. Es soll dabei helfen, die verteilten Daten näher an die Endgeräte und IoT-Objekte zu transportieren und dabei die Latenz und Anzahl der dafür benötigten Hops zu verringern, um z.B. Mobile Computing und Datendienste dadurch besser zu unterstützen. Dennoch bleibt das Internet der zentrale Ankerpunkt, um die Dinge bzw. Objekte untereinander zu verbinden. Es stellt sich die Frage, ob das unterbunden werden kann und ob das IoT ohne das Internet funktionieren kann.

Aus diesen Überlegungen heraus, stärken sich derzeit Diskussionen um das Mesh Computing, eine Netzwerktopologie, die das Internet nicht benötigt, um Daten zu übertragen. Dadurch wäre es potentiell möglich, die Abhängigkeiten des IoT und anderer Systeme zum Internet zu verringern.

Was ist Mesh Computing?

Mesh Computing bzw. Mesh Networking ist eine Netzwerktopologie, bei welcher jeder Host/ Node (Infrastrukturkomponente) direkt miteinander verbunden ist. Das Internet wird für den Datenaustausch nicht benötigt. Die Kommunikation erfolgt direkt zwischen einer größtmöglichen Anzahl von Hosts, die miteinander zusammenarbeiten, um Daten effizient zwischen den Hosts auszutauschen. Hierfür wird entweder Flooding oder Routing eingesetzt. Während des Flooding wird ein eingehendes Netzwerkpaket an jeden ausgehenden Port weitergeleitet, außer an denjenigen, von welchem es ursprünglich gekommen ist. Beim Routing erhält das Netzwerkpaket vorab Informationen für den Pfad (von Node zu Node) zum endgültigen Ziel. Um sicherzustellen, dass ein Netzwerkpaket ständig einen verfügbaren Pfad zum Ziel findet, sind Mesh Networks in der Lage, sich dynamisch selbst neu zu organisieren und hierfür selbst zu konfigurieren. Es geht hierbei also um eine Selbstheilung, um defekte Pfade zu umgehen. Damit ist ein Netzwerk ziemlich zuverlässig aufgebaut, da mehr als ein Pfad zwischen Start und Ziel existiert. Die Fähigkeit, sich selbst neu zu konfigurieren erlaubt es zudem, Workloads dynamisch zu verteilen, insbesondere dann, wenn ein Node unvorhergesehen ausfällt.


Quelle: specmeters.com

Was sind die Vorteile von Mesh Computing?

Mit dem Einsatz lokaler autonomer Meshing-Verfahren lässt sich die Effizienz eines Netzwerks verbessern. Daten von IoT-Geräten wie Thermostate, Haushaltsgeräte und anderer vernetzter Geräte im Haushalt lassen Daten nun direkt und ohne Internetverbindung untereinander austauschen. Da hierfür keine Verbindung zur Cloud notwendig ist, um Daten zu speichern, werden damit Sicherheitsbedenken verringert.

Ein defekter Node beeinträchtigt die Datenübertragung innerhalb eines Mesh Networks nicht. Jeder Node ist mit einer Vielzahl anderer Nodes verbunden, was es einfacher macht, Daten zu übertragen. So wird bspw. ein defektes Gerät von dem Netzwerk ignoriert und der nächstmögliche Node genutzt. Hinzu kommt, dass ein weiteres Gerät, welches dem Netzwerk hinzugefügt wird, keinen Einfluss auf die Netzwerkkonnektivität hat. Im Gegenteil, es wird dafür sorgen, den Verkehr innerhalb des Netzwerks zu verbessern, indem Routing-Algorithmen plötzlich mehr Möglichkeiten besitzen, um Datenpakete effizienter zu vermitteln. Damit kann ein Mesh Network einen hohen Netzwerkverkehr handhaben, da jedes einzelne Gerät als Node betrachtet wird. Im Netzwerk zusammengeschaltete Geräte können zeitgleich Daten übertragen und die Netzwerkverbindungen dabei nicht beeinflussen.

Was sind Anwendungsbeispiele für Mesh Computing?

Betrachtet man Mesh Networks konkret aus dem Blinkwinkel des Mesh Computing, liegen just in diesem Moment Unmengen an CPU- und GPU-Rechenleistungen weltweit ungenutzt, die für unterschiedliche Zwecke verwendet werden können. Hierzu gehören:

  • Machine Learning: Die Algorithmen und dafür notwendigen Datensätze lassen sich über eine nahezu unendliche Anzahl von Nodes weltweit verteilen und verarbeiten.
  • Wissenschaftliche Forschung: Die parallele Verarbeitung von Datensätzen lässt sich über viele Computer verteilen ohne einen Supercomputer zu nutzen.
  • Verteilte Applikationen: In Kombination mit dem Mesh Networking Konzept lassen sich fehlertolerante und hochskalierbare Applikationen entwickeln und verteilt betreiben.
  • Internet of Things: Jedes Endgerät kann Teil eines Edge Netzwerks werden, um Daten zu sammeln und zu analysieren, ohne dafür eine neue Infrastruktur aufzubauen.
  • Graphikverarbeitung: Rendering Jobs für Bilder und Filme können auf mehrere verteilte Computer ausgelagert werden.
  • Mining von Kryptowährung: Jede Art von System, sei es ein nicht genutzter Spiele-PC, ein Server oder eine gewöhnliche Workstation, lässt sich für das Mining von Kryptowährungen einsetzen.

Ein Unternehmen, was Mesh Computing aktiv verfolgt ist Computes.com, welches eine dezentrale Mesh Computing Platform für Unternehmen und Non-Profit Organisationen entwickelt hat. Computes möchte ein Gegengewicht zum Cloud Computing darstellen und es Unternehmen ermöglichen, die Rechenleistung ihrer vorhandenen Computer zu nutzen, anstatt in „traditionelle“ Cloud Computing Lösung zu investieren. Eine Non-Profit Organisation, die bereits auf Mesh Computing von Computes.com setzt, ist die University of Wisconsins, im Rahmen ihrer Forschung gegen Parkinson.

Computes CEO Chris Matthieu scheint sich zudem mit den Herausforderungen hinsichtlich Datensicherheit und Datenschutz im Kontext des Mesh Computing beschäftigt zu haben und nennt hierbei Stichworte wie Crypto, Encryption, Containers und Sandbox.

Wir dürfen gespannt sein.

Eine Randnotiz zu Mesh Computing

Der Ansatz des Mesh Computing kommt dem einen oder anderen sicherlich bekannt vor. Und in der Tat sieht es dem SETI@home (Suche nach Außerirdischen) oder dem Folding@home (Krebsforschung) Projekten sehr ähnlich. Zur Auswertung der riesigen Datenmengen benötigen die Projekte selbst wenig eigene Rechenleistung. Stattdessen werden die Workloads an die Computer der SETI@home/ Folding@home Projektteilnehmer ausgelagert. Hierzu gehören u.a. auch Unternehmen wie Intel und Sun, die SETI@home mit Rechenleistung und Spenden unterstützen.

Categories
Analysen

Digital. Cloud. AI-Driven. Die essentiellen Grundlagen für moderne Unternehmensstrategien

In der Geschäftsführung eines Unternehmens der Old Economy zu arbeiten ist derzeit nicht unbedingt ein angenehmer Job. Den Mitbewerb auf Distanz zu halten und gleichzeitig das bestehende Geschäftsmodell gegen die Internetgiganten wie Amazon, Google, Facebook & Co. zu verteidigen ist eine zähe Aufgabe. Hinzu kommt – soll ein Unternehmen nach digitalen Disziplinen geführt und mit der passenden Rüstung ausgestattet werden, geht es schlichtweg um die Umsetzung und nicht darum, ständig die Frage nach dem Warum zu stellen. Als ein unterstützendes Element werden moderne Unternehmensstrategien anhand eines „magischen Dreiecks“ aufgebaut, dessen Eckpunkte die notwendigen Grundlagen bilden: Sei digital. Nutze die Cloud. Profitiere von Artificial Intelligence (AI). In diesem Artikel wird das Dreieck im Detail entfaltet.

Digital: Einfach machen!

Zunächst, reden wir über Digitalisierung, dann sprechen wir von einer digitalen Evolution und nicht einer Transformation. Wir befinden uns innerhalb eines Digitalisierungsprozess, der vor über 40 Jahren gestartet wurde, als Intel mit seinem „Intel 4004“ erstmals einen Prozessor in Serie auf den Markt brachte und SAP, Microsoft und Apple gegründet wurden. In der Zwischenzeit finden sich PCs oder Macs in jedem Büro und die Nutzung mobiler Endgeräte steigt kontinuierlich an. Dennoch, auch nach über 40 Jahren ist bei weitem noch nicht jeder Prozess digitalisiert.

Die Digitalisierung setzt die Führungsetagen heutzutage insofern unter Druck, dass sie einerseits ihre bestehenden Geschäftsmodelle hinterfragen und sich neu erfinden müssen, um mit einem digitalisierten Unternehmen dem Wettbewerb gegenüberzutreten. Hierzu gehört es, den Kunden beharrlich in den Mittelpunkt des Interesses zu stellen. Denn, spricht man heute von Digitalisierung, bedeutet dies, den Vernetzungsgrad mit Kunden, Partnern und Lieferanten zu maximieren und anhand smarter Produkte und AI-Technologien alle Gruppen besser zu verstehen. Auf dieser Basis gilt es dann zu erkennen, welche Bedürfnisse existieren, um darauf proaktiv reagieren zu können. Hierbei sollten anhand von „Data Driven Apps“ so viele qualitative Daten wie möglich erhoben werden und diese am Ort des Geschehens (Digital Touchpoint) für Kunden, Partner und Lieferanten gewinnbringend einzusetzen, um damit die Digital User Experience zu erhöhen.

Tatsache ist, die Supply Chain muss zukünftig deutlich agiler sein, um im Wettbewerb bestehen zu können. Dabei geht es um Echtzeit. Im Bestfall werden Unternehmen schon eine Stunde vorher wissen, was der Kunde benötigen wird, sprich: Predictive Analytics wird immer wichtiger. Es gilt die Rüstzeiten von Unternehmen runterzufahren, Vernetzung über die gesamte Lieferkette zu erreichen und mit Hilfe der Cloud schnell skalieren zu können. Denn ein Fakt wird uns auch in der Industrie 4.0 begleiten: Märkte sind nicht vorhersehbar, deshalb müssen die Reaktionszeiten schneller werden.

Amazon ist das Paradebeispiel des digitalen Zeitalters. Als einfacher Webshop gestartet, würde Amazon derzeit nur noch ein eigenes Music-Label benötigen, um nahezu 100 Prozent der digitalen Güter Ende-zu-Ende zu kontrollieren. Amazon Video ist dafür nur ein Beispiel:

  • Amazon produziert eigene Filme und Serien (die bereits Golden Globes gewonnen haben)
  • Amazon betreibt seine eigene Infrastruktur, um Videos abzuspielen und auszuliefern (Amazon Web Services)
  • Amazon hat seine eigene Plattform, um Videos zu streamen (Amazon Video)
  • Amazon kontrolliert die Distributionskanäle anhand von Apps (Multi-OS) und eigener Geräte (Kindle)

Das Musterbeispiel der digitalen Evolution ist Vorkwerk’s Thermomix. Im Jahr 1972 auf dem Markt erschienen, wurde das Küchengerät über die vergangenen 40 Jahre kontinuierlich weiterentwickelt. In 2014 kam die derzeit aktuelle Version TM5 auf den Markt. Eines der wichtigsten Eigenschaften dieses Modells besteht im Einsatz digitaler Technologien. So ermöglicht der TM5 das sogenannte „Guided Cooking“ anhand von proprietären Speicherchips, auf welchen die für die jeweiligen Rezepte notwendigen Einstellungen und Kochinstruktionen gespeichert sind. Zudem wurden alle Knöpfe vorheriger Modelle entfernt und durch ein Touchdisplay ersetzt. Weiterhin ermöglicht eine mobile Applikation die wöchentliche (monatliche) Planung und kommuniziert mit dem Thermomix. Ein neues WLAN-Modul ersetzt die Speicherchips und verbindet den Thermomix mit der Webseite „Cookidoo“ über welche der Thermomix Zugriff auf Rezepte erhält. Vorwerk hat es geschafft, ein 40 Jahre altes Produkt ständig zu verbessern und sogar zu digitalisieren und hat somit verstanden, den Thermomix als Teil der digitalen Evolution anzupassen.

Ein weiteres gutes Beispiel der digitalen Evolution ist Tesla – das digitalisierte Auto. Meiner Meinung nach ist der tatsächliche Fortschritt eines Teslas nicht der elektrische Antrieb sondern der Software-Anteil – das Software-defined Car. Dies macht es für Tesla deutlich einfacher, neue Funktionen und dieselbe Software für jede physikalische Plattform auszurollen.

Fakt ist, dass die Geschäftsführung verinnerlichen muss, das ihr Unternehmen heute vollständig digital ausgerichtet sein sollte oder wie Forrester Analyst Glenn O` Donell twittert: “There actually is no such thing as #DigitalBusiness. It’s just Business. If it isn’t “Digital,” you are likely out of business!”

Cloud: Die essentielle Grundlage

Die Cloud ist einer der wichtigsten Treiber der digitalen Evolution. Nur mit dem Einsatz dynamisch agierender und global skalierbarer Infrastrukturen und Plattformen können Unternehmen ihre IT-Strategien an die sich ständig verändernde Marktbegebenheiten anpassen und die Unternehmensstrategie damit agiler unterstützen. Cloud-Infrastrukturen bilden ein solides Fundament, um die Digitalisierungsstrategien von Unternehmen jeder Größe zu unterstützen. Startups können dort langsam wachsen, ohne von Beginn an massiv in IT-Ressourcen zu investieren. Unternehmen erhalten damit eine der wichtigsten Eigenschaften, um in der digitalen Evolution ein Wort mitzureden: Geschwindigkeit. Eine Idee zu haben, ist nur der Anfang. Meistens scheitert der schnelle Go-to-Market an der technischen Umsetzung wegen nicht rasch genug verfügbarer IT-Ressourcen sowie dem Mangel an modernen Tools und Services, die bei der Entwicklung maßgeblich unterstützen können.

Cloud-Infrastrukturen und Plattformen ermöglichen es IT-Organisationen Agilität bereitzustellen und die Innovationsfähigkeit eines Unternehmens zu erhöhen. Hierzu zählen:

  • Zugriff auf State-of-the-art Technologien und höherwertige Services, um neue digitale Produkte und Dienste zu entwickeln.
  • Kostengünstige Entwicklung und Tests von PoCs.
  • Verbesserung der Customer Experience anhand der Entwicklung neuer kundenzentrierter Lösungen, um die Kundenbeziehung zu optimieren.
  • Engere Integration der gesamten Prozess- und Lieferkette innerhalb der Organisation sowie mit Partnern und Lieferanten.
  • Beschleunigung des Release-Zyklus (Continuous Development und Deployment)

Ein wichtiger Bestandteil besteht darin, dass Organisationen sich ausschließlich nicht auf ihren Heimatmarkt konzentrieren sollten. Getrieben durch die Globalisierung, welche ihren aktuellen Höhepunkt durch die Digitalisierung unserer Gesellschaft erreicht, muss Skalierbarkeit ebenfalls von einer globalen Perspektive betrachtet werden. Die Cloud ermöglicht den elastischen Betrieb von Infrastrukturen und unterstützt die globale Expansion auf eine einfache Art und Weise durch:

  • Flexibler Zugriff auf IT Ressourcen „ohne Limit“.
  • Nutzung der Infrastruktur nach Bedarf.
  • Vermeidung technischer Herausforderungen wie beispielsweise eine hohe Latenz.
  • Erfüllung lokaler rechtlicher Anforderungen im entsprechenden Zielmarkt.
  • Weltweite Erreichbarkeit von Kunden.

Als Teil digitaler Strategien wird die Cloud immer wichtiger. Sie dient als die ideale Basis für einen unkomplizierten Zugriff auf IT-Ressourcen und befähigt jede Organisation dazu, auf eine agile Art und Weise zu agieren. Als technologische Grundlage ist die Cloud ein Mittel zum Zweck und ermöglicht den Zugang zu permanenten Innovationen wie AI-Dienste.

AI-Driven: Die Zukunft für jedes digitale Unternehmen

Stellen Sie sich vor, dass jeder Prozess von einer AI gesteuert werden kann und wird. Denn mit einer AI lässt sicher jeder Prozess innerhalb eines Unternehmens automatisieren. Hierbei handelt es sich um einen wichtigen Aspekt auf dem Weg zu neuen Geschäftsmodellen, da eine AI-betriebene Organisation Unternehmen befähigt, finanzielle Ressourcen und Talent wesentlich effizienter einzusetzen.

AI ist der nächste logische Schritt nach der Cloud und profitiert gleichermaßen von deren Erfolg. Die Cloud ist der Antrieb aus einem technologischen Blickwinkel. Bei AI geht es um den Mehrwert für das Unternehmen und führt zu intelligenteren Anwendungen. Auf Basis komplexer Analysen verfeinern AI-Anwendungen im Hintergrund die Kundenansprache und passen Produkte und Dienste besser an die jeweiligen Bedürfnisse an.

Aber AI hilft ebenfalls dabei, IT-Umgebungen effizienter zu betreiben. Wie beispielsweise eine AI-defined Infrastructure, welche das existierende Wissen innerhalb des IT-Betriebs automatisch verwendet und nach einem gewissen Zeitraum die Infrastrukturumgebung eigenständig verwalten kann. Ein Anwendungsfall ist der autonome Betrieb eines AI-gestützten IT-Managementsystems, welches dabei hilft, Ausfälle von Public Cloud-Anbietern zu vermeiden. Unterm Strich macht eine AI bzw. eine AI-defined Infrastructure den Betrieb einer Cloud-Umgebung intelligenter und damit effizienter.

Als Teil der Digitalstrategie befähigt eine AI Unternehmen, ihren Geschäftsbetrieb und dessen Abläufe zu verbessern – u.a. durch:

  • Ein verbessertes Verständnis ihrer Kunden anhand von Interaktionen und des Verhaltens aus der Vergangenheit.
  • Eine neuartige Bedienung von Applikationen durch die Veränderung der Kundeninteraktion von der Tastatur- hin zur Spracheingabe.
  • Eine tiefergehende Kundenbeziehung anhand von “Advanced Virtual Assistants”, welche das Kundenerlebnis verbessern.
  • Kundenspezifische Produkte und Dienstleistungen angepasst an die Kundenanforderungen.
  • Vorhersagen durch Analysen von Kundendaten, -interaktionen und -verhalten aus der Vergangenheit und in Echtzeit.
  • Gesprächiger zu sein, anhand “Smart Personal Assistants” und Bots.
  • Erweiterung bestehender Produkte, Dienste, Anwendungen und Prozesse.

Eines sollte jedoch nicht vergessen werden. Bei AI geht es nicht nur darum, existierende Prozesse zu verbessern. In den kommenden 5 bis 10 Jahren wird AI zum Game Changer werden! Sie wird Innovationszyklen beschleunigen und zu neuen Geschäftsmodellen führen. AI-Anwendungen besitzen bereits heute den notwendigen Reifegrad, um die Effizienz einzelner Prozesse zu erhöhen. Allerdings sollte AI nicht ausschließlich aus einem operativen Blinkwinkel (Verbesserung der Effizienz) betrachtet werden, sondern ebenfalls eine strategische Sichtweise erhalten, um technische Möglichkeiten für neue Applikationen und Anwendungsfälle zu evaluieren. Und damit einen echten Mehrwert für Kunden, Partner sowie die eigenen Mitarbeiter schaffen.

Digitale Disziplinen

Digitale Technologien wie AI, Cloud Computing, Internet of Things (IoT) und Blockchain sind die Basis für Innovationen und neue Geschäftsmodelle. Sie verändern heutige Spielregeln und Gesetze und werden damit für eine fortlaufende Disruption innerhalb und über Industrien hinweg sorgen. Ein Teil des digitalen Strategie-Mix besteht daher darin, den Kunden in den unmittelbaren Mittelpunkt des Interesses zu stellen, auf die Bedürfnisse einzugehen und die Kundenerwartungen damit ständig zu erhöhen. Digital Customer Engagement und Kundenservice als USP? Ja, Amazon, Google, Netflix, Uber und Airbnb sind nur ein paar erfolgreiche Beispiele dafür.

Unterm Strich ist es egal, in welcher Industrie man sich als ein Unternehmen befindet. Es geht darum, auf Augenhöhe mit aktuellen Technologien und Trends zu sein. Selbst dann, wenn man derzeit keinen Einfluss spüren mag. Hierzu gehört es, ein Verständnis für bestimmte Technologien zu entwickeln und zu evaluieren, was diese für das bestehende Geschäftsmodell bedeuten oder ob sie zu einer Gefahr werden können, die das Unternehmen negativ beeinflussen.

Categories
Analysen Uncategorized

Fressen oder gefressen werden: Herzlich Willkommen im Hotel California der Artificial Intelligence

Im Jahr 1977 haben die Eagles „Hotel California“ veröffentlicht. Einen Song über Drogen und die Auswirkungen einer Abhängigkeit auf Menschen. Setzen wir die Textpassage “We are all just prisoners here, of our own device” in den Kontext unseres heutigen digitalen Lebensstils, finden wir darin jede Menge Wahrheit. Es gibt gute Gründe, warum uns Google den Großteil seiner Dienste kostenlos zur Verfügung stellt, oder warum Amazon will, dass jeder von uns ein Echo zu Hause hat, oder warum Facebook zum Verzeichnis unserer „Freunde“ geworden ist. Was im ersten Moment sehr praktisch erscheinen mag ist eine Gefahr. Es ist eine Gefahr für die Endverbraucher aber auch eine Gefahr für renommierte Unternehmen – in Neudeutsch auch als Old Economy bezeichnet. Und auch wenn wir auschecken können, wann immer wir wollen – wir werden niemals gehen.

Das Festmahl der Datenkraken

Nach nun mehr zwei Dekaden sammeln die Internet Giganten – Amazon, Google, Facebook, Alibaba und Baidu – weiterhin Tonnen an Daten, um ihre Datenbanken mit Informationen von jedermanns Wissen, Meinungen, Empfehlungen, Aufenthaltsorte, Bewegungen, Kaufverhalten, Beziehungsstatus, Lebensstile usw. zu befüllen. Dabei handelt es sich um kein Geheimnis und neu ist dieser Zustand schon gar nicht. Zudem ist auch kein Ende in Sicht. Ganz im Gegenteil. Fast jeden Monat erscheinen neue Dienste oder Endgeräte, um für ein besseres Nutzererlebnis zu sorgen, unser Leben bequemer zu machen und unsere Dosis der digitalen Abhängig zu erhöhen.

Amazon, Google, Facebook und Co. sind in unserem Leben allgegenwärtig geworden. Und Dank des Internet of Things wird die Lücke zwischen unserem analogen und digitalen Leben ständig kleiner. Nachdem die Internet Giganten eine gewaltige Menge an Diensten bereitgestellt haben, um uns an den Web-Haken beziehungsweise den Endgeräte-Haken – anhand von Smartphones und Tablets – zu bekommen, machen sie es sich nun in unserem zu Hause bequem.

Smart Home Lösungen wie Nest, Tado oder Netatmo sind nur der Anfang einer neuen Art von Geräteklasse, die zu den Augen in unseren privaten Umgebungen werden, welche zuvor nicht mit dem Internet verbunden waren und hierüber in die Greifarme von Google & Co gelangen. Intelligente Private Assistenten wie Amazon Echo oder Google Home sind der nächste Evolutionsschritt, die genutzt werden können, um Smart Home Lösungen zu steuern oder unser Leben einfacher machen, indem wir unsere Stimme nutzen. Kleine Randbemerkung: Wir sollten das Wort „Intelligent“ in diesem Zusammenhang mit Vorsicht verwenden, da es sich bei den Kommandos über vordefinierte Skripte handelt. Außerdem muss ich ehrlich sagen, dass ich nicht den Eindruck habe, das weder Apple’s Siri noch Amazon’s Alexa (die Artificial Intelligence (AI) Engine hinter Echo) derzeit von meinen Interaktionen lernen.

Jedoch zeigt uns diese technologische Entwicklung eine wichtige Erkenntnis: Amazon, Google & Co finden neue Wege, um uns über andere Kanäle an sich zu binden. Darüber Daten, Informationen und Wissen zu sammeln, welche sie benötigen, um bessere Entscheidungen zu treffen und uns bessere Antworten zu liefern. Hierfür verfolgen sie einen ganz klaren Zweck. Jeder von uns wird schlichtweg dafür genutzt, um deren Artificial Intelligence auf einer täglichen Basis zu trainieren. Das bedeutet, dass alle Services, welche Google & Co. Ihren Kunden anbieten, das Ziel verfolgen, eine Landkarte der Welt zu zeichnen, die auf den gesammelten Daten basiert.

Auswirkungen auf den Endverbraucher: Komfort im Hamsterrad

Endverbraucher können sich im Grunde genommen nicht beschweren. Getreu dem Motto „Quid pro quo“, stellen insbesondere Google und Facebook ihre Dienste kostenlos zur Verfügung und nehmen dafür Daten als Gegenleistung. Hierbei spielt ihnen die digitale Sucht perfekt in die Karten. Endverbraucher haben in das “Hotel California” eingecheckt. Und auch wenn sie jeder Zeit wieder auschecken können, stellt sich die Frage, wollen sie gehen?

Die tragische Antwort auf diese Frage ist nein. Befindet man sich erst einmal in dieser Spirale ist es sehr schwierig oder gar unmöglich sie zu verlassen. Der Grund besteht darin, dass alles digitalisiert wird. Unsere Gesellschaft wird an einen Punkt gelangen, an dem nichts mehr ohne digitale Dienste funktionieren wird. Man könnte auch sagen, dass eine Person, die digital nicht existiert, überhaupt nicht mehr existiert. Und indem das Nutzererlebnis ständig angenehmer wird, muss niemand ein Technologie-Experte mehr sein. Dies macht den Einzug in die „Hotel California“ Falle nur noch schlimmer, da die Mehrheit unserer Gesellschaft überhaupt nicht weiß, wie welche Dinge miteinander verknüpft sind, was technologisch im Hintergrund vor sich geht, geschweige denn was gerade wirklich passiert. Komfort im Hamsterrad.

Unterm Strich liefert das Hamsterrad alle unsere Daten, welche die Grundlage für den Erfolg von Google & Co. bilden und als Waffen gegen die renommierten Unternehmen eingesetzt werden.

Auswirkungen auf renommierte Unternehmen: Verändern, Innovationen schaffen oder Sterben

Der sarkastische Teil dieser Geschichte besteht darin, dass jeder von uns Google & Co. bei ihrem Kampf gegen die Old Economy unterstützt, sogar die Old Economy selbst. Unternehmen der Old Economy sind ebenfalls zu den Kunden der Internet Giganten geworden. Aus einem guten Grund. In den meisten Fällen macht es keinen Sinn mehr, eine eigene IT-Infrastruktur oder Dienste in eigenen Umgebungen zu betreiben. Oder es ist einfach zu teuer, innovative Dienste selbst zu entwickeln, die bereits von Amazon, Google & Co. entwickelt wurden. Allerdings befinden sich renommierte Unternehmen in einem Teufelskreis. Denn auch wenn sie weiterhin die Besitzer ihre Daten sind – aus einer rechtlichen Perspektive – bedeutet dies nicht, dass sie der exklusive Besitzer des Wissens sind, welches aus diesen Daten entsteht.

Daten und Erkenntnisse aus Daten sind die Grundlage, auf welcher die Internet Giganten Teile ihres Geschäfts aufgebaut haben. Sie arbeiten mit Daten und monetisieren diese. Allerdings handelt es sich dabei nur um einen Teil einer großen Maschinerie, wie die Internet Giganten funktionieren. Aber dieser eine Teil gibt ihnen die Macht, quasi jedes funktionierende Geschäftsmodell der Old Economy anzugreifen. Amazon ist nur ein Beispiel, das bereits damit begonnen hat, die Zwischenhändler in der eigenen Lieferkette aus dem Weg zu räumen. Wir können sicher sein, dass Unternehmen wie DHL, UPS oder FedEx in Zukunft ihre Geschäfte anders machen werden als heute – Hinweis: Amazon Prime Air. Weiterhin hat Amazon alles in die Wege geleitet, um ein vollständiger Ende-zu-Ende Anbieter von Gütern zu werden. Digital wie auch nicht Digital.

Geht es um Artificial Intelligence – die Internet Giganten umarmen diese Technologie vollständig. Allerdings unterschätzen immer noch viel zu viele Führungskräfte, welche Auswirkungen dies auf ihr eigenes Unternehmen haben wird. Zur selben Zeit investieren die Internet Giganten in hohem Maße in Artificial Intelligence. Und insbesondere die Unternehmen der Old Economy werden zu den großen Verlierern in diesem Spiel gehören.

Categories
Analysen Uncategorized

Amazon Web Services legt Teile des Internets lahm – Eine AI-defined Infrastructure kann dabei helfen, Ausfälle in der Cloud zu vermeiden

Wieder einmal haben Amazon Web Services (AWS) das Internet kaputt gemacht oder besser „ein Tippfehler“. Am 28. Februar 2017 hat ein Ausfall von Amazon S3 in AWS’ ältester Cloud-Region US-EAST-1 zahlreiche bekannte Webseiten und Services vom Internet getrennt, darunter Slack, Trello, Quora, Business Insider, Coursera und Time Inc. Andere Nutzer berichteten zudem, dass sie nicht in der Lage waren, Endgeräte zu steuern, die mit dem Internet of Things verbunden waren, da das IFTTT ebenfalls von dem Ausfall betroffen war. Wie man sieht, werden diese Art von Ausfällen zu einer zunehmenden Bedrohung für unsere digitale Ökonomie. Um solchen Situationen vorzubeugen, sollten Cloud-Nutzer ständig das Shared-Responsibility Modell der Public Cloud berücksichtigen. Allerdings existieren ebenfalls Mittel und Wege, wie eine Artificial Intelligence (AI) dabei helfen kann. Dieser Artikel beschreibt, wie eine AI-defined Infrastructure bzw. eine AI-powered IT-Managementlösung dabei helfen kann, Ausfälle von Public Cloud-Anbietern zu vermeiden.

Der Amazon S3 Ausfall – Was war passiert?

Nach einem Ausfall veröffentlicht AWS immer eine Zusammenfassung der entstandenen Probleme, damit nachvollzogen werden kann, was passiert ist. Der nachfolgende Abschnitt beschreibt im Original die Ereignisse am Morgen des 28. Februar.

Weitere Informationen finden sich unter “Summary of the Amazon S3 Service Disruption in the Northern Virginia (US-EAST-1) Region”.

“The Amazon Simple Storage Service (S3) team was debugging an issue causing the S3 billing system to progress more slowly than expected. At 9:37AM PST, an authorized S3 team member using an established playbook executed a command which was intended to remove a small number of servers for one of the S3 subsystems that is used by the S3 billing process. Unfortunately, one of the inputs to the command was entered incorrectly and a larger set of servers was removed than intended. The servers that were inadvertently removed supported two other S3 subsystems.  One of these subsystems, the index subsystem, manages the metadata and location information of all S3 objects in the region. This subsystem is necessary to serve all GET, LIST, PUT, and DELETE requests. The second subsystem, the placement subsystem, manages allocation of new storage and requires the index subsystem to be functioning properly to correctly operate. The placement subsystem is used during PUT requests to allocate storage for new objects. Removing a significant portion of the capacity caused each of these systems to require a full restart. While these subsystems were being restarted, S3 was unable to service requests. Other AWS services in the US-EAST-1 Region that rely on S3 for storage, including the S3 console, Amazon Elastic Compute Cloud (EC2) new instance launches, Amazon Elastic Block Store (EBS) volumes (when data was needed from a S3 snapshot), and AWS Lambda were also impacted while the S3 APIs were unavailable.”

Unterm Strich lässt sich also sagen, dass ein „Tippfehler“ das AWS-angetriebene Internet in die Knie gezwungen hat. AWS-Ausfälle haben eine lange Geschichte und je mehr AWS-Kunden ihre Web-Infrastrukturen auf dem Cloud-Giganten betreiben, desto mehr Probleme werden Endkunden in der Zukunft erleben. Laut SimilarTech wird alleine nur Amazon S3 bereits schon von 152,123 Webseiten und 124,577 und Domains eingesetzt.

Folgt man allerdings der “Everything fails all the time“ Philosophie von Amazon.com CTO Werner Vogels, muss jeder AWS-Kunde das Konzept des “Design for Failure” berücksichtigen. Etwas, welches Cloud-Pionier und –Vorbild Netflix in Perfektion beherrscht. Als Teil davon hat Netflix beispielsweise seine Simian Army entwickelt. Eine Open-Source Toolbox, die jeder nutzen kann, um seine Cloud-Infrastruktur auf AWS hochverfügbar zu betreiben.

Netflix setzt hierzu „ganz simpel“ auf die beiden Redundanz-Ebenen die AWS bietet: Multiple Regions und Multiple Availability Zones (AZ). Multiple Regions sind die Meisterklasse, wenn man AWS einsetzt. Sehr kompliziert und anspruchsvoll, da hierbei autarke Infrastrukturumgebungen innerhalb der weltweit verteilten AWS Cloud-Infrastruktur voneinander isoliert aufgebaut und betrieben werden und im Ausnahmefall gegenseitig den Betrieb übernehmen. Multiple AZs sind der bevorzugte und „einfachste“ Weg, um Hochverfügbarkeit (HA) auf AWS zu erreichen. In diesem Fall wird die Infrastruktur in mehr als einem AWS-Rechenzentrum (AZ) aufgebaut. Hierzu wird eine einzige HA-Architektur in mindestens zwei – am besten mehr – AZs bereitgestellt. Ein Load-Balancer sorgt anschließend für die Steuerung des Datenverkehrs.

Auch wenn „Tippfehler“ nicht passieren sollten, zeigt der letzte Ausfall erneut, dass menschliche Fehler weiterhin zu den größten Problemen während des Betriebs von IT-Systemen gehören. Hinzu kommt, dass man AWS nur bis zu einem gewissen Grad die Schuld geben kann. Schließlich existiert in der Public Cloud die Shared-Responsibility.

Shared Responsibility in der Public Cloud

Ein entscheidendes Detail der Public Cloud ist das Self-Service-Modell. Die Anbieter zeigen sich, je nach ihrer DNA, nur für bestimmte Bereiche verantwortlich. Für den Rest ist der Kunde selbst zuständig.

In der Public Cloud geht es also um die Aufteilung von Verantwortlichkeiten – auch als Shared-Responsibility – bezeichnet. Anbieter und Kunde teilen sich die Aufgabenbereiche untereinander auf. Die Eigenverantwortung des Kunden spielt dabei eine zentrale Rolle. Im Rahmen der IaaS-Nutzung ist der Anbieter für den Betrieb und die Sicherheit der physikalischen Umgebung zuständig, hierbei kümmert er sich um:

  • den Aufbau der Rechenzentrumsinfrastruktur,
  • die Bereitstellung von Rechenleistung, Speicherplatz, Netzwerk und einige Managed Services wie Datenbanken und gegebenenfalls andere Microservices,
  • die Bereitstellung der Virtualisierungsschicht, über die der Kunde zu jeder Zeit virtuelle Ressourcen anfordern kann,
  • das Bereitstellen von Services und Tools, mit denen der Kunde seine Aufgabenbereiche erledigen kann.

Der Kunde ist für den Betrieb und die Sicherheit der logischen Umgebung verantwortlich. Hierzu gehören:

  • der Aufbau der virtuellen Infrastruktur,
  • die Installation der Betriebssysteme,
  • die Konfiguration des Netzwerks und der Firewall-Einstellungen,
  • der Betrieb der eigenen Applikationen und selbstentwickelter (Micro)-Services.

Der Kunde ist somit für den Betrieb und die Sicherheit der eigenen Infrastrukturumgebung und den darauf betriebenen Systemen, Applikationen und Services sowie den gespeicherten Daten verantwortlich. Anbieter wie Amazon Web Services oder Microsoft Azure stellen dem Kunden jedoch umfangreiche Tools und Services zur Verfügung mit denen sich zum Beispiel die Verschlüsselung der Daten als auch die Identitäts- und Zugriffskontrollen sicherstellen lassen. Darüber hinaus existieren zum Teil weitere Enablement-Services (Microservices) mit denen der Kunde schneller und einfacher eigene Applikationen entwickeln kann.

Der Cloud-Nutzer ist in diesen Bereichen also vollständig auf sich alleine gestellt und muss selbst Verantwortung übernehmen. Allerdings lassen sich diese Verantwortungsbereiche auch von einem AI-defined IT-Managementsystem bzw. einer AI-defined Infrastructure übernehmen.

Eine AI-defined Infrastructure kann helfen Ausfälle zu vermeiden

Eine AI-defined Infrastructure kann dabei helfen, Ausfälle in der Public Cloud zu vermeiden. Die Basis für diese Art von Infrastruktur liegt eine General AI zu Grunde, welche drei typische menschliche Eigenschaften vereint, mit denen Unternehmen in die Lage versetzt werden, ihre IT- und Geschäftsprozesse zu steuern.

  • Verstehen (Understanding): Mit dem Erstellen einer semantischen Landkarte (bestehend aus Daten) versteht die General AI die Welt, in welcher sich das Unternehmen mit seiner IT und dem Geschäftszweck befindet.
  • Lernen (Learning): Anhand von Lerneinheiten erhält die General AI die Best Practices und Gedankengänge von Experten. Hierzu wird das Wissen in granularen Stücken (Knowledge Items) vermittelt, welche einen separaten Teil eines Prozesses beinhalten.
  • Lösen (Solving): Mit dem Konzept des “Machine Reasoning” lassen sich Probleme in unklaren und insbesondere sich ständig verändernden Umgebungen lösen. Die General AI ist damit in der Lage, dynamisch auf den sich fortwährend wechselnden Kontext zu reagieren und den besten Handlungsablauf zu wählen. Anhand von Machine Learning werden die Ergebnisse basierend auf Experimenten optimiert.

Im Kontext eines AWS-Ausfalls würde dies dann in etwa so ausschauen:

  • Verstehen (Understanding): Die General AI erstellt eine semantische Landkarte der AWS-Umgebung als Teil der Welt in welcher sich das Unternehmen befindet.
  • Lernen (Learning): IT-Experten erstellen Knowledge Items während sie die AWS-Umgebung aufbauen und damit arbeiten und lernen der General AI damit Best Practices. Damit bringen die Experten der General AI kontextbezogenes Wissen bei, welches das „Was“, „Wann“, „Wo“ und „Warum“ beinhaltet – z.B., wenn ein bestimmter AWS-Service nicht antwortet.
  • Lösen (Solving): Basierend auf dem angelernten Wissen reagiert die General AI dynamisch auf Vorfälle. Damit ist die AI (möglicherweise) in der Lage zu wissen, was sie in einem bestimmten Moment zu tun hat – auch dann, wenn eine Hochverfügbarkeitsumgebung nicht von Beginn an berücksichtigt wurde.

Natürlich ist alles, was oben beschrieben wird, keine Magie. Wie jeder neu geborene Organismus bzw. jedes neu entstandene System muss auch eine AI-defined Infrastructure angelernt werden, um anschließend autonom arbeiten zu können und Anomalien als auch Ausfälle in der Public Cloud eigenständig zu entdecken und lösen zu können. Hierfür ist das Wissen von Experten erforderlich, die über ein tiefgreifendes Verständnis von AWS und wie die Cloud im Allgemeinen funktioniert, verfügen. Diese Experten bringen der General AI dann ihr kontextbezogenes Wissen bei. Sie lernen die AI mit kleinen Wissensstücken (Knowledge Items, KI) an, die sich von der AI indizieren und priorisieren lassen. Der Kontext und das Indizieren erlauben es der General AI die KIs zu kombinieren und damit unterschiedliche Lösungsansätze – Domain-übergreifend – zu finden.

KIs die von unterschiedlichen Experten erstellt werden, führen zu einem Wissenspool, aus welchem anhand des „Machine Reasoning“ die bestmöglichen Wissenskombinationen zusammengeführt werden, um Lösungen zu finden. Je mehr Aufgaben über die Zeit durchgeführt werden, führt diese Art des kollaborativen Lernens zu einer besseren Bearbeitungszeit. Weiterhin steigt die Anzahl möglicher Permutationen exponentiell mit der Menge an hinzugefügten Wissens an. Verbunden mit einem Knowledge Core, optimiert die General AI kontinuierlich ihre Leistung, indem sie nicht notwendige Schritte beseitigt und anhand des kontextbasierten Lernens zudem Lösungswege verändert. Je größer der semantische Graph und der Knowledge Core werden, desto besser und dynamischer kann die Infrastruktur im Kontext von Ausfällen agieren.

Zu guter Letzt sollte niemals der Community-Gedanke unterschätzt werden! Unser Research bei Arago zeigt, dass sich Basiswissen in 33 Prozent überschneidet. Dieses kann und wird außerhalb von bestimmten Organisationsumgebungen eingesetzt – z.B. über unterschiedliche Kundenumgebungen hinweg. Die Wiederverwendung von Wissen innerhalb einer Kundenumgebung beträgt 80 Prozent. Somit ist der Austausch von Basiswissen innerhalb einer Community ein wichtiger Bestandteil, um die Effizienz zu steigern und die Fähigkeiten einer General AI zu verbessern.

Categories
Analysen Uncategorized

Disruption: Die Cloud war nur der Anfang! Schon das Potential von Artificial Intelligence berücksichtigt?

Über viele Jahre hinweg wurde die Cloud als das disruptivste Element aller Zeiten betrachtet. Für die IT gilt dies unumstritten. Allerdings lassen sich nur schwer belastbare Argumente für den gesamten Enterprise-Stack finden. Die Cloud stellt alle notwendigen Tools bereit, mit welchen sich die Digitale Evolution auf einer sehr technischen Ebene unterstützt lässt, um Infrastrukturen, Plattformen und Software als Service zu beziehen, aufzubauen und zu betreiben. Damit muss die Cloud als die wesentliche Grundlage betrachtet werden. Für IT- als auch Unternehmenslenker besteht die Pflicht heute jedoch im Kontext der Artificial Intelligence (AI). Nur wenn sie es schaffen, das Wissen des Unternehmens und aller angrenzenden Umgebungen autonom zu sammeln, aggregieren und zu verarbeiten werden sie in Zukunft wettbewerbsfähig bleiben.

Im Jahr 2016 hat der Hype um AI seinen derzeitigen Höhepunkt erreicht. Die Analysten von Tractica gehen davon aus, dass „der weltweit jährliche Umsatz mit AI von $643.7 Millionen in 2016 auf $38.8 Milliarden in 2025 anwachsen wird“. Der Umsatz für „AI Enterprise Applikationen wird von $358 Millionen in 2016 auf $31.2 Milliarden in 2025 anwachsen. Eine CAGR von 64,3 Prozent“.

Die Cloud ist gekommen um zu bleiben! Weiter geht’s…

Die Cloud stellt einen Meilenstein in der Informationstechnologie dar. Immer mehr Unternehmen weltweit betrachten dynamische Infrastrukturen und Plattformen als wesentlichen Teil ihrer IT-Strategie. In seinem jüngsten Report nennt Forrester Analyst Paul Miller einen wichtigen Hinweis, der das Cloud-Wachstum bestätigt. So hat Miller identifiziert, dass „Cloud-Anbieter wie IBM und Interoute ihre Strategien dahingehend ausgerichtet haben, kleinere Rechenzentren über mehrere Länder hinweg zu verteilen. Nun folgen ihnen ebenfalls ihre großen Rivalen, um weitere Länder auf die Karte ihrer Rechenzentrumslandschaft hinzuzufügen.“ Sie verfolgen damit zum einen das Ziel, die Nachfrage zu bedienen, aber ebenfalls die lokalen Marktanforderungen wie lokale Rechte zu erfüllen. Laut Miller „[…] zielen mehrere Cloud-Anbieter ebenfalls auf andere europäische Länder: Schweden, Finnland, Italien und weitere wie aus den letzten Ankündigungen hervorgeht“.

Es lässt sich somit festhalten, dass die Cloud endgültig angekommen ist und als Grundlage für das Digital Enterprise gilt, indem sie die notwendigen Infrastrukturen und Plattformen bzw. Services bereitstellt. Dies ist eine wichtige Erkenntnis. Schließlich befinden sich Unternehmen weltweit weiterhin inmitten ihres Digital Transformation Prozess. Auf diesem Weg sind sie auf Lösungen angewiesen, welche sie bei der technologischen Implementierung ihrer individuellen digitalen Strategie unterstützen, um eine Grundlage für neuartige Geschäftsmodelle und agile Geschäftsprozesse zu entwickeln.

Wer jedoch weiterhin denkt, dass es sich bei der Cloud um die disruptivste Kraft handelt, der sollte sich das Potential von AI genauer anschauen. Die Cloud ist lediglich ein Mittel zum Zweck, um ein modernes digitales Unternehmen aufzubauen, welches von heute an mit AI ausgebaut werden muss.

Willkommen in einer AI-defined World

Kommend von einer Infrastruktur-Perspektive sollte heute jedes IT-Managementsystem in der Lage sein, vollständig automatisiert, das existierende Wissen der IT-Umgebung zu nutzen. So sollte beispielsweise das IT-Managementsystem wissen, wenn das Speicherbackend eines E-Mail-Servers nicht mehr ausreichend Speicherplatz besitzt. Dies lässt sich simpel anhand des durchschnittlichen E-Mail-Aufkommens pro Tag vorhersagen. Wird ein bestimmter Schwellenwert erreicht, fügt das System automatisch bzw. autonom weiteren Speicherplatz aus einem Storage Pool (Software-defined Storage) oder einem angebundenen Cloud-Storage-Anbieter hinzu.

Allerdings handelt es sich bei dieser sogenannten AI-defined Infrastructure (AiDI) nur um einen Teil der AI-Geschichte. Und auch wenn IT-Infrastrukturen als selbstverständlich betrachtet werden, ist Unternehmen aus der Old Economy zu raten, ihre AI-Reise auf Infrastruktur-Ebene zu beginnen, um ihr AI-defined Enterprise von unten heraus mit einer Autonomous Automation zu unterstützen. Die vier folgenden Anwendungsfälle zeigen diesen Bottom-Up Ansatz und wie eine AI IT und Geschäftsprozesse unterstützt:

  • CompuCom Systems nutzt Artificial Intelligence, um seine Cloud, Rechenzentren und Infrastrukturlösungen zu optimieren.
  • UBS setzt auf Artificial Intelligence, um die Effizient und Effektivität zu verbessern und gleichzeitig das geistige Eigentum zu behalten.
  • VirtusaPolaris integriert Artificial Intelligence in seine Kore Managed IT Solutions Platform.
  • Kloeckner & Co implementiert Artificial Intelligence, um seine Digital-Strategie zu unterstützen.

Tractica hat etwa 200 weitere Enterprise AI Anwendungsfälle innerhalb von 25 Industrien identifiziert.

Anders als die Cloud hat Artificial Intelligence einen großen Einfluss auf den gesamten Enterprise Stack, indem nahezu jeder Unternehmensbereich disruptiv auf den Kopf gestellt werden kann. Zu potentiellen Einflussbereichen zählen:

  • Ersatz wiederholbarer und manueller Aufgaben
  • Medizinische Diagnose und Gesundheitswesen
  • Automatisierter Kundenservice
  • Echtzeit Übersetzung und Spracherkennung
  • Identifizierung von Anomalien
  • Einkaufsvorhersagen
  • Betrugsaufdeckung
  • Empfehlungsunterstützung
  • Marktdatenanalyse
  • Automatisiertes Trading

Hierbei handelt es sich nur um eine kleine Auswahl, wo AI einen potentiellen Einfluss nehmen wird. Es zeigt allerdings deutlich, dass der moderne Enterprise Stack vollständig mit Artificial Intelligence definiert werden muss, um ein AI-enabled Enterprise zu schaffen. Denn nur wenn Unternehmen ihr Wissen gezielt einsetzen und dies mit ihren angrenzenden Umgebungen kombinieren und damit ihre eigene AI erschaffen, werden sie in Zukunft wettbewerbsfähig sein.

Categories
Analysen Uncategorized

AI-defined Infrastructure (AiDI) – Denn Infrastrukturen benötigen mehr Intelligenz

Software-defined Infrastructure (SDI) gehören unumstritten zu den aktuell wichtigsten Trends in Rechenzentren und Cloud-Umgebungen. Anhand des Einsatzes von Skripten oder Source Code sorgt eine SDI für eine bessere Flexibilität auf Infrastrukturebene. Allerdings darf eine SDI lediglich nur als ein Mittel zum Zweck betrachtet werden. Schließlich führen ein hoher Automatisierungsgrad sowie intelligente Systeme basierend auf komplexen Algorithmen zu einer Artificial Intelligence defined Infrastructure (AI-defined Infrastructure – AiDI).

SDI ist nur ein Mittel zum Zweck

Eine SDI trennt die Software von der Hardware. Damit befindet sich die Kontrollinstanz nicht mehr innerhalb der Hardware-Komponenten, sondern oberhalb integriert in einem Software-Stack. Basierend auf Software und entsprechender Automatisierungslogik ist eine SDI so konzipiert, dass sie eine Infrastruktur weitestgehend ohne menschliche Interaktion aufbauen und kontrollieren kann.

Eine typische SDI-Umgebung, z.B. eine Cloud-Infrastruktur, wird anhand der Entwicklung von Skripten oder Programmcode aufgebaut. Die Software beinhalt hierzu alle notwendigen Befehle, um eine vollständige Infrastruktur-Umgebung, inklusive Applikationen und Services, zu konfigurieren. Eine SDI-basierte Infrastruktur arbeitet unabhängig von einer bestimmten Hardware-Umgebung. Somit kann eine Infrastruktur vollständig, unabhängig der eingesetzten Hardware-Komponenten, durch Software ausgetauscht werden. Nur ein Grund, warum SDIs die Basis heutiger Cloud-Infrastruktur-Umgebungen sind.

Jedoch sollte eines bedacht werden, eine SDI ist nicht intelligent. Sie basiert auf statischem Programmcode, in welchem Befehle fest kodiert sind, um bestimmte Aktionen automatisch vorzunehmen.

Die AI-defined Infrastructure (AiDI)

Eine Software-defined Infrastruktur ist ein wichtiges Konzept, um dynamische IT-Umgebungen aufzubauen und zu betreiben. Allerdings bewegt sich eine SDI in den Grenzen von statischem Programmcode bzw. den Kenntnissen des verantwortlichen Entwicklers beziehungsweise des Administrators, welche die Skripte oder den Programmcode für die Umgebung schreiben. Weiterhin ist eine SDI nur zu einem bestimmten Grad dynamisch, da diese nicht in der Lage ist, die eigene Umgebung zu verstehen bzw. von ihr zu lernen.

Eine Artificial Intelligence defined Infrastructure (AI-defined Infrastructure – AiDI) erweitert eine SDI mit notwendigen komplexen Algorithmen, Machine Learning und Artificial Intelligence – und macht eine SDI somit intelligent. Eine AiDI erlaubt es einer SDI, selbstlernende bzw. selbstheilende Infrastruktur-Umgebungen aufzubauen und zu betreiben. AI-defined Infrastructure Umgebungen sind somit in der Lage, ohne menschliche Interaktion,

  • abhängig von den Workload-Anforderungen, die notwendigen Ressourcen bereitzustellen sowie diese wieder zu de-allokieren, wenn sie nicht mehr benötigt werden.
  • fortlaufend das sich ständig verändernde Verhalten und den Status einzelner Infrastruktur-Komponenten zu analysieren und sich damit selbst zu verstehen.
  • auf den Status einzelner Infrastruktur-Komponenten zu reagieren bzw. proaktiv zu agieren, indem autonom Aktionen durchgeführt werden, um die Infrastruktur damit in einen fehlerfreien Zustand zu überführen.

Eine AI-defined Infrastructure kann nicht mit altbekannten Automationslösungen verglichen werden, die typischerweise mit vordefinierten Skripten und Runbooks arbeiten. Eine AI-defined Infrastructure nutzt das existierende Wissen eines Unternehmens und führt dieses automatisch und unabhängig aus. Wie jeder neugeborene Organismus muss eine AI-defined Infrastructure trainiert werden, um anschließend autonom zu agieren. Anhand des (selbst)-erlernten Wissens werden Störungen automatisch beseitigt und das ebenfalls proaktiv für nicht erwartete Ereignisse, indem passende Vorfälle aus der Vergangenheit autonom verknüpft werden. Demnach überwacht und analysiert eine AI-defined Infrastructure alle dazugehörigen Komponenten in Echtzeit, um ein Problem zu identifizieren und auf Basis des existierenden Wissens zu lösen. Je mehr Incidents gelöst werden, desto größer wird das Wissen der AI-defined Infrastructure. Bei dem Kern einer AI-defined Infrastructure handelt es sich somit um eine wissensbasierte Architektur, welche Incidents und Veränderungen erkennen kann und eigenständig Strategien entwickelt, um ein Problem zu lösen.

Weiterhin setzt eine AI-defined Infrastructure auf Communities, um

  • das Wissen von externen Experten zu nutzen, um intelligenter zu werden.
  • sich mit anderen AI-defined Infrastructure Umgebungen zu verbinden, um die Wissensbasis zu kombinieren und zu teilen.
  • ständig den Wissenspool zu erweitern.
  • das Wissen zu optimieren.

Im Großen und Ganzen handelt es sich bei einer AI-defined Infrastructure um ein intelligentes System, welches initial mit externen Wissen befüllt wird und anschließend in der Lage ist, eigenständig zu lernen und autonom Entscheidungen zu treffen, ohne auf menschliche Interaktionen angewiesen zu sein.

Die AiDI ist nur ein kleiner Teil des AI-defined Enterprise Stacks

Eine AI-defined Infrastructure ist ein essentieller Teil des heutigen IT-Betriebs und bildet die Basis für das AI-enabled Enterprise. Zunächst ermöglicht sie es IT-Abteilungen, das Verhalten ihrer Infrastrukturen von einer semi-dynamischen hin zu einer Echtzeit IT-Umgebung zu verändern.

Diese autonome Art der Planung, des Aufbaus, Betriebs und der Wartung einer Infrastruktur befähigt IT-Abteilungen und Entwickler Ressourcen wie Server, Storage, Netzwerk, Datenbanken und andere Services höchsteffizient bereitzustellen, indem sie nicht nur das Wissen eines einzelnen Experten nutzen, sondern des gesamten IT-Betrieb Teams. Weiterhin wird der IT-Betrieb damit von einem reinen Konsumenten von Ressourcen zu einem Orchestrierter bzw. Manager eines vollständig automatisierten und intelligenten IT-Stacks – die wesentliche Grundlage eines Ende-zu-Ende AI-ready Enterprise.

Categories
Analysen

Interview: Public-Cloud-Dienste – Auf der Suche nach dem weissen Ritter.

Die optimale Strategie für Public-Cloud-Dienste in Unternehmen – ein Interview mit Analyst und Cloud-Experte René Büst.

Herr Büst, Public, Private, Hybrid: Wann wird denn welches Cloud-Angebot für Unternehmen relevant?

Das lässt sich pauschal nicht sagen. Es gibt mittlerweile eine steigende Anzahl von Unternehmen, die sich intensiv mit der Public Cloud beschäftigen und den „All-in“-Weg beschreiten. Das bedeutet, dass sie keine eigene lokale IT-Infrastruktur oder gar ein Rechenzentrum mehr besitzen und stattdessen alles auf Public-Cloud-Infrastrukturen beziehungsweise -Plattformen ausgelagert haben oder per Software-as-a-Service beziehen. Jedoch handelt es sich dabei derzeit noch um eine Minderheit.

…das heisst?

Dass die meisten Unternehmen aktuell bevorzugt noch auf Private-Cloud-Umgebungen setzen. Das ist eine logische Konsequenz aus der vorhandenen Legacy, welche die Unternehmen in ihrer IT noch mit sich führen. Allerdings sehen wir den Großteil der deutschen Unternehmen zukünftig in hybriden beziehungsweise Multi-Cloud-Architekturen, um darüber sämtliche Facetten abzudecken, die sie für ihre digitale Transformation benötigen.

Und wie können Unternehmen diese unterschiedlichen Lösungen im Verbund steuern?

Hierfür bieten sich Cloud-Management-Lösungen an, die über Schnittstellen zu den gängigsten Public-Cloud-Angeboten als auch Private-Cloud-Lösungen verfügen. Damit stehen mächtige Werkzeuge bereit, mit denen sich Workloads auf den unterschiedlichen Umgebungen verwalten und virtuelle Maschinen, Daten und Applikationen verschieben lassen. Eine weitere Möglichkeit für das nahtlose Management bieten iPaaS: Bei einem Integration Platform-as-a-Service (iPaaS) handelt es sich um Cloud-basierte Integrationslösungen. Diese wurden vor der Cloud-Ära auch als „Middleware“ bezeichnet. Sie unterstützen bei der Interaktion zwischen unterschiedlichen Cloud-Services.
Worauf müssen Unternehmen beim Einsatz dieser Cloud-Dienste grundsätzlich achten?
Sowohl das fehlende Verständnis für die Public Cloud als auch die Herausforderungen, die mit dem Aufbau und Betrieb von Multi-Cloud-Umgebungen einhergehen, dürfen keinesfalls unterschätzt werden. Der Vorteil, der von der Nutzung multipler Cloud-Infrastrukturen, -Plattformen und -Services ausgeht, ist oft teuer bezahlt: Es entstehen Kosten hinsichtlich Komplexität, Integration, Management und dem notwendigen Betrieb. Sowohl das Multi-Cloud-Management als auch eine grundsätzlich mangelnde Cloud-Erfahrung sind derzeit in vielen Unternehmen zentrale Herausforderungen.

Was ist die Lösung?

Als sozusagen weiße Ritter oder Helfer in der Not bringen sich hierfür Managed Public Cloud Provider (MPCP) in Position. Diese entwickeln und betreiben die Systeme, Applikationen und virtuellen Umgebungen ihrer Kunden – und das sowohl auf den Public-Cloud-Infrastrukturen als auch in Multi-Cloud-Umgebungen in einem Managed-Cloud-Service-Modell.

– – –

– – –
Das Interview mit T-Systems ist zuerst unter “Public-Cloud-Dienste: Auf der Suche nach dem weissen Ritter.” erschienen.

Categories
Analysen

Analyst Studien-Report: IoT-Backend-Anbieter im Vergleich

Das Internet of Things (IoT) schließt die Brücke zwischen der digitalen und analogen Welt, indem eine maximale Vernetzung und ein möglichst großer Informationsaustausch angestrebt werden. Die Auswahl einer geeigneten Plattform, auf der Backend-Anwendungen für die Verarbeitung und die Analyse von Daten sowie deren Auslieferung als mobiler bzw. cloud-basierter IoT-Service betrieben werden, gestaltet sich als zentrale Herausforderung. Denn IoT-Lösungen benötigen massiv skalierbare, flexible und sichere IT-Infrastrukturen als Grundlage. Daher ist die Auswahl der sogenannten „IoT-Backend-Anbieter“ für viele Unternehmen eine strategische Angelegenheit.

Um CIOs, CTOs und CEOs bei ihrer Auswahl und Evaluierung relevanter IoT-Backend-Anbieter zu unterstützen, hat Crisp Research gezielt ein Research-Projekt durchgeführt. Das „Crisp Vendor Universe“ portraitiert die im deutschen Markt aktiven IoT-Backend-Anbieter und bewertet deren Stärken und Schwächen.

Inhalte des Studienreports

  • Marktdefinition und Marktüberblick zu Backend-Infrastrukturen im Zukunftsmarkt des Internet of Things (IoT).
  • Evaluation von IoT-Backend-Anbietern und ihrer Angebote, die Unternehmen im Rahmen ihrer IoT-Strategie berücksichtigen sollten.
  • Entscheidungshilfe für die Auswahl von IoT-Backend-Infrastrukturen, die für den Einsatz im Enterprise-Umfeld geeignet sind.

Der Studienreport zu dem Anbietervergleich kann kostenlos unter “Crisp Vendor Universe – Vergleich von IoT-Backend-Anbietern” heruntergeladen werden.