Categories
IT-Infrastrukturen

AI-Infrastrukturen: Die Basis von Geschäftsmodellen und Applikationen der nächsten Generation

Der Hype um Artificial Intelligence (AI) hat 2016 seinen vorläufigen Höhepunkt erreicht. Das Marktforschungs- und Beratungshaus Tractica geht davon aus, dass der weltweite jährliche Umsatz mit AI von 643,7 Millionen Dollar in 2016 bis 2025 auf 38,8 Milliarden Dollar anwachsen wird. Der Umsatz mit “AI Enterprise-Applikationen” soll von 358 Millionen Dollar in 2016 auf 31,2 Milliarden Dollar im Jahr 2025 steigen. Die durchschnittliche jährliche Zuwachsrate liege bei stolzen 64,3 Prozent. IT- und Business-Entscheider müssen sich heute also mit dem Potenzial von AI auseinandersetzen. Für Unternehmen jeglicher Art und Form stellt sich somit die Frage, mit welchen Technologien bzw. Infrastrukturen, sie ihren Enterprise-Stack AI-ready machen.

Was ist Artificial Intelligence (AI)?

„Das Ziel der Artificial Intelligence besteht darin, Maschinen zu entwickeln, welche sich so verhalten, als wären sie intelligent.“ (Prof. John McCarthy, 1955)

Sprechen wir in diesem Zusammenhang von intelligent, dann reden wir von einem sich dynamisch verhaltenen System. Ein System, das wie ein leerer IQ-Container betrachtet werden muss. Ein System, das unstrukturierte Informationen benötigt, um seine Sinne zu trainieren. Ein System, welches ein semantisches Verständnis der Welt benötigt, um in der Lage zu sein zu handeln. Ein System, das auf eine detaillierte Karte seines Kontext angewiesen ist, um unabhängig zu agieren und Erfahrungen aus einem Kontext in den anderen zu übertragen. Ein System, das mit allen notwendigen Mitteln ausgestattet ist, um Wissen zu entwickeln, auszubauen und aufrechtzuerhalten.

Hierbei liegt es in unserer Verantwortung, unser Wissen mit diesen Maschinen zu teilen als würden wir es mit unseren Kindern, Partnern oder Kollegen teilen. Dies ist der einzige Weg, um diese Maschinen, bestehend aus Hard- und Software, in einen Status zu überführen, den wir als „intelligent“ beschreiben. Nur damit helfen wir ihnen, auf einer täglichen Basis intelligenter zu werden und legen damit die Grundlage, ein selbstlernendes System zu schaffen. Hierzu werden in der AI-Forschung drei unterschiedliche Typen von AIs unterschieden:

  • Strong AI: Bei einer Strong AI handelt es sich um eine selbstbewusste Maschine, die über Gedanken, Gefühle, einem Bewusstsein und den dazugehörigen neuronalen Verwachsungen verfügt. Wer sich Kann schon auf eine Realität á la „Her“ oder „Ex_Machina“ freut, wird sich noch etwas gedulden müssen. Eine Strong AI existiert derzeit nicht und es wird noch eine unbestimmte Zeit dauern, bis diese Form existieren wird.
  • Narrow AI: Die meisten Anwendungsfälle im AI-Bereich fokussieren sich aktuell darauf, Lösungen für ein sehr spezielles Problem zu bieten. Diese sogenannten Narrow AIs sind sehr gut darin spezifische Aufgaben zu lösen, wie z.B. das Empfehlen von Songs auf Pandora oder Analysen, um die Tomatenzucht in einem Gewächshaus zu optimieren.
  • General AI: Eine General AI ist in der Lage, Aufgaben aus unterschiedlichen Bereichen und Ursprüngen zu bearbeiten. Hierzu besitzt sie die Fähigkeiten, die Trainingsintervalle von einem Bereich zu einem anderen zu verkürzen, indem sie die gesammelten Erfahrungen aus dem einen Bereich in einem anderen Artfremden Bereich anwenden kann. Der hierfür notwendige Wissenstransfer ist nur dann möglich, wenn eine semantische Verbindung zwischen diesen Bereichen existiert. Hinzu kommt: Je stärker und verdichteter diese Verbindung ist, desto schneller und einfacher lässt sich der Wissensübergang erreichen. Im Vergleich zu einer Narrow AI besitzt eine General AI somit alles notwendige Wissen und Fähigkeiten, um neben der Tomatenzucht in einem Gewächshaus gleichzeitig Gurken, Auberginen, Paprika, Radieschen, Rettich und Kohlrabi zu züchten. Eine General AI ist also ein System, was mehr als nur eine spezifische Aufgabe erledigen kann.

Eines liegt klar auf der Hand. Ohne Technologien wie z.B. das Cloud Computing hätte AI nicht seinen Boom in der heutigen Zeit erreicht. Sowohl Cloud-Services als auch Fortschritte im Bereich der Machine Intelligence haben es für Unternehmen einfacher gemacht, AI-basierende Funktionsweisen einzusetzen, um enger mit ihren Kunden zu interagieren. Immer mehr Unternehmen wie Airbnb, Uber oder Expedia setzen bereits auf Cloud-basierte Systeme, um AI-relevante Aufgaben zu verarbeiten, welche auf einen intensiven CPU/ GPU-Einsatz sowie Services für umfangreiche Datenverarbeitungs- und Analyseaufgaben zurückgreifen.

Unternehmen sollten im Kontext ihrer AI-Strategie daher die AI-Services unterschiedlicher Cloud-Anbieter evaluieren. Ein weiterer Teil ihrer Strategie sollte eine AI-defined Infrastructure einnehmen. Die Basis für diese Art von Infrastruktur liegt eine General AI zu Grunde, welche drei typische menschliche Eigenschaften vereint, mit denen Unternehmen in die Lage versetzt werden, ihre IT- und Geschäftsprozesse zu steuern.

  • Lernen (Learning): Anhand von Lerneinheiten erhält die General AI die Best Practices und Gedankengänge von Experten. Hierzu wird das Wissen in granularen Stücken vermittelt, welche einen separaten Teil eines Prozesses beinhalten. Im Kontext eines Gewächshauses lernen die Experten der AI z.B. sämtliche Prozessschritte detailliert an, was sie tun, um bspw. eine Gurke, eine Aubergine und eine Paprika zu züchten. Hierbei teilen sie der AI kontextbezogenes Wissen mit, welches u.a. das „Was muss gemacht werden“ und „Warum muss dies gemacht werden“ beinhaltet.
  • Verstehen (Understanding): Mit dem Erstellen eines semantischen Graphs (bestehend aus Daten) versteht die General AI die Welt, in welcher sich das Unternehmen mit seiner IT und dem Geschäftszweck befindet. Der semantische Graph eines Gewächshauses würde demnach verschiedene Kontexte (z.B. Informationen, Eigenschaften und Spezifika über das Gewächshaus, die Gurkenzucht, die Auberginenzucht und die Paprikazucht) zusammenfassen und ständig mit hinzugeführten Wissen (vgl. Lernen) anreichern. Die IT des Unternehmens spielt dabei eine wichtige Rolle, da hier sämtliche Daten zusammenlaufen.
  • Lösen (Solving): Mit dem Konzept des Machine Reasoning lassen sich Probleme in unklaren und insbesondere sich ständig verändernden Umgebungen lösen. Die General AI ist damit in der Lage, dynamisch auf den sich fortwährend wechselnden Kontext zu reagieren und den besten Handlungsablauf zu wählen. Anhand des antrainierten Wissens (Lernen) und dem Aufbau des semantischen Graphs (Verstehen) ist die General AI in einem Gewächshaus damit in der Lage, nicht nur ausschließlich eine einzige Gemüsesorte (das wäre eine Narrow AI) zu züchten. Dies erfolgt anhand der wachsenden Menge an antrainierten Wissensbausteinen, die zu einem Wissenspool führen, aus welchem anhand des Machine Reasoning die bestmöglichen Wissenskombinationen kombiniert werden, um Lösungen zu finden. Je mehr Wissensbausteine über die Zeit hinzugefügt werden, führt diese Art des kollaborativen Lernens zu einer besseren Bearbeitungszeit. Weiterhin steigt die Anzahl möglicher Permutationen exponentiell mit der Menge an hinzugefügten Wissens an. Je größer also der semantische Graph wird, desto mehr und dynamischer können weitere Gemüsesorten gezüchtet werden.

Welche Anforderungen hat Artificial Intelligence an Infrastrukturumgebungen?

AI ist derzeit die Technologie, welche das Potential besitzt, nicht nur existierende Infrastrukturen – wie Cloud-Umgebungen – zu verbessern, sondern ebenfalls eine neue Generation von Infrastruktur-Technologien voranzutreiben. Denn als ein wichtiger Technologie-Trend hat AI neben der Entwicklung einer ganz neuen Generation von Programmier-Frameworks auch die Anforderungen an eine neue Generation von Hardware-Technologien beeinflusst, um AI-Applikationen skalierbar zu betreiben.

Mobile- und IoT-Anwendungen haben hinsichtlich der Runtime-Umgebung bisher nur geringe Anforderungen an eine Infrastruktur gestellt. Hierfür war es hingegen kritisch, entsprechende Services bereitzustellen, mit denen ein Backend aufgebaut werden kann. Im Gegensatz dazu erwarten AI-Applikationen nicht nur anspruchsvolle Backend-Services, sondern auch optimierte Runtime-Umgebungen, welche auf die GPU-intensiven Anforderungen von AI-Lösungen abgestimmt sind. AI-Applikationen fordern die Infrastruktur hinsichtlich der parallelen Verarbeitung von Aufgaben in sehr kurzen Zeitzyklen heraus. Insbesondere für die Beschleunigung von Deep Learning Anwendungen kommen dann bevorzugt GPU-Prozessoren zum Einsatz. GPU-optimierte Anwendungen verteilen die rechenintensiven Bereiche der Anwendung auf die GPU (Graphikprozessor) und lassen die einfachen Berechnungen wie gewöhnlich von der CPU verarbeiten. Damit wird die Ausführung der gesamten Anwendung beschleunigt. Der Vorteil einer GPU gegenüber einer CPU zeigt sich in den jeweiligen Architekturen. Eine CPU ist ausschließlich auf die serielle Verarbeitung ausgelegt und verfügt nur über wenige Kerne. Eine GPU hingegen besteht aus einer parallelen Architektur mit einer großen Menge kleinerer Kerne, welche die Verarbeitung der Aufgaben gleichzeitig übernehmen. Nach Angaben von NVIDIA ist der Anwendungsdurchsatz einer GPU um den Faktor 10 bis 100-mal größer als bei einer CPU. Eine Infrastruktur sollte also in der Lage sein, bei Bedarf ein Deep Learning Framework wie TensorFlow oder Torch über hunderte oder gar tausende Nodes bereitzustellen, die direkt mit der optimalen GPU-Konfiguration zur Verfügung stehen. Hiermit beginnend lässt sich eine Liste von Anforderungen (nicht vollständig) für Infrastrukturen zusammenstellen, um AI-Anwendungen zu unterstützen:

  • Unterstützung gängiger AI-Frameworks: Infrastrukturen müssen in der Lage sein, AI-Applikationen die auf gängigen AI-Frameworks wie TensorFlow, Caffe, Theano oder Torch betrieben werden, auf dieselbe Art und Weise zu unterstützen, wie Web-Applikationen oder Backend-Prozesse. Somit sollte eine Infrastruktur sich nicht ausschließlich auf ein AI-Framework beschränken, sondern das Portfolio im Interesse von Entwicklern möglichst großzügig gestalten.
  • Auf GPU-optimierte Umgebung: Um sicherzustellen, dass eine Infrastruktur willkürlich jeden AI-Prozess ausführen kann, muss sie GPU-Umgebungen für das Bereitstellen schneller Rechenleistung zur Verfügung stellen. Mit seinen N-Series GPU Instanzen für Azure ist Microsoft einer der Vorreiter in diesem Bereich.
  • Management-Umgebung und –Tools: Eine der größten Herausforderungen aktueller Infrastrukturumgebungen ist der Missstand von verfügbaren Management Tools für den Betrieb von AI-Frameworks. Hier ist insbesondere das direkte Zusammenspiel der AI-Frameworks mit der Infrastruktur unumgänglich, um für eine bestmögliche Abstimmung und somit Leistung zu sorgen.
  • AI-integrierte Infrastruktur-Services: Infrastruktur-Anbieter müssen bzw. werden dazu übergehen, AI-Funktionen nicht nur zu unterstützen, sondern AI als einen zentralen Bestandteil ihres Infrastruktur- und Service-Stacks zu integrieren. Diese Form der AI-defined Infrastructure wird nicht nur die Intelligenz von Cloud-Services und Cloud-Applikationen erhöhen, sondern ebenfalls den Betrieb und Aufbau der Infrastrukturen durch den Kunden vereinfachen.
  • Machine Reasoning: Infrastruktur-Anbieter, die ihren Kunden Technologien für das “Machine Reasoning” bereitstellen, helfen diesen dabei, Probleme in unklaren und insbesondere sich ständig verändernden Umgebungen zu lösen. Auf Basis des Machine Reasoning ist eine AI-Umgebung in der Lage, dynamisch auf den sich fortwährend wechselnden Kontext zu reagieren und den besten Handlungsablauf zu wählen. Dies erfolgt, indem die bestmöglichen Wissenskombinationen zusammengeführt werden, um Lösungen zu finden. Anhand des Machine Learning werden die Ergebnisse anschließend anhand von Experimenten optimiert.

Infrastrukturumgebungen und Technologien für AI

Im Laufe der letzten Jahre wurden enorme Investitionen in AI-Funktionalitäten auf Cloud-Plattformen getätigt. Insbesondere die führenden Public Cloud-Anbieter, darunter Amazon, Microsoft und Google liegen hier weit vorne. Aber auch viele PaaS-Anbieter haben ihre Angebote um AI-Services erweitert. Die aktuelle AI-Technologie-Landkarte besteht derzeit aus drei Hauptgruppen:

  • Cloud Machine Learning (ML) Plattformen: Technologien wie Azure Machine Learning, AWS Machine Learning oder Google Machine Learning ermöglichen die Nutzung eines Machine Learning Models unter dem Einsatz proprietärer Technologien. Auch wenn Google Cloud ML auf TensorFlow setzt, erlauben die meisten Cloud-basierten ML-Services nicht das Ausführen von AI-Applikationen, die z.B. in Theano, Torch, TensorFlow oder Caffe geschrieben wurden.
  • AI-Cloud-Services: Technologien wie Microsoft Cognitive Services, Google Cloud Vision oder Natural Language APIs erlauben es komplexe AI bzw. Cognitive Computing Fähigkeiten anhand eines einfachen API-Aufrufs zu verwenden. Dieser Ansatz erlaubt es Unternehmen, Applikationen mit AI-Fähigkeiten zu entwickeln, ohne selbst in die dafür notwendige AI-Infrastrukturen zu investieren.
  • Technologien für Private und Public Cloud-Umgebungen: Technologien wie HIRO sind darauf ausgelegt sowohl auf Public Cloud-Umgebungen wie Amazon Web Services oder Private Cloud-Umgebungen wie z.B. OpenStack oder VMware betrieben zu werden. Sie ermöglichen es Unternehmen auf Basis einer General AI kontextübergreifende AI-basierte Geschäftsmodelle zu entwickeln und zu betreiben.
  • Zu weiteren AI-relevanten Kategorien und ihren Anbietern zählen:

    • Machine Learning: Rapidminer, Context Relevant, H20, Datarpm, LiftIngniter, Spark Beyond, Yhat, Wise.io, Sense, GraphLab, Alpine, Nutonian
    • Conversational AI/ Bots: Mindfield, SemanticMachines, Maluuba, Mobvoi, KITT AI, Clara, Automat, Wit.ai, Cortical.io, Idibon, Luminoso
    • Vision: Clarifai, Chronocam, Orbital Insight, Pilot.ai, Captricity, Crokstyle
    • Auto: NuTonomy, Drive.ai, AI Motive, Nauto, Nexar, Zoox
    • Robotics: Ubtech, Anki, Rokid, Dispatch
    • Cybersecurity: Cyclance, Sift Science, Spark Cognition, Deep Instict, Shift Technology, Dark Trace
    • BI & Analytics: DataRobot, Trifaca, Tamr, Esigopt, Paxata, Dataminr, CrowdFlower, Logz.io
    • Ad, Sales und CRM: TalkIQ, Deepgram, Persado, Appier, Chors, InsideSales.com, Drawbridge, DigitalGenius, Resci
    • Healthcare: Freenome, Cloud Medx, Zebra, Enlitic, Two AR, iCarbonX, Atomwise, Deep Genomics, Babylon, Lunit
    • Text Analysis: Textio, Fido.ai, Narrative
    • IoT: Nanit, Konux, Verdigris, Sight Machine
    • Commerce: Bloomreach, Mode.ai
    • Fintech & Insurance: Cape Analytics, Kensho, Numerai, Alphasense, Kasisto

    Unterm Strich lässt sich sagen, dass mit der Weiterentwicklung von AI-Technologien sich gleichzeitig auch Infrastruktur-Umgebungen von einem unterstützenden Modus hin zu einem Model transformieren müssen, in welchem AI-Applikationen so gleichwertig unterstützt werden wie es heute für Web-Applikationen und –Services der Fall ist.

    Die Zukunft liegt in einem AI-enabled Enterprise

    Eine AI-defined Infrastructure ist ein essentieller Teil des heutigen Enterprise-Stacks und bildet die Basis für das AI-enabled Enterprise. Denn eines liegt ebenfalls klar auf der Hand. Neben dem oft zitierten „War for Talent“ oder der Unfähigkeit großer Unternehmen sich effektiv zu verändern, sehen sich renommierte Unternehmen vielen weiteren Herausforderungen gegenübergestellt. Was gerne übersehen wird ist die unterschätze Gefahr des Mitbewerbs. Nicht etwa die der bekannten Wettbewerber, sondern Hightech-Unternehmen wie Amazon, Google, Facebook und Co., die unaufhaltsam in renommierte Märkte eimarschieren. Mit unvorstellbaren finanziellen Mitteln dringen diese Hightech-Unternehmen in bekannte Wettbewerbslandschaften renommierter Unternehmen ein und kapern den gesamten Kundenlebenszyklus. Amazon ist nur ein Beispiel, das bereits damit begonnen hat, die Zwischenhändler in der eigenen Lieferkette aus dem Weg zu räumen. Wir können sicher sein, dass Unternehmen wie DHL, UPS oder FedEx in Zukunft ihre Geschäfte anders machen werden als heute – Hinweis: Amazon Prime Air. Weiterhin hat Amazon alles in die Wege geleitet, um ein vollständiger Ende-zu-Ende Anbieter von Gütern zu werden. Digital wie auch nicht Digital. Wahrscheinlich wird es auch nicht mehr lange dauern, bis Facebook möglicherweise eine Bankenlizenz beantragen wird. Der potentielle Kundenzugang, ausreichend Informationen über seine Nutzer und das notwendige Kapital liegen bereits vor. Folglich müssen renommierte Unternehmen schlagkräftige Antworten finden, wenn sie morgen weiterhin existieren wollen.

    AI ist eine dieser Antworten und ein kraftvolles Hilfsmittel im Werkzeugkasten von Unternehmen, um sich der Wettbewerbssituation zu stellen.

    – – –
    Photo credits: Ilya Pavlov via StockSnap.io.

    Categories
    Analysen Uncategorized

    Fressen oder gefressen werden: Herzlich Willkommen im Hotel California der Artificial Intelligence

    Im Jahr 1977 haben die Eagles „Hotel California“ veröffentlicht. Einen Song über Drogen und die Auswirkungen einer Abhängigkeit auf Menschen. Setzen wir die Textpassage “We are all just prisoners here, of our own device” in den Kontext unseres heutigen digitalen Lebensstils, finden wir darin jede Menge Wahrheit. Es gibt gute Gründe, warum uns Google den Großteil seiner Dienste kostenlos zur Verfügung stellt, oder warum Amazon will, dass jeder von uns ein Echo zu Hause hat, oder warum Facebook zum Verzeichnis unserer „Freunde“ geworden ist. Was im ersten Moment sehr praktisch erscheinen mag ist eine Gefahr. Es ist eine Gefahr für die Endverbraucher aber auch eine Gefahr für renommierte Unternehmen – in Neudeutsch auch als Old Economy bezeichnet. Und auch wenn wir auschecken können, wann immer wir wollen – wir werden niemals gehen.

    Das Festmahl der Datenkraken

    Nach nun mehr zwei Dekaden sammeln die Internet Giganten – Amazon, Google, Facebook, Alibaba und Baidu – weiterhin Tonnen an Daten, um ihre Datenbanken mit Informationen von jedermanns Wissen, Meinungen, Empfehlungen, Aufenthaltsorte, Bewegungen, Kaufverhalten, Beziehungsstatus, Lebensstile usw. zu befüllen. Dabei handelt es sich um kein Geheimnis und neu ist dieser Zustand schon gar nicht. Zudem ist auch kein Ende in Sicht. Ganz im Gegenteil. Fast jeden Monat erscheinen neue Dienste oder Endgeräte, um für ein besseres Nutzererlebnis zu sorgen, unser Leben bequemer zu machen und unsere Dosis der digitalen Abhängig zu erhöhen.

    Amazon, Google, Facebook und Co. sind in unserem Leben allgegenwärtig geworden. Und Dank des Internet of Things wird die Lücke zwischen unserem analogen und digitalen Leben ständig kleiner. Nachdem die Internet Giganten eine gewaltige Menge an Diensten bereitgestellt haben, um uns an den Web-Haken beziehungsweise den Endgeräte-Haken – anhand von Smartphones und Tablets – zu bekommen, machen sie es sich nun in unserem zu Hause bequem.

    Smart Home Lösungen wie Nest, Tado oder Netatmo sind nur der Anfang einer neuen Art von Geräteklasse, die zu den Augen in unseren privaten Umgebungen werden, welche zuvor nicht mit dem Internet verbunden waren und hierüber in die Greifarme von Google & Co gelangen. Intelligente Private Assistenten wie Amazon Echo oder Google Home sind der nächste Evolutionsschritt, die genutzt werden können, um Smart Home Lösungen zu steuern oder unser Leben einfacher machen, indem wir unsere Stimme nutzen. Kleine Randbemerkung: Wir sollten das Wort „Intelligent“ in diesem Zusammenhang mit Vorsicht verwenden, da es sich bei den Kommandos über vordefinierte Skripte handelt. Außerdem muss ich ehrlich sagen, dass ich nicht den Eindruck habe, das weder Apple’s Siri noch Amazon’s Alexa (die Artificial Intelligence (AI) Engine hinter Echo) derzeit von meinen Interaktionen lernen.

    Jedoch zeigt uns diese technologische Entwicklung eine wichtige Erkenntnis: Amazon, Google & Co finden neue Wege, um uns über andere Kanäle an sich zu binden. Darüber Daten, Informationen und Wissen zu sammeln, welche sie benötigen, um bessere Entscheidungen zu treffen und uns bessere Antworten zu liefern. Hierfür verfolgen sie einen ganz klaren Zweck. Jeder von uns wird schlichtweg dafür genutzt, um deren Artificial Intelligence auf einer täglichen Basis zu trainieren. Das bedeutet, dass alle Services, welche Google & Co. Ihren Kunden anbieten, das Ziel verfolgen, eine Landkarte der Welt zu zeichnen, die auf den gesammelten Daten basiert.

    Auswirkungen auf den Endverbraucher: Komfort im Hamsterrad

    Endverbraucher können sich im Grunde genommen nicht beschweren. Getreu dem Motto „Quid pro quo“, stellen insbesondere Google und Facebook ihre Dienste kostenlos zur Verfügung und nehmen dafür Daten als Gegenleistung. Hierbei spielt ihnen die digitale Sucht perfekt in die Karten. Endverbraucher haben in das “Hotel California” eingecheckt. Und auch wenn sie jeder Zeit wieder auschecken können, stellt sich die Frage, wollen sie gehen?

    Die tragische Antwort auf diese Frage ist nein. Befindet man sich erst einmal in dieser Spirale ist es sehr schwierig oder gar unmöglich sie zu verlassen. Der Grund besteht darin, dass alles digitalisiert wird. Unsere Gesellschaft wird an einen Punkt gelangen, an dem nichts mehr ohne digitale Dienste funktionieren wird. Man könnte auch sagen, dass eine Person, die digital nicht existiert, überhaupt nicht mehr existiert. Und indem das Nutzererlebnis ständig angenehmer wird, muss niemand ein Technologie-Experte mehr sein. Dies macht den Einzug in die „Hotel California“ Falle nur noch schlimmer, da die Mehrheit unserer Gesellschaft überhaupt nicht weiß, wie welche Dinge miteinander verknüpft sind, was technologisch im Hintergrund vor sich geht, geschweige denn was gerade wirklich passiert. Komfort im Hamsterrad.

    Unterm Strich liefert das Hamsterrad alle unsere Daten, welche die Grundlage für den Erfolg von Google & Co. bilden und als Waffen gegen die renommierten Unternehmen eingesetzt werden.

    Auswirkungen auf renommierte Unternehmen: Verändern, Innovationen schaffen oder Sterben

    Der sarkastische Teil dieser Geschichte besteht darin, dass jeder von uns Google & Co. bei ihrem Kampf gegen die Old Economy unterstützt, sogar die Old Economy selbst. Unternehmen der Old Economy sind ebenfalls zu den Kunden der Internet Giganten geworden. Aus einem guten Grund. In den meisten Fällen macht es keinen Sinn mehr, eine eigene IT-Infrastruktur oder Dienste in eigenen Umgebungen zu betreiben. Oder es ist einfach zu teuer, innovative Dienste selbst zu entwickeln, die bereits von Amazon, Google & Co. entwickelt wurden. Allerdings befinden sich renommierte Unternehmen in einem Teufelskreis. Denn auch wenn sie weiterhin die Besitzer ihre Daten sind – aus einer rechtlichen Perspektive – bedeutet dies nicht, dass sie der exklusive Besitzer des Wissens sind, welches aus diesen Daten entsteht.

    Daten und Erkenntnisse aus Daten sind die Grundlage, auf welcher die Internet Giganten Teile ihres Geschäfts aufgebaut haben. Sie arbeiten mit Daten und monetisieren diese. Allerdings handelt es sich dabei nur um einen Teil einer großen Maschinerie, wie die Internet Giganten funktionieren. Aber dieser eine Teil gibt ihnen die Macht, quasi jedes funktionierende Geschäftsmodell der Old Economy anzugreifen. Amazon ist nur ein Beispiel, das bereits damit begonnen hat, die Zwischenhändler in der eigenen Lieferkette aus dem Weg zu räumen. Wir können sicher sein, dass Unternehmen wie DHL, UPS oder FedEx in Zukunft ihre Geschäfte anders machen werden als heute – Hinweis: Amazon Prime Air. Weiterhin hat Amazon alles in die Wege geleitet, um ein vollständiger Ende-zu-Ende Anbieter von Gütern zu werden. Digital wie auch nicht Digital.

    Geht es um Artificial Intelligence – die Internet Giganten umarmen diese Technologie vollständig. Allerdings unterschätzen immer noch viel zu viele Führungskräfte, welche Auswirkungen dies auf ihr eigenes Unternehmen haben wird. Zur selben Zeit investieren die Internet Giganten in hohem Maße in Artificial Intelligence. Und insbesondere die Unternehmen der Old Economy werden zu den großen Verlierern in diesem Spiel gehören.

    Categories
    Cloud Computing

    Figure: Machine Learning Cloud Provider Overview

    Machine Learning Cloud Provider Overview

    Categories
    Cloud Computing

    Figure: Chatbot Cloud Provider Overview

    Chatbot Cloud Provider Overview

    Categories
    Analysen Uncategorized

    Amazon Web Services legt Teile des Internets lahm – Eine AI-defined Infrastructure kann dabei helfen, Ausfälle in der Cloud zu vermeiden

    Wieder einmal haben Amazon Web Services (AWS) das Internet kaputt gemacht oder besser „ein Tippfehler“. Am 28. Februar 2017 hat ein Ausfall von Amazon S3 in AWS’ ältester Cloud-Region US-EAST-1 zahlreiche bekannte Webseiten und Services vom Internet getrennt, darunter Slack, Trello, Quora, Business Insider, Coursera und Time Inc. Andere Nutzer berichteten zudem, dass sie nicht in der Lage waren, Endgeräte zu steuern, die mit dem Internet of Things verbunden waren, da das IFTTT ebenfalls von dem Ausfall betroffen war. Wie man sieht, werden diese Art von Ausfällen zu einer zunehmenden Bedrohung für unsere digitale Ökonomie. Um solchen Situationen vorzubeugen, sollten Cloud-Nutzer ständig das Shared-Responsibility Modell der Public Cloud berücksichtigen. Allerdings existieren ebenfalls Mittel und Wege, wie eine Artificial Intelligence (AI) dabei helfen kann. Dieser Artikel beschreibt, wie eine AI-defined Infrastructure bzw. eine AI-powered IT-Managementlösung dabei helfen kann, Ausfälle von Public Cloud-Anbietern zu vermeiden.

    Der Amazon S3 Ausfall – Was war passiert?

    Nach einem Ausfall veröffentlicht AWS immer eine Zusammenfassung der entstandenen Probleme, damit nachvollzogen werden kann, was passiert ist. Der nachfolgende Abschnitt beschreibt im Original die Ereignisse am Morgen des 28. Februar.

    Weitere Informationen finden sich unter “Summary of the Amazon S3 Service Disruption in the Northern Virginia (US-EAST-1) Region”.

    “The Amazon Simple Storage Service (S3) team was debugging an issue causing the S3 billing system to progress more slowly than expected. At 9:37AM PST, an authorized S3 team member using an established playbook executed a command which was intended to remove a small number of servers for one of the S3 subsystems that is used by the S3 billing process. Unfortunately, one of the inputs to the command was entered incorrectly and a larger set of servers was removed than intended. The servers that were inadvertently removed supported two other S3 subsystems.  One of these subsystems, the index subsystem, manages the metadata and location information of all S3 objects in the region. This subsystem is necessary to serve all GET, LIST, PUT, and DELETE requests. The second subsystem, the placement subsystem, manages allocation of new storage and requires the index subsystem to be functioning properly to correctly operate. The placement subsystem is used during PUT requests to allocate storage for new objects. Removing a significant portion of the capacity caused each of these systems to require a full restart. While these subsystems were being restarted, S3 was unable to service requests. Other AWS services in the US-EAST-1 Region that rely on S3 for storage, including the S3 console, Amazon Elastic Compute Cloud (EC2) new instance launches, Amazon Elastic Block Store (EBS) volumes (when data was needed from a S3 snapshot), and AWS Lambda were also impacted while the S3 APIs were unavailable.”

    Unterm Strich lässt sich also sagen, dass ein „Tippfehler“ das AWS-angetriebene Internet in die Knie gezwungen hat. AWS-Ausfälle haben eine lange Geschichte und je mehr AWS-Kunden ihre Web-Infrastrukturen auf dem Cloud-Giganten betreiben, desto mehr Probleme werden Endkunden in der Zukunft erleben. Laut SimilarTech wird alleine nur Amazon S3 bereits schon von 152,123 Webseiten und 124,577 und Domains eingesetzt.

    Folgt man allerdings der “Everything fails all the time“ Philosophie von Amazon.com CTO Werner Vogels, muss jeder AWS-Kunde das Konzept des “Design for Failure” berücksichtigen. Etwas, welches Cloud-Pionier und –Vorbild Netflix in Perfektion beherrscht. Als Teil davon hat Netflix beispielsweise seine Simian Army entwickelt. Eine Open-Source Toolbox, die jeder nutzen kann, um seine Cloud-Infrastruktur auf AWS hochverfügbar zu betreiben.

    Netflix setzt hierzu „ganz simpel“ auf die beiden Redundanz-Ebenen die AWS bietet: Multiple Regions und Multiple Availability Zones (AZ). Multiple Regions sind die Meisterklasse, wenn man AWS einsetzt. Sehr kompliziert und anspruchsvoll, da hierbei autarke Infrastrukturumgebungen innerhalb der weltweit verteilten AWS Cloud-Infrastruktur voneinander isoliert aufgebaut und betrieben werden und im Ausnahmefall gegenseitig den Betrieb übernehmen. Multiple AZs sind der bevorzugte und „einfachste“ Weg, um Hochverfügbarkeit (HA) auf AWS zu erreichen. In diesem Fall wird die Infrastruktur in mehr als einem AWS-Rechenzentrum (AZ) aufgebaut. Hierzu wird eine einzige HA-Architektur in mindestens zwei – am besten mehr – AZs bereitgestellt. Ein Load-Balancer sorgt anschließend für die Steuerung des Datenverkehrs.

    Auch wenn „Tippfehler“ nicht passieren sollten, zeigt der letzte Ausfall erneut, dass menschliche Fehler weiterhin zu den größten Problemen während des Betriebs von IT-Systemen gehören. Hinzu kommt, dass man AWS nur bis zu einem gewissen Grad die Schuld geben kann. Schließlich existiert in der Public Cloud die Shared-Responsibility.

    Shared Responsibility in der Public Cloud

    Ein entscheidendes Detail der Public Cloud ist das Self-Service-Modell. Die Anbieter zeigen sich, je nach ihrer DNA, nur für bestimmte Bereiche verantwortlich. Für den Rest ist der Kunde selbst zuständig.

    In der Public Cloud geht es also um die Aufteilung von Verantwortlichkeiten – auch als Shared-Responsibility – bezeichnet. Anbieter und Kunde teilen sich die Aufgabenbereiche untereinander auf. Die Eigenverantwortung des Kunden spielt dabei eine zentrale Rolle. Im Rahmen der IaaS-Nutzung ist der Anbieter für den Betrieb und die Sicherheit der physikalischen Umgebung zuständig, hierbei kümmert er sich um:

    • den Aufbau der Rechenzentrumsinfrastruktur,
    • die Bereitstellung von Rechenleistung, Speicherplatz, Netzwerk und einige Managed Services wie Datenbanken und gegebenenfalls andere Microservices,
    • die Bereitstellung der Virtualisierungsschicht, über die der Kunde zu jeder Zeit virtuelle Ressourcen anfordern kann,
    • das Bereitstellen von Services und Tools, mit denen der Kunde seine Aufgabenbereiche erledigen kann.

    Der Kunde ist für den Betrieb und die Sicherheit der logischen Umgebung verantwortlich. Hierzu gehören:

    • der Aufbau der virtuellen Infrastruktur,
    • die Installation der Betriebssysteme,
    • die Konfiguration des Netzwerks und der Firewall-Einstellungen,
    • der Betrieb der eigenen Applikationen und selbstentwickelter (Micro)-Services.

    Der Kunde ist somit für den Betrieb und die Sicherheit der eigenen Infrastrukturumgebung und den darauf betriebenen Systemen, Applikationen und Services sowie den gespeicherten Daten verantwortlich. Anbieter wie Amazon Web Services oder Microsoft Azure stellen dem Kunden jedoch umfangreiche Tools und Services zur Verfügung mit denen sich zum Beispiel die Verschlüsselung der Daten als auch die Identitäts- und Zugriffskontrollen sicherstellen lassen. Darüber hinaus existieren zum Teil weitere Enablement-Services (Microservices) mit denen der Kunde schneller und einfacher eigene Applikationen entwickeln kann.

    Der Cloud-Nutzer ist in diesen Bereichen also vollständig auf sich alleine gestellt und muss selbst Verantwortung übernehmen. Allerdings lassen sich diese Verantwortungsbereiche auch von einem AI-defined IT-Managementsystem bzw. einer AI-defined Infrastructure übernehmen.

    Eine AI-defined Infrastructure kann helfen Ausfälle zu vermeiden

    Eine AI-defined Infrastructure kann dabei helfen, Ausfälle in der Public Cloud zu vermeiden. Die Basis für diese Art von Infrastruktur liegt eine General AI zu Grunde, welche drei typische menschliche Eigenschaften vereint, mit denen Unternehmen in die Lage versetzt werden, ihre IT- und Geschäftsprozesse zu steuern.

    • Verstehen (Understanding): Mit dem Erstellen einer semantischen Landkarte (bestehend aus Daten) versteht die General AI die Welt, in welcher sich das Unternehmen mit seiner IT und dem Geschäftszweck befindet.
    • Lernen (Learning): Anhand von Lerneinheiten erhält die General AI die Best Practices und Gedankengänge von Experten. Hierzu wird das Wissen in granularen Stücken (Knowledge Items) vermittelt, welche einen separaten Teil eines Prozesses beinhalten.
    • Lösen (Solving): Mit dem Konzept des “Machine Reasoning” lassen sich Probleme in unklaren und insbesondere sich ständig verändernden Umgebungen lösen. Die General AI ist damit in der Lage, dynamisch auf den sich fortwährend wechselnden Kontext zu reagieren und den besten Handlungsablauf zu wählen. Anhand von Machine Learning werden die Ergebnisse basierend auf Experimenten optimiert.

    Im Kontext eines AWS-Ausfalls würde dies dann in etwa so ausschauen:

    • Verstehen (Understanding): Die General AI erstellt eine semantische Landkarte der AWS-Umgebung als Teil der Welt in welcher sich das Unternehmen befindet.
    • Lernen (Learning): IT-Experten erstellen Knowledge Items während sie die AWS-Umgebung aufbauen und damit arbeiten und lernen der General AI damit Best Practices. Damit bringen die Experten der General AI kontextbezogenes Wissen bei, welches das „Was“, „Wann“, „Wo“ und „Warum“ beinhaltet – z.B., wenn ein bestimmter AWS-Service nicht antwortet.
    • Lösen (Solving): Basierend auf dem angelernten Wissen reagiert die General AI dynamisch auf Vorfälle. Damit ist die AI (möglicherweise) in der Lage zu wissen, was sie in einem bestimmten Moment zu tun hat – auch dann, wenn eine Hochverfügbarkeitsumgebung nicht von Beginn an berücksichtigt wurde.

    Natürlich ist alles, was oben beschrieben wird, keine Magie. Wie jeder neu geborene Organismus bzw. jedes neu entstandene System muss auch eine AI-defined Infrastructure angelernt werden, um anschließend autonom arbeiten zu können und Anomalien als auch Ausfälle in der Public Cloud eigenständig zu entdecken und lösen zu können. Hierfür ist das Wissen von Experten erforderlich, die über ein tiefgreifendes Verständnis von AWS und wie die Cloud im Allgemeinen funktioniert, verfügen. Diese Experten bringen der General AI dann ihr kontextbezogenes Wissen bei. Sie lernen die AI mit kleinen Wissensstücken (Knowledge Items, KI) an, die sich von der AI indizieren und priorisieren lassen. Der Kontext und das Indizieren erlauben es der General AI die KIs zu kombinieren und damit unterschiedliche Lösungsansätze – Domain-übergreifend – zu finden.

    KIs die von unterschiedlichen Experten erstellt werden, führen zu einem Wissenspool, aus welchem anhand des „Machine Reasoning“ die bestmöglichen Wissenskombinationen zusammengeführt werden, um Lösungen zu finden. Je mehr Aufgaben über die Zeit durchgeführt werden, führt diese Art des kollaborativen Lernens zu einer besseren Bearbeitungszeit. Weiterhin steigt die Anzahl möglicher Permutationen exponentiell mit der Menge an hinzugefügten Wissens an. Verbunden mit einem Knowledge Core, optimiert die General AI kontinuierlich ihre Leistung, indem sie nicht notwendige Schritte beseitigt und anhand des kontextbasierten Lernens zudem Lösungswege verändert. Je größer der semantische Graph und der Knowledge Core werden, desto besser und dynamischer kann die Infrastruktur im Kontext von Ausfällen agieren.

    Zu guter Letzt sollte niemals der Community-Gedanke unterschätzt werden! Unser Research bei Arago zeigt, dass sich Basiswissen in 33 Prozent überschneidet. Dieses kann und wird außerhalb von bestimmten Organisationsumgebungen eingesetzt – z.B. über unterschiedliche Kundenumgebungen hinweg. Die Wiederverwendung von Wissen innerhalb einer Kundenumgebung beträgt 80 Prozent. Somit ist der Austausch von Basiswissen innerhalb einer Community ein wichtiger Bestandteil, um die Effizienz zu steigern und die Fähigkeiten einer General AI zu verbessern.

    Categories
    Analysen Uncategorized

    Disruption: Die Cloud war nur der Anfang! Schon das Potential von Artificial Intelligence berücksichtigt?

    Über viele Jahre hinweg wurde die Cloud als das disruptivste Element aller Zeiten betrachtet. Für die IT gilt dies unumstritten. Allerdings lassen sich nur schwer belastbare Argumente für den gesamten Enterprise-Stack finden. Die Cloud stellt alle notwendigen Tools bereit, mit welchen sich die Digitale Evolution auf einer sehr technischen Ebene unterstützt lässt, um Infrastrukturen, Plattformen und Software als Service zu beziehen, aufzubauen und zu betreiben. Damit muss die Cloud als die wesentliche Grundlage betrachtet werden. Für IT- als auch Unternehmenslenker besteht die Pflicht heute jedoch im Kontext der Artificial Intelligence (AI). Nur wenn sie es schaffen, das Wissen des Unternehmens und aller angrenzenden Umgebungen autonom zu sammeln, aggregieren und zu verarbeiten werden sie in Zukunft wettbewerbsfähig bleiben.

    Im Jahr 2016 hat der Hype um AI seinen derzeitigen Höhepunkt erreicht. Die Analysten von Tractica gehen davon aus, dass „der weltweit jährliche Umsatz mit AI von $643.7 Millionen in 2016 auf $38.8 Milliarden in 2025 anwachsen wird“. Der Umsatz für „AI Enterprise Applikationen wird von $358 Millionen in 2016 auf $31.2 Milliarden in 2025 anwachsen. Eine CAGR von 64,3 Prozent“.

    Die Cloud ist gekommen um zu bleiben! Weiter geht’s…

    Die Cloud stellt einen Meilenstein in der Informationstechnologie dar. Immer mehr Unternehmen weltweit betrachten dynamische Infrastrukturen und Plattformen als wesentlichen Teil ihrer IT-Strategie. In seinem jüngsten Report nennt Forrester Analyst Paul Miller einen wichtigen Hinweis, der das Cloud-Wachstum bestätigt. So hat Miller identifiziert, dass „Cloud-Anbieter wie IBM und Interoute ihre Strategien dahingehend ausgerichtet haben, kleinere Rechenzentren über mehrere Länder hinweg zu verteilen. Nun folgen ihnen ebenfalls ihre großen Rivalen, um weitere Länder auf die Karte ihrer Rechenzentrumslandschaft hinzuzufügen.“ Sie verfolgen damit zum einen das Ziel, die Nachfrage zu bedienen, aber ebenfalls die lokalen Marktanforderungen wie lokale Rechte zu erfüllen. Laut Miller „[…] zielen mehrere Cloud-Anbieter ebenfalls auf andere europäische Länder: Schweden, Finnland, Italien und weitere wie aus den letzten Ankündigungen hervorgeht“.

    Es lässt sich somit festhalten, dass die Cloud endgültig angekommen ist und als Grundlage für das Digital Enterprise gilt, indem sie die notwendigen Infrastrukturen und Plattformen bzw. Services bereitstellt. Dies ist eine wichtige Erkenntnis. Schließlich befinden sich Unternehmen weltweit weiterhin inmitten ihres Digital Transformation Prozess. Auf diesem Weg sind sie auf Lösungen angewiesen, welche sie bei der technologischen Implementierung ihrer individuellen digitalen Strategie unterstützen, um eine Grundlage für neuartige Geschäftsmodelle und agile Geschäftsprozesse zu entwickeln.

    Wer jedoch weiterhin denkt, dass es sich bei der Cloud um die disruptivste Kraft handelt, der sollte sich das Potential von AI genauer anschauen. Die Cloud ist lediglich ein Mittel zum Zweck, um ein modernes digitales Unternehmen aufzubauen, welches von heute an mit AI ausgebaut werden muss.

    Willkommen in einer AI-defined World

    Kommend von einer Infrastruktur-Perspektive sollte heute jedes IT-Managementsystem in der Lage sein, vollständig automatisiert, das existierende Wissen der IT-Umgebung zu nutzen. So sollte beispielsweise das IT-Managementsystem wissen, wenn das Speicherbackend eines E-Mail-Servers nicht mehr ausreichend Speicherplatz besitzt. Dies lässt sich simpel anhand des durchschnittlichen E-Mail-Aufkommens pro Tag vorhersagen. Wird ein bestimmter Schwellenwert erreicht, fügt das System automatisch bzw. autonom weiteren Speicherplatz aus einem Storage Pool (Software-defined Storage) oder einem angebundenen Cloud-Storage-Anbieter hinzu.

    Allerdings handelt es sich bei dieser sogenannten AI-defined Infrastructure (AiDI) nur um einen Teil der AI-Geschichte. Und auch wenn IT-Infrastrukturen als selbstverständlich betrachtet werden, ist Unternehmen aus der Old Economy zu raten, ihre AI-Reise auf Infrastruktur-Ebene zu beginnen, um ihr AI-defined Enterprise von unten heraus mit einer Autonomous Automation zu unterstützen. Die vier folgenden Anwendungsfälle zeigen diesen Bottom-Up Ansatz und wie eine AI IT und Geschäftsprozesse unterstützt:

    • CompuCom Systems nutzt Artificial Intelligence, um seine Cloud, Rechenzentren und Infrastrukturlösungen zu optimieren.
    • UBS setzt auf Artificial Intelligence, um die Effizient und Effektivität zu verbessern und gleichzeitig das geistige Eigentum zu behalten.
    • VirtusaPolaris integriert Artificial Intelligence in seine Kore Managed IT Solutions Platform.
    • Kloeckner & Co implementiert Artificial Intelligence, um seine Digital-Strategie zu unterstützen.

    Tractica hat etwa 200 weitere Enterprise AI Anwendungsfälle innerhalb von 25 Industrien identifiziert.

    Anders als die Cloud hat Artificial Intelligence einen großen Einfluss auf den gesamten Enterprise Stack, indem nahezu jeder Unternehmensbereich disruptiv auf den Kopf gestellt werden kann. Zu potentiellen Einflussbereichen zählen:

    • Ersatz wiederholbarer und manueller Aufgaben
    • Medizinische Diagnose und Gesundheitswesen
    • Automatisierter Kundenservice
    • Echtzeit Übersetzung und Spracherkennung
    • Identifizierung von Anomalien
    • Einkaufsvorhersagen
    • Betrugsaufdeckung
    • Empfehlungsunterstützung
    • Marktdatenanalyse
    • Automatisiertes Trading

    Hierbei handelt es sich nur um eine kleine Auswahl, wo AI einen potentiellen Einfluss nehmen wird. Es zeigt allerdings deutlich, dass der moderne Enterprise Stack vollständig mit Artificial Intelligence definiert werden muss, um ein AI-enabled Enterprise zu schaffen. Denn nur wenn Unternehmen ihr Wissen gezielt einsetzen und dies mit ihren angrenzenden Umgebungen kombinieren und damit ihre eigene AI erschaffen, werden sie in Zukunft wettbewerbsfähig sein.

    Categories
    Analysen Uncategorized

    AI-defined Infrastructure (AiDI) – Denn Infrastrukturen benötigen mehr Intelligenz

    Software-defined Infrastructure (SDI) gehören unumstritten zu den aktuell wichtigsten Trends in Rechenzentren und Cloud-Umgebungen. Anhand des Einsatzes von Skripten oder Source Code sorgt eine SDI für eine bessere Flexibilität auf Infrastrukturebene. Allerdings darf eine SDI lediglich nur als ein Mittel zum Zweck betrachtet werden. Schließlich führen ein hoher Automatisierungsgrad sowie intelligente Systeme basierend auf komplexen Algorithmen zu einer Artificial Intelligence defined Infrastructure (AI-defined Infrastructure – AiDI).

    SDI ist nur ein Mittel zum Zweck

    Eine SDI trennt die Software von der Hardware. Damit befindet sich die Kontrollinstanz nicht mehr innerhalb der Hardware-Komponenten, sondern oberhalb integriert in einem Software-Stack. Basierend auf Software und entsprechender Automatisierungslogik ist eine SDI so konzipiert, dass sie eine Infrastruktur weitestgehend ohne menschliche Interaktion aufbauen und kontrollieren kann.

    Eine typische SDI-Umgebung, z.B. eine Cloud-Infrastruktur, wird anhand der Entwicklung von Skripten oder Programmcode aufgebaut. Die Software beinhalt hierzu alle notwendigen Befehle, um eine vollständige Infrastruktur-Umgebung, inklusive Applikationen und Services, zu konfigurieren. Eine SDI-basierte Infrastruktur arbeitet unabhängig von einer bestimmten Hardware-Umgebung. Somit kann eine Infrastruktur vollständig, unabhängig der eingesetzten Hardware-Komponenten, durch Software ausgetauscht werden. Nur ein Grund, warum SDIs die Basis heutiger Cloud-Infrastruktur-Umgebungen sind.

    Jedoch sollte eines bedacht werden, eine SDI ist nicht intelligent. Sie basiert auf statischem Programmcode, in welchem Befehle fest kodiert sind, um bestimmte Aktionen automatisch vorzunehmen.

    Die AI-defined Infrastructure (AiDI)

    Eine Software-defined Infrastruktur ist ein wichtiges Konzept, um dynamische IT-Umgebungen aufzubauen und zu betreiben. Allerdings bewegt sich eine SDI in den Grenzen von statischem Programmcode bzw. den Kenntnissen des verantwortlichen Entwicklers beziehungsweise des Administrators, welche die Skripte oder den Programmcode für die Umgebung schreiben. Weiterhin ist eine SDI nur zu einem bestimmten Grad dynamisch, da diese nicht in der Lage ist, die eigene Umgebung zu verstehen bzw. von ihr zu lernen.

    Eine Artificial Intelligence defined Infrastructure (AI-defined Infrastructure – AiDI) erweitert eine SDI mit notwendigen komplexen Algorithmen, Machine Learning und Artificial Intelligence – und macht eine SDI somit intelligent. Eine AiDI erlaubt es einer SDI, selbstlernende bzw. selbstheilende Infrastruktur-Umgebungen aufzubauen und zu betreiben. AI-defined Infrastructure Umgebungen sind somit in der Lage, ohne menschliche Interaktion,

    • abhängig von den Workload-Anforderungen, die notwendigen Ressourcen bereitzustellen sowie diese wieder zu de-allokieren, wenn sie nicht mehr benötigt werden.
    • fortlaufend das sich ständig verändernde Verhalten und den Status einzelner Infrastruktur-Komponenten zu analysieren und sich damit selbst zu verstehen.
    • auf den Status einzelner Infrastruktur-Komponenten zu reagieren bzw. proaktiv zu agieren, indem autonom Aktionen durchgeführt werden, um die Infrastruktur damit in einen fehlerfreien Zustand zu überführen.

    Eine AI-defined Infrastructure kann nicht mit altbekannten Automationslösungen verglichen werden, die typischerweise mit vordefinierten Skripten und Runbooks arbeiten. Eine AI-defined Infrastructure nutzt das existierende Wissen eines Unternehmens und führt dieses automatisch und unabhängig aus. Wie jeder neugeborene Organismus muss eine AI-defined Infrastructure trainiert werden, um anschließend autonom zu agieren. Anhand des (selbst)-erlernten Wissens werden Störungen automatisch beseitigt und das ebenfalls proaktiv für nicht erwartete Ereignisse, indem passende Vorfälle aus der Vergangenheit autonom verknüpft werden. Demnach überwacht und analysiert eine AI-defined Infrastructure alle dazugehörigen Komponenten in Echtzeit, um ein Problem zu identifizieren und auf Basis des existierenden Wissens zu lösen. Je mehr Incidents gelöst werden, desto größer wird das Wissen der AI-defined Infrastructure. Bei dem Kern einer AI-defined Infrastructure handelt es sich somit um eine wissensbasierte Architektur, welche Incidents und Veränderungen erkennen kann und eigenständig Strategien entwickelt, um ein Problem zu lösen.

    Weiterhin setzt eine AI-defined Infrastructure auf Communities, um

    • das Wissen von externen Experten zu nutzen, um intelligenter zu werden.
    • sich mit anderen AI-defined Infrastructure Umgebungen zu verbinden, um die Wissensbasis zu kombinieren und zu teilen.
    • ständig den Wissenspool zu erweitern.
    • das Wissen zu optimieren.

    Im Großen und Ganzen handelt es sich bei einer AI-defined Infrastructure um ein intelligentes System, welches initial mit externen Wissen befüllt wird und anschließend in der Lage ist, eigenständig zu lernen und autonom Entscheidungen zu treffen, ohne auf menschliche Interaktionen angewiesen zu sein.

    Die AiDI ist nur ein kleiner Teil des AI-defined Enterprise Stacks

    Eine AI-defined Infrastructure ist ein essentieller Teil des heutigen IT-Betriebs und bildet die Basis für das AI-enabled Enterprise. Zunächst ermöglicht sie es IT-Abteilungen, das Verhalten ihrer Infrastrukturen von einer semi-dynamischen hin zu einer Echtzeit IT-Umgebung zu verändern.

    Diese autonome Art der Planung, des Aufbaus, Betriebs und der Wartung einer Infrastruktur befähigt IT-Abteilungen und Entwickler Ressourcen wie Server, Storage, Netzwerk, Datenbanken und andere Services höchsteffizient bereitzustellen, indem sie nicht nur das Wissen eines einzelnen Experten nutzen, sondern des gesamten IT-Betrieb Teams. Weiterhin wird der IT-Betrieb damit von einem reinen Konsumenten von Ressourcen zu einem Orchestrierter bzw. Manager eines vollständig automatisierten und intelligenten IT-Stacks – die wesentliche Grundlage eines Ende-zu-Ende AI-ready Enterprise.

    Categories
    Cloud Computing @de

    Analyst Strategy Paper: Platform-as-a-Service und Container Technologien im Zeitalter der Digitalen Transformation

    Der Digitalisierungsdruck steigt. Die Digitalisierung setzt deutsche Unternehmensentscheider unter Druck, ihre Geschäftsmodelle und Services den gestiegenen Anforderungen an Flexibilität und Mobilität anzupassen. Mittlerweile sehen sich mehr als 85 Prozent der deutschen Unternehmen stark oder sehr stark von der Digitalisierung betroffen.

    Multi- und Hybrid-Cloud liegen im Trend. Im Rahmen der Digitalisierung setzen Unter- nehmen zukünftig vermehrt auf Multi- und Hybrid-Cloud-Szenarien. Allerdings ist die Integration mit der bestehenden IT für viele Unternehmen immer noch eine große Herausforderung.

    Managed Public Cloud Provider übernehmen die Digitale Transformation ihrer Kunden. Managed Public Cloud Provider (MPCP) haben die Herausforderungen ihrer Kunden erkannt und übernehmen im Rahmen der Digitalen Transformation für diese die Planung, den Aufbau und den Betrieb der zukünftigen Cloud-Szenarien.

    Platform-as-a-Service gehört die Zukunft. Denn PaaS-Plattformen vereinfachen nicht nur die Anwendungsentwicklung, sondern geben Kunden auch wichtige Mehrwertservices an die Hand, mit welchen sie im Rahmen ihrer Cloud-Strategie ihre eigene Cloud-nativen Anwendungen aufbauen und verwalten, sowie externe Lösungen integrieren können.

    Container-Technologien stehen für Flexibilität und Portabilität. Container können nicht nur für Cloud-native Anwendungen die Flexibilität und die Portabilität erhöhen, sondern auch Legacy-Anwendungen t für die Cloud machen. Sie gehören somit in den Baukasten eines jeden MPCPs.

    Das Analyst Strategy Paper kann unter “Platform-as-a-Service und Container Technologien im Zeitalter der Digitalen Transformation – Wie Managed Public Cloud Provider Multi- und Hybrid Cloud-Umgebungen effektiv aufbauen können” kostenlos heruntergeladen werden.

    Categories
    Cloud Computing

    Interview: Innovation and scalability in the public cloud

    In this interview with Cloud Era Institute, I discuss the growing trend of companies opting into the public cloud to leverage scalable infrastructure and global outreach. I also share how vendor lock-in contributes to innovation. I provide an important distinction between data privacy and data security, and explain why the public cloud is a shared responsibility.

    What trends are you seeing in the public cloud right now?

    The first trend is that the public cloud is growing because enterprises need innovation and global scalability. Previously enterprises talked about building private cloud environments, but soon realized the financial impact of building a massive, scalable infrastructure. Last year, Amazon Web Services (AWS) released over seven hundred new services and functionalities, something that would not be possible for a private cloud or a web hosting company. Amazon and Microsoft Azure are investing heavily in innovations at the infrastructure level, in data center operating, and new services.

    Another big trend we are seeing are containers like Docker, which has gained momentum because of the importance of portability. With Docker, you can move workloads to different cloud providers. You can capitulate your application and its dependencies in a container, then move everything from one system to another.

    A third trend is microservices such as Azure machine learning or AWS Short Notification Service. You can use the microservice approach to create your own powerful application.

    Netflix is an on-demand video streaming platform with massive scalability and a highly available application on top of AWS, created based on microservice architecture. Their application is always running because when one microservice has a problem, the others remain unaffected. It is a single application running on top of AWS and connected via a public API.

    CIOs and developers typically don’t like vendor lock-in, but I believe it helps with innovation. If you are using an iPhone, then you are totally locked in the Apple environment, and you love it. Apple is able to innovate because they have a closed ecosystem. It’s the same with AWS and Azure, since they also have service lock-in. This is how companies are able to innovate.

    What has been the biggest challenge for businesses in the public cloud?

    For Germany, Europe, and the U.S., it is data privacy and security. It is important to separate data privacy and data security. Data privacy is about legality issues and ensuring that you are fulfilling the law. Data security means that data is stored securely so nobody can access it without authorization.

    Germany thinks its data centers are more secure than the U.S., which is not true. Data centers in Germany, the U.S., or Australia have the same physical security. When it comes to data security, it is no big deal to store data in the U.S.

    Another big issue is a lack of cloud knowledge. The cloud has been around more than ten years, yet there is still a global lag. Many people do not understand how to create cloud applications that can be used on cloud platforms; from the design, to the architecture, microservices, and containers.

    Public clouds are shared-security environments. There is a lack of knowledge about this as well. A public cloud provider is only responsible for the physical infrastructure and ensuring that the virtual infrastructure can be deployed.

    Everything on top of the virtual infrastructure belongs to the customer. In the public cloud, the customer has to create their own virtual infrastructure, for example on top of AWS, and then has to run systems and applications on top of it. To fire up a virtual machine is not cloud. The application and virtual infrastructure must also be scalable.

    What have observed about marketing as it relates to the cloud?

    It is not only a cloud issue; it is that many companies do not focus on content marketing. It is better to market your products with good content, not just advertisements. Unique content is just as important as having an expert voice contributing to it. It is better to let the people write who are experts, not the marketing people.

    – – –

    – – –
    The interview with Cloud Era Institute has been published under “Global technology expert, Rene Buest, on innovation and scalability in the public cloud“.

    Categories
    Analysen

    Interview: Public-Cloud-Dienste – Auf der Suche nach dem weissen Ritter.

    Die optimale Strategie für Public-Cloud-Dienste in Unternehmen – ein Interview mit Analyst und Cloud-Experte René Büst.

    Herr Büst, Public, Private, Hybrid: Wann wird denn welches Cloud-Angebot für Unternehmen relevant?

    Das lässt sich pauschal nicht sagen. Es gibt mittlerweile eine steigende Anzahl von Unternehmen, die sich intensiv mit der Public Cloud beschäftigen und den „All-in“-Weg beschreiten. Das bedeutet, dass sie keine eigene lokale IT-Infrastruktur oder gar ein Rechenzentrum mehr besitzen und stattdessen alles auf Public-Cloud-Infrastrukturen beziehungsweise -Plattformen ausgelagert haben oder per Software-as-a-Service beziehen. Jedoch handelt es sich dabei derzeit noch um eine Minderheit.

    …das heisst?

    Dass die meisten Unternehmen aktuell bevorzugt noch auf Private-Cloud-Umgebungen setzen. Das ist eine logische Konsequenz aus der vorhandenen Legacy, welche die Unternehmen in ihrer IT noch mit sich führen. Allerdings sehen wir den Großteil der deutschen Unternehmen zukünftig in hybriden beziehungsweise Multi-Cloud-Architekturen, um darüber sämtliche Facetten abzudecken, die sie für ihre digitale Transformation benötigen.

    Und wie können Unternehmen diese unterschiedlichen Lösungen im Verbund steuern?

    Hierfür bieten sich Cloud-Management-Lösungen an, die über Schnittstellen zu den gängigsten Public-Cloud-Angeboten als auch Private-Cloud-Lösungen verfügen. Damit stehen mächtige Werkzeuge bereit, mit denen sich Workloads auf den unterschiedlichen Umgebungen verwalten und virtuelle Maschinen, Daten und Applikationen verschieben lassen. Eine weitere Möglichkeit für das nahtlose Management bieten iPaaS: Bei einem Integration Platform-as-a-Service (iPaaS) handelt es sich um Cloud-basierte Integrationslösungen. Diese wurden vor der Cloud-Ära auch als „Middleware“ bezeichnet. Sie unterstützen bei der Interaktion zwischen unterschiedlichen Cloud-Services.
    Worauf müssen Unternehmen beim Einsatz dieser Cloud-Dienste grundsätzlich achten?
    Sowohl das fehlende Verständnis für die Public Cloud als auch die Herausforderungen, die mit dem Aufbau und Betrieb von Multi-Cloud-Umgebungen einhergehen, dürfen keinesfalls unterschätzt werden. Der Vorteil, der von der Nutzung multipler Cloud-Infrastrukturen, -Plattformen und -Services ausgeht, ist oft teuer bezahlt: Es entstehen Kosten hinsichtlich Komplexität, Integration, Management und dem notwendigen Betrieb. Sowohl das Multi-Cloud-Management als auch eine grundsätzlich mangelnde Cloud-Erfahrung sind derzeit in vielen Unternehmen zentrale Herausforderungen.

    Was ist die Lösung?

    Als sozusagen weiße Ritter oder Helfer in der Not bringen sich hierfür Managed Public Cloud Provider (MPCP) in Position. Diese entwickeln und betreiben die Systeme, Applikationen und virtuellen Umgebungen ihrer Kunden – und das sowohl auf den Public-Cloud-Infrastrukturen als auch in Multi-Cloud-Umgebungen in einem Managed-Cloud-Service-Modell.

    – – –

    – – –
    Das Interview mit T-Systems ist zuerst unter “Public-Cloud-Dienste: Auf der Suche nach dem weissen Ritter.” erschienen.