Categories
IT-Infrastrukturen

AI-Infrastrukturen: Die Basis von Geschäftsmodellen und Applikationen der nächsten Generation

Der Hype um Artificial Intelligence (AI) hat 2016 seinen vorläufigen Höhepunkt erreicht. Das Marktforschungs- und Beratungshaus Tractica geht davon aus, dass der weltweite jährliche Umsatz mit AI von 643,7 Millionen Dollar in 2016 bis 2025 auf 38,8 Milliarden Dollar anwachsen wird. Der Umsatz mit “AI Enterprise-Applikationen” soll von 358 Millionen Dollar in 2016 auf 31,2 Milliarden Dollar im Jahr 2025 steigen. Die durchschnittliche jährliche Zuwachsrate liege bei stolzen 64,3 Prozent. IT- und Business-Entscheider müssen sich heute also mit dem Potenzial von AI auseinandersetzen. Für Unternehmen jeglicher Art und Form stellt sich somit die Frage, mit welchen Technologien bzw. Infrastrukturen, sie ihren Enterprise-Stack AI-ready machen.

Was ist Artificial Intelligence (AI)?

„Das Ziel der Artificial Intelligence besteht darin, Maschinen zu entwickeln, welche sich so verhalten, als wären sie intelligent.“ (Prof. John McCarthy, 1955)

Sprechen wir in diesem Zusammenhang von intelligent, dann reden wir von einem sich dynamisch verhaltenen System. Ein System, das wie ein leerer IQ-Container betrachtet werden muss. Ein System, das unstrukturierte Informationen benötigt, um seine Sinne zu trainieren. Ein System, welches ein semantisches Verständnis der Welt benötigt, um in der Lage zu sein zu handeln. Ein System, das auf eine detaillierte Karte seines Kontext angewiesen ist, um unabhängig zu agieren und Erfahrungen aus einem Kontext in den anderen zu übertragen. Ein System, das mit allen notwendigen Mitteln ausgestattet ist, um Wissen zu entwickeln, auszubauen und aufrechtzuerhalten.

Hierbei liegt es in unserer Verantwortung, unser Wissen mit diesen Maschinen zu teilen als würden wir es mit unseren Kindern, Partnern oder Kollegen teilen. Dies ist der einzige Weg, um diese Maschinen, bestehend aus Hard- und Software, in einen Status zu überführen, den wir als „intelligent“ beschreiben. Nur damit helfen wir ihnen, auf einer täglichen Basis intelligenter zu werden und legen damit die Grundlage, ein selbstlernendes System zu schaffen. Hierzu werden in der AI-Forschung drei unterschiedliche Typen von AIs unterschieden:

  • Strong AI: Bei einer Strong AI handelt es sich um eine selbstbewusste Maschine, die über Gedanken, Gefühle, einem Bewusstsein und den dazugehörigen neuronalen Verwachsungen verfügt. Wer sich Kann schon auf eine Realität á la „Her“ oder „Ex_Machina“ freut, wird sich noch etwas gedulden müssen. Eine Strong AI existiert derzeit nicht und es wird noch eine unbestimmte Zeit dauern, bis diese Form existieren wird.
  • Narrow AI: Die meisten Anwendungsfälle im AI-Bereich fokussieren sich aktuell darauf, Lösungen für ein sehr spezielles Problem zu bieten. Diese sogenannten Narrow AIs sind sehr gut darin spezifische Aufgaben zu lösen, wie z.B. das Empfehlen von Songs auf Pandora oder Analysen, um die Tomatenzucht in einem Gewächshaus zu optimieren.
  • General AI: Eine General AI ist in der Lage, Aufgaben aus unterschiedlichen Bereichen und Ursprüngen zu bearbeiten. Hierzu besitzt sie die Fähigkeiten, die Trainingsintervalle von einem Bereich zu einem anderen zu verkürzen, indem sie die gesammelten Erfahrungen aus dem einen Bereich in einem anderen Artfremden Bereich anwenden kann. Der hierfür notwendige Wissenstransfer ist nur dann möglich, wenn eine semantische Verbindung zwischen diesen Bereichen existiert. Hinzu kommt: Je stärker und verdichteter diese Verbindung ist, desto schneller und einfacher lässt sich der Wissensübergang erreichen. Im Vergleich zu einer Narrow AI besitzt eine General AI somit alles notwendige Wissen und Fähigkeiten, um neben der Tomatenzucht in einem Gewächshaus gleichzeitig Gurken, Auberginen, Paprika, Radieschen, Rettich und Kohlrabi zu züchten. Eine General AI ist also ein System, was mehr als nur eine spezifische Aufgabe erledigen kann.

Eines liegt klar auf der Hand. Ohne Technologien wie z.B. das Cloud Computing hätte AI nicht seinen Boom in der heutigen Zeit erreicht. Sowohl Cloud-Services als auch Fortschritte im Bereich der Machine Intelligence haben es für Unternehmen einfacher gemacht, AI-basierende Funktionsweisen einzusetzen, um enger mit ihren Kunden zu interagieren. Immer mehr Unternehmen wie Airbnb, Uber oder Expedia setzen bereits auf Cloud-basierte Systeme, um AI-relevante Aufgaben zu verarbeiten, welche auf einen intensiven CPU/ GPU-Einsatz sowie Services für umfangreiche Datenverarbeitungs- und Analyseaufgaben zurückgreifen.

Unternehmen sollten im Kontext ihrer AI-Strategie daher die AI-Services unterschiedlicher Cloud-Anbieter evaluieren. Ein weiterer Teil ihrer Strategie sollte eine AI-defined Infrastructure einnehmen. Die Basis für diese Art von Infrastruktur liegt eine General AI zu Grunde, welche drei typische menschliche Eigenschaften vereint, mit denen Unternehmen in die Lage versetzt werden, ihre IT- und Geschäftsprozesse zu steuern.

  • Lernen (Learning): Anhand von Lerneinheiten erhält die General AI die Best Practices und Gedankengänge von Experten. Hierzu wird das Wissen in granularen Stücken vermittelt, welche einen separaten Teil eines Prozesses beinhalten. Im Kontext eines Gewächshauses lernen die Experten der AI z.B. sämtliche Prozessschritte detailliert an, was sie tun, um bspw. eine Gurke, eine Aubergine und eine Paprika zu züchten. Hierbei teilen sie der AI kontextbezogenes Wissen mit, welches u.a. das „Was muss gemacht werden“ und „Warum muss dies gemacht werden“ beinhaltet.
  • Verstehen (Understanding): Mit dem Erstellen eines semantischen Graphs (bestehend aus Daten) versteht die General AI die Welt, in welcher sich das Unternehmen mit seiner IT und dem Geschäftszweck befindet. Der semantische Graph eines Gewächshauses würde demnach verschiedene Kontexte (z.B. Informationen, Eigenschaften und Spezifika über das Gewächshaus, die Gurkenzucht, die Auberginenzucht und die Paprikazucht) zusammenfassen und ständig mit hinzugeführten Wissen (vgl. Lernen) anreichern. Die IT des Unternehmens spielt dabei eine wichtige Rolle, da hier sämtliche Daten zusammenlaufen.
  • Lösen (Solving): Mit dem Konzept des Machine Reasoning lassen sich Probleme in unklaren und insbesondere sich ständig verändernden Umgebungen lösen. Die General AI ist damit in der Lage, dynamisch auf den sich fortwährend wechselnden Kontext zu reagieren und den besten Handlungsablauf zu wählen. Anhand des antrainierten Wissens (Lernen) und dem Aufbau des semantischen Graphs (Verstehen) ist die General AI in einem Gewächshaus damit in der Lage, nicht nur ausschließlich eine einzige Gemüsesorte (das wäre eine Narrow AI) zu züchten. Dies erfolgt anhand der wachsenden Menge an antrainierten Wissensbausteinen, die zu einem Wissenspool führen, aus welchem anhand des Machine Reasoning die bestmöglichen Wissenskombinationen kombiniert werden, um Lösungen zu finden. Je mehr Wissensbausteine über die Zeit hinzugefügt werden, führt diese Art des kollaborativen Lernens zu einer besseren Bearbeitungszeit. Weiterhin steigt die Anzahl möglicher Permutationen exponentiell mit der Menge an hinzugefügten Wissens an. Je größer also der semantische Graph wird, desto mehr und dynamischer können weitere Gemüsesorten gezüchtet werden.

Welche Anforderungen hat Artificial Intelligence an Infrastrukturumgebungen?

AI ist derzeit die Technologie, welche das Potential besitzt, nicht nur existierende Infrastrukturen – wie Cloud-Umgebungen – zu verbessern, sondern ebenfalls eine neue Generation von Infrastruktur-Technologien voranzutreiben. Denn als ein wichtiger Technologie-Trend hat AI neben der Entwicklung einer ganz neuen Generation von Programmier-Frameworks auch die Anforderungen an eine neue Generation von Hardware-Technologien beeinflusst, um AI-Applikationen skalierbar zu betreiben.

Mobile- und IoT-Anwendungen haben hinsichtlich der Runtime-Umgebung bisher nur geringe Anforderungen an eine Infrastruktur gestellt. Hierfür war es hingegen kritisch, entsprechende Services bereitzustellen, mit denen ein Backend aufgebaut werden kann. Im Gegensatz dazu erwarten AI-Applikationen nicht nur anspruchsvolle Backend-Services, sondern auch optimierte Runtime-Umgebungen, welche auf die GPU-intensiven Anforderungen von AI-Lösungen abgestimmt sind. AI-Applikationen fordern die Infrastruktur hinsichtlich der parallelen Verarbeitung von Aufgaben in sehr kurzen Zeitzyklen heraus. Insbesondere für die Beschleunigung von Deep Learning Anwendungen kommen dann bevorzugt GPU-Prozessoren zum Einsatz. GPU-optimierte Anwendungen verteilen die rechenintensiven Bereiche der Anwendung auf die GPU (Graphikprozessor) und lassen die einfachen Berechnungen wie gewöhnlich von der CPU verarbeiten. Damit wird die Ausführung der gesamten Anwendung beschleunigt. Der Vorteil einer GPU gegenüber einer CPU zeigt sich in den jeweiligen Architekturen. Eine CPU ist ausschließlich auf die serielle Verarbeitung ausgelegt und verfügt nur über wenige Kerne. Eine GPU hingegen besteht aus einer parallelen Architektur mit einer großen Menge kleinerer Kerne, welche die Verarbeitung der Aufgaben gleichzeitig übernehmen. Nach Angaben von NVIDIA ist der Anwendungsdurchsatz einer GPU um den Faktor 10 bis 100-mal größer als bei einer CPU. Eine Infrastruktur sollte also in der Lage sein, bei Bedarf ein Deep Learning Framework wie TensorFlow oder Torch über hunderte oder gar tausende Nodes bereitzustellen, die direkt mit der optimalen GPU-Konfiguration zur Verfügung stehen. Hiermit beginnend lässt sich eine Liste von Anforderungen (nicht vollständig) für Infrastrukturen zusammenstellen, um AI-Anwendungen zu unterstützen:

  • Unterstützung gängiger AI-Frameworks: Infrastrukturen müssen in der Lage sein, AI-Applikationen die auf gängigen AI-Frameworks wie TensorFlow, Caffe, Theano oder Torch betrieben werden, auf dieselbe Art und Weise zu unterstützen, wie Web-Applikationen oder Backend-Prozesse. Somit sollte eine Infrastruktur sich nicht ausschließlich auf ein AI-Framework beschränken, sondern das Portfolio im Interesse von Entwicklern möglichst großzügig gestalten.
  • Auf GPU-optimierte Umgebung: Um sicherzustellen, dass eine Infrastruktur willkürlich jeden AI-Prozess ausführen kann, muss sie GPU-Umgebungen für das Bereitstellen schneller Rechenleistung zur Verfügung stellen. Mit seinen N-Series GPU Instanzen für Azure ist Microsoft einer der Vorreiter in diesem Bereich.
  • Management-Umgebung und –Tools: Eine der größten Herausforderungen aktueller Infrastrukturumgebungen ist der Missstand von verfügbaren Management Tools für den Betrieb von AI-Frameworks. Hier ist insbesondere das direkte Zusammenspiel der AI-Frameworks mit der Infrastruktur unumgänglich, um für eine bestmögliche Abstimmung und somit Leistung zu sorgen.
  • AI-integrierte Infrastruktur-Services: Infrastruktur-Anbieter müssen bzw. werden dazu übergehen, AI-Funktionen nicht nur zu unterstützen, sondern AI als einen zentralen Bestandteil ihres Infrastruktur- und Service-Stacks zu integrieren. Diese Form der AI-defined Infrastructure wird nicht nur die Intelligenz von Cloud-Services und Cloud-Applikationen erhöhen, sondern ebenfalls den Betrieb und Aufbau der Infrastrukturen durch den Kunden vereinfachen.
  • Machine Reasoning: Infrastruktur-Anbieter, die ihren Kunden Technologien für das “Machine Reasoning” bereitstellen, helfen diesen dabei, Probleme in unklaren und insbesondere sich ständig verändernden Umgebungen zu lösen. Auf Basis des Machine Reasoning ist eine AI-Umgebung in der Lage, dynamisch auf den sich fortwährend wechselnden Kontext zu reagieren und den besten Handlungsablauf zu wählen. Dies erfolgt, indem die bestmöglichen Wissenskombinationen zusammengeführt werden, um Lösungen zu finden. Anhand des Machine Learning werden die Ergebnisse anschließend anhand von Experimenten optimiert.

Infrastrukturumgebungen und Technologien für AI

Im Laufe der letzten Jahre wurden enorme Investitionen in AI-Funktionalitäten auf Cloud-Plattformen getätigt. Insbesondere die führenden Public Cloud-Anbieter, darunter Amazon, Microsoft und Google liegen hier weit vorne. Aber auch viele PaaS-Anbieter haben ihre Angebote um AI-Services erweitert. Die aktuelle AI-Technologie-Landkarte besteht derzeit aus drei Hauptgruppen:

  • Cloud Machine Learning (ML) Plattformen: Technologien wie Azure Machine Learning, AWS Machine Learning oder Google Machine Learning ermöglichen die Nutzung eines Machine Learning Models unter dem Einsatz proprietärer Technologien. Auch wenn Google Cloud ML auf TensorFlow setzt, erlauben die meisten Cloud-basierten ML-Services nicht das Ausführen von AI-Applikationen, die z.B. in Theano, Torch, TensorFlow oder Caffe geschrieben wurden.
  • AI-Cloud-Services: Technologien wie Microsoft Cognitive Services, Google Cloud Vision oder Natural Language APIs erlauben es komplexe AI bzw. Cognitive Computing Fähigkeiten anhand eines einfachen API-Aufrufs zu verwenden. Dieser Ansatz erlaubt es Unternehmen, Applikationen mit AI-Fähigkeiten zu entwickeln, ohne selbst in die dafür notwendige AI-Infrastrukturen zu investieren.
  • Technologien für Private und Public Cloud-Umgebungen: Technologien wie HIRO sind darauf ausgelegt sowohl auf Public Cloud-Umgebungen wie Amazon Web Services oder Private Cloud-Umgebungen wie z.B. OpenStack oder VMware betrieben zu werden. Sie ermöglichen es Unternehmen auf Basis einer General AI kontextübergreifende AI-basierte Geschäftsmodelle zu entwickeln und zu betreiben.
  • Zu weiteren AI-relevanten Kategorien und ihren Anbietern zählen:

    • Machine Learning: Rapidminer, Context Relevant, H20, Datarpm, LiftIngniter, Spark Beyond, Yhat, Wise.io, Sense, GraphLab, Alpine, Nutonian
    • Conversational AI/ Bots: Mindfield, SemanticMachines, Maluuba, Mobvoi, KITT AI, Clara, Automat, Wit.ai, Cortical.io, Idibon, Luminoso
    • Vision: Clarifai, Chronocam, Orbital Insight, Pilot.ai, Captricity, Crokstyle
    • Auto: NuTonomy, Drive.ai, AI Motive, Nauto, Nexar, Zoox
    • Robotics: Ubtech, Anki, Rokid, Dispatch
    • Cybersecurity: Cyclance, Sift Science, Spark Cognition, Deep Instict, Shift Technology, Dark Trace
    • BI & Analytics: DataRobot, Trifaca, Tamr, Esigopt, Paxata, Dataminr, CrowdFlower, Logz.io
    • Ad, Sales und CRM: TalkIQ, Deepgram, Persado, Appier, Chors, InsideSales.com, Drawbridge, DigitalGenius, Resci
    • Healthcare: Freenome, Cloud Medx, Zebra, Enlitic, Two AR, iCarbonX, Atomwise, Deep Genomics, Babylon, Lunit
    • Text Analysis: Textio, Fido.ai, Narrative
    • IoT: Nanit, Konux, Verdigris, Sight Machine
    • Commerce: Bloomreach, Mode.ai
    • Fintech & Insurance: Cape Analytics, Kensho, Numerai, Alphasense, Kasisto

    Unterm Strich lässt sich sagen, dass mit der Weiterentwicklung von AI-Technologien sich gleichzeitig auch Infrastruktur-Umgebungen von einem unterstützenden Modus hin zu einem Model transformieren müssen, in welchem AI-Applikationen so gleichwertig unterstützt werden wie es heute für Web-Applikationen und –Services der Fall ist.

    Die Zukunft liegt in einem AI-enabled Enterprise

    Eine AI-defined Infrastructure ist ein essentieller Teil des heutigen Enterprise-Stacks und bildet die Basis für das AI-enabled Enterprise. Denn eines liegt ebenfalls klar auf der Hand. Neben dem oft zitierten „War for Talent“ oder der Unfähigkeit großer Unternehmen sich effektiv zu verändern, sehen sich renommierte Unternehmen vielen weiteren Herausforderungen gegenübergestellt. Was gerne übersehen wird ist die unterschätze Gefahr des Mitbewerbs. Nicht etwa die der bekannten Wettbewerber, sondern Hightech-Unternehmen wie Amazon, Google, Facebook und Co., die unaufhaltsam in renommierte Märkte eimarschieren. Mit unvorstellbaren finanziellen Mitteln dringen diese Hightech-Unternehmen in bekannte Wettbewerbslandschaften renommierter Unternehmen ein und kapern den gesamten Kundenlebenszyklus. Amazon ist nur ein Beispiel, das bereits damit begonnen hat, die Zwischenhändler in der eigenen Lieferkette aus dem Weg zu räumen. Wir können sicher sein, dass Unternehmen wie DHL, UPS oder FedEx in Zukunft ihre Geschäfte anders machen werden als heute – Hinweis: Amazon Prime Air. Weiterhin hat Amazon alles in die Wege geleitet, um ein vollständiger Ende-zu-Ende Anbieter von Gütern zu werden. Digital wie auch nicht Digital. Wahrscheinlich wird es auch nicht mehr lange dauern, bis Facebook möglicherweise eine Bankenlizenz beantragen wird. Der potentielle Kundenzugang, ausreichend Informationen über seine Nutzer und das notwendige Kapital liegen bereits vor. Folglich müssen renommierte Unternehmen schlagkräftige Antworten finden, wenn sie morgen weiterhin existieren wollen.

    AI ist eine dieser Antworten und ein kraftvolles Hilfsmittel im Werkzeugkasten von Unternehmen, um sich der Wettbewerbssituation zu stellen.

    – – –
    Photo credits: Ilya Pavlov via StockSnap.io.

    Categories
    IT-Infrastrukturen

    Analyst Strategy Paper: Die Epizentren der Digitalisierung

    Das Thema Digitalisierung beherrscht weiterhin die Agenda der Unternehmenslenker. 58 Prozent der deutschen Unternehmen haben bisher noch keine Digitalisierungsstrategie erfolgreich in die Praxis umgesetzt. Technologische Entwicklungen wie Cloud Computing oder Application Centric Infrastructure (ACI) bilden auf infrastruktureller Ebene einen wesentlichen Beitrag zur heutigen Digitalisierung, um sowohl Legacy-IT, Cloud-Enabled als auch Cloud-Native Workloads zu betreiben. Bis Ende 2019 wird das weltweite jährliche IP-Datenaufkommen 10,4 Zettabyte bzw. 863 Exabyte pro Monat entsprechen. Die Menge an Daten, die lediglich nur durch das Internet of Things entstehen, werden 2019 etwa 507,5 Zettabyte pro Jahr bzw. 42,3 Zettabyte pro Monat ausmachen. Im Vergleich: Ein Exabyte entspricht der fünffachen Datenmenge aller jemals gedruckten Bücher. In der heutigen Digitalisierung erlebt das Rechenzentrum seine Blütezeit und ist wichtiger als jemals zuvor. Es avanciert zur logistischen Drehscheibe, auf der die riesigen Datenströme in Echtzeit gelenkt und gespeichert werden. Im Rahmen der digitalen Evolution werden sich zukünftige Infrastrukturen maßgeblich von denen heutiger unterscheiden. Die Software-defined Infrastructure (SDI) und die Autonomous Infrastructure sind auf Infrastruktur-Ebene die beiden Megatrends, um auf unterschiedliche Workload-Szenarien flexibel reagieren zu können.

    Das Analyst Strategy Paper kann unter “Die Epizentren der Digitalisierung” kostenlos heruntergeladen werden.

    Categories
    IT-Infrastrukturen

    White Paper: Disaster-Recovery-as-a-Service für den Mittelstand

    Das Thema Disaster Recovery spielt im deutschen Mittelstand nur eine untergeordnete Rolle. Diese fahrlässige Haltung kann sich in einem Bruchteil von Sekunden geschäftsschädigend auswirken. Dabei bieten neue Betriebsmodelle aus dem Cloud-Zeitalter keinen Grund mehr für Ausreden.