On May 1 2018, I’ve joined Gartner Inc. – the worldwide leading analyst firm – as a member of the Managed Business & Technology Services team. In my role as a Research Director, I am covering Infrastructure Services & Digital Operations.
Author: Rene Buest
Rene Buest is Gartner Analyst covering Infrastructure Services & Digital Operations. Prior to that he was Director of Technology Research at Arago, Senior Analyst and Cloud Practice Lead at Crisp Research, Principal Analyst at New Age Disruption and member of the worldwide Gigaom Research Analyst Network. Rene is considered as top cloud computing analyst in Germany and one of the worldwide top analysts in this area. In addition, he is one of the world’s top cloud computing influencers and belongs to the top 100 cloud computing experts on Twitter and Google+. Since the mid-90s he is focused on the strategic use of information technology in businesses and the IT impact on our society as well as disruptive technologies.
Rene Buest is the author of numerous professional technology articles. He regularly writes for well-known IT publications like Computerwoche, CIO Magazin, LANline as well as Silicon.de and is cited in German and international media – including New York Times, Forbes Magazin, Handelsblatt, Frankfurter Allgemeine Zeitung, Wirtschaftswoche, Computerwoche, CIO, Manager Magazin and Harvard Business Manager. Furthermore Rene Buest is speaker and participant of experts rounds. He is founder of CloudUser.de and writes about cloud computing, IT infrastructure, technologies, management and strategies. He holds a diploma in computer engineering from the Hochschule Bremen (Dipl.-Informatiker (FH)) as well as a M.Sc. in IT-Management and Information Systems from the FHDW Paderborn.
Nach zwei Dekaden sammeln Plattform-Unternehmen ungehindert Unmengen an Daten, um ihre Datenbanken mit Informationen über jedermanns Wissen, Meinungen, Empfehlungen, Orte, Bewegungen, Kaufverhalten, Beziehungsstatus, Lebensstil usw. zu bereichern. Das ist kein Geheimnis und schon gar nichts Neues. Und geht es um Artificial Intelligence (AI), lässt sich festhalten, dass auch hier die Plattform-Unternehmen die Nase vorn haben. Sie haben die Bedeutung schon vor vielen Jahren erkannt und investieren gezielt enormes Kapital in die Forschung und Entwicklung sowie Akquisition von AI-Technologien. Leider unterschätzen die meisten Geschäftsführer, welche Auswirkungen diese Entwicklungen auf die Zukunftsfähigkeit ihres Unternehmens haben. Insbesondere Unternehmen aus der Old Economy werden dabei zu den großen Verlierern gehören. Dieser Artikel erläutert die Kräfte die aktuell von den Plattform-Unternehmen ausgehen und warum Unternehmen eine General AI-Strategie benötigen, um ihren IT-Betrieb und andere Geschäftsprozesse autonom zu betreiben.
Herausforderungen der Old Economy
Heutzutage stehen Unternehmen der Old Economy gleich mehreren Herausforderungen gegenüber. Dazu gehören der oft zitierte War for Talent oder die Unfähigkeit großer Unternehmen, sich nicht schnell genug den dynamischen Marktbedingungen anpassen zu können. Aber es existiert eine weitere oft unterschätze Bedrohung – der Wettbewerb. Allerdings nicht der Wettbewerb aus dem eigenen Wirkungskreis, sondern von High-Tech Unternehmen, die unaufhaltsam in alle Märkte und Industrien einmarschieren. Diese sogenannten Plattform-Unternehmen, genauer Google, Amazon, Facebook, Alibaba, Baidu, Tencent usw., dringen mit unvorstellbaren finanziellen Mitteln in die bekannten Wettbewerbsbereiche ein und kapern den Lebenszyklus der Kundenbeziehungen. Dies führt dazu, das Unternehmen der Old Economy überzeugende Antworten finden müssen, wenn sie ihren Fortbestand sichern wollen. Die folgenden drei Bedrohungen gehen von den Plattform-Unternehmen aus:
Die Möglichkeit, Geld zu verbrennen
Plattform-Unternehmen stehen große finanzielle Mittel zur Verfügung, welche sie investieren, ohne Budgets großartig priorisieren zu müssen. Das Geld setzen sie schlichtweg dafür ein, um zu experimentieren. Im Vergleich dazu steht Unternehmen aus der Old Economy nur ein kleiner finanzieller Spielraum zur Verfügung, den sie nutzen können, um zu investieren bzw. um zu spielen. Das hängt damit zusammen, dass sie ständig dem Druck durch externe Stakeholder wie dem Kapitalmarkt, Aktionären, Kunden usw. ausgesetzt sind.
Stellen Sie sich bspw. vor, dass ein Pharma-Riese wie Pfizer aus den USA oder Bayer aus Deutschland ein neues Mittel zur Krebsbekämpfung entwickelt wollen und hierfür 500 Millionen US-Dollar in dieses Abenteuer investieren. Nun, dieses Projekt muss funktionieren. Andernfalls werden die CEOs beider Unternehmen höchstwahrscheinlich noch am selben Tag gefeuert und der Aktienkurs fällt um mindestens 30 Prozent, wenn das Projekt scheitert. Warum? Weil das Kerngeschäft von Pfizer und Bayer die Forschung & Entwicklung (F&E) von Medikamenten ist. Das bedeutet, dass jeder Dollar, der von beiden in F&E investiert wird, einen direkten Einfluss auf das Kerngeschäft hat.
Nun stellen Sie sich vor, dass ein Plattform-Unternehmen wie Google oder Alibaba exakt dasselbe machen würde. Ein Medikament entwickeln, um Krebs zu bekämpfen. Ebenfalls mit einem Projektvolumen von 500 Millionen US-Dollar. Was würde passieren, wenn das Projekt scheitert? Nun, das wäre eine ganz andere Geschichte. Jack Ma von Alibaba würde sich vor die Finanzanalysten und andere Stakeholder stellen und etwa folgendes sagen: „Wir haben versucht Krebs zu heilen. Wir haben versagt. Wir haben 500 Millionen US-Dollar verbrannt. ABER, wir werden aus unseren Fehlern lernen und wir werden es weiter versuchen!“. Ma würde als Held dargestellt werden. Schließlich liegt Alibabas Kerngeschäft nicht darin, ein Pharma-Unternehmen zu sein, sondern Güter über einen Webshop zu vertreiben. Und dennoch „opfert“ sich Alibaba auf, um eine Lösung gegen Krebs zu finden. Hinzu kommt, dass die gemachten Fehler keinen Einfluss auf das eigene Kerngeschäft hatten. Ähnlich verhält es sich bei Google (Internetsuche und Werbung (98 Prozent von Alphabets Umsatz kommen aus Werbeeinnahmen) oder Amazon (Webshop).
Allerdings ist der Zugang zu Geld nur die eine Seite der Medaille. Denn viel wichtiger ist die Einstellung. Plattform-Unternehmen haben die Fähigkeit und die Einstellung, das Risiko einzugehen, Geld „zu verbrennen“. Etwas, was Unternehmen aus der Old Economy fehlt. Nehmen Sie sich einfach mal Jeff Bezos als Musterbeispiel. Anstatt ständig die Shareholder mit Dividenden zu befriedigen reinvestiert Bezos konsequent den Großteil der Erträge in F&E (16,1 Milliarden US-Dollar im Jahr 2016) und lässt Amazon experimentieren. Zum Vergleich, Bayer hat im Jahr 2016 nur 5,2 Milliarden US-Dollar in F&E investiert.
Die Strategie, direkte Kundenbeziehungen zu kapern
Plattform-Unternehmen kapern die direkten Beziehungen zwischen den Unternehmen der Old Economy und deren Kunden. In der Vergangenheit hat eine Marke seine direkten Kundenbeziehungen aufgebaut und gepflegt, indem Kunden über mehrere Kanäle wie den Einzelhandel, kundenspezifische Werbung oder e-Commerce erreicht wurden. Über diese Form von Plattformen waren Marken in der Lage, Kunden so zu beeinflussen, dass diese ihre Produkte und Dienstleistungen kauften. Allerdings war es der Kunde, er sich die entsprechende Plattform (Kanäle) ausgesucht hat, um die Güter und Dienstleistungen zu kaufen.
Heute wandert der Point of Sale verstärkt in die Plattformen von Unternehmen wie Google, Amazon, Alibaba oder Facebook. Und dies insbesondere deswegen, da jeder Social Media Berater den Ratschlag gibt, mit Kunden über Facebook anzubandeln, auf Google Werbung zu schalten und Produkte über Amazon oder Alibaba zu vertreiben. Von einer Seite betrachtet ist dieser Ratschlag völlig richtig. Schließlich erreicht man über die genannten Plattformen ein viel größeres Zielpublikum. Schaut man jedoch aus einer anderen Perspektive auf den Hinweis, lässt er Social Media Berater als alles andere dastehen als gute Freunde. Warum? Nun, wenn Sie sich dazu entscheiden, ihre Marketing- und Vertriebsaktivitäten zu einem Plattform-Unternehmen zu verlagern, dann verlieren Sie unmittelbar die direkte Kundenbeziehung. Sie erhalten möglicherweise von Facebook, Google, Amazon & Co. ein paar Daten und Analysen, aber sie verlieren die viel wertvollere direkte Beziehung zu Ihren Kunden. Eine Konsequenz daraus besteht darin, dass sich ein Kunde (möglicherweise einer Ihrer existierenden Kunden) damit auf einer Plattform mit AI-Assistent befindet. Sie denken nun vermutlich “Na und?”. Nun, in einem Interview mit „The Drum“ erklärt Alibabas Principal Engineer Rong Jin, dass Alibaba AI-Technologien einsetzt, um Produktempfehlungen zu verbessern und dabei hilft, exakt die Phasen im Einkaufsprozess zu identifizieren, um den Kunden bei seiner finalen Kaufentscheidung zu beeinflussen. Zudem setzt Alibaba auf AI, um für jeden Kunden ein maßgeschneidertes Einkaufserlebnis und zielgerichtetes Marketing für Marken zu schaffen. Jin erwähnt dabei ebenfalls, dass AI-Technologien das Geschäft von Alibaba in der Zukunft verändern werden, indem sämtliche Daten, die über das Unternehmen hinweg entstehen, besser zu verknüpfen, um die Kunden besser zu verstehen und somit deren Einkaufsprozess zu optimieren.
Somit wird eine Plattform (die AI-Technologien einsetzt) alles Mögliche tun, den Kunden zu befriedigen, um ihn am Verlassen oder Wechseln zu hindern. Hierzu wählt die Plattform (AI-Technologie) Güter und Dienstleistungen aus einem Pool von Marken, die zu den Anforderungen des Kunden passen. Dies ist gut für den Kunden und die Plattform, alarmierend für Unternehmen aus der Old Economy, da die Marke selbst potentiell in den Hintergrund rückt.
Die Macht, unendliche Datenmengen zu sammeln um eine General AI zu entwickeln
Plattform-Unternehmen sammeln unendliche Mengen an Daten und erstellen auf dieser Basis ihre eigenen General AIs. Eine General AI kann Aufgaben aus unterschiedlichen Bereichen handhaben. Hierfür wendet sie Erfahrungen, welche sie in einem Bereich gesammelt hat, in einem anderen Bereich an. Damit ist sie in der Lage schneller zu lernen. Allerdings ist der dafür notwendige Wissenstransfer nur möglich, wenn eine semantische Verbindung zwischen den unterschiedlichen Bereichen existiert. Und je stärker diese Verbindung ist, desto schneller lässt sich der Übergang des Wissens vornehmen.
Für den Aufbau ihrer General AIs folgen Plattform-Unternehmen dem Quidproquo Prinzip. Endkunden geben ihre Daten und Wissen an die Plattformen und erhalten im Gegenzug kostenlos Zugriff auf die angebotenen Services. Intelligent Private Assistants wie Amazon Echo oder Google Home sind der nächste Evolutionsschritt. Sie lassen sich einsetzen, um Smart-Home-Lösungen zu steuern oder unser Leben einfacher zu gestalten, indem wir unsere Stimme nutzen. Diese technologische Entwicklung zeigt uns eine wichtige Erkenntnis: Amazon, Google & Co finden neue Wege, um uns über andere Kanäle an sich zu binden. Sie sammeln Daten und Informationen, die sie benötigen, um bessere Entscheidungen zu treffen und uns bessere Antworten zu liefern. Die Absicht dahinter ist klar: Jeder von uns wird schlichtweg dafür genutzt, um die AI-Systeme auf einer täglichen Basis zu trainieren. Das bedeutet, dass alle Services, die Google & Co. ihren Kunden anbieten, letztlich dazu dienen, ihre General AIs zu bauen, die auf den gesammelten Daten basieren.
Im Gespräch mit „The Drum“ geht Rong Jin exakt auf diese Thematik ein, indem er erläutert, dass Datenanalysen und Pattern Matching Alibaba dabei helfen, Datenmodelle auf andere Bereiche anzuwenden, die über das eCommerce-Geschäft hinausgehen. So hat Alibaba angefangen, seine AI-Technologie zu nutzen, um andere Geschäftsbereiche wie Finanzen, Versand, Gesundheitswesen und Entertainment aufzurüsten und zu verknüpfen. Und das ist nichts anderes, als die Entwicklung einer General AI.
Plattform-Unternehmen nutzen diese General AIs für disruptive Ansätze und stellen damit eine Gefahr für Unternehmen aus der Old Economy dar. Hinzu kommt, dass ausschließlich die Plattform-Unternehmen Zugriff auf ihre General AIs besitzen und Dritten keinen Zugriff gewähren.
AI ist die mächtigste Lösung, um diese Gefahren zu bewältigen
Eine starke Marke, hervorragende Dienstleistungen und Innovationen sind die Grundvoraussetzungen, um im Kampf mit Plattform-Unternehmen zu überleben. Der Wandel hin zu einem exponentiellen Geschäftsmodell ist allerdings die einzige Möglichkeit, um erfolgreich gegen Unternehmen anzutreten, die bereits exponentiell agieren. Hinzu kommt, dass Plattform-Unternehmen nicht zurückhaltend agieren. Sie starten direkt mit der Disruption von milliardenschweren Industrien wie das Gesundheitswesen, den Finanzsektor, den Telekommunikations-, Logistik- oder Energiebereich.
AI ist eine der Lösungen – möglicherweise die Einzige – mit denen Unternehmen aus der Old Economy sich gegen diesen Wettbewerb entgegenstemmen können. Hierzu können sie auf das stärkste Mittel zurückgreifen, was Unternehmen aus der Old Economy besitzen: ihre langjährigen Erfahrungen. In Kombination mit einer General AI können Unternehmen jeden Prozess organisationsweit autonom betreiben, während sie ihr Wissen behalten und ihre Daten und Erfahrungen gewinnbringend einsetzen.
Hierfür benötigt die Old Economy einen eigenen unabhängigen Plattform-Ansatz, da jedes einzelne Unternehmen selbst zu wenig Daten besitzt, die notwendig sind, um eine eigene General AI zu bauen. Der Zugang zu dieser Form von General AI-Plattform hilft ihnen dabei, die Erfahrungen und das geistige Eigentum (IP) zu multiplizieren und voneinander zu lernen. Auch wenn die AI Zugriff auf einen vollumfänglichen Daten-Pool benötigt, müssen die individuellen Daten sowie die IP und die Erfahrungen stets unter der vollen Kontrolle des einzelnen Unternehmens liegen. Dafür ist eine unabhängige dritte Instanz notwendig, welche die Daten sicher organisiert und semantisch in Verbindung setzt. Die folgende Strategie zeigt, wie Unternehmen aus der Old Economy diesen Ansatz umsetzen können:
- Ein Unternehmen sammelt sämtliche Daten, die innerhalb der Organisation existieren.
- Die Daten werden an eine unabhängige und sichere Plattform übergeben, welche einen geteilten Daten-Pool für die Old Economy betreibt.
- Im Gegenzug erhält das Unternehmen Zugriff auf den geteilten Daten-Pool, in welchem Daten gesammelt und semantisch organisiert werden.
- Das Unternehmen nutzt die Daten und die notwendige Technologie, um eine eigene General AI für die Organisation zu entwickeln.
- Das auf der General AI basierende Ergebnis: Neue Geschäftsmodelle, Angebote, Services, etc.
- Die Daten, welche aus den neuen Geschäftsmodellen, Angeboten und Services resultieren, wandern anschließend wieder in den geteilten Daten-Pool.
Mit diesem Ansatz werden Unternehmen in die Lage versetzt, eine AI zu betreiben, ihr Wissen und Daten zu nutzen und ihre Erfahrungen autonom ausführbar zu machen. Im gleichen Zuge behalten sie ihre IP und schaffen Werte basierend auf ihren Erfahrungen.
AI-enabled Enterprise: Jeder Prozess kann und wird von einer AI betrieben werden
Heute lässt sich mit einer AI alles automatisieren, was als ein Prozess beschrieben werden kann. Das bedeutet, dass die Einführung einer AI zu höheren Automatisierungsraten führt, mit denen sich Kosten senken lassen und mehr Zeit für Mitarbeiter übrigbleibt, um diese für strategische Themen einzusetzen. Der Einsatz einer AI führt also zu mehr freien Kapital und Zeit, was ein Unternehmen dazu befähigt, sich mit innovativen Dingen zu beschäftigen. Stellen Sie sich auf Ihrer Reise zu neuen Geschäftsmodellen also vor, was sie mit dem frei werdenden Kapital und ihren Mitarbeitern anstellen können, wenn Ihre Unternehmensprozesse größtenteils von einer AI übernommen werden. Die folgenden sieben Schritte helfen Ihrem Unternehmen dabei, ein „AI-enabled Enterprise“ zu werden:
- Erstellen Sie eine semantische Karte aller Daten innerhalb Ihres Unternehmens: Akzeptieren Sie einen kontinuierlichen Datenfluss als Grundlage für Ihre zukünftige Strategie.
- Beginnen Sie mit der autonomen Automation Ihres IT-Betriebs: Die Automatisierung des IT-Betriebs führt unmittelbar zu einem Mehrwert durch die AI und hilft dabei, alle Daten zu sammeln, die im Unternehmen in digitaler Form existieren.
- Überdenken Sie Ihre Strategie: Denken Sie hierbei in neuen (exponentiellen) Geschäftsmodellen.
- Schulen Sie Ihre gesamte Organisation Top-Down: Schulen und Bereiten Sie Ihre Organisation darauf vor, sich zu einem AI-enabled Enterprise zu verändern und akzeptieren Sie neue Geschäftsmodelle.
- Erweitern Sie den autonomen Betrieb auf andere Geschäftsprozesse: Mit der Nutzung des Unternehmenswissen anhand der IT-Automation lassen sich fortwährend immer mehr Prozesse autonom betreiben.
- Setzen Sie auf Predictive Analytics: Nutzen Sie die Daten aus Ihrer semantischen Karte, um Ihre Geschäftsprozesse und zukünftigen Planungen zu optimieren und zu beschleunigen.
- Berücksichtigen Sie Data-Driven Prozesse: Nutzen Sie Ihre Daten und AI, um ergebnisorientierte Prozesse zu entwickeln. Lassen Sie sich Vorschläge von der AI unterbreiten.
Sämtliche Daten die bereits im Unternehmen existieren und in Zukunft gesammelt werden, finden sich am Ende in der IT-Umgebung wieder – gespeichert in Applikationen, Datenbanken oder Speichersystemen. Daher sollte eine AI von Beginn an in der IT-Umgebung eingebunden werden, da die IT den technischen Kern eines jedes Unternehmens bildet und dort alle relevanten Informationen durchlaufen. Die IT erzeugt einen regelmäßigen Datenfluss der sich sehr gut als statistische Grundlage für das semantische Mapping von Informationen einsetzen lässt. Im Laufe der Zeit kann ein Unternehmen darüber mehr über seine Organisation und den Markt lernen.
Viel wichtiger ist allerdings, dass Sie aus Ihrer Komfortzone kommen – Ihrem aktuellen Geschäftsmodell und der Industrie, in der Ihr Unternehmen derzeit aktiv ist! Es macht überhaupt keinen Sinn, wenn Sie ein Medienunternehmen sind und einfach nur etwas „Neues“ für die Medienindustrie entwickeln. Sie müssen industrieübergreifend denken und etwas entwickeln, dass für Ihre Kunden einen ergänzenden Zusatznutzen bietet und damit für Ihr Unternehmen eine neue Industrie erschließt.
Kleiner Hinweis: Amazon war mal ein Webshop. Mittlerweile hat das Unternehmen mehrere Geschäftseinheiten, die in unterschiedlichen Industrien aktiv sind. Zudem versucht Amazon durch Experimente zu wachsen und probiert einfach aus, was potentiell funktionieren könnte.
Das Thema Künstliche Intelligenz (KI) ist derzeit in aller Munde. Und geht es nach Elon Musk oder dem kürzlich verstorbenen Stephen Hawking, steht uns der KI-getriebene Weltuntergang bald bevor. Der Öffentlichkeit wird damit suggeriert, dass die Forschung und Entwicklung rund um KI kürzlich Quantensprünge gemacht hat. Ruhig bleiben, denn wir sind aktuell weit davon entfernt, eine Super-Intelligenz zu entwickeln, welche uns Hollywood mit Filmen wie “Ex_Machina”, “Her” or “AI” verkaufen möchte. Dennoch sei angemerkt, dass wir in einer Zeit des exponentiellen technologischen Fortschritts leben. Das bedeutet, eine „dies wird niemals geschehen“ Haltung ist die falsche Einstellung. Schließlich findet die Forschung und Entwicklung neuer Technologien in immer kürzeren Zeitabständen statt. Daher steht es außer Frage, dass es absolut notwendig ist, im Kontext von KI über Regulierungen und Ethik zu sprechen! Aber wie sollen wir einer KI Ethik beibringen, wenn unsere Gesellschaft selbst keine Ethik besitzt? Beispiele hierfür sehen wir tagtäglich.
Allerdings muss man Musk und Hawking in Schutz nehmen, schließlich führt Unwissenheit zu Unsicherheit und das sorgt für Angst. Oder wie Andrew Smith eins sagte: „Menschen fürchten was sie nicht verstehen.“ Dies untermauert eine aktuelle Sage-Studie, laut derer Ergebnisse 43 Prozent der Befragten in den USA und 46 Prozent der Befragten in UK keine Ahnung haben, um was es sich bei KI überhaupt handelt. Somit besteht aktuell die größte Problematik darin, dass die Allgemeinheit nicht darüber informiert ist, was KI tatsächlich bedeutet.
Künstliche Intelligenz in der Theorie
„Das Ziel der Künstlichen Intelligenz besteht darin, Maschinen zu entwickeln, welche sich so verhalten, als wären sie intelligent.“ (Prof. John McCarthy, 1955)
Sprechen wir in diesem Zusammenhang von intelligent, dann meinen wir ein sich dynamisch verhaltenes System. Ein System, das wie ein leerer IQ-Container betrachtet werden muss. Ein System, das unstrukturierte Informationen benötigt, um seine Sinne zu trainieren. Ein System, welches ein semantisches Verständnis der Welt benötigt, um in der Lage zu sein zu handeln. Ein System, das auf eine detaillierte Karte seines Kontexts angewiesen ist, um unabhängig zu agieren und Erfahrungen aus einem Kontext in den anderen zu übertragen. Ein System, das mit allen notwendigen Mitteln ausgestattet ist, um Wissen zu entwickeln, auszubauen und aufrechtzuerhalten.
Hierbei liegt es in unserer Verantwortung, unser Wissen mit diesen Maschinen zu teilen als würden wir es mit unseren Kindern, Partnern oder Kollegen teilen. Dies ist der einzige Weg, um diese Maschinen, bestehend aus Hard- und Software, in einen Status zu überführen, den wir als „intelligent“ beschreiben. Nur damit helfen wir ihnen, auf einer täglichen Basis intelligenter zu werden und legen damit die Grundlage, ein selbstlernendes System zu schaffen. Hierzu werden in der KI-Forschung drei unterschiedliche Typen von KIs (AI) unterschieden:
- Strong AI: Bei einer Strong AI handelt es sich um eine selbstbewusste Maschine, die über Gedanken, Gefühle, einem Bewusstsein und den dazugehörigen neuronalen Verwachsungen verfügt. Wer sich allerdings schon auf eine Realität á la „Her“ oder „Ex_Machina“ freut, wird sich noch etwas gedulden müssen. Eine Strong AI existiert derzeit nicht und es wird noch eine unbestimmte Zeit dauern, bis diese Form existieren wird.
- Narrow AI: Die meisten Anwendungsfälle im KI-Bereich fokussieren sich aktuell darauf, Lösungen für ein sehr spezielles Problem zu bieten. Diese sogenannten Narrow AIs sind sehr gut darin spezifische Aufgaben zu lösen, wie z.B. das Empfehlen von Songs auf Pandora oder Analysen, um die Tomatenzucht in einem Gewächshaus zu optimieren.
- General AI: Eine General AI ist in der Lage, Aufgaben aus unterschiedlichen Bereichen und Ursprüngen zu bearbeiten. Hierzu besitzt sie die Fähigkeiten, die Trainingsintervalle von einem Bereich zu einem anderen zu verkürzen, indem sie die gesammelten Erfahrungen aus dem einen Bereich in einem anderen artfremden Bereich anwenden kann. Der hierfür notwendige Wissenstransfer ist nur dann möglich, wenn eine semantische Verbindung zwischen diesen Bereichen existiert. Hinzu kommt: Je stärker und verdichteter diese Verbindung ist, desto schneller und einfacher lässt sich der Wissensübergang erreichen.
Künstliche Intelligenz in der Wirklichkeit
Überführen wir die KI-Diskussion mal in Richtung vernünftiger Überlegungen. Heute geht es bei KI nicht darum, das menschliche Gehirn nachzubilden. Es geht darum, ein System zu entwickeln, das sich verhalten kann wie ein Mensch. Unterm Strich bedeutet KI somit die Vereinigung von Analysen, Problemlösungen und Autonomer Automation. Und dieses unter der Berücksichtigung von Daten, Wissen und Erfahrungen.
Amazon Alexa und Apple Siri sind KI-Technologien aber nicht intelligent
Haben Sie schon einmal versucht eine simple Konversation mit Amazon’s Alexa oder Apple’s Siri zu führen? Genau, das geht nicht gut aus. Dennoch, bei Alexa als auch Siri handelt es sich um KI-Technologien. Beide nutzen Natural Language Processing (NLP). Also, Machine Learning Algorithmen in Kombination mit Vorhersagemodellen. Zum Beispiel werden die Algorithmen eingesetzt, um Ihre Sprachkommandos in kleine Teile – so genannte Sound Bites – zu zerlegen. Anschließend werden diese Stücke anhand eines anderen Vorhersagemodells analysiert, mit welchem versucht wird zu erkennen, um was für eine Art von Anfrage es sich handelt. Allerdings sind Alexa als auch Siri weder intelligent noch selbstlernend. Betrachten Sie deren Systeme wie eine Datenbank, welche sich in den Cloud-Backends von Amazon und Apple befinden, und die eine Menge von fertigen Antworten bzw. Anweisungen bedienen. Sollten Sie bspw. ein stolzer Besitzer eines Amazon Echo sein, dann verstehen Sie wovon ich spreche. Jeden Freitag erhalten Sie dann nämlich eine E-Mail mit den neuesten Kommandos die Sie nutzen können, um Alexa zu kontrollieren bzw. mit ihr zu interagieren. Neben der ständig wachsenden Datenbank hinter Alexa helfen die sogenannten „Alexa Skills“ dabei, Alexa „intelligenter“ zu machen. Hierbei handelt es sich um nicht mehr als kleine Applikationen (wie für Ihr Android Smartphone oder iPhone), welche jemand entwickelt und mit weiteren Kommandos, Fragen die gestellt werden können sowie fertigen Antworten bzw. Anweisungen ausgestattet hat. Und je mehr Alexa Skills aktiviert sind, desto intelligenter erscheint Alexa, da Sie schließlich mehr Kommandos zur Verfügung haben, um mit ihr zu interagieren. Die aber derzeit wirklich interessante Geschichte um Alexa ist, dass Amazon mittlerweile 5000 Mitarbeiter exklusiv an Alexa arbeiten lässt, um sie zu verbessern. Damit können wir bald deutlich mehr Fortschritt erwarten.
Die gute Neuigkeit: selbstlernende Systeme existieren bereits. Wenn Sie bspw. Ihr iPhone über Bluetooth mit Ihr Fahrzeug verbinden und Ihre Heimatadresse und die Ihres Büros hinterlegen, wird das iPhone Ihnen in kurzer Zeit anzeigen, wie lange Sie nach Hause bzw. zur Arbeit benötigen. In anderen Fällen hat mir „Apple Maps Destination“ Vorhersagen für Ankunftszeiten zu Orten angezeigt, welche ich zwar öfters besucht habe, deren Adresse aber nicht auf meinem iPhone gespeichert ist. Also lediglich auf Basis meiner Reisegewohnheiten. Google Now arbeitet auf ähnliche Weise. Proaktiv stellt der Dienst dem Nutzer Informationen bereit, welche diese möglicherweise suchen. Also Vorhersagen basierend auf deren Suchverhalten. Und wenn Sie Google Now Zugang zur Ihrem Kalender gewähren, dann arbeitet der Dienst sogar als persönlicher Assistent/ Berater. So erinnert er Sie bspw. daran, dass Sie einen Termin haben und welches Verkehrsmittel Sie nehmen sollten, um rechtzeitig vor Ort zu sein.
Autonome Prozess Automation als Teil unseres täglichen Lebens
Versuchen Sie die KI-Diskussion von einem anderen Blickwinkel zu sehen. Betrachten Sie unser Leben als einen Prozess. Betrachten Sie jeden einzelnen Tag als einen Prozess, der in einzelne Schritte (Sub-Prozesse) unterteilt ist. Und dann betrachten Sie KI als Autonome Prozess Automation, welche uns mehr Komfort bietet und damit unser Leben einfacher macht. Ein paar Ideen:
- Stellen Sie sich Alexa oder Siri als Ihren persönlichen Wachhund im Büro vor. Ein intelligenter Assistent, der Ihre Anrufe entgegennimmt und für Sie Termine mit Kollegen autonom aushandelt – insbesondere mit denen, die Ihnen ständig ungefragt Kalendereinladungen schicken. Ich denke dabei an eine frühe Variante von Iron Man’s KI „Jarvis“.
- Oder wie wäre es mit Alexa oder Siri als einen persönlichen Assistenten für unterschiedliche Lebensbereiche. Sagen wir, Sie haben einen Vortrag auf einer Konferenz. Ihr Flug nach Hause startet um 16:00 Uhr. Damit Sie den Flug rechtzeitig erreichen, bestellt Ihr virtueller Assistent Ihnen ein Taxi zu um 14:15 Uhr, da Ihr Vortrag um 13:45 Uhr endet und nach der aktuellen Verkehrslage mit Stau zu rechnen ist. Der virtuelle Assistent sendet Ihnen lediglich die Standortinformationen, wo Ihr Taxi Sie abholen wird. Während des Vorgangs folgt der Assistent einfach nur den gesamten Prozess den Sie normalerweise durchschreiten würden: vom Herausnehmen des Smartphones aus der Tasche, über das Öffnen der App, Suchen des Reiseziels bis hin zum Bestellen des Taxis. Sie haben somit Ihre Hände und Gedanken frei für wesentlich wichtigere Dinge. Hierfür müssen Sie der KI natürlich Zugriff auf Ihren Kalender, Geolokation und weitere Informationen geben.
- Oder stellen Sie sich eine intelligente Variante des Küchenhelfers “Thermomix” vor. Der Speiseberater: Anhand dessen was der Thermomix im Kühlschrank findet, macht er Vorschläge, welche Gerichte gekocht werden könnten. Sollten ein paar Zutaten für andere mögliche Gerichte fehlen, könnte er anbieten, diese direkt online zu bestellen. Oder der gesundheitsbewusste Berater: Basierend auf den Essgewohnheiten der letzten Wochen macht der Thermomix Sie freundlich darauf aufmerksam, dass Sie das Tiramisu, welches Sie gerade zubereiten, heute doch lieber nicht auf dem Speiseplan stehen sollte, da dies nicht gut für Ihre Kalorienaufnahme wäre.
Künstliche Intelligenz in der Zukunft
KI ist der nächste logische Schritt nach dem Cloud Computing und profitiert gleichermaßen von dessen Erfolg. Die Cloud ist der Antrieb aus einem technologischen Blickwinkel. Bei KI geht es um den Mehrwert für das Unternehmen und führt zu intelligenteren Anwendungen. Auf Basis komplexer Analysen verfeinern KI-Anwendungen im Hintergrund die Kundenansprache und passen Produkte und Dienste besser an die jeweiligen Bedürfnisse an. Immer mehr Unternehmen wie Netflix, Spotify, Amazon, Airbnb, Uber oder Expedia setzen bereits auf KI-basierende Funktionsweisen die auf umfangreiche Datenverarbeitungs- und Analyseaufgaben zurückgreifen, um enger mit ihren Kunden zu interagieren. Als Teil der Strategie befähigt eine KI Unternehmen dabei, ihren Geschäftsbetrieb und dessen Abläufe zu verbessern – u.a. durch:
- Ein verbessertes Verständnis ihrer Kunden anhand von Interaktionen und des Verhaltens aus der Vergangenheit.
- Eine neuartige Bedienung von Applikationen durch die Veränderung der Kundeninteraktion von der Tastatur- hin zur Spracheingabe.
- Eine tiefergehende Kundenbeziehung anhand von “Advanced Virtual Assistants”, welche das Kundenerlebnis verbessern.
- Kundenspezifische Produkte und Dienstleistungen angepasst an die Kundenanforderungen.
- Vorhersagen durch Analysen von Kundendaten, -interaktionen und -verhalten aus der Vergangenheit und in Echtzeit.
- Gesprächiger zu sein, anhand “Smart Personal Assistants” und Bots.
- Erweiterung bestehender Produkte, Dienste, Anwendungen und Prozesse.
Eines sollte jedoch nicht vergessen werden. Bei KI geht es nicht nur darum, existierende Prozesse zu verbessern. In den kommenden 5 bis 10 Jahren wird KI zum Game Changer werden! Sie wird Innovationszyklen beschleunigen und zu neuen Geschäftsmodellen führen. KI-Anwendungen besitzen bereits heute den notwendigen Reifegrad, um die Effizienz einzelner Prozesse zu erhöhen. Allerdings sollte KI nicht ausschließlich aus einem operativen Blinkwinkel (Verbesserung der Effizienz) betrachtet werden, sondern ebenfalls eine strategische Sichtweise erhalten, um technische Möglichkeiten für neue Applikationen und Anwendungsfälle zu evaluieren. Und damit einen echten Mehrwert für Kunden, Partner sowie die eigenen Mitarbeiter schaffen.
History Has Shown That Digitization Is More Evolution Than Revolution.
In November 2017, I met Christian Lorentz from NetApp during Cloud Expo in Frankfurt. Based on my experience, he wanted to find out if artificial intelligence (AI) is eating the data infrastructure.
Mit der Einführung von AWS Lambda im Jahr 2014 läuft der Hype um das „Serverless Computing“ ungebrochen weiter. Und trotz der bereits vergangenen vier Jahre herrschen immer noch Verwirrung und Verunsicherungen im Markt. War es das also endgültig mit Servern? Dieser Artikel räumt mit den Mythen rund um das „Serverless Computing“ auf, beschreibt dessen Vorteile als auch Risiken und erläutert mögliche Einsatzszenarien.
Mal ernsthaft, sind Sie nicht auch langsam von Leuten wie Elon Musk oder Stephen Hawking gelangweilt, welche die Artificial Intelligence (AI) ständig als größte Bedrohung der Menschheit verteufeln? Deren Behauptungen lassen die Menschen denken, dass AI sämtliche Arbeitsplätze überflüssig machen oder den nächsten Weltkrieg starten wird. Schlimmer noch, die Erwartungshaltungen werden damit so weit nach oben geschraubt, dass die Öffentlichkeit davon ausgehen könnte, dass die Forschung und Entwicklung rund um AI kürzlich Quantensprünge gemacht hat. Und dank solcher übertriebenen Erwartungshaltungen ist es ein Leichtes, dass wir wieder geradewegs in den nächsten AI-Winter laufen. Ruhig bleiben, wir sind aktuell weit davon entfernt, eine Super-Intelligenz zu entwickeln, vor der sich Musk und Hawking fürchten oder welche uns Hollywood mit Filmen wie “Ex_Machina”, “Her” or “AI” präsentiert. Lassen Sie mich Ihnen lieber erzählen, was viel besorgniserregender ist. Nach Angaben einer Sage-Studie haben 43 Prozent der Befragten in den USA und 46 Prozent der Befragten in UK keine Ahnung, um was es sich bei AI überhaupt handelt. Somit besteht aktuell die größte Problematik darin, dass die Allgemeinheit nicht darüber informiert ist, was AI tatsächlich bedeutet.
Ethik und Regulierungen sind extrem wichtig
Selbstverständlich ist es absolut notwendig im Kontext von AI über Regulierungen und Ethik zu sprechen! Aber wie sollen wir einer AI eine Ethik beibringen, wenn unsere Gesellschaft selbst keine Ethik besitzt? Beispiele hierfür sehen wir tagtäglich.
In der Tat sind Boston Dynamics’ Roboter “Atlas” und “Handle” echt gruselig. Aber was passiert, wenn Tesla’s Autopilot jemanden über den Haufen fährt – wer ist dafür verantwortlich? Oder wenn der Autopilot entscheiden muss, wer überlebt. Der Fahrer? Der alte Mann oder der kleine Junge auf der Straße? Das sind aktuell die Fragen, welche ich regelmäßig aus dem Publikum bekomme. Das besorgt die Menschen derzeit. Aber vielleicht äußert sich Elon Musk eines Tages auch einmal dazu…
Derzeit leben wir in einer Zeit des exponentiellen technologischen Fortschritts. Das bedeutet, eine „dies wird niemals geschehen“ Haltung ist die falsche Einstellung. Schließlich findet die Forschung und Entwicklung neuer Technologien in immer kürzeren Zeitabständen statt. Dennoch lösen die derzeit erfolgreichsten AI-Systeme gerade einmal die Strategiespiele „Go“ oder „FreeCiv“.
AI ist nicht nur Machine Learning
Hinzu kommt, dass heutige AI-Projekte in den meisten Fällen auf Machine Learning setzen, welche dabei helfen Muster innerhalb von riesigen Datensätzen zu erkennen, um auf Basis existierender Daten Vorhersagen zu treffen. Allerdings ist es hierfür wichtig, Zugriff auf die richtigen und vor allem qualitativ hochwertigen Daten zu besitzen. Weiterhin muss im Nachgang unbedingt die Genauigkeit und Plausibilität der Ergebnisse überprüft werden. Schließlich lässt sich in riesigen Datenmengen immer etwas finden. Und das ist dann gleichzeitig auch ein großer Nachteil, wenn man sich im Rahmen seiner AI-Strategie ausschließlich auf Machine Learning konzentriert. Machine Learning benötigt Unmengen an Trainingsdaten, um in der Lage zu sein, wertvolle Informationen bzw. Resultate in Mustern zu erkennen.
Artificial Intelligence ist Autonome Prozess Automation
Überführen wir die große AI-Diskussion mal in Richtung vernünftiger Überlegungen. Heute geht es bei AI nicht darum, das menschliche Gehirn nachzubilden. Es geht darum, ein System zu entwickeln, das sich verhalten kann wie ein Mensch. Unterm Strich bedeutet AI somit die Vereinigung von Analysen, Problemlösungen und Autonomer Automation. Und dieses unter der Berücksichtigung von Daten, Wissen und Erfahrungen.
Versuchen Sie mal die ganze AI-Diskussion von einem anderen Blickwinkel zu sehen. Betrachten Sie unser Leben als einen Prozess. Betrachten Sie jeden einzelnen Tag als einen Prozess, der in einzelne Schritte (Sub-Prozesse) unterteilt ist. Und dann betrachten Sie AI als Autonome Prozess Automation, welche uns mehr Komfort bietet und damit unser Leben einfacher macht.
Amazon Alexa und Apple Siri sind AIs aber nicht intelligent
Haben Sie schon einmal versucht eine einfache Konversation mit Amazon’s Alexa oder Apple’s Siri zu führen? Genau, das geht nicht gut aus. Dennoch, bei Alexa als auch Siri handelt es sich um AI-Technologien. Beide nutzen Natural Language Processing (NLP). Also, Machine Learning Algorithmen in Kombination mit Vorhersagemodellen. Zum Beispiel werden die Algorithmen eingesetzt, um Ihre Sprachkommandos in kleine Teile – so genannte Sound Bites – zu zerlegen. Anschließend werden diese Stücke anhand eines anderen Vorhersagemodells analysiert, mit welchem versucht wird zu erkennen, um was für eine Art von Anfrage es sich handelt. Allerdings sind Alexa als auch Siri weder intelligent noch selbstlernend. Betrachten Sie deren „Gehirne“ (sie haben KEINE Gehirne) wie eine Datenbank, welche sich in den Cloud-Backends von Amazon und Apple befinden, und die eine Menge von fertigen Antworten bzw. Anweisungen bedienen. Sollten Sie bspw. ein stolzer Besitzer eines Amazon Echo sein, dann verstehen Sie wovon ich spreche. Jeden Freitag erhalten Sie dann nämlich eine E-Mail mit den neuesten Kommandos die Sie nutzen können, um Alexa zu kontrollieren bzw. mit ihr zu interagieren. Neben der ständig wachsenden Datenbank hinter Alexa helfen die sogenannten „Alexa Skills“ dabei, Alexa „intelligenter“ zu machen. Hierbei handelt es sich um nicht mehr als kleine Applikationen (wie für Ihr Android Smartphone oder iPhone), welche jemand entwickelt und mit weiteren Kommandos, Fragen die gestellt werden können sowie fertigen Antworten bzw. Anweisungen ausgestattet hat. Und je mehr Alexa Skills aktiviert sind, desto intelligenter erscheint Alexa, da Sie schließlich mehr Kommandos zur Verfügung haben, um mit ihr zu interagieren. Die aber derzeit wirklich interessante Geschichte um Alexa ist, dass Amazon mittlerweile 5000 Mitarbeiter exklusiv an Alexa arbeiten lässt, um sie zu verbessern. Damit können wir bald deutlich mehr Fortschritt erwarten.
Die gute Neuigkeit: selbstlernende Systeme existieren bereits. Wenn Sie bspw. Ihr iPhone über Bluetooth mit Ihr Fahrzeug verbinden und Ihre Heimatadresse und die Ihres Büros hinterlegen, wird das iPhone Ihnen in kurzer Zeit anzeigen, wie lange Sie nach Hause bzw. zur Arbeit benötigen. In anderen Fällen hat mir „Apple Maps Destination“ Vorhersagen für Ankunftszeiten zu Orten angezeigt, welche ich zwar öfters besucht habe, deren Adresse aber nicht auf meinem iPhone gespeichert ist. Also lediglich auf Basis meiner Reisegewohnheiten. Google Now arbeitet auf ähnliche Weise. Proaktiv stellt der Dienst dem Nutzer Informationen bereit, welche diese möglicherweise suchen. Also Vorhersagen basierend auf deren Suchverhalten. Und wenn Sie Google Now Zugang zur Ihrem Kalender gewähren, dann arbeitet der Dienst sogar als persönlicher Assistent/ Berater. So erinnert er Sie bspw. daran, dass Sie einen Termin haben und welches Verkehrsmittel Sie nehmen sollten, um rechtzeitig vor Ort zu sein.
Zu anderen AI-bezogenen Diensten, mit welchen Sie möglicherweise schon seit geraumer Zeit in Kontakt sind, gehören:
- Seit den 1950er setzt die Finanzindustrie bereits auf Machine Learning Algorithmen, um Ihre Kreditwürdigkeit zu prüfen.
- Webseiten zur Partnersuche nutzen Algorithmen, um Anzeichen zu erkennen, wie wahrscheinlich es ist, dass zwei Menschen miteinander ausgehen werden.
- Am Flughafen Genf kümmert sich der autonome Roboter KATE um das Gepäck, hilft beim Check-in und der Navigation durch den Flughafen. Alles anhand von Datenanalysen und der Berücksichtigung von Geolokationen.
- “Relay” von Savioke ist ein autonomer Roboter-Bote der in einigen Hotels für den Room Service eingesetzt.
Autonome Prozess Automation in unserem täglichen Leben
Kommen wir zurück zur AI als Autonome Prozess Automation, die unser Leben vereinfacht. Ein paar Ideen:
- Stellen Sie sich Alexa oder Siri als Ihren persönlichen Wachhund im Büro vor. Ein intelligenter Assistent, der Ihre Anrufe entgegennimmt und für Sie Termine mit Kollegen autonom aushandelt – insbesondere mit denen, die Ihnen ständig ungefragt Kalendereinladungen schicken. Ich denke dabei an eine frühe Variante von Iron Man’s AI „Jarvis“.
- Oder wie wäre es mit Alexa oder Siri als einen persönlichen Assistenten für unterschiedliche Lebensbereiche. Sagen wir, Sie haben einen Vortrag auf einer Konferenz. Ihr Flug nach Hause startet um 16:00 Uhr. Damit Sie den Flug rechtzeitig erreichen, bestellt Ihr virtueller Assistent Ihnen ein Taxi zu um 14:15 Uhr, da Ihr Vortrag um 13:45 Uhr endet und nach der aktuellen Verkehrslage mit Stau zu rechnen ist. Der virtuelle Assistent sendet Ihnen lediglich die Standortinformationen, wo Ihr Taxi Sie abholen wird. Während des Vorgangs folgt der Assistent einfach nur den gesamten Prozess den Sie normalerweise durchschreiten würden: vom Herausnehmen des Smartphones aus der Tasche, über das Öffnen der App, Suchen des Reiseziels bis hin zum Bestellen des Taxis. Sie haben somit Ihre Hände und Gedanken frei für wesentlich wichtigere Dinge. Hierfür müssen Sie der AI natürlich Zugriff auf Ihren Kalender, Geolokation und weitere Informationen geben.
- Oder stellen Sie sich eine intelligente Variante des Küchenhelfers “Thermomix” vor. Der Speiseberater: Anhand dessen was der Thermomix im Kühlschrank findet, macht er Vorschläge, welche Gerichte gekocht werden könnten. Sollten ein paar Zutaten für andere mögliche Gerichte fehlen, könnte er anbieten, diese direkt online zu bestellen. Oder der gesundheitsbewusste Berater: Basierend auf den Essgewohnheiten der letzten Wochen macht der Thermomix Sie freundlich darauf aufmerksam, dass Sie das Tiramisu, welches Sie gerade zubereiten, heute doch lieber nicht auf dem Speiseplan stehen sollte, da dies nicht gut für Ihre Kalorienaufnahme wäre.
Autonome Prozess Automation innerhalb eines Unternehmens
AI als Autonome Prozess Automation hat auch im Unternehmensumfeld jede Menge Potentiale. Schauen wir uns zwei reale Beispiele an:
- Eine AI-defined Infrastructure bspw. ist im Grunde genommen nichts Anderes als eine Autonomous Process Automation für den IT-Betrieb. Mit dieser Art von Umgebung ist ein Unternehmen in der Lage, eine selbstlernende bzw. selbstheilende Infrastruktur-Umgebungen aufzubauen und zu betreiben. Eine AI-defined Infrastructure kann ohne menschliche Interaktion, abhängig von den Workload-Anforderungen, die notwendigen Ressourcen bereitstellen und diese wieder de-allokieren, wenn sie nicht mehr benötigt werden. Hierzu analysiert sie fortlaufend das sich ständig verändernde Verhalten und den Status einzelner Infrastruktur-Komponenten. Damit kann sie auf den Status einzelner Infrastruktur-Komponenten reagieren bzw. proaktiv agieren, indem autonom Aktionen durchgeführt werden, um die Infrastruktur ständig wieder in einen fehlerfreien Zustand zu überführen.
- In der Versicherungsindustrie befindet sich eine Autonome Prozess Automation bereits im Einsatz, um autonom Versicherungspolicen zu erstellen. Hierzu lernen Versicherungsexperten (Domain-Experten) einer AI den Prozessablauf Schritt für Schritt an, wie und warum sie eine bestimmte Versicherungspolice erstellen. Die AI ist außerdem mit externen Partnersystemen verbunden, die weitere Informationen zur Verfügung stellen. Im ersten Schritt erstellt die AI eine Versicherungspolice und informiert einen Experten. Der Experte prüft die Police und nimmt ggf. Änderungen vor. Anschließend übersendet er die Police an den Kunden. Das Ziel besteht darin, dass ein Kunde direkt mit der AI interagiert und nach Übermittlung aller notwendigen Informationen seine individuelle Versicherungspolice erhält.
Schrauben Sie Ihre Erwartungen nach unten
Zum Abschluss ein wichtiger Punkt. Anstatt AI ständig als größte Gefahr für die Menschheit zu diskutieren sollten wir lieber mal die größte Gefahr der AI-Forschung hervorheben. Die Ungeduld der Menschen! Das Problem: Die AI-Forschung besteht aus einem sich ergänzendem System verschiedener Techniken und Methoden. Immer dann wenn eine Vorgehensweise „die Aufgabe nicht vollständig erledigt“ hat, wendeten sich die Menschen von diesem Ansatz ab und verfolgten einen anderen. Sie wollen coole AI-Lösungen in der Zukunft sehen? Bleiben Sie ruhig und warten Sie ab. Es wird passieren! Wir müssen uns lediglich Schritt für Schritt nach vorne bewegen. Andernfalls werden die Erwartungen wieder nicht erfüllt, was uns umgehend in den nächsten AI-Winter treiben wird.
Verstehen Sie AI-Technologien daher als einen Ansatz unser Leben einfacher zu machen. Und strapazieren Sie dabei das Wort „Intelligenz“ nicht zu sehr. Seien Sie aber dennoch vorsichtig damit, welche Art von Daten und persönlichen Informationen Sie wirklich teilen wollen. Denn sind diese erst einmal außerhalb Ihres Kontrollbereiches, ist es nahezu unmöglich den Vorgang wieder rückgängig zu machen.
Interview: Cloud Use Cases Days 2018
Im März 2018 wurde ich im Rahmen des 5. Cloud Use Cases Day 2018 der Fachhochschule Nordwestschweiz (FHNW) interviewed.
Interview mit Cloud Expo Europe
Im Oktober 2017 wurde ich im Rahmen der Cloud Expo Europe von Closer Still Media zum Thema “Digital. Cloud. AI-driven.” interviewed.
Ohne Cloud Computing wäre der aktuelle Hype um Artificial Intelligence (AI) nicht möglich. Erst der leichte Zugang zu Cloud-basierten innovativen AI-Services (Machine Learning etc.) und die dafür notwendige und schnell zur Verfügung stehende Rechenleistung, ermöglichen die Entwicklung neuer „intelligenter“ Produkte, Services und Geschäftsmodelle. Gleichzeitig sorgen AI-Services für weiteres Wachstum bei den Public Cloud-Anbietern Amazon Web Services, Microsoft und Google.
Cloud Computing hat sich in den vergangenen 10 Jahren zu einem ertragreichen Geschäft für Anbieter wie Amazon Web Services oder Microsoft entwickelt. Doch der Wettbewerb wird durch Nachzügler wie Google und Alibaba immer stärker. Mit der massiven Einführung von AI-bezogenen Cloud-Services haben die Anbieter den Wettbewerbsdruck selbst nochmal einmal erhöht, um die Attraktivität bei den Kunden zu erhöhen.
Die Cloud stützt AI… und umgekehrt
Für kleine und mittelständische Unternehmen kann der Aufbau von performanten und skalierbaren AI-Systemen schnell zu einer teuren Angelegenheit werden. Schließlich benötigt das Training von Algorithmen und der spätere Betrieb der entsprechenden Analytics-Systeme Unmengen an Rechenleistung. Im eigenen Keller, Serverraum oder Rechenzentrum ist es unmöglich die dafür benötigte Rechenkraft rechtzeitig und punktgenau bereitzustellen. Welche, nebenbei bemerkt, anschließend in der Regel nicht mehr benötigt wird.
Begibt man sich in die Sphären von Amazon, Microsoft oder Google, haben alle drei in den vergangenen Jahren riesige Mengen an Rechenleistung aufgebaut und besitzen gleichermaßen einen großen Anteil an der 40 Milliarden Dollar schweren Cloud Computing Industrie. Für alle drei handelt es sich bei der Erweiterung ihrer Portfolios mit AI-Services um den nächsten logischen Schritt in der Cloud. Einerseits, da die Entwicklung von AI-Anwendungen bzw. die intelligente Erweiterung von bestehenden Anwendungen den leichten Zugang zu Rechenleistung, Daten, Konnektivität aber vor allem additive Platform-Services erfordert. Andererseits, um die Attraktivität bei Bestandskunden zu erhalten und Neukunden zu gewinnen, welche immer stärker nach einfach zugänglichen Lösungen suchen, um AI in ihre Anwendungen und Geschäftsmodelle zu integrieren.
Amazon Web Services
Amazon mit Amazon Web Services (AWS) ist nicht nur Cloud-Pionier und Innovationstreiber, sondern weiterhin mit Abstand der Marktführer im weltweiten Public Cloud Markt. Auf Grund seiner Skalierbarkeit und dem umfangreichen Angebot an Platform-Services ist AWS derzeit die führende Cloud-Umgebung für die Entwicklung und der Bereitstellung von Cloud- und AI-Anwendungen. Im Rahmen der vergangenen re:Invent präsentierte AWS unter anderem Amazon Cloud 9 (durch Akquisition von Cloud9 IDE Inc. im Juli 2016), eine Cloud-basierte Entwicklungsumgebung, welche direkt in die AWS Cloud-Plattform integriert ist, um Cloud-native Anwendungen zu entwickeln. Weiterhin wurden sechs „Machine Learning as a Service“ (MLaaS) Dienste angekündigt, u.a. ein Videoanalyseservice sowie ein NLP-Service und ein Übersetzungsservice. Zudem bietet AWS mit MXNet, Lex, Rekognition und SageMaker mächtige Services für die einfache Entwicklung von AI-Anwendungen. Insbesondere SageMaker gilt Beachtung zu schenken, mit welchem sich der gesamte Lebenszyklus einer Machine Learning-Anwendungen steuern lässt. Wie bei allen Cloud-Services verfolgt AWS allerdings auch im AI-Bereich den Lock-In-Ansatz. Alle AI-Services sind sehr eng mit der AWS-Umgebung verzahnt, um sicherzustellen, dass AWS nach der Entwicklung der AI-Lösungen auch die Plattform für deren späteren Betrieb bleibt.
Auch hinsichtlich der Strategie bleibt Amazon seinem Erfolgsmodell treu. Nachdem Amazon die Technologien hinter seiner massiv skalierbaren eCommerce-Plattform als Services via AWS der Öffentlichkeit zur Verfügung gestellt hat, folgen nun z.B. die Technologien hinter Alexa, damit Kunden eigene Chatbot oder Sprachassistenten in Ihre Angebote integrieren können.
Microsoft
Auf Grund seiner breiten Kundenbasis im Unternehmensumfeld und seinem umfassenden Portfolio an Cloud- und AI-Services hat Microsoft grundsätzlich gute Voraussetzungen, sich auch im AI-Umfeld als eine führende Größe zu etablieren. Insbesondere durch das umfangreiche Angebot an Produktivitäts- und Geschäftsprozesslösungen stehen für Microsoft die Zeichen gut, um bei Unternehmensanwendern oben auf der Agenda zu stehen.
Microsoft steckt mit Produkten wie Windows, Office 365 oder Dynamics 365 mitten im digitalen Ökosystem vieler Unternehmen weltweit. Und damit genau an einem Punkt, wo sich exakt die Daten befinden bzw. Datenflüsse stattfinden, die genutzt werden können, um Machine Learning Algorithmen zu trainieren und Neuronale Netze aufzubauen. Microsoft Azure ist der zentrale Hub wo am Ende alles zusammenläuft und die dafür notwendigen Cloud-basierten AI-Services zur Verfügung stehen, um die AI-Strategie umzusetzen.
Was die Cloud betrifft, hängt Google weiter hinter AWS und Microsoft hinterher. Allerdings könnte AI hier zum Game Changer werden. Vergleicht man zwar aktuell Googles AI-Service-Portfolio mit dem von AWS und Microsoft, dann lässt sich festhalten, dass Google der Laggard unter den innovativen Anbietern von Public Cloud- und AI-Services ist. Vor allem, wenn man Googles AI-Investitionen von 3,9 Milliarden US-Dollar betrachtet. Im Vergleich dazu hat Amazon bisher nur 871 Millionen US-Dollar und Microsoft nur 690 Millionen US-Dollar in AI investiert. Bei Google mangelt es halt an der konsequenten Exekution.
Aber! Google hat bereits weltweit über 1 Million AI-Nutzer (überwiegend durch die Akquisition der Data Science Community „Kaggle“) und besitzt extrem viel AI-Know-How (u.a. durch die Akquisition von „DeepMind“). Zudem gilt Google unter Entwicklern als die leistungsstärkste AI-Plattform mit den fortgeschrittensten AI-Tools. Zudem ist TensorFlow die führende AI-Engine und für Entwickler die wichtigste AI-Plattform, mit welcher schon zahlreiche AI-Projekte umgesetzt wurden. Weiterhin hat Google mit den Tensor Processing Units (TPUs) eigene Prozessorchips entwickelt, die speziell für den Einsatz mit TensorFlow abgestimmt sind. Mit Cloud AutoML hat Google erst kürzlich einen MLaaS-Dienst angekündigt, mit dem auch unerfahrene Machine Learning Entwickler eigene Deep Learning Modelle bauen können.
Wenn man sich dann noch vor Augen hält, wo Google u.a. mit dem Android OS seine Finger im Spiel hat (z.B. Smartphones, Haushaltsgeräte, Smart Home oder Autos), wird das Potenzial der AI-Services auf der Google Cloud Platform deutlich sichtbar. Der einzige Wehrmutstropfen besteht – weiterhin – darin, dass Google nur Entwickler bedienen kann. Der ausschlaggebende Zugang zu Unternehmen, wie Microsoft ihn besitzt, fehlt immer noch.
AI wird der Game Changer in der Public Cloud
Der Markt für AI-Plattformen und AI-Services befinden sich derzeit noch in der Anfangsphase. Doch mit dem wachsenden Bedarf, ihren Kunden intelligente Produkte und Services anbieten zu wollen, werden Unternehmen dazu übergehen, sich Unterstützung zu suchen. Und Fakt ist, dass nur der leichte Zugang zu Cloud-basierten AI-Services und die dafür notwendige und schnell zur Verfügung stehende Rechenleistung, die Entwicklung neuer „intelligenter“ Produkte, Services und Geschäftsmodelle ermöglicht. Für Unternehmen macht es daher keinen Sinn, AI-Systeme In-House aufzubauen, da sich diese dort u.a. nicht performant und skalierbar betreiben lassen. Zudem sollte der Zugriff auf die Endgeräte und die weltweit verteilten Daten, die ausgewertet werden müssen, nicht vernachlässigt werden. Das ist nur durch weltweit skalierte und gut vernetzte Cloud-Plattformen möglich.
Für die Anbieter könnte AI zum Game Changer in der Public Cloud werden. Nachdem AWS und Microsoft das Feld anführen, hat es Google bis heute dort nicht geschafft, signifikant Boden gut zu machen. Mit seinem AI-Portfolio könnte sich das aber ändern. Vor allem TensorFlow und die Beliebtheit und Entwicklern spielt Google dabei in die Karten. Aber hier sind AWS und Microsoft bereits auf der Hut und gehen sogar gemeinsam dagegen vor. Mit „Gluon“ haben beide zusammen eine Open-Source Deep Learning Bibliothek entwickelt, die sehr ähnlich funktioniert wie TensorFlow. Zudem muss man AWS und Microsoft zusprechen, dass sie ein breites Angebot von AI-Engines (Frameworks) unterstützen und eben nicht nur TensorFlow.
Ob Google damit AWS einholen wird, das bleibt zu bezweifeln. Aber Microsoft könnte schnell den Atem zu spüren bekommen. Für Microsoft wird es ausschlaggebend sein, wie schnell Unternehmenskunden von dem AI-Service-Portfolio überzeugt werden können und ob währenddessen das Verständnis vermittelt wird, andere Microsoft Produkte und Services (z.B. Azure IoT) in die AI-Strategie mit einfließen zu lassen. Amazon wird mit seiner dualen Strategie, dem Fokus auf Entwickler und Unternehmen, den Public Cloud-Markt auch weiterhin anführen und die Heimat für all diejenigen – insbesondere Cloud-nativen – AI-Nutzer sein, die nicht ausschließlich TensorFlow einsetzen wollen. Hinzu kommt die große und auf Innovationen ausgerichtete Kundenbasis, die zu verstehen weiß, welcher Nutzen von AI-Services ausgeht.