Kategorien
Kommentar

Interview mit Speakers Excellence über Cloud Computing und die Digitale Evolution

Im Juli 2017 wurde ich von Philipp Hagebölling (Speakers Excellence) zu den Themen Cloud Computing und Digitale Evolution befragt.

Herr Büst, Sie sind Experte für Cloud Computing und der führende deutsche Blogger auf diesem Gebiet. Umreißen Sie doch einmal kurz, was wir unter Cloud Computing verstehen dürfen.

Cloud Computing lässt sich als ein Bereitstellungsmodell von IT-Ressourcen (Rechenleistung, Speicherkapazitäten, Software, etc.) beschreiben, auf die ein Nutzer via Datenverbindung (bevorzugt das Internet) zugreifen kann. Hierbei passen sich die Ressourcen dynamisch den jeweiligen Bedürfnissen an.

Wird z.B. mehr Speicherkapazität benötigt, stellt der Anbieter diesen bereit, ohne dass der Nutzer aktiv werden oder zumindest lange darauf warten muss. Darüber hinaus wird beim Cloud Computing nur für die Leistung bezahlt, die während eines bestimmten Zeitraums auch tatsächlich in Anspruch genommen wird. Firmen, bei denen intern wie extern transferierte und gespeicherte Datenmenge starken Schwankungen unterliegen, können durch Cloud Computing hohe Investitionskosten vermeiden. Die Einrichtung einer großen (oft zeitweise brachliegenden) IT-Umgebung wird quasi überflüssig.

Mit Software-as-a-Service (SaaS), Platform-as-a-Service (PaaS) und Infrastructure-as-a-Service (IaaS) werden drei Service-Modelle, mit der Public Cloud, der Private Cloud, der Hybrid Cloud und der Community Cloud vier Bereitstellungsmodelle unterschieden.

Welchen Vorteil bringt die „Cloud“ einem Unternehmen?

Cloud Computing trägt einerseits dazu bei, die Investitionskosten in IT-Umgebungen zu reduzieren. Dabei handelt es sich aber nur um einen Bruchteil der Vorteile, die von der Cloud ausgehen. Viel wichtiger ist jedoch der ständige Zugriff auf State-of-the-Art Technologien und neue Services wie Artificial Intelligence. Etwas das innerhalb von selbst betriebenen On-Premise-Umgebungen nicht möglich ist. Weiterhin ist die Skalierbarkeit und Elastizität von Cloud Computing essentiell, um auf die wechselnden Marktbedingungen und Kundenanfragen flexibel reagieren zu können. Cloud-Services sollten zudem in die Business-Strategie mit eingezogen werden. Vor allem für diejenigen Unternehmen, die auch in anderen Ländermärkten als nur Deutschland aktiv sind oder international expandieren wollen. Cloud Computing erleichtert es, die globale Reichweite mit einfachen Mitteln zu erhöhen, da die großen Public Cloud-Anbieter mittlerweile in allen wichtigen Regionen weltweit mit lokalen Rechenzentren vor Ort sind.

Software-as-a-Service zählt zu den Low-Hanging Fruits im Cloud-Umfeld. Hiermit lässt sich prinzipiell auf jegliche Art von Software über den Browser zugreifen. Beliebte Lösungen, die Unternehmen bevorzugt einsetzen sind typischerweise Office, E-Mail und CRM. Aber auch ERP und HR-Lösungen werden zunehmend beliebter.

Platform-as-a-Service eigenen sich am besten für die Entwicklung von SaaS- und Cloud-Applikationen aber auch für die Cross-Integration zwischen verschiedenen Cloud-Lösungen (iPaaS).

Infrastructure-as-a-Service kommt bevorzugt für den Betrieb dynamischer Infrastrukturen zum Einsatz. Auf Grund des hohen Freiheitsgrades hinsichtlich Technologien und Konfigurationsmöglichkeiten ist IaaS derzeit aber weiterhin die bevorzugte Wahl, wenn es um die Entwicklung neuer digitaler Produkte, Software (SaaS) und Services geht.

Die „Cloud“ wurde in der Vergangenheit des Öfteren als Sicherheitsrisiko bezeichnet. Wie wird vermieden, dass die gespeicherten Daten nicht in falsche Hände gelangen?

Die Krux ist, geht es um das Thema Sicherheit, werden leider immer wieder zwei Begriffe vermischt, die grundsätzlich unterschieden werden müssen: Die Datensicherheit und der Datenschutz.

Datensicherheit bedeutet die technischen und organisatorischen Maßnahmen umzusetzen, um Vertraulichkeit, Verfügbarkeit und Integrität der IT-Systeme sicherzustellen. Public Cloud-Anbieter bieten weit mehr Sicherheit, als es sich ein deutsches mittelständisches Unternehmen leisten kann. Das hängt damit zusammen, dass Cloud-Anbieter gezielt in den Aufbau und die Wartung ihrer Cloud Infrastrukturen investieren und ebenfalls das dafür notwendige Personal beschäftigen und die entsprechenden organisatorischen Strukturen geschaffen haben. Hierzu werden jährlich Milliarden von US-Dollar in die Hand genommen. Es gibt nur wenige Unternehmen außerhalb der IT-Branche, die in ähnlicher Weise in IT-Sicherheit investieren können und wollen.

Beim Datenschutz geht es um den Schutz der Persönlichkeitsrechte während der Datenverarbeitung und den Schutz der Privatsphäre. Dieses Thema sorgt bei den meisten Unternehmen für die echten Kopfschmerzen. Denn beim Verstoß gegen das Bundesdatenschutzgesetz macht der Gesetzgeber kurzen Prozess. Es geht zunächst also darum, den Cloud-Anbieter für die Einhaltung der im §9 festgehaltenen Regeln im Bundesdatenschutzgesetz in die Verantwortung zu nehmen und dies selbst auf Basis von §11 zu überprüfen. Für die Erfüllung von §11 empfiehlt es sich auf die Gutachten von Wirtschaftsprüfern zurückzugreifen, da kein Anbieter jeden Kunden einzeln ein Audit durchführen lassen kann. Der Datenschutz ist ein absolut wichtiges Thema, schließlich handelt es sich dabei um sensibles Datenmaterial. Es ist aber in erster Linie ein rechtliches Thema, was durch Maßnahmen der Datensicherheit gewährleistet werden muss.

Welche Prozesse vereinfacht das Cloud Computing?

Cloud Computing vereinfacht nicht einen einzigen Prozess. Das ist ein fataler Trugschluss. Die Cloud macht alles nur noch schlimmer. Denn sie bringt jede Menge neuer Prozesse mit sich und stiftet, wenn man es genau nimmt, erst einmal Unordnung. Andererseits ist sie die notwendige Bedingung, um Innovationen zu schaffen. Schritt 1 ist deshalb: mit Cloud-Infrastruktur, die ihrerseits für die notwendige Integration sorgt, das richtige Fundament legen. Anschließend lassen sich darauf die ersehnten neuen Prozesse gestalten. Aber: Die Konfigurationsaufwände dafür sollte man tunlichst nicht unterschätzen. Und für Einsteiger ist es als Lernprozess sicher erst einmal besser, die „schnelle Ernte“ einzufahren und mit kleinen, schnell umsetzbaren Lösungen, etwa als Software-as-a-Service, zu beginnen.

Und auch wenn mittlerweile alle Berater den Weg in die Cloud vorschreiben, warne ich vor blindem Aktionismus. Es ist nicht zielführend, bei Prozessverbesserungen von der Technologieseite zu kommen, das kann nach hinten losgehen. Technologie kann Ideen bringen, keine Frage. Aber sie ist auch immer nur Mittel zum Zweck.

Welche Auswirkungen wird die digitale Welt in den nächsten zehn Jahren auf unsere Gesellschaft haben?

Die Digitalisierung ist in vollem Gange und wird vor keinem Bereich unserer Gesellschaft haltmachen. In Deutschland steht unsere Industrie derzeit zwar weltweit noch gut da. Doch im weltweiten Vergleich tut sich Deutschland insgesamt schwer oder ist gar dabei den Anschluss zu verpassen. Ein Grund: meiner Ansicht nach fehlt in Deutschland die Risikobereitschafft. Es wird ständig zu lange gewartet, bis Best Practices vorhanden sind. Dann wird diskutiert. Dann werden Probleme/ Ausreden und künstliche Hürden (Thema: Datenschutz) herbeigezaubert. Und wenn man sich dann durchgerungen hat etwas zu starten, ist es zu spät und die Marktanteile sind vergeben oder der Mitbewerb aus Übersee ist technologisch meilenweit entfernt.

Ein Nachzügler zu sein ist ja per se nichts Schlimmes. Das ist aber nur dann sinnvoll, wenn man als Copycat á la Samwer schlichtweg einen Exit sucht. Aber ernsthafte Innovationen schafft man anders…

Ich hoffe daher nur, das Deutschland beim Thema Artificial Intelligence nicht auch wieder den Anschluss verliert. Das ist technologisch als auch strategisch ein immens wichtiges Thema für jedes deutsche und europäische Unternehmen, um das bestehende Geschäftsmodell und die dazugehörigen Produkte und Services zu erweitern und den Kunden noch mehr in den Mittelpunkt des Interesses zu stellen. Als Kunden liefern wir Anbietern mittlerweile jede Menge Daten, die gewinnbringend für uns genutzt werden können, um uns einen besseren Service zu bieten.

Hinsichtlich Trends sollten man etwas im Blick behalten, was ich als “Digital Correlation” bezeichne. Denn Trends wie Cloud Computing, Artificial Intelligence, Internet of Things, Data Analytics, Fog Computing und Blockchain spielen sehr eng miteinander zusammen und würden ohne einen anderen Trend wohlmöglich gar nicht existieren.

Außerdem reicht es heute nicht mehr, einfach nur den nächsten Megatrend nachzulaufen. Das Gesamtbild ist entscheidend und wie man selbst daran partizipieren kann und sollte.

Das Interview ist am 20. Juli 2017 zuerst unter „René Büst im Interview“ erschienen.

Kategorien
Analysen

Digital. Cloud. AI-Driven. Die essentiellen Grundlagen für moderne Unternehmensstrategien

In der Geschäftsführung eines Unternehmens der Old Economy zu arbeiten ist derzeit nicht unbedingt ein angenehmer Job. Den Mitbewerb auf Distanz zu halten und gleichzeitig das bestehende Geschäftsmodell gegen die Internetgiganten wie Amazon, Google, Facebook & Co. zu verteidigen ist eine zähe Aufgabe. Hinzu kommt – soll ein Unternehmen nach digitalen Disziplinen geführt und mit der passenden Rüstung ausgestattet werden, geht es schlichtweg um die Umsetzung und nicht darum, ständig die Frage nach dem Warum zu stellen. Als ein unterstützendes Element werden moderne Unternehmensstrategien anhand eines „magischen Dreiecks“ aufgebaut, dessen Eckpunkte die notwendigen Grundlagen bilden: Sei digital. Nutze die Cloud. Profitiere von Artificial Intelligence (AI). In diesem Artikel wird das Dreieck im Detail entfaltet.

Digital: Einfach machen!

Zunächst, reden wir über Digitalisierung, dann sprechen wir von einer digitalen Evolution und nicht einer Transformation. Wir befinden uns innerhalb eines Digitalisierungsprozess, der vor über 40 Jahren gestartet wurde, als Intel mit seinem „Intel 4004“ erstmals einen Prozessor in Serie auf den Markt brachte und SAP, Microsoft und Apple gegründet wurden. In der Zwischenzeit finden sich PCs oder Macs in jedem Büro und die Nutzung mobiler Endgeräte steigt kontinuierlich an. Dennoch, auch nach über 40 Jahren ist bei weitem noch nicht jeder Prozess digitalisiert.

Die Digitalisierung setzt die Führungsetagen heutzutage insofern unter Druck, dass sie einerseits ihre bestehenden Geschäftsmodelle hinterfragen und sich neu erfinden müssen, um mit einem digitalisierten Unternehmen dem Wettbewerb gegenüberzutreten. Hierzu gehört es, den Kunden beharrlich in den Mittelpunkt des Interesses zu stellen. Denn, spricht man heute von Digitalisierung, bedeutet dies, den Vernetzungsgrad mit Kunden, Partnern und Lieferanten zu maximieren und anhand smarter Produkte und AI-Technologien alle Gruppen besser zu verstehen. Auf dieser Basis gilt es dann zu erkennen, welche Bedürfnisse existieren, um darauf proaktiv reagieren zu können. Hierbei sollten anhand von „Data Driven Apps“ so viele qualitative Daten wie möglich erhoben werden und diese am Ort des Geschehens (Digital Touchpoint) für Kunden, Partner und Lieferanten gewinnbringend einzusetzen, um damit die Digital User Experience zu erhöhen.

Tatsache ist, die Supply Chain muss zukünftig deutlich agiler sein, um im Wettbewerb bestehen zu können. Dabei geht es um Echtzeit. Im Bestfall werden Unternehmen schon eine Stunde vorher wissen, was der Kunde benötigen wird, sprich: Predictive Analytics wird immer wichtiger. Es gilt die Rüstzeiten von Unternehmen runterzufahren, Vernetzung über die gesamte Lieferkette zu erreichen und mit Hilfe der Cloud schnell skalieren zu können. Denn ein Fakt wird uns auch in der Industrie 4.0 begleiten: Märkte sind nicht vorhersehbar, deshalb müssen die Reaktionszeiten schneller werden.

Amazon ist das Paradebeispiel des digitalen Zeitalters. Als einfacher Webshop gestartet, würde Amazon derzeit nur noch ein eigenes Music-Label benötigen, um nahezu 100 Prozent der digitalen Güter Ende-zu-Ende zu kontrollieren. Amazon Video ist dafür nur ein Beispiel:

  • Amazon produziert eigene Filme und Serien (die bereits Golden Globes gewonnen haben)
  • Amazon betreibt seine eigene Infrastruktur, um Videos abzuspielen und auszuliefern (Amazon Web Services)
  • Amazon hat seine eigene Plattform, um Videos zu streamen (Amazon Video)
  • Amazon kontrolliert die Distributionskanäle anhand von Apps (Multi-OS) und eigener Geräte (Kindle)

Das Musterbeispiel der digitalen Evolution ist Vorkwerk’s Thermomix. Im Jahr 1972 auf dem Markt erschienen, wurde das Küchengerät über die vergangenen 40 Jahre kontinuierlich weiterentwickelt. In 2014 kam die derzeit aktuelle Version TM5 auf den Markt. Eines der wichtigsten Eigenschaften dieses Modells besteht im Einsatz digitaler Technologien. So ermöglicht der TM5 das sogenannte „Guided Cooking“ anhand von proprietären Speicherchips, auf welchen die für die jeweiligen Rezepte notwendigen Einstellungen und Kochinstruktionen gespeichert sind. Zudem wurden alle Knöpfe vorheriger Modelle entfernt und durch ein Touchdisplay ersetzt. Weiterhin ermöglicht eine mobile Applikation die wöchentliche (monatliche) Planung und kommuniziert mit dem Thermomix. Ein neues WLAN-Modul ersetzt die Speicherchips und verbindet den Thermomix mit der Webseite „Cookidoo“ über welche der Thermomix Zugriff auf Rezepte erhält. Vorwerk hat es geschafft, ein 40 Jahre altes Produkt ständig zu verbessern und sogar zu digitalisieren und hat somit verstanden, den Thermomix als Teil der digitalen Evolution anzupassen.

Ein weiteres gutes Beispiel der digitalen Evolution ist Tesla – das digitalisierte Auto. Meiner Meinung nach ist der tatsächliche Fortschritt eines Teslas nicht der elektrische Antrieb sondern der Software-Anteil – das Software-defined Car. Dies macht es für Tesla deutlich einfacher, neue Funktionen und dieselbe Software für jede physikalische Plattform auszurollen.

Fakt ist, dass die Geschäftsführung verinnerlichen muss, das ihr Unternehmen heute vollständig digital ausgerichtet sein sollte oder wie Forrester Analyst Glenn O` Donell twittert: “There actually is no such thing as #DigitalBusiness. It’s just Business. If it isn’t „Digital,“ you are likely out of business!”

Cloud: Die essentielle Grundlage

Die Cloud ist einer der wichtigsten Treiber der digitalen Evolution. Nur mit dem Einsatz dynamisch agierender und global skalierbarer Infrastrukturen und Plattformen können Unternehmen ihre IT-Strategien an die sich ständig verändernde Marktbegebenheiten anpassen und die Unternehmensstrategie damit agiler unterstützen. Cloud-Infrastrukturen bilden ein solides Fundament, um die Digitalisierungsstrategien von Unternehmen jeder Größe zu unterstützen. Startups können dort langsam wachsen, ohne von Beginn an massiv in IT-Ressourcen zu investieren. Unternehmen erhalten damit eine der wichtigsten Eigenschaften, um in der digitalen Evolution ein Wort mitzureden: Geschwindigkeit. Eine Idee zu haben, ist nur der Anfang. Meistens scheitert der schnelle Go-to-Market an der technischen Umsetzung wegen nicht rasch genug verfügbarer IT-Ressourcen sowie dem Mangel an modernen Tools und Services, die bei der Entwicklung maßgeblich unterstützen können.

Cloud-Infrastrukturen und Plattformen ermöglichen es IT-Organisationen Agilität bereitzustellen und die Innovationsfähigkeit eines Unternehmens zu erhöhen. Hierzu zählen:

  • Zugriff auf State-of-the-art Technologien und höherwertige Services, um neue digitale Produkte und Dienste zu entwickeln.
  • Kostengünstige Entwicklung und Tests von PoCs.
  • Verbesserung der Customer Experience anhand der Entwicklung neuer kundenzentrierter Lösungen, um die Kundenbeziehung zu optimieren.
  • Engere Integration der gesamten Prozess- und Lieferkette innerhalb der Organisation sowie mit Partnern und Lieferanten.
  • Beschleunigung des Release-Zyklus (Continuous Development und Deployment)

Ein wichtiger Bestandteil besteht darin, dass Organisationen sich ausschließlich nicht auf ihren Heimatmarkt konzentrieren sollten. Getrieben durch die Globalisierung, welche ihren aktuellen Höhepunkt durch die Digitalisierung unserer Gesellschaft erreicht, muss Skalierbarkeit ebenfalls von einer globalen Perspektive betrachtet werden. Die Cloud ermöglicht den elastischen Betrieb von Infrastrukturen und unterstützt die globale Expansion auf eine einfache Art und Weise durch:

  • Flexibler Zugriff auf IT Ressourcen „ohne Limit“.
  • Nutzung der Infrastruktur nach Bedarf.
  • Vermeidung technischer Herausforderungen wie beispielsweise eine hohe Latenz.
  • Erfüllung lokaler rechtlicher Anforderungen im entsprechenden Zielmarkt.
  • Weltweite Erreichbarkeit von Kunden.

Als Teil digitaler Strategien wird die Cloud immer wichtiger. Sie dient als die ideale Basis für einen unkomplizierten Zugriff auf IT-Ressourcen und befähigt jede Organisation dazu, auf eine agile Art und Weise zu agieren. Als technologische Grundlage ist die Cloud ein Mittel zum Zweck und ermöglicht den Zugang zu permanenten Innovationen wie AI-Dienste.

AI-Driven: Die Zukunft für jedes digitale Unternehmen

Stellen Sie sich vor, dass jeder Prozess von einer AI gesteuert werden kann und wird. Denn mit einer AI lässt sicher jeder Prozess innerhalb eines Unternehmens automatisieren. Hierbei handelt es sich um einen wichtigen Aspekt auf dem Weg zu neuen Geschäftsmodellen, da eine AI-betriebene Organisation Unternehmen befähigt, finanzielle Ressourcen und Talent wesentlich effizienter einzusetzen.

AI ist der nächste logische Schritt nach der Cloud und profitiert gleichermaßen von deren Erfolg. Die Cloud ist der Antrieb aus einem technologischen Blickwinkel. Bei AI geht es um den Mehrwert für das Unternehmen und führt zu intelligenteren Anwendungen. Auf Basis komplexer Analysen verfeinern AI-Anwendungen im Hintergrund die Kundenansprache und passen Produkte und Dienste besser an die jeweiligen Bedürfnisse an.

Aber AI hilft ebenfalls dabei, IT-Umgebungen effizienter zu betreiben. Wie beispielsweise eine AI-defined Infrastructure, welche das existierende Wissen innerhalb des IT-Betriebs automatisch verwendet und nach einem gewissen Zeitraum die Infrastrukturumgebung eigenständig verwalten kann. Ein Anwendungsfall ist der autonome Betrieb eines AI-gestützten IT-Managementsystems, welches dabei hilft, Ausfälle von Public Cloud-Anbietern zu vermeiden. Unterm Strich macht eine AI bzw. eine AI-defined Infrastructure den Betrieb einer Cloud-Umgebung intelligenter und damit effizienter.

Als Teil der Digitalstrategie befähigt eine AI Unternehmen, ihren Geschäftsbetrieb und dessen Abläufe zu verbessern – u.a. durch:

  • Ein verbessertes Verständnis ihrer Kunden anhand von Interaktionen und des Verhaltens aus der Vergangenheit.
  • Eine neuartige Bedienung von Applikationen durch die Veränderung der Kundeninteraktion von der Tastatur- hin zur Spracheingabe.
  • Eine tiefergehende Kundenbeziehung anhand von “Advanced Virtual Assistants”, welche das Kundenerlebnis verbessern.
  • Kundenspezifische Produkte und Dienstleistungen angepasst an die Kundenanforderungen.
  • Vorhersagen durch Analysen von Kundendaten, -interaktionen und -verhalten aus der Vergangenheit und in Echtzeit.
  • Gesprächiger zu sein, anhand “Smart Personal Assistants” und Bots.
  • Erweiterung bestehender Produkte, Dienste, Anwendungen und Prozesse.

Eines sollte jedoch nicht vergessen werden. Bei AI geht es nicht nur darum, existierende Prozesse zu verbessern. In den kommenden 5 bis 10 Jahren wird AI zum Game Changer werden! Sie wird Innovationszyklen beschleunigen und zu neuen Geschäftsmodellen führen. AI-Anwendungen besitzen bereits heute den notwendigen Reifegrad, um die Effizienz einzelner Prozesse zu erhöhen. Allerdings sollte AI nicht ausschließlich aus einem operativen Blinkwinkel (Verbesserung der Effizienz) betrachtet werden, sondern ebenfalls eine strategische Sichtweise erhalten, um technische Möglichkeiten für neue Applikationen und Anwendungsfälle zu evaluieren. Und damit einen echten Mehrwert für Kunden, Partner sowie die eigenen Mitarbeiter schaffen.

Digitale Disziplinen

Digitale Technologien wie AI, Cloud Computing, Internet of Things (IoT) und Blockchain sind die Basis für Innovationen und neue Geschäftsmodelle. Sie verändern heutige Spielregeln und Gesetze und werden damit für eine fortlaufende Disruption innerhalb und über Industrien hinweg sorgen. Ein Teil des digitalen Strategie-Mix besteht daher darin, den Kunden in den unmittelbaren Mittelpunkt des Interesses zu stellen, auf die Bedürfnisse einzugehen und die Kundenerwartungen damit ständig zu erhöhen. Digital Customer Engagement und Kundenservice als USP? Ja, Amazon, Google, Netflix, Uber und Airbnb sind nur ein paar erfolgreiche Beispiele dafür.

Unterm Strich ist es egal, in welcher Industrie man sich als ein Unternehmen befindet. Es geht darum, auf Augenhöhe mit aktuellen Technologien und Trends zu sein. Selbst dann, wenn man derzeit keinen Einfluss spüren mag. Hierzu gehört es, ein Verständnis für bestimmte Technologien zu entwickeln und zu evaluieren, was diese für das bestehende Geschäftsmodell bedeuten oder ob sie zu einer Gefahr werden können, die das Unternehmen negativ beeinflussen.

Kategorien
Kommentar

Interview mit T-Systems MMS: Cloud Computing – Das Getriebe der Digitalisierung

René Büst ist einer der profiliertesten Cloud-Experten Deutschlands. Für ihn ist die Cloud wesentlicher Bestandteil der digitalen Transformation – aber nur dann, wenn sie entsprechend vorbereitet im Unternehmen zum Einsatz kommt.

Herr Büst, in diesen Tagen ist viel von der Weiterentwicklung der Cloud die Rede. Manchen gilt sie bereits als Allheilmittel. Und zwar für die Prozesslandschaft der Unternehmen in der Digitalisierung …

was allerdings ein fataler Trugschluss ist: Die Cloud macht alles nur noch schlimmer…

Bitte?

Ja, denn sie bringt jede Menge neuer Prozesse mit sich und stiftet, wenn man es genau nimmt, erst einmal Unordnung. Andererseits ist sie die notwendige Bedingung, um Innovationen zu schaffen. Schritt 1 ist deshalb: mit Cloud-Infrastruktur, die ihrerseits für die notwendige Integration sorgt, das richtige Fundament legen. Anschließend lassen sich darauf die ersehnten neuen Prozesse gestalten. Aber: Die Konfigurationsaufwände dafür sollte man tunlichst nicht unterschätzen. Und für Einsteiger ist es als Lernprozess sicher erst einmal besser, die „schnelle Ernte“ einzufahren und mit kleinen, schnell umsetzbaren Lösungen, etwa als Software-as-a-Service, zu beginnen.

Sie warnen demnach vor Aktionismus?

Absolut, es ist nicht zielführend, bei Prozessverbesserungen von der Technologieseite zu kommen, das kann nach hinten losgehen. Technologie kann Ideen bringen, keine Frage. Aber sie ist auch immer nur Mittel zum Zweck.

Wenn die Cloud sozusagen ein Getriebe im Motor der Digitalisierung ist, wie sind dann moderne Methoden wie DevOps einzuschätzen?

Auch hier ist es wichtig, zuerst die Business-Seite anzuschauen. DevOps, eine Methode, die IT-Entwicklung und IT-Betrieb mehr in Einklang bringt, hat oft ein Ziel: Dass Unternehmen ihre Lösungen schneller an den Markt bringen können, also damit die so genannte Time-to-Market beschleunigen. Dieses Momentum ist vor allem für tradierte Unternehmen wichtig, damit sie nicht von Start-ups überholt werden. Denn viele dieser vom Anbeginn weg digitalisierten Player haben ja kein klassisches „Ops“ mehr, sondern basieren vollständig auf Cloud-Strukturen. Das macht sie deutlich agiler und flexibler. DevOps kann also helfen, diesen Mangel an Tempo auszugleichen. Sie vereinfachen Schritte und Entwickler kommen mit ihrer Hilfe schneller an ihr Ziel. Kurz und gut: DevOps ist eine wertvolle Unterstützung.

Heißt das nicht auch, dass es in der Digitalisierung oftmals kein „Entweder-oder“ gibt sondern vielmehr ein „Sowohl-als auch“?

Richtig. Man hört ja momentan viel von der bimodalen IT, die ich lieber „IT der zwei Welten“ nennen möchte, und zwar geteilt in eine statische und eine dynamische Welt. In den nächsten Jahren wird für viele Unternehmen wichtig sein, diese Welten zu integrieren. Die Ablösung der statischen Seite findet eher sukzessive statt. Es wird sehr oft ein langsamer Wechsel aus einer hybriden Welt heraus sein.

Ist denn Langsamkeit in der digitalen Transformation kein Tabu?

Ich vertrete immer die These, dass wir uns bereits seit 30 Jahren in einem Prozess der Digitalisierung befinden. Mit SAP und Windows haben wir angefangen, mittlerweile stehen in jedem Büro Computer und auch der Einsatz mobiler Endgeräte nimmt stetig zu. Aber: Auch nach diesen drei Jahrzehnten sind längst nicht alle Abläufe digitalisiert worden. Auch hier gilt, dass Aktionismus fehl am Platze ist.

… stattdessen wäre wichtig?

… konkret im Einzelfall zu prüfen, wo digitale Prozesse Mehrwert stiften. Ich gebe ihnen ein Beispiel: Neulich habe ich meine Uhr in Reparatur gegeben. Vier Wochen lang habe ich vom Händler anschließend kein Lebenszeichen mehr gehört und dann bekam ich plötzliche eine Mitteilung, dass meine Uhr fertig sei. Zeitgemäßer Kundenservice? Nein, sicher nicht! Der Kunde möchte doch mal einen Statusbericht haben, wissen, wann die Reparatur ungefähr fertiggestellt sein wird, was konkret defekt war und nicht im Dunklen tappen. Deshalb ist es ein guter Weg, wenn Unternehmen ernsthaft prüfen, ob es ihrerseits solche dunklen Flecken in den Prozessen gibt und wo es sinnvoll ist, hier mit neuen digitalen Abläufen Abhilfe zu schaffen.

Wenn sie von Abhilfe sprechen: wo denn konkret?

In erster Linie ist es so, dass die Digitalisierung mehr Transparenz bringt. Sie legt offen, wie Unternehmen sich mit Lieferanten, Partnern und Kunden besser vernetzen und beispielsweise das Kundenerlebnis verbessern zu können. Sie hilft, Prozesse „sauber“ zu denken.

Angesichts dieser Positiveffekte: Wie ist denn grundsätzlich der Status quo der Digitalisierung in deutschen Unternehmen?

Durchwachsen. Es existiert offensichtlich ein Missverhältnis zwischen mittleren und großen Organisationen. Laut unseren Untersuchungen beschäftigen sich zwar bereits 83 Prozent der Mittelständler mit der Cloud, aber 58 Prozent verfügen noch nicht über eine Digitalstrategie. Und das ist fatal, denn um mit der Cloud umgehen zu können, braucht es angesichts ihrer Komplexität auch eine Strategie. Diese muss außerdem in sämtlichen Unternehmensbereichen bis rein in die Geschäftsführung etabliert sein.

Nur was heißt denn Strategie, ist das nicht ein zu schwammiger, allgemeingültiger Begriff?

Nein, nicht, wenn man ihn an handfeste Überlegungen knüpft. Wichtig ist immer zu prüfen, an welchen Stellen man angreifbar ist. Ich kenne selbst das Beispiel eines Wertstoffhändlers, der einen innerbetrieblichen Think-Tank gegründet hat mit dem Ziel, Mittel und Wege zu suchen, das Geschäftsmodell des eigenen Unternehmens zu attackieren – genauso geht´s.

Sind solche innovativen Ansätze mit Blick auf das Internet der Dinge und Industrie 4.0 nicht eine Pflicht, da hierbei eine noch viel massivere Umwälzung auf die gesamte Ökonomie zuläuft?

Unbedingt. Denn die Supply Chain muss zukünftig deutlich agiler sein, um im Wettbewerb bestehen zu können. Dabei wird es viel um Echtzeit gehen. Im Bestfall werden Unternehmen schon eine Stunde vorher wissen, was der Kunde dann benötigen wird, sprich: Predictive Analytics werden immer wichtiger. Es gilt die Rüstzeiten von Unternehmen runterzufahren, Vernetzung über die gesamte Lieferkette zu erreichen und mithilfe der Cloud schnell skalieren zu können. Denn ein Fakt wird uns auch in der Industrie 4.0 begleiten: Märkte sind nicht vorhersehbar, deshalb müssen die Reaktionszeiten schneller werden.

Also ist cloudbasierte Technologie letztlich dann aber doch entscheidend?

Ja, aber weiterhin gilt: Nur, wenn ich sie an den richtigen Stellen einsetze und vor allem, wenn ich auch weiß, warum ich sie überhaupt einsetze. Sind diese Bedingungen aber gegeben und möchte ich mich als Unternehmen dann dieser Technologie bedienen, um damit gegen den Wettbewerb zu bestehen, gilt in der Tat das Motto: Angriff ist die beste Verteidigung!

– – –
Das Interview ist zuerst unter „Cloud Computing – das Getriebe der Digitalisierung“ erschienen.

Kategorien
Kommentar

Interview mit T-Systems MMS: Wann man tatsächlich von erfolgreicher Digitalisierung sprechen kann

Analyst René Büst über die Herausforderungen der digitalen Transformation im B2B-Handel. Was Unternehmen veranlassen müssen, wo Chancen liegen und wann man erst von einer ganzheitlichen Umsetzung sprechen kann.

Das Ergebnis unserer aktuellen Digital Business Readiness Studie überrascht: „42 Prozent der Unternehmen haben bereits eine Digitalstrategie“, und ein gar nicht mal so kleiner Anteil der Befragten sagte sogar, dass man die Strategie bereits „erfolgreich umgesetzt“ habe. Höchstwahrscheinlich aber handelt es sich dabei nur um Wunschdenken. Denn vor allem in der IT-dominierten Welt hat es den Anschein, dass einige Unternehmen und Organisationen bei ihrer Definition der Digitalstrategie zu kurz gesprungen sind. Wenn wir bei Crisp Research in einer Studie danach fragen: „Wie stark ist Ihr Unternehmen von der digitalen Transformation betroffen?“ und knapp die Hälfte antwortet „schwach“ oder sogar „gar nicht“, dann ist eher Aufklärung vonnöten. Nicht nur, dass man davon ausgehen kann, dass nahezu jedes Unternehmen stark betroffen sein wird. Auch die Weichenstellungen für die Transformation werden augenscheinlich unterschätzt.

Wirft man einen Blick auf die Details, so zeigt sich nämlich, dass die Digitalisierung in ihrer Ganzheitlichkeit einem mehrere Ebenen umfassenden Großauftrag entspricht. Sie spielt sich auf einer IT-technologischen, prozessualen und organisatorischen Ebene mit jeweils tiefgehenden Änderungen ab. Gerade im Handel lässt sich gut darstellen, welch große Menge an Stellschrauben noch zu drehen sind, bis man tatsächlich von einer umfassenden Digitalstrategie und vor allem ansatzweise von deren Umsetzung sprechen kann.

Die Unternehmens-IT als Startpunkt

Um die Lagerhaltung im B2B-Handel zu modernisieren, bietet sich als Ausgangsbasis die Analyse des eingesetzten ERPs und der darüber laufenden Prozessketten an. Anhand dessen zeigt sich recht schnell, ob und wo Medienbrüche entstehen, sich also Lücken zwischen analoger und digitaler Welt auftun. Wie sind beispielsweise ERP, CRM und die E-Commerce-Lösung miteinander gekoppelt und wie ist das Lager bzw. die Lagerhaltung diesbezüglich eingebunden? Wie ist der Lauf von Lieferscheinen?

Um Missverständnisse zu vermeiden: Sind nur Teilsegmente dieser Bereiche bzw. Prozesse digitalisiert, so kann man eben nicht von einer Transformation sprechen. Das sieht man häufig bei den Beständen: Oftmals wissen nicht alle Beteiligten im Unternehmen, wo die Ware in Echtzeit ist, ob tatsächlich im Verkauf oder noch im Lager. Und fragt man mitunter Händler, wie viele Artikel exakt zum Zeitpunkt X auf der gesamten Fläche vorhanden sind, erntet man lediglich ein Schulterzucken. Sprich, bei Inventarisierung und Nachbestellung allein liegt mit hoher Wahrscheinlichkeit in vielen Unternehmen noch jede Menge digitales Potenzial brach.
Eine bekanntermaßen große Herausforderung von Handel und E-Commerce hinsichtlich der Digitalisierung, die ebenfalls voll umfänglich gelöst sein muss, ist die der Schnittstellen. Diese betrifft nicht nur das Unternehmen allein, sondern alle mit ihm vernetzten Partner oder Zulieferer. Denn Transformation ist vor allem ein Datenthema. Das hinlänglich bekannte Wachstum dieser Daten hin zu Big Data wird nicht allein aus Gründen der Quantität für Anstrengungen sorgen. Sondern auch die Frage der Datenqualität spielt eine immer wichtigere Rolle. Es mangelt allerorts an Standards, die Ausspielkanäle bzw. Anforderer für Daten werden immer vielfältiger und die Komplexität der Schnittstellen-Problematik wird – Stichwort Internet der Dinge – bereits mittelfristig ansteigen. Schon erscheint es sinnvoll, explizit „Schnittstellenbeauftragte“ für ein Unternehmen einzufordern.

Nächster Anknüpfungspunkt: die Prozessoptimierung

Im B2B-Handel können beispielsweise digitale Beschilderungen und RFID-Tags genutzt werden, damit nicht nur jederzeit die Bestände in Echtzeit erkennbar sind, sondern sich mittels der digitalen Vernetzung zwischen Prozess und System dann tatsächlich eine voll automatisierte Lagerhaltung erzielen lässt. Das sähe zum Beispiel so aus, dass beim Unterschreiten einer bestimmten Mindestmenge gleich ein autarker Nachbestellprozess aus dem Lager angestoßen wird – ohne menschliches Dazutun. Das heißt: Prozesse werden maschinell ausgelöst oder bestätigt.
Digitale Prozesskette heißt aber auch, dass sich die Beziehungen zum Kunden positiv verändern lassen. Wenn der Großhändler beispielsweise seinen Gabelstapler oder andere für das Lager dringend benötigte Geräte in Reparatur gibt, will er nicht wochenlang vom Servicedienstleister im Ungewissen gelassen werden, um dann endlich eine Mitteilung zu bekommen, dass die Maschinen nun fertig sind. Das ist kein zeitgemäßer Kundenservice mehr. Ein Kunde möchte über einen Statusbericht informiert werden, wann die Reparatur ungefähr fertiggestellt sein wird, was konkret defekt war und nicht im Dunklen tappen. Deshalb ist es ein guter Weg, wenn Unternehmen ernsthaft prüfen, ob es ihrerseits solche dunklen Flecken in den Prozessen gibt. Das heißt aber auch, dass die Händler sämtliche Unternehmensprozesse kritisch analysieren, Medienbrüche aufdecken und deren Übergänge dann digitalisieren sollten.

Verankerung auf der organisatorischen Unternehmensebene

Zur Realisierung einer ganzheitlichen Digitalstrategie ist es wichtig, dass die Prozesse erstens von der Unternehmensführung vorgelebt und zweitens für alle Mitarbeiter gewissermaßen mit erlebbar gemacht werden. Nur so ist es möglich, dass die Transformation übergreifend stattfinden kann. Wenn beispielsweise ein Unternehmen aktenbasierte Archive abschafft und stattdessen entsprechende Desktop-Umgebungen einführt, sollte zuerst der entsprechende Mehrwert für das gesamte Unternehmen bzw. den einzelnen Mitarbeiter deutlich gemacht werden. Denn für die operative Ebene können dadurch komplette Tätigkeiten obsolet werden oder sich Arbeitsplatzbeschreibungen in Gänze ändern. Deshalb: Digitale Transformation ist ein Thema, das tief in die Unternehmenskultur eindringt.
Aus diesem Grund brauchen Unternehmen eine umfassende Roadmap zum Thema Digitalisierung, die tatsächlich alle drei beschriebenen Ebenen umfasst. Ist diese mit Leben gefüllt und der Transformationsprozess auf allen drei Ebenen angekommen, winken neue Geschäftsmodelle und mehr Umsatzchancen als Lohn der Anstrengungen. Die Botschaft dabei: Erfolge fangen bereits im Kleinen an. Als ein gutes Beispiel lässt sich der Bereich Marketing benennen. Viele Händler setzen auf Newsletter und ähnliche Möglichkeiten, um mit dem Kunden in Kontakt zu treten. Aber längst nicht alle sind personalisiert, immer noch wird der Interessent von Massenmailings „erschlagen“, die deutlich zielgerichteter sein könnten. Hat das Unternehmen aber die drei Sektoren – IT, Prozesse und Organisation – digital miteinander verknüpft, fließen die Informationen ohne Brüche an die Bedarfsträger zurück und so ist eine deutlich qualifiziertere Ansprache der Kunden möglich. Ebenso ist langfristig der Wandel vom reinen Händler hin zum umfassenden Dienstleister eine Chance. Da der Lieferant beispielsweise durch seine Datenanalysen mit sehr hoher Wahrscheinlichkeit weiß, dass der Kunde in den Engpass eines Produktes gerät, den er vielleicht selbst noch gar nicht absieht, kann ihm sein Händler proaktiv im Sinne eines Predictive-Analytics-Modells schon im Vorwege eine Lösung anbieten.

Fazit: Erfolgreiche Digitalisierung im B2B-Handel ist ein IT-Thema, ein Prozessthema und auch ein Organisationsthema. Darüber hinaus ist es wichtig, dass diese drei Ebenen nicht singulär, sondern im Zusammenspiel analysiert und anschließend optimiert werden – dann, und nur dann, sind die Weichen für eine prosperierende Zukunft deutlich besser gestellt.

– – –
Das Interview ist zuerst unter „Im Gespräch mit René Büst, Wann man tatsächlich von erfolgreicher Digitalisierung sprechen kann“ erschienen.

Kategorien
IT-Infrastrukturen

AI-Infrastrukturen: Die Basis von Geschäftsmodellen und Applikationen der nächsten Generation

Der Hype um Artificial Intelligence (AI) hat 2016 seinen vorläufigen Höhepunkt erreicht. Das Marktforschungs- und Beratungshaus Tractica geht davon aus, dass der weltweite jährliche Umsatz mit AI von 643,7 Millionen Dollar in 2016 bis 2025 auf 38,8 Milliarden Dollar anwachsen wird. Der Umsatz mit „AI Enterprise-Applikationen“ soll von 358 Millionen Dollar in 2016 auf 31,2 Milliarden Dollar im Jahr 2025 steigen. Die durchschnittliche jährliche Zuwachsrate liege bei stolzen 64,3 Prozent. IT- und Business-Entscheider müssen sich heute also mit dem Potenzial von AI auseinandersetzen. Für Unternehmen jeglicher Art und Form stellt sich somit die Frage, mit welchen Technologien bzw. Infrastrukturen, sie ihren Enterprise-Stack AI-ready machen.

Was ist Artificial Intelligence (AI)?

„Das Ziel der Artificial Intelligence besteht darin, Maschinen zu entwickeln, welche sich so verhalten, als wären sie intelligent.“ (Prof. John McCarthy, 1955)

Sprechen wir in diesem Zusammenhang von intelligent, dann reden wir von einem sich dynamisch verhaltenen System. Ein System, das wie ein leerer IQ-Container betrachtet werden muss. Ein System, das unstrukturierte Informationen benötigt, um seine Sinne zu trainieren. Ein System, welches ein semantisches Verständnis der Welt benötigt, um in der Lage zu sein zu handeln. Ein System, das auf eine detaillierte Karte seines Kontext angewiesen ist, um unabhängig zu agieren und Erfahrungen aus einem Kontext in den anderen zu übertragen. Ein System, das mit allen notwendigen Mitteln ausgestattet ist, um Wissen zu entwickeln, auszubauen und aufrechtzuerhalten.

Hierbei liegt es in unserer Verantwortung, unser Wissen mit diesen Maschinen zu teilen als würden wir es mit unseren Kindern, Partnern oder Kollegen teilen. Dies ist der einzige Weg, um diese Maschinen, bestehend aus Hard- und Software, in einen Status zu überführen, den wir als „intelligent“ beschreiben. Nur damit helfen wir ihnen, auf einer täglichen Basis intelligenter zu werden und legen damit die Grundlage, ein selbstlernendes System zu schaffen. Hierzu werden in der AI-Forschung drei unterschiedliche Typen von AIs unterschieden:

  • Strong AI: Bei einer Strong AI handelt es sich um eine selbstbewusste Maschine, die über Gedanken, Gefühle, einem Bewusstsein und den dazugehörigen neuronalen Verwachsungen verfügt. Wer sich Kann schon auf eine Realität á la „Her“ oder „Ex_Machina“ freut, wird sich noch etwas gedulden müssen. Eine Strong AI existiert derzeit nicht und es wird noch eine unbestimmte Zeit dauern, bis diese Form existieren wird.
  • Narrow AI: Die meisten Anwendungsfälle im AI-Bereich fokussieren sich aktuell darauf, Lösungen für ein sehr spezielles Problem zu bieten. Diese sogenannten Narrow AIs sind sehr gut darin spezifische Aufgaben zu lösen, wie z.B. das Empfehlen von Songs auf Pandora oder Analysen, um die Tomatenzucht in einem Gewächshaus zu optimieren.
  • General AI: Eine General AI ist in der Lage, Aufgaben aus unterschiedlichen Bereichen und Ursprüngen zu bearbeiten. Hierzu besitzt sie die Fähigkeiten, die Trainingsintervalle von einem Bereich zu einem anderen zu verkürzen, indem sie die gesammelten Erfahrungen aus dem einen Bereich in einem anderen Artfremden Bereich anwenden kann. Der hierfür notwendige Wissenstransfer ist nur dann möglich, wenn eine semantische Verbindung zwischen diesen Bereichen existiert. Hinzu kommt: Je stärker und verdichteter diese Verbindung ist, desto schneller und einfacher lässt sich der Wissensübergang erreichen. Im Vergleich zu einer Narrow AI besitzt eine General AI somit alles notwendige Wissen und Fähigkeiten, um neben der Tomatenzucht in einem Gewächshaus gleichzeitig Gurken, Auberginen, Paprika, Radieschen, Rettich und Kohlrabi zu züchten. Eine General AI ist also ein System, was mehr als nur eine spezifische Aufgabe erledigen kann.

Eines liegt klar auf der Hand. Ohne Technologien wie z.B. das Cloud Computing hätte AI nicht seinen Boom in der heutigen Zeit erreicht. Sowohl Cloud-Services als auch Fortschritte im Bereich der Machine Intelligence haben es für Unternehmen einfacher gemacht, AI-basierende Funktionsweisen einzusetzen, um enger mit ihren Kunden zu interagieren. Immer mehr Unternehmen wie Airbnb, Uber oder Expedia setzen bereits auf Cloud-basierte Systeme, um AI-relevante Aufgaben zu verarbeiten, welche auf einen intensiven CPU/ GPU-Einsatz sowie Services für umfangreiche Datenverarbeitungs- und Analyseaufgaben zurückgreifen.

Unternehmen sollten im Kontext ihrer AI-Strategie daher die AI-Services unterschiedlicher Cloud-Anbieter evaluieren. Ein weiterer Teil ihrer Strategie sollte eine AI-defined Infrastructure einnehmen. Die Basis für diese Art von Infrastruktur liegt eine General AI zu Grunde, welche drei typische menschliche Eigenschaften vereint, mit denen Unternehmen in die Lage versetzt werden, ihre IT- und Geschäftsprozesse zu steuern.

  • Lernen (Learning): Anhand von Lerneinheiten erhält die General AI die Best Practices und Gedankengänge von Experten. Hierzu wird das Wissen in granularen Stücken vermittelt, welche einen separaten Teil eines Prozesses beinhalten. Im Kontext eines Gewächshauses lernen die Experten der AI z.B. sämtliche Prozessschritte detailliert an, was sie tun, um bspw. eine Gurke, eine Aubergine und eine Paprika zu züchten. Hierbei teilen sie der AI kontextbezogenes Wissen mit, welches u.a. das „Was muss gemacht werden“ und „Warum muss dies gemacht werden“ beinhaltet.
  • Verstehen (Understanding): Mit dem Erstellen eines semantischen Graphs (bestehend aus Daten) versteht die General AI die Welt, in welcher sich das Unternehmen mit seiner IT und dem Geschäftszweck befindet. Der semantische Graph eines Gewächshauses würde demnach verschiedene Kontexte (z.B. Informationen, Eigenschaften und Spezifika über das Gewächshaus, die Gurkenzucht, die Auberginenzucht und die Paprikazucht) zusammenfassen und ständig mit hinzugeführten Wissen (vgl. Lernen) anreichern. Die IT des Unternehmens spielt dabei eine wichtige Rolle, da hier sämtliche Daten zusammenlaufen.
  • Lösen (Solving): Mit dem Konzept des Machine Reasoning lassen sich Probleme in unklaren und insbesondere sich ständig verändernden Umgebungen lösen. Die General AI ist damit in der Lage, dynamisch auf den sich fortwährend wechselnden Kontext zu reagieren und den besten Handlungsablauf zu wählen. Anhand des antrainierten Wissens (Lernen) und dem Aufbau des semantischen Graphs (Verstehen) ist die General AI in einem Gewächshaus damit in der Lage, nicht nur ausschließlich eine einzige Gemüsesorte (das wäre eine Narrow AI) zu züchten. Dies erfolgt anhand der wachsenden Menge an antrainierten Wissensbausteinen, die zu einem Wissenspool führen, aus welchem anhand des Machine Reasoning die bestmöglichen Wissenskombinationen kombiniert werden, um Lösungen zu finden. Je mehr Wissensbausteine über die Zeit hinzugefügt werden, führt diese Art des kollaborativen Lernens zu einer besseren Bearbeitungszeit. Weiterhin steigt die Anzahl möglicher Permutationen exponentiell mit der Menge an hinzugefügten Wissens an. Je größer also der semantische Graph wird, desto mehr und dynamischer können weitere Gemüsesorten gezüchtet werden.

Welche Anforderungen hat Artificial Intelligence an Infrastrukturumgebungen?

AI ist derzeit die Technologie, welche das Potential besitzt, nicht nur existierende Infrastrukturen – wie Cloud-Umgebungen – zu verbessern, sondern ebenfalls eine neue Generation von Infrastruktur-Technologien voranzutreiben. Denn als ein wichtiger Technologie-Trend hat AI neben der Entwicklung einer ganz neuen Generation von Programmier-Frameworks auch die Anforderungen an eine neue Generation von Hardware-Technologien beeinflusst, um AI-Applikationen skalierbar zu betreiben.

Mobile- und IoT-Anwendungen haben hinsichtlich der Runtime-Umgebung bisher nur geringe Anforderungen an eine Infrastruktur gestellt. Hierfür war es hingegen kritisch, entsprechende Services bereitzustellen, mit denen ein Backend aufgebaut werden kann. Im Gegensatz dazu erwarten AI-Applikationen nicht nur anspruchsvolle Backend-Services, sondern auch optimierte Runtime-Umgebungen, welche auf die GPU-intensiven Anforderungen von AI-Lösungen abgestimmt sind. AI-Applikationen fordern die Infrastruktur hinsichtlich der parallelen Verarbeitung von Aufgaben in sehr kurzen Zeitzyklen heraus. Insbesondere für die Beschleunigung von Deep Learning Anwendungen kommen dann bevorzugt GPU-Prozessoren zum Einsatz. GPU-optimierte Anwendungen verteilen die rechenintensiven Bereiche der Anwendung auf die GPU (Graphikprozessor) und lassen die einfachen Berechnungen wie gewöhnlich von der CPU verarbeiten. Damit wird die Ausführung der gesamten Anwendung beschleunigt. Der Vorteil einer GPU gegenüber einer CPU zeigt sich in den jeweiligen Architekturen. Eine CPU ist ausschließlich auf die serielle Verarbeitung ausgelegt und verfügt nur über wenige Kerne. Eine GPU hingegen besteht aus einer parallelen Architektur mit einer großen Menge kleinerer Kerne, welche die Verarbeitung der Aufgaben gleichzeitig übernehmen. Nach Angaben von NVIDIA ist der Anwendungsdurchsatz einer GPU um den Faktor 10 bis 100-mal größer als bei einer CPU. Eine Infrastruktur sollte also in der Lage sein, bei Bedarf ein Deep Learning Framework wie TensorFlow oder Torch über hunderte oder gar tausende Nodes bereitzustellen, die direkt mit der optimalen GPU-Konfiguration zur Verfügung stehen. Hiermit beginnend lässt sich eine Liste von Anforderungen (nicht vollständig) für Infrastrukturen zusammenstellen, um AI-Anwendungen zu unterstützen:

  • Unterstützung gängiger AI-Frameworks: Infrastrukturen müssen in der Lage sein, AI-Applikationen die auf gängigen AI-Frameworks wie TensorFlow, Caffe, Theano oder Torch betrieben werden, auf dieselbe Art und Weise zu unterstützen, wie Web-Applikationen oder Backend-Prozesse. Somit sollte eine Infrastruktur sich nicht ausschließlich auf ein AI-Framework beschränken, sondern das Portfolio im Interesse von Entwicklern möglichst großzügig gestalten.
  • Auf GPU-optimierte Umgebung: Um sicherzustellen, dass eine Infrastruktur willkürlich jeden AI-Prozess ausführen kann, muss sie GPU-Umgebungen für das Bereitstellen schneller Rechenleistung zur Verfügung stellen. Mit seinen N-Series GPU Instanzen für Azure ist Microsoft einer der Vorreiter in diesem Bereich.
  • Management-Umgebung und –Tools: Eine der größten Herausforderungen aktueller Infrastrukturumgebungen ist der Missstand von verfügbaren Management Tools für den Betrieb von AI-Frameworks. Hier ist insbesondere das direkte Zusammenspiel der AI-Frameworks mit der Infrastruktur unumgänglich, um für eine bestmögliche Abstimmung und somit Leistung zu sorgen.
  • AI-integrierte Infrastruktur-Services: Infrastruktur-Anbieter müssen bzw. werden dazu übergehen, AI-Funktionen nicht nur zu unterstützen, sondern AI als einen zentralen Bestandteil ihres Infrastruktur- und Service-Stacks zu integrieren. Diese Form der AI-defined Infrastructure wird nicht nur die Intelligenz von Cloud-Services und Cloud-Applikationen erhöhen, sondern ebenfalls den Betrieb und Aufbau der Infrastrukturen durch den Kunden vereinfachen.
  • Machine Reasoning: Infrastruktur-Anbieter, die ihren Kunden Technologien für das “Machine Reasoning” bereitstellen, helfen diesen dabei, Probleme in unklaren und insbesondere sich ständig verändernden Umgebungen zu lösen. Auf Basis des Machine Reasoning ist eine AI-Umgebung in der Lage, dynamisch auf den sich fortwährend wechselnden Kontext zu reagieren und den besten Handlungsablauf zu wählen. Dies erfolgt, indem die bestmöglichen Wissenskombinationen zusammengeführt werden, um Lösungen zu finden. Anhand des Machine Learning werden die Ergebnisse anschließend anhand von Experimenten optimiert.

Infrastrukturumgebungen und Technologien für AI

Im Laufe der letzten Jahre wurden enorme Investitionen in AI-Funktionalitäten auf Cloud-Plattformen getätigt. Insbesondere die führenden Public Cloud-Anbieter, darunter Amazon, Microsoft und Google liegen hier weit vorne. Aber auch viele PaaS-Anbieter haben ihre Angebote um AI-Services erweitert. Die aktuelle AI-Technologie-Landkarte besteht derzeit aus drei Hauptgruppen:

  • Cloud Machine Learning (ML) Plattformen: Technologien wie Azure Machine Learning, AWS Machine Learning oder Google Machine Learning ermöglichen die Nutzung eines Machine Learning Models unter dem Einsatz proprietärer Technologien. Auch wenn Google Cloud ML auf TensorFlow setzt, erlauben die meisten Cloud-basierten ML-Services nicht das Ausführen von AI-Applikationen, die z.B. in Theano, Torch, TensorFlow oder Caffe geschrieben wurden.
  • AI-Cloud-Services: Technologien wie Microsoft Cognitive Services, Google Cloud Vision oder Natural Language APIs erlauben es komplexe AI bzw. Cognitive Computing Fähigkeiten anhand eines einfachen API-Aufrufs zu verwenden. Dieser Ansatz erlaubt es Unternehmen, Applikationen mit AI-Fähigkeiten zu entwickeln, ohne selbst in die dafür notwendige AI-Infrastrukturen zu investieren.
  • Technologien für Private und Public Cloud-Umgebungen: Technologien wie HIRO sind darauf ausgelegt sowohl auf Public Cloud-Umgebungen wie Amazon Web Services oder Private Cloud-Umgebungen wie z.B. OpenStack oder VMware betrieben zu werden. Sie ermöglichen es Unternehmen auf Basis einer General AI kontextübergreifende AI-basierte Geschäftsmodelle zu entwickeln und zu betreiben.
  • Zu weiteren AI-relevanten Kategorien und ihren Anbietern zählen:

    • Machine Learning: Rapidminer, Context Relevant, H20, Datarpm, LiftIngniter, Spark Beyond, Yhat, Wise.io, Sense, GraphLab, Alpine, Nutonian
    • Conversational AI/ Bots: Mindfield, SemanticMachines, Maluuba, Mobvoi, KITT AI, Clara, Automat, Wit.ai, Cortical.io, Idibon, Luminoso
    • Vision: Clarifai, Chronocam, Orbital Insight, Pilot.ai, Captricity, Crokstyle
    • Auto: NuTonomy, Drive.ai, AI Motive, Nauto, Nexar, Zoox
    • Robotics: Ubtech, Anki, Rokid, Dispatch
    • Cybersecurity: Cyclance, Sift Science, Spark Cognition, Deep Instict, Shift Technology, Dark Trace
    • BI & Analytics: DataRobot, Trifaca, Tamr, Esigopt, Paxata, Dataminr, CrowdFlower, Logz.io
    • Ad, Sales und CRM: TalkIQ, Deepgram, Persado, Appier, Chors, InsideSales.com, Drawbridge, DigitalGenius, Resci
    • Healthcare: Freenome, Cloud Medx, Zebra, Enlitic, Two AR, iCarbonX, Atomwise, Deep Genomics, Babylon, Lunit
    • Text Analysis: Textio, Fido.ai, Narrative
    • IoT: Nanit, Konux, Verdigris, Sight Machine
    • Commerce: Bloomreach, Mode.ai
    • Fintech & Insurance: Cape Analytics, Kensho, Numerai, Alphasense, Kasisto

    Unterm Strich lässt sich sagen, dass mit der Weiterentwicklung von AI-Technologien sich gleichzeitig auch Infrastruktur-Umgebungen von einem unterstützenden Modus hin zu einem Model transformieren müssen, in welchem AI-Applikationen so gleichwertig unterstützt werden wie es heute für Web-Applikationen und –Services der Fall ist.

    Die Zukunft liegt in einem AI-enabled Enterprise

    Eine AI-defined Infrastructure ist ein essentieller Teil des heutigen Enterprise-Stacks und bildet die Basis für das AI-enabled Enterprise. Denn eines liegt ebenfalls klar auf der Hand. Neben dem oft zitierten „War for Talent“ oder der Unfähigkeit großer Unternehmen sich effektiv zu verändern, sehen sich renommierte Unternehmen vielen weiteren Herausforderungen gegenübergestellt. Was gerne übersehen wird ist die unterschätze Gefahr des Mitbewerbs. Nicht etwa die der bekannten Wettbewerber, sondern Hightech-Unternehmen wie Amazon, Google, Facebook und Co., die unaufhaltsam in renommierte Märkte eimarschieren. Mit unvorstellbaren finanziellen Mitteln dringen diese Hightech-Unternehmen in bekannte Wettbewerbslandschaften renommierter Unternehmen ein und kapern den gesamten Kundenlebenszyklus. Amazon ist nur ein Beispiel, das bereits damit begonnen hat, die Zwischenhändler in der eigenen Lieferkette aus dem Weg zu räumen. Wir können sicher sein, dass Unternehmen wie DHL, UPS oder FedEx in Zukunft ihre Geschäfte anders machen werden als heute – Hinweis: Amazon Prime Air. Weiterhin hat Amazon alles in die Wege geleitet, um ein vollständiger Ende-zu-Ende Anbieter von Gütern zu werden. Digital wie auch nicht Digital. Wahrscheinlich wird es auch nicht mehr lange dauern, bis Facebook möglicherweise eine Bankenlizenz beantragen wird. Der potentielle Kundenzugang, ausreichend Informationen über seine Nutzer und das notwendige Kapital liegen bereits vor. Folglich müssen renommierte Unternehmen schlagkräftige Antworten finden, wenn sie morgen weiterhin existieren wollen.

    AI ist eine dieser Antworten und ein kraftvolles Hilfsmittel im Werkzeugkasten von Unternehmen, um sich der Wettbewerbssituation zu stellen.

    – – –
    Photo credits: Ilya Pavlov via StockSnap.io.

    Kategorien
    Analysen Unkategorisiert

    Fressen oder gefressen werden: Herzlich Willkommen im Hotel California der Artificial Intelligence

    Im Jahr 1977 haben die Eagles „Hotel California“ veröffentlicht. Einen Song über Drogen und die Auswirkungen einer Abhängigkeit auf Menschen. Setzen wir die Textpassage „We are all just prisoners here, of our own device“ in den Kontext unseres heutigen digitalen Lebensstils, finden wir darin jede Menge Wahrheit. Es gibt gute Gründe, warum uns Google den Großteil seiner Dienste kostenlos zur Verfügung stellt, oder warum Amazon will, dass jeder von uns ein Echo zu Hause hat, oder warum Facebook zum Verzeichnis unserer „Freunde“ geworden ist. Was im ersten Moment sehr praktisch erscheinen mag ist eine Gefahr. Es ist eine Gefahr für die Endverbraucher aber auch eine Gefahr für renommierte Unternehmen – in Neudeutsch auch als Old Economy bezeichnet. Und auch wenn wir auschecken können, wann immer wir wollen – wir werden niemals gehen.

    Das Festmahl der Datenkraken

    Nach nun mehr zwei Dekaden sammeln die Internet Giganten – Amazon, Google, Facebook, Alibaba und Baidu – weiterhin Tonnen an Daten, um ihre Datenbanken mit Informationen von jedermanns Wissen, Meinungen, Empfehlungen, Aufenthaltsorte, Bewegungen, Kaufverhalten, Beziehungsstatus, Lebensstile usw. zu befüllen. Dabei handelt es sich um kein Geheimnis und neu ist dieser Zustand schon gar nicht. Zudem ist auch kein Ende in Sicht. Ganz im Gegenteil. Fast jeden Monat erscheinen neue Dienste oder Endgeräte, um für ein besseres Nutzererlebnis zu sorgen, unser Leben bequemer zu machen und unsere Dosis der digitalen Abhängig zu erhöhen.

    Amazon, Google, Facebook und Co. sind in unserem Leben allgegenwärtig geworden. Und Dank des Internet of Things wird die Lücke zwischen unserem analogen und digitalen Leben ständig kleiner. Nachdem die Internet Giganten eine gewaltige Menge an Diensten bereitgestellt haben, um uns an den Web-Haken beziehungsweise den Endgeräte-Haken – anhand von Smartphones und Tablets – zu bekommen, machen sie es sich nun in unserem zu Hause bequem.

    Smart Home Lösungen wie Nest, Tado oder Netatmo sind nur der Anfang einer neuen Art von Geräteklasse, die zu den Augen in unseren privaten Umgebungen werden, welche zuvor nicht mit dem Internet verbunden waren und hierüber in die Greifarme von Google & Co gelangen. Intelligente Private Assistenten wie Amazon Echo oder Google Home sind der nächste Evolutionsschritt, die genutzt werden können, um Smart Home Lösungen zu steuern oder unser Leben einfacher machen, indem wir unsere Stimme nutzen. Kleine Randbemerkung: Wir sollten das Wort „Intelligent“ in diesem Zusammenhang mit Vorsicht verwenden, da es sich bei den Kommandos über vordefinierte Skripte handelt. Außerdem muss ich ehrlich sagen, dass ich nicht den Eindruck habe, das weder Apple’s Siri noch Amazon’s Alexa (die Artificial Intelligence (AI) Engine hinter Echo) derzeit von meinen Interaktionen lernen.

    Jedoch zeigt uns diese technologische Entwicklung eine wichtige Erkenntnis: Amazon, Google & Co finden neue Wege, um uns über andere Kanäle an sich zu binden. Darüber Daten, Informationen und Wissen zu sammeln, welche sie benötigen, um bessere Entscheidungen zu treffen und uns bessere Antworten zu liefern. Hierfür verfolgen sie einen ganz klaren Zweck. Jeder von uns wird schlichtweg dafür genutzt, um deren Artificial Intelligence auf einer täglichen Basis zu trainieren. Das bedeutet, dass alle Services, welche Google & Co. Ihren Kunden anbieten, das Ziel verfolgen, eine Landkarte der Welt zu zeichnen, die auf den gesammelten Daten basiert.

    Auswirkungen auf den Endverbraucher: Komfort im Hamsterrad

    Endverbraucher können sich im Grunde genommen nicht beschweren. Getreu dem Motto „Quid pro quo“, stellen insbesondere Google und Facebook ihre Dienste kostenlos zur Verfügung und nehmen dafür Daten als Gegenleistung. Hierbei spielt ihnen die digitale Sucht perfekt in die Karten. Endverbraucher haben in das “Hotel California” eingecheckt. Und auch wenn sie jeder Zeit wieder auschecken können, stellt sich die Frage, wollen sie gehen?

    Die tragische Antwort auf diese Frage ist nein. Befindet man sich erst einmal in dieser Spirale ist es sehr schwierig oder gar unmöglich sie zu verlassen. Der Grund besteht darin, dass alles digitalisiert wird. Unsere Gesellschaft wird an einen Punkt gelangen, an dem nichts mehr ohne digitale Dienste funktionieren wird. Man könnte auch sagen, dass eine Person, die digital nicht existiert, überhaupt nicht mehr existiert. Und indem das Nutzererlebnis ständig angenehmer wird, muss niemand ein Technologie-Experte mehr sein. Dies macht den Einzug in die „Hotel California“ Falle nur noch schlimmer, da die Mehrheit unserer Gesellschaft überhaupt nicht weiß, wie welche Dinge miteinander verknüpft sind, was technologisch im Hintergrund vor sich geht, geschweige denn was gerade wirklich passiert. Komfort im Hamsterrad.

    Unterm Strich liefert das Hamsterrad alle unsere Daten, welche die Grundlage für den Erfolg von Google & Co. bilden und als Waffen gegen die renommierten Unternehmen eingesetzt werden.

    Auswirkungen auf renommierte Unternehmen: Verändern, Innovationen schaffen oder Sterben

    Der sarkastische Teil dieser Geschichte besteht darin, dass jeder von uns Google & Co. bei ihrem Kampf gegen die Old Economy unterstützt, sogar die Old Economy selbst. Unternehmen der Old Economy sind ebenfalls zu den Kunden der Internet Giganten geworden. Aus einem guten Grund. In den meisten Fällen macht es keinen Sinn mehr, eine eigene IT-Infrastruktur oder Dienste in eigenen Umgebungen zu betreiben. Oder es ist einfach zu teuer, innovative Dienste selbst zu entwickeln, die bereits von Amazon, Google & Co. entwickelt wurden. Allerdings befinden sich renommierte Unternehmen in einem Teufelskreis. Denn auch wenn sie weiterhin die Besitzer ihre Daten sind – aus einer rechtlichen Perspektive – bedeutet dies nicht, dass sie der exklusive Besitzer des Wissens sind, welches aus diesen Daten entsteht.

    Daten und Erkenntnisse aus Daten sind die Grundlage, auf welcher die Internet Giganten Teile ihres Geschäfts aufgebaut haben. Sie arbeiten mit Daten und monetisieren diese. Allerdings handelt es sich dabei nur um einen Teil einer großen Maschinerie, wie die Internet Giganten funktionieren. Aber dieser eine Teil gibt ihnen die Macht, quasi jedes funktionierende Geschäftsmodell der Old Economy anzugreifen. Amazon ist nur ein Beispiel, das bereits damit begonnen hat, die Zwischenhändler in der eigenen Lieferkette aus dem Weg zu räumen. Wir können sicher sein, dass Unternehmen wie DHL, UPS oder FedEx in Zukunft ihre Geschäfte anders machen werden als heute – Hinweis: Amazon Prime Air. Weiterhin hat Amazon alles in die Wege geleitet, um ein vollständiger Ende-zu-Ende Anbieter von Gütern zu werden. Digital wie auch nicht Digital.

    Geht es um Artificial Intelligence – die Internet Giganten umarmen diese Technologie vollständig. Allerdings unterschätzen immer noch viel zu viele Führungskräfte, welche Auswirkungen dies auf ihr eigenes Unternehmen haben wird. Zur selben Zeit investieren die Internet Giganten in hohem Maße in Artificial Intelligence. Und insbesondere die Unternehmen der Old Economy werden zu den großen Verlierern in diesem Spiel gehören.

    Kategorien
    Analysen Unkategorisiert

    Amazon Web Services legt Teile des Internets lahm – Eine AI-defined Infrastructure kann dabei helfen, Ausfälle in der Cloud zu vermeiden

    Wieder einmal haben Amazon Web Services (AWS) das Internet kaputt gemacht oder besser „ein Tippfehler“. Am 28. Februar 2017 hat ein Ausfall von Amazon S3 in AWS’ ältester Cloud-Region US-EAST-1 zahlreiche bekannte Webseiten und Services vom Internet getrennt, darunter Slack, Trello, Quora, Business Insider, Coursera und Time Inc. Andere Nutzer berichteten zudem, dass sie nicht in der Lage waren, Endgeräte zu steuern, die mit dem Internet of Things verbunden waren, da das IFTTT ebenfalls von dem Ausfall betroffen war. Wie man sieht, werden diese Art von Ausfällen zu einer zunehmenden Bedrohung für unsere digitale Ökonomie. Um solchen Situationen vorzubeugen, sollten Cloud-Nutzer ständig das Shared-Responsibility Modell der Public Cloud berücksichtigen. Allerdings existieren ebenfalls Mittel und Wege, wie eine Artificial Intelligence (AI) dabei helfen kann. Dieser Artikel beschreibt, wie eine AI-defined Infrastructure bzw. eine AI-powered IT-Managementlösung dabei helfen kann, Ausfälle von Public Cloud-Anbietern zu vermeiden.

    Der Amazon S3 Ausfall – Was war passiert?

    Nach einem Ausfall veröffentlicht AWS immer eine Zusammenfassung der entstandenen Probleme, damit nachvollzogen werden kann, was passiert ist. Der nachfolgende Abschnitt beschreibt im Original die Ereignisse am Morgen des 28. Februar.

    Weitere Informationen finden sich unter “Summary of the Amazon S3 Service Disruption in the Northern Virginia (US-EAST-1) Region”.

    “The Amazon Simple Storage Service (S3) team was debugging an issue causing the S3 billing system to progress more slowly than expected. At 9:37AM PST, an authorized S3 team member using an established playbook executed a command which was intended to remove a small number of servers for one of the S3 subsystems that is used by the S3 billing process. Unfortunately, one of the inputs to the command was entered incorrectly and a larger set of servers was removed than intended. The servers that were inadvertently removed supported two other S3 subsystems.  One of these subsystems, the index subsystem, manages the metadata and location information of all S3 objects in the region. This subsystem is necessary to serve all GET, LIST, PUT, and DELETE requests. The second subsystem, the placement subsystem, manages allocation of new storage and requires the index subsystem to be functioning properly to correctly operate. The placement subsystem is used during PUT requests to allocate storage for new objects. Removing a significant portion of the capacity caused each of these systems to require a full restart. While these subsystems were being restarted, S3 was unable to service requests. Other AWS services in the US-EAST-1 Region that rely on S3 for storage, including the S3 console, Amazon Elastic Compute Cloud (EC2) new instance launches, Amazon Elastic Block Store (EBS) volumes (when data was needed from a S3 snapshot), and AWS Lambda were also impacted while the S3 APIs were unavailable.”

    Unterm Strich lässt sich also sagen, dass ein „Tippfehler“ das AWS-angetriebene Internet in die Knie gezwungen hat. AWS-Ausfälle haben eine lange Geschichte und je mehr AWS-Kunden ihre Web-Infrastrukturen auf dem Cloud-Giganten betreiben, desto mehr Probleme werden Endkunden in der Zukunft erleben. Laut SimilarTech wird alleine nur Amazon S3 bereits schon von 152,123 Webseiten und 124,577 und Domains eingesetzt.

    Folgt man allerdings der “Everything fails all the time“ Philosophie von Amazon.com CTO Werner Vogels, muss jeder AWS-Kunde das Konzept des “Design for Failure” berücksichtigen. Etwas, welches Cloud-Pionier und –Vorbild Netflix in Perfektion beherrscht. Als Teil davon hat Netflix beispielsweise seine Simian Army entwickelt. Eine Open-Source Toolbox, die jeder nutzen kann, um seine Cloud-Infrastruktur auf AWS hochverfügbar zu betreiben.

    Netflix setzt hierzu „ganz simpel“ auf die beiden Redundanz-Ebenen die AWS bietet: Multiple Regions und Multiple Availability Zones (AZ). Multiple Regions sind die Meisterklasse, wenn man AWS einsetzt. Sehr kompliziert und anspruchsvoll, da hierbei autarke Infrastrukturumgebungen innerhalb der weltweit verteilten AWS Cloud-Infrastruktur voneinander isoliert aufgebaut und betrieben werden und im Ausnahmefall gegenseitig den Betrieb übernehmen. Multiple AZs sind der bevorzugte und „einfachste“ Weg, um Hochverfügbarkeit (HA) auf AWS zu erreichen. In diesem Fall wird die Infrastruktur in mehr als einem AWS-Rechenzentrum (AZ) aufgebaut. Hierzu wird eine einzige HA-Architektur in mindestens zwei – am besten mehr – AZs bereitgestellt. Ein Load-Balancer sorgt anschließend für die Steuerung des Datenverkehrs.

    Auch wenn „Tippfehler“ nicht passieren sollten, zeigt der letzte Ausfall erneut, dass menschliche Fehler weiterhin zu den größten Problemen während des Betriebs von IT-Systemen gehören. Hinzu kommt, dass man AWS nur bis zu einem gewissen Grad die Schuld geben kann. Schließlich existiert in der Public Cloud die Shared-Responsibility.

    Shared Responsibility in der Public Cloud

    Ein entscheidendes Detail der Public Cloud ist das Self-Service-Modell. Die Anbieter zeigen sich, je nach ihrer DNA, nur für bestimmte Bereiche verantwortlich. Für den Rest ist der Kunde selbst zuständig.

    In der Public Cloud geht es also um die Aufteilung von Verantwortlichkeiten – auch als Shared-Responsibility – bezeichnet. Anbieter und Kunde teilen sich die Aufgabenbereiche untereinander auf. Die Eigenverantwortung des Kunden spielt dabei eine zentrale Rolle. Im Rahmen der IaaS-Nutzung ist der Anbieter für den Betrieb und die Sicherheit der physikalischen Umgebung zuständig, hierbei kümmert er sich um:

    • den Aufbau der Rechenzentrumsinfrastruktur,
    • die Bereitstellung von Rechenleistung, Speicherplatz, Netzwerk und einige Managed Services wie Datenbanken und gegebenenfalls andere Microservices,
    • die Bereitstellung der Virtualisierungsschicht, über die der Kunde zu jeder Zeit virtuelle Ressourcen anfordern kann,
    • das Bereitstellen von Services und Tools, mit denen der Kunde seine Aufgabenbereiche erledigen kann.

    Der Kunde ist für den Betrieb und die Sicherheit der logischen Umgebung verantwortlich. Hierzu gehören:

    • der Aufbau der virtuellen Infrastruktur,
    • die Installation der Betriebssysteme,
    • die Konfiguration des Netzwerks und der Firewall-Einstellungen,
    • der Betrieb der eigenen Applikationen und selbstentwickelter (Micro)-Services.

    Der Kunde ist somit für den Betrieb und die Sicherheit der eigenen Infrastrukturumgebung und den darauf betriebenen Systemen, Applikationen und Services sowie den gespeicherten Daten verantwortlich. Anbieter wie Amazon Web Services oder Microsoft Azure stellen dem Kunden jedoch umfangreiche Tools und Services zur Verfügung mit denen sich zum Beispiel die Verschlüsselung der Daten als auch die Identitäts- und Zugriffskontrollen sicherstellen lassen. Darüber hinaus existieren zum Teil weitere Enablement-Services (Microservices) mit denen der Kunde schneller und einfacher eigene Applikationen entwickeln kann.

    Der Cloud-Nutzer ist in diesen Bereichen also vollständig auf sich alleine gestellt und muss selbst Verantwortung übernehmen. Allerdings lassen sich diese Verantwortungsbereiche auch von einem AI-defined IT-Managementsystem bzw. einer AI-defined Infrastructure übernehmen.

    Eine AI-defined Infrastructure kann helfen Ausfälle zu vermeiden

    Eine AI-defined Infrastructure kann dabei helfen, Ausfälle in der Public Cloud zu vermeiden. Die Basis für diese Art von Infrastruktur liegt eine General AI zu Grunde, welche drei typische menschliche Eigenschaften vereint, mit denen Unternehmen in die Lage versetzt werden, ihre IT- und Geschäftsprozesse zu steuern.

    • Verstehen (Understanding): Mit dem Erstellen einer semantischen Landkarte (bestehend aus Daten) versteht die General AI die Welt, in welcher sich das Unternehmen mit seiner IT und dem Geschäftszweck befindet.
    • Lernen (Learning): Anhand von Lerneinheiten erhält die General AI die Best Practices und Gedankengänge von Experten. Hierzu wird das Wissen in granularen Stücken (Knowledge Items) vermittelt, welche einen separaten Teil eines Prozesses beinhalten.
    • Lösen (Solving): Mit dem Konzept des “Machine Reasoning” lassen sich Probleme in unklaren und insbesondere sich ständig verändernden Umgebungen lösen. Die General AI ist damit in der Lage, dynamisch auf den sich fortwährend wechselnden Kontext zu reagieren und den besten Handlungsablauf zu wählen. Anhand von Machine Learning werden die Ergebnisse basierend auf Experimenten optimiert.

    Im Kontext eines AWS-Ausfalls würde dies dann in etwa so ausschauen:

    • Verstehen (Understanding): Die General AI erstellt eine semantische Landkarte der AWS-Umgebung als Teil der Welt in welcher sich das Unternehmen befindet.
    • Lernen (Learning): IT-Experten erstellen Knowledge Items während sie die AWS-Umgebung aufbauen und damit arbeiten und lernen der General AI damit Best Practices. Damit bringen die Experten der General AI kontextbezogenes Wissen bei, welches das „Was“, „Wann“, „Wo“ und „Warum“ beinhaltet – z.B., wenn ein bestimmter AWS-Service nicht antwortet.
    • Lösen (Solving): Basierend auf dem angelernten Wissen reagiert die General AI dynamisch auf Vorfälle. Damit ist die AI (möglicherweise) in der Lage zu wissen, was sie in einem bestimmten Moment zu tun hat – auch dann, wenn eine Hochverfügbarkeitsumgebung nicht von Beginn an berücksichtigt wurde.

    Natürlich ist alles, was oben beschrieben wird, keine Magie. Wie jeder neu geborene Organismus bzw. jedes neu entstandene System muss auch eine AI-defined Infrastructure angelernt werden, um anschließend autonom arbeiten zu können und Anomalien als auch Ausfälle in der Public Cloud eigenständig zu entdecken und lösen zu können. Hierfür ist das Wissen von Experten erforderlich, die über ein tiefgreifendes Verständnis von AWS und wie die Cloud im Allgemeinen funktioniert, verfügen. Diese Experten bringen der General AI dann ihr kontextbezogenes Wissen bei. Sie lernen die AI mit kleinen Wissensstücken (Knowledge Items, KI) an, die sich von der AI indizieren und priorisieren lassen. Der Kontext und das Indizieren erlauben es der General AI die KIs zu kombinieren und damit unterschiedliche Lösungsansätze – Domain-übergreifend – zu finden.

    KIs die von unterschiedlichen Experten erstellt werden, führen zu einem Wissenspool, aus welchem anhand des „Machine Reasoning“ die bestmöglichen Wissenskombinationen zusammengeführt werden, um Lösungen zu finden. Je mehr Aufgaben über die Zeit durchgeführt werden, führt diese Art des kollaborativen Lernens zu einer besseren Bearbeitungszeit. Weiterhin steigt die Anzahl möglicher Permutationen exponentiell mit der Menge an hinzugefügten Wissens an. Verbunden mit einem Knowledge Core, optimiert die General AI kontinuierlich ihre Leistung, indem sie nicht notwendige Schritte beseitigt und anhand des kontextbasierten Lernens zudem Lösungswege verändert. Je größer der semantische Graph und der Knowledge Core werden, desto besser und dynamischer kann die Infrastruktur im Kontext von Ausfällen agieren.

    Zu guter Letzt sollte niemals der Community-Gedanke unterschätzt werden! Unser Research bei Arago zeigt, dass sich Basiswissen in 33 Prozent überschneidet. Dieses kann und wird außerhalb von bestimmten Organisationsumgebungen eingesetzt – z.B. über unterschiedliche Kundenumgebungen hinweg. Die Wiederverwendung von Wissen innerhalb einer Kundenumgebung beträgt 80 Prozent. Somit ist der Austausch von Basiswissen innerhalb einer Community ein wichtiger Bestandteil, um die Effizienz zu steigern und die Fähigkeiten einer General AI zu verbessern.

    Kategorien
    Analysen Unkategorisiert

    Disruption: Die Cloud war nur der Anfang! Schon das Potential von Artificial Intelligence berücksichtigt?

    Über viele Jahre hinweg wurde die Cloud als das disruptivste Element aller Zeiten betrachtet. Für die IT gilt dies unumstritten. Allerdings lassen sich nur schwer belastbare Argumente für den gesamten Enterprise-Stack finden. Die Cloud stellt alle notwendigen Tools bereit, mit welchen sich die Digitale Evolution auf einer sehr technischen Ebene unterstützt lässt, um Infrastrukturen, Plattformen und Software als Service zu beziehen, aufzubauen und zu betreiben. Damit muss die Cloud als die wesentliche Grundlage betrachtet werden. Für IT- als auch Unternehmenslenker besteht die Pflicht heute jedoch im Kontext der Artificial Intelligence (AI). Nur wenn sie es schaffen, das Wissen des Unternehmens und aller angrenzenden Umgebungen autonom zu sammeln, aggregieren und zu verarbeiten werden sie in Zukunft wettbewerbsfähig bleiben.

    Im Jahr 2016 hat der Hype um AI seinen derzeitigen Höhepunkt erreicht. Die Analysten von Tractica gehen davon aus, dass „der weltweit jährliche Umsatz mit AI von $643.7 Millionen in 2016 auf $38.8 Milliarden in 2025 anwachsen wird“. Der Umsatz für „AI Enterprise Applikationen wird von $358 Millionen in 2016 auf $31.2 Milliarden in 2025 anwachsen. Eine CAGR von 64,3 Prozent“.

    Die Cloud ist gekommen um zu bleiben! Weiter geht’s…

    Die Cloud stellt einen Meilenstein in der Informationstechnologie dar. Immer mehr Unternehmen weltweit betrachten dynamische Infrastrukturen und Plattformen als wesentlichen Teil ihrer IT-Strategie. In seinem jüngsten Report nennt Forrester Analyst Paul Miller einen wichtigen Hinweis, der das Cloud-Wachstum bestätigt. So hat Miller identifiziert, dass „Cloud-Anbieter wie IBM und Interoute ihre Strategien dahingehend ausgerichtet haben, kleinere Rechenzentren über mehrere Länder hinweg zu verteilen. Nun folgen ihnen ebenfalls ihre großen Rivalen, um weitere Länder auf die Karte ihrer Rechenzentrumslandschaft hinzuzufügen.“ Sie verfolgen damit zum einen das Ziel, die Nachfrage zu bedienen, aber ebenfalls die lokalen Marktanforderungen wie lokale Rechte zu erfüllen. Laut Miller „[…] zielen mehrere Cloud-Anbieter ebenfalls auf andere europäische Länder: Schweden, Finnland, Italien und weitere wie aus den letzten Ankündigungen hervorgeht“.

    Es lässt sich somit festhalten, dass die Cloud endgültig angekommen ist und als Grundlage für das Digital Enterprise gilt, indem sie die notwendigen Infrastrukturen und Plattformen bzw. Services bereitstellt. Dies ist eine wichtige Erkenntnis. Schließlich befinden sich Unternehmen weltweit weiterhin inmitten ihres Digital Transformation Prozess. Auf diesem Weg sind sie auf Lösungen angewiesen, welche sie bei der technologischen Implementierung ihrer individuellen digitalen Strategie unterstützen, um eine Grundlage für neuartige Geschäftsmodelle und agile Geschäftsprozesse zu entwickeln.

    Wer jedoch weiterhin denkt, dass es sich bei der Cloud um die disruptivste Kraft handelt, der sollte sich das Potential von AI genauer anschauen. Die Cloud ist lediglich ein Mittel zum Zweck, um ein modernes digitales Unternehmen aufzubauen, welches von heute an mit AI ausgebaut werden muss.

    Willkommen in einer AI-defined World

    Kommend von einer Infrastruktur-Perspektive sollte heute jedes IT-Managementsystem in der Lage sein, vollständig automatisiert, das existierende Wissen der IT-Umgebung zu nutzen. So sollte beispielsweise das IT-Managementsystem wissen, wenn das Speicherbackend eines E-Mail-Servers nicht mehr ausreichend Speicherplatz besitzt. Dies lässt sich simpel anhand des durchschnittlichen E-Mail-Aufkommens pro Tag vorhersagen. Wird ein bestimmter Schwellenwert erreicht, fügt das System automatisch bzw. autonom weiteren Speicherplatz aus einem Storage Pool (Software-defined Storage) oder einem angebundenen Cloud-Storage-Anbieter hinzu.

    Allerdings handelt es sich bei dieser sogenannten AI-defined Infrastructure (AiDI) nur um einen Teil der AI-Geschichte. Und auch wenn IT-Infrastrukturen als selbstverständlich betrachtet werden, ist Unternehmen aus der Old Economy zu raten, ihre AI-Reise auf Infrastruktur-Ebene zu beginnen, um ihr AI-defined Enterprise von unten heraus mit einer Autonomous Automation zu unterstützen. Die vier folgenden Anwendungsfälle zeigen diesen Bottom-Up Ansatz und wie eine AI IT und Geschäftsprozesse unterstützt:

    • CompuCom Systems nutzt Artificial Intelligence, um seine Cloud, Rechenzentren und Infrastrukturlösungen zu optimieren.
    • UBS setzt auf Artificial Intelligence, um die Effizient und Effektivität zu verbessern und gleichzeitig das geistige Eigentum zu behalten.
    • VirtusaPolaris integriert Artificial Intelligence in seine Kore Managed IT Solutions Platform.
    • Kloeckner & Co implementiert Artificial Intelligence, um seine Digital-Strategie zu unterstützen.

    Tractica hat etwa 200 weitere Enterprise AI Anwendungsfälle innerhalb von 25 Industrien identifiziert.

    Anders als die Cloud hat Artificial Intelligence einen großen Einfluss auf den gesamten Enterprise Stack, indem nahezu jeder Unternehmensbereich disruptiv auf den Kopf gestellt werden kann. Zu potentiellen Einflussbereichen zählen:

    • Ersatz wiederholbarer und manueller Aufgaben
    • Medizinische Diagnose und Gesundheitswesen
    • Automatisierter Kundenservice
    • Echtzeit Übersetzung und Spracherkennung
    • Identifizierung von Anomalien
    • Einkaufsvorhersagen
    • Betrugsaufdeckung
    • Empfehlungsunterstützung
    • Marktdatenanalyse
    • Automatisiertes Trading

    Hierbei handelt es sich nur um eine kleine Auswahl, wo AI einen potentiellen Einfluss nehmen wird. Es zeigt allerdings deutlich, dass der moderne Enterprise Stack vollständig mit Artificial Intelligence definiert werden muss, um ein AI-enabled Enterprise zu schaffen. Denn nur wenn Unternehmen ihr Wissen gezielt einsetzen und dies mit ihren angrenzenden Umgebungen kombinieren und damit ihre eigene AI erschaffen, werden sie in Zukunft wettbewerbsfähig sein.

    Kategorien
    Analysen Unkategorisiert

    AI-defined Infrastructure (AiDI) – Denn Infrastrukturen benötigen mehr Intelligenz

    Software-defined Infrastructure (SDI) gehören unumstritten zu den aktuell wichtigsten Trends in Rechenzentren und Cloud-Umgebungen. Anhand des Einsatzes von Skripten oder Source Code sorgt eine SDI für eine bessere Flexibilität auf Infrastrukturebene. Allerdings darf eine SDI lediglich nur als ein Mittel zum Zweck betrachtet werden. Schließlich führen ein hoher Automatisierungsgrad sowie intelligente Systeme basierend auf komplexen Algorithmen zu einer Artificial Intelligence defined Infrastructure (AI-defined Infrastructure – AiDI).

    SDI ist nur ein Mittel zum Zweck

    Eine SDI trennt die Software von der Hardware. Damit befindet sich die Kontrollinstanz nicht mehr innerhalb der Hardware-Komponenten, sondern oberhalb integriert in einem Software-Stack. Basierend auf Software und entsprechender Automatisierungslogik ist eine SDI so konzipiert, dass sie eine Infrastruktur weitestgehend ohne menschliche Interaktion aufbauen und kontrollieren kann.

    Eine typische SDI-Umgebung, z.B. eine Cloud-Infrastruktur, wird anhand der Entwicklung von Skripten oder Programmcode aufgebaut. Die Software beinhalt hierzu alle notwendigen Befehle, um eine vollständige Infrastruktur-Umgebung, inklusive Applikationen und Services, zu konfigurieren. Eine SDI-basierte Infrastruktur arbeitet unabhängig von einer bestimmten Hardware-Umgebung. Somit kann eine Infrastruktur vollständig, unabhängig der eingesetzten Hardware-Komponenten, durch Software ausgetauscht werden. Nur ein Grund, warum SDIs die Basis heutiger Cloud-Infrastruktur-Umgebungen sind.

    Jedoch sollte eines bedacht werden, eine SDI ist nicht intelligent. Sie basiert auf statischem Programmcode, in welchem Befehle fest kodiert sind, um bestimmte Aktionen automatisch vorzunehmen.

    Die AI-defined Infrastructure (AiDI)

    Eine Software-defined Infrastruktur ist ein wichtiges Konzept, um dynamische IT-Umgebungen aufzubauen und zu betreiben. Allerdings bewegt sich eine SDI in den Grenzen von statischem Programmcode bzw. den Kenntnissen des verantwortlichen Entwicklers beziehungsweise des Administrators, welche die Skripte oder den Programmcode für die Umgebung schreiben. Weiterhin ist eine SDI nur zu einem bestimmten Grad dynamisch, da diese nicht in der Lage ist, die eigene Umgebung zu verstehen bzw. von ihr zu lernen.

    Eine Artificial Intelligence defined Infrastructure (AI-defined Infrastructure – AiDI) erweitert eine SDI mit notwendigen komplexen Algorithmen, Machine Learning und Artificial Intelligence – und macht eine SDI somit intelligent. Eine AiDI erlaubt es einer SDI, selbstlernende bzw. selbstheilende Infrastruktur-Umgebungen aufzubauen und zu betreiben. AI-defined Infrastructure Umgebungen sind somit in der Lage, ohne menschliche Interaktion,

    • abhängig von den Workload-Anforderungen, die notwendigen Ressourcen bereitzustellen sowie diese wieder zu de-allokieren, wenn sie nicht mehr benötigt werden.
    • fortlaufend das sich ständig verändernde Verhalten und den Status einzelner Infrastruktur-Komponenten zu analysieren und sich damit selbst zu verstehen.
    • auf den Status einzelner Infrastruktur-Komponenten zu reagieren bzw. proaktiv zu agieren, indem autonom Aktionen durchgeführt werden, um die Infrastruktur damit in einen fehlerfreien Zustand zu überführen.

    Eine AI-defined Infrastructure kann nicht mit altbekannten Automationslösungen verglichen werden, die typischerweise mit vordefinierten Skripten und Runbooks arbeiten. Eine AI-defined Infrastructure nutzt das existierende Wissen eines Unternehmens und führt dieses automatisch und unabhängig aus. Wie jeder neugeborene Organismus muss eine AI-defined Infrastructure trainiert werden, um anschließend autonom zu agieren. Anhand des (selbst)-erlernten Wissens werden Störungen automatisch beseitigt und das ebenfalls proaktiv für nicht erwartete Ereignisse, indem passende Vorfälle aus der Vergangenheit autonom verknüpft werden. Demnach überwacht und analysiert eine AI-defined Infrastructure alle dazugehörigen Komponenten in Echtzeit, um ein Problem zu identifizieren und auf Basis des existierenden Wissens zu lösen. Je mehr Incidents gelöst werden, desto größer wird das Wissen der AI-defined Infrastructure. Bei dem Kern einer AI-defined Infrastructure handelt es sich somit um eine wissensbasierte Architektur, welche Incidents und Veränderungen erkennen kann und eigenständig Strategien entwickelt, um ein Problem zu lösen.

    Weiterhin setzt eine AI-defined Infrastructure auf Communities, um

    • das Wissen von externen Experten zu nutzen, um intelligenter zu werden.
    • sich mit anderen AI-defined Infrastructure Umgebungen zu verbinden, um die Wissensbasis zu kombinieren und zu teilen.
    • ständig den Wissenspool zu erweitern.
    • das Wissen zu optimieren.

    Im Großen und Ganzen handelt es sich bei einer AI-defined Infrastructure um ein intelligentes System, welches initial mit externen Wissen befüllt wird und anschließend in der Lage ist, eigenständig zu lernen und autonom Entscheidungen zu treffen, ohne auf menschliche Interaktionen angewiesen zu sein.

    Die AiDI ist nur ein kleiner Teil des AI-defined Enterprise Stacks

    Eine AI-defined Infrastructure ist ein essentieller Teil des heutigen IT-Betriebs und bildet die Basis für das AI-enabled Enterprise. Zunächst ermöglicht sie es IT-Abteilungen, das Verhalten ihrer Infrastrukturen von einer semi-dynamischen hin zu einer Echtzeit IT-Umgebung zu verändern.

    Diese autonome Art der Planung, des Aufbaus, Betriebs und der Wartung einer Infrastruktur befähigt IT-Abteilungen und Entwickler Ressourcen wie Server, Storage, Netzwerk, Datenbanken und andere Services höchsteffizient bereitzustellen, indem sie nicht nur das Wissen eines einzelnen Experten nutzen, sondern des gesamten IT-Betrieb Teams. Weiterhin wird der IT-Betrieb damit von einem reinen Konsumenten von Ressourcen zu einem Orchestrierter bzw. Manager eines vollständig automatisierten und intelligenten IT-Stacks – die wesentliche Grundlage eines Ende-zu-Ende AI-ready Enterprise.

    Kategorien
    Cloud Computing @de

    Analyst Strategy Paper: Platform-as-a-Service und Container Technologien im Zeitalter der Digitalen Transformation

    Der Digitalisierungsdruck steigt. Die Digitalisierung setzt deutsche Unternehmensentscheider unter Druck, ihre Geschäftsmodelle und Services den gestiegenen Anforderungen an Flexibilität und Mobilität anzupassen. Mittlerweile sehen sich mehr als 85 Prozent der deutschen Unternehmen stark oder sehr stark von der Digitalisierung betroffen.

    Multi- und Hybrid-Cloud liegen im Trend. Im Rahmen der Digitalisierung setzen Unter- nehmen zukünftig vermehrt auf Multi- und Hybrid-Cloud-Szenarien. Allerdings ist die Integration mit der bestehenden IT für viele Unternehmen immer noch eine große Herausforderung.

    Managed Public Cloud Provider übernehmen die Digitale Transformation ihrer Kunden. Managed Public Cloud Provider (MPCP) haben die Herausforderungen ihrer Kunden erkannt und übernehmen im Rahmen der Digitalen Transformation für diese die Planung, den Aufbau und den Betrieb der zukünftigen Cloud-Szenarien.

    Platform-as-a-Service gehört die Zukunft. Denn PaaS-Plattformen vereinfachen nicht nur die Anwendungsentwicklung, sondern geben Kunden auch wichtige Mehrwertservices an die Hand, mit welchen sie im Rahmen ihrer Cloud-Strategie ihre eigene Cloud-nativen Anwendungen aufbauen und verwalten, sowie externe Lösungen integrieren können.

    Container-Technologien stehen für Flexibilität und Portabilität. Container können nicht nur für Cloud-native Anwendungen die Flexibilität und die Portabilität erhöhen, sondern auch Legacy-Anwendungen t für die Cloud machen. Sie gehören somit in den Baukasten eines jeden MPCPs.

    Das Analyst Strategy Paper kann unter „Platform-as-a-Service und Container Technologien im Zeitalter der Digitalen Transformation – Wie Managed Public Cloud Provider Multi- und Hybrid Cloud-Umgebungen effektiv aufbauen können“ kostenlos heruntergeladen werden.