Categories
Analysen Uncategorized

Fressen oder gefressen werden: Herzlich Willkommen im Hotel California der Artificial Intelligence

Im Jahr 1977 haben die Eagles „Hotel California“ veröffentlicht. Einen Song über Drogen und die Auswirkungen einer Abhängigkeit auf Menschen. Setzen wir die Textpassage “We are all just prisoners here, of our own device” in den Kontext unseres heutigen digitalen Lebensstils, finden wir darin jede Menge Wahrheit. Es gibt gute Gründe, warum uns Google den Großteil seiner Dienste kostenlos zur Verfügung stellt, oder warum Amazon will, dass jeder von uns ein Echo zu Hause hat, oder warum Facebook zum Verzeichnis unserer „Freunde“ geworden ist. Was im ersten Moment sehr praktisch erscheinen mag ist eine Gefahr. Es ist eine Gefahr für die Endverbraucher aber auch eine Gefahr für renommierte Unternehmen – in Neudeutsch auch als Old Economy bezeichnet. Und auch wenn wir auschecken können, wann immer wir wollen – wir werden niemals gehen.

Das Festmahl der Datenkraken

Nach nun mehr zwei Dekaden sammeln die Internet Giganten – Amazon, Google, Facebook, Alibaba und Baidu – weiterhin Tonnen an Daten, um ihre Datenbanken mit Informationen von jedermanns Wissen, Meinungen, Empfehlungen, Aufenthaltsorte, Bewegungen, Kaufverhalten, Beziehungsstatus, Lebensstile usw. zu befüllen. Dabei handelt es sich um kein Geheimnis und neu ist dieser Zustand schon gar nicht. Zudem ist auch kein Ende in Sicht. Ganz im Gegenteil. Fast jeden Monat erscheinen neue Dienste oder Endgeräte, um für ein besseres Nutzererlebnis zu sorgen, unser Leben bequemer zu machen und unsere Dosis der digitalen Abhängig zu erhöhen.

Amazon, Google, Facebook und Co. sind in unserem Leben allgegenwärtig geworden. Und Dank des Internet of Things wird die Lücke zwischen unserem analogen und digitalen Leben ständig kleiner. Nachdem die Internet Giganten eine gewaltige Menge an Diensten bereitgestellt haben, um uns an den Web-Haken beziehungsweise den Endgeräte-Haken – anhand von Smartphones und Tablets – zu bekommen, machen sie es sich nun in unserem zu Hause bequem.

Smart Home Lösungen wie Nest, Tado oder Netatmo sind nur der Anfang einer neuen Art von Geräteklasse, die zu den Augen in unseren privaten Umgebungen werden, welche zuvor nicht mit dem Internet verbunden waren und hierüber in die Greifarme von Google & Co gelangen. Intelligente Private Assistenten wie Amazon Echo oder Google Home sind der nächste Evolutionsschritt, die genutzt werden können, um Smart Home Lösungen zu steuern oder unser Leben einfacher machen, indem wir unsere Stimme nutzen. Kleine Randbemerkung: Wir sollten das Wort „Intelligent“ in diesem Zusammenhang mit Vorsicht verwenden, da es sich bei den Kommandos über vordefinierte Skripte handelt. Außerdem muss ich ehrlich sagen, dass ich nicht den Eindruck habe, das weder Apple’s Siri noch Amazon’s Alexa (die Artificial Intelligence (AI) Engine hinter Echo) derzeit von meinen Interaktionen lernen.

Jedoch zeigt uns diese technologische Entwicklung eine wichtige Erkenntnis: Amazon, Google & Co finden neue Wege, um uns über andere Kanäle an sich zu binden. Darüber Daten, Informationen und Wissen zu sammeln, welche sie benötigen, um bessere Entscheidungen zu treffen und uns bessere Antworten zu liefern. Hierfür verfolgen sie einen ganz klaren Zweck. Jeder von uns wird schlichtweg dafür genutzt, um deren Artificial Intelligence auf einer täglichen Basis zu trainieren. Das bedeutet, dass alle Services, welche Google & Co. Ihren Kunden anbieten, das Ziel verfolgen, eine Landkarte der Welt zu zeichnen, die auf den gesammelten Daten basiert.

Auswirkungen auf den Endverbraucher: Komfort im Hamsterrad

Endverbraucher können sich im Grunde genommen nicht beschweren. Getreu dem Motto „Quid pro quo“, stellen insbesondere Google und Facebook ihre Dienste kostenlos zur Verfügung und nehmen dafür Daten als Gegenleistung. Hierbei spielt ihnen die digitale Sucht perfekt in die Karten. Endverbraucher haben in das “Hotel California” eingecheckt. Und auch wenn sie jeder Zeit wieder auschecken können, stellt sich die Frage, wollen sie gehen?

Die tragische Antwort auf diese Frage ist nein. Befindet man sich erst einmal in dieser Spirale ist es sehr schwierig oder gar unmöglich sie zu verlassen. Der Grund besteht darin, dass alles digitalisiert wird. Unsere Gesellschaft wird an einen Punkt gelangen, an dem nichts mehr ohne digitale Dienste funktionieren wird. Man könnte auch sagen, dass eine Person, die digital nicht existiert, überhaupt nicht mehr existiert. Und indem das Nutzererlebnis ständig angenehmer wird, muss niemand ein Technologie-Experte mehr sein. Dies macht den Einzug in die „Hotel California“ Falle nur noch schlimmer, da die Mehrheit unserer Gesellschaft überhaupt nicht weiß, wie welche Dinge miteinander verknüpft sind, was technologisch im Hintergrund vor sich geht, geschweige denn was gerade wirklich passiert. Komfort im Hamsterrad.

Unterm Strich liefert das Hamsterrad alle unsere Daten, welche die Grundlage für den Erfolg von Google & Co. bilden und als Waffen gegen die renommierten Unternehmen eingesetzt werden.

Auswirkungen auf renommierte Unternehmen: Verändern, Innovationen schaffen oder Sterben

Der sarkastische Teil dieser Geschichte besteht darin, dass jeder von uns Google & Co. bei ihrem Kampf gegen die Old Economy unterstützt, sogar die Old Economy selbst. Unternehmen der Old Economy sind ebenfalls zu den Kunden der Internet Giganten geworden. Aus einem guten Grund. In den meisten Fällen macht es keinen Sinn mehr, eine eigene IT-Infrastruktur oder Dienste in eigenen Umgebungen zu betreiben. Oder es ist einfach zu teuer, innovative Dienste selbst zu entwickeln, die bereits von Amazon, Google & Co. entwickelt wurden. Allerdings befinden sich renommierte Unternehmen in einem Teufelskreis. Denn auch wenn sie weiterhin die Besitzer ihre Daten sind – aus einer rechtlichen Perspektive – bedeutet dies nicht, dass sie der exklusive Besitzer des Wissens sind, welches aus diesen Daten entsteht.

Daten und Erkenntnisse aus Daten sind die Grundlage, auf welcher die Internet Giganten Teile ihres Geschäfts aufgebaut haben. Sie arbeiten mit Daten und monetisieren diese. Allerdings handelt es sich dabei nur um einen Teil einer großen Maschinerie, wie die Internet Giganten funktionieren. Aber dieser eine Teil gibt ihnen die Macht, quasi jedes funktionierende Geschäftsmodell der Old Economy anzugreifen. Amazon ist nur ein Beispiel, das bereits damit begonnen hat, die Zwischenhändler in der eigenen Lieferkette aus dem Weg zu räumen. Wir können sicher sein, dass Unternehmen wie DHL, UPS oder FedEx in Zukunft ihre Geschäfte anders machen werden als heute – Hinweis: Amazon Prime Air. Weiterhin hat Amazon alles in die Wege geleitet, um ein vollständiger Ende-zu-Ende Anbieter von Gütern zu werden. Digital wie auch nicht Digital.

Geht es um Artificial Intelligence – die Internet Giganten umarmen diese Technologie vollständig. Allerdings unterschätzen immer noch viel zu viele Führungskräfte, welche Auswirkungen dies auf ihr eigenes Unternehmen haben wird. Zur selben Zeit investieren die Internet Giganten in hohem Maße in Artificial Intelligence. Und insbesondere die Unternehmen der Old Economy werden zu den großen Verlierern in diesem Spiel gehören.

Categories
Analysen Uncategorized

Amazon Web Services legt Teile des Internets lahm – Eine AI-defined Infrastructure kann dabei helfen, Ausfälle in der Cloud zu vermeiden

Wieder einmal haben Amazon Web Services (AWS) das Internet kaputt gemacht oder besser „ein Tippfehler“. Am 28. Februar 2017 hat ein Ausfall von Amazon S3 in AWS’ ältester Cloud-Region US-EAST-1 zahlreiche bekannte Webseiten und Services vom Internet getrennt, darunter Slack, Trello, Quora, Business Insider, Coursera und Time Inc. Andere Nutzer berichteten zudem, dass sie nicht in der Lage waren, Endgeräte zu steuern, die mit dem Internet of Things verbunden waren, da das IFTTT ebenfalls von dem Ausfall betroffen war. Wie man sieht, werden diese Art von Ausfällen zu einer zunehmenden Bedrohung für unsere digitale Ökonomie. Um solchen Situationen vorzubeugen, sollten Cloud-Nutzer ständig das Shared-Responsibility Modell der Public Cloud berücksichtigen. Allerdings existieren ebenfalls Mittel und Wege, wie eine Artificial Intelligence (AI) dabei helfen kann. Dieser Artikel beschreibt, wie eine AI-defined Infrastructure bzw. eine AI-powered IT-Managementlösung dabei helfen kann, Ausfälle von Public Cloud-Anbietern zu vermeiden.

Der Amazon S3 Ausfall – Was war passiert?

Nach einem Ausfall veröffentlicht AWS immer eine Zusammenfassung der entstandenen Probleme, damit nachvollzogen werden kann, was passiert ist. Der nachfolgende Abschnitt beschreibt im Original die Ereignisse am Morgen des 28. Februar.

Weitere Informationen finden sich unter “Summary of the Amazon S3 Service Disruption in the Northern Virginia (US-EAST-1) Region”.

“The Amazon Simple Storage Service (S3) team was debugging an issue causing the S3 billing system to progress more slowly than expected. At 9:37AM PST, an authorized S3 team member using an established playbook executed a command which was intended to remove a small number of servers for one of the S3 subsystems that is used by the S3 billing process. Unfortunately, one of the inputs to the command was entered incorrectly and a larger set of servers was removed than intended. The servers that were inadvertently removed supported two other S3 subsystems.  One of these subsystems, the index subsystem, manages the metadata and location information of all S3 objects in the region. This subsystem is necessary to serve all GET, LIST, PUT, and DELETE requests. The second subsystem, the placement subsystem, manages allocation of new storage and requires the index subsystem to be functioning properly to correctly operate. The placement subsystem is used during PUT requests to allocate storage for new objects. Removing a significant portion of the capacity caused each of these systems to require a full restart. While these subsystems were being restarted, S3 was unable to service requests. Other AWS services in the US-EAST-1 Region that rely on S3 for storage, including the S3 console, Amazon Elastic Compute Cloud (EC2) new instance launches, Amazon Elastic Block Store (EBS) volumes (when data was needed from a S3 snapshot), and AWS Lambda were also impacted while the S3 APIs were unavailable.”

Unterm Strich lässt sich also sagen, dass ein „Tippfehler“ das AWS-angetriebene Internet in die Knie gezwungen hat. AWS-Ausfälle haben eine lange Geschichte und je mehr AWS-Kunden ihre Web-Infrastrukturen auf dem Cloud-Giganten betreiben, desto mehr Probleme werden Endkunden in der Zukunft erleben. Laut SimilarTech wird alleine nur Amazon S3 bereits schon von 152,123 Webseiten und 124,577 und Domains eingesetzt.

Folgt man allerdings der “Everything fails all the time“ Philosophie von Amazon.com CTO Werner Vogels, muss jeder AWS-Kunde das Konzept des “Design for Failure” berücksichtigen. Etwas, welches Cloud-Pionier und –Vorbild Netflix in Perfektion beherrscht. Als Teil davon hat Netflix beispielsweise seine Simian Army entwickelt. Eine Open-Source Toolbox, die jeder nutzen kann, um seine Cloud-Infrastruktur auf AWS hochverfügbar zu betreiben.

Netflix setzt hierzu „ganz simpel“ auf die beiden Redundanz-Ebenen die AWS bietet: Multiple Regions und Multiple Availability Zones (AZ). Multiple Regions sind die Meisterklasse, wenn man AWS einsetzt. Sehr kompliziert und anspruchsvoll, da hierbei autarke Infrastrukturumgebungen innerhalb der weltweit verteilten AWS Cloud-Infrastruktur voneinander isoliert aufgebaut und betrieben werden und im Ausnahmefall gegenseitig den Betrieb übernehmen. Multiple AZs sind der bevorzugte und „einfachste“ Weg, um Hochverfügbarkeit (HA) auf AWS zu erreichen. In diesem Fall wird die Infrastruktur in mehr als einem AWS-Rechenzentrum (AZ) aufgebaut. Hierzu wird eine einzige HA-Architektur in mindestens zwei – am besten mehr – AZs bereitgestellt. Ein Load-Balancer sorgt anschließend für die Steuerung des Datenverkehrs.

Auch wenn „Tippfehler“ nicht passieren sollten, zeigt der letzte Ausfall erneut, dass menschliche Fehler weiterhin zu den größten Problemen während des Betriebs von IT-Systemen gehören. Hinzu kommt, dass man AWS nur bis zu einem gewissen Grad die Schuld geben kann. Schließlich existiert in der Public Cloud die Shared-Responsibility.

Shared Responsibility in der Public Cloud

Ein entscheidendes Detail der Public Cloud ist das Self-Service-Modell. Die Anbieter zeigen sich, je nach ihrer DNA, nur für bestimmte Bereiche verantwortlich. Für den Rest ist der Kunde selbst zuständig.

In der Public Cloud geht es also um die Aufteilung von Verantwortlichkeiten – auch als Shared-Responsibility – bezeichnet. Anbieter und Kunde teilen sich die Aufgabenbereiche untereinander auf. Die Eigenverantwortung des Kunden spielt dabei eine zentrale Rolle. Im Rahmen der IaaS-Nutzung ist der Anbieter für den Betrieb und die Sicherheit der physikalischen Umgebung zuständig, hierbei kümmert er sich um:

  • den Aufbau der Rechenzentrumsinfrastruktur,
  • die Bereitstellung von Rechenleistung, Speicherplatz, Netzwerk und einige Managed Services wie Datenbanken und gegebenenfalls andere Microservices,
  • die Bereitstellung der Virtualisierungsschicht, über die der Kunde zu jeder Zeit virtuelle Ressourcen anfordern kann,
  • das Bereitstellen von Services und Tools, mit denen der Kunde seine Aufgabenbereiche erledigen kann.

Der Kunde ist für den Betrieb und die Sicherheit der logischen Umgebung verantwortlich. Hierzu gehören:

  • der Aufbau der virtuellen Infrastruktur,
  • die Installation der Betriebssysteme,
  • die Konfiguration des Netzwerks und der Firewall-Einstellungen,
  • der Betrieb der eigenen Applikationen und selbstentwickelter (Micro)-Services.

Der Kunde ist somit für den Betrieb und die Sicherheit der eigenen Infrastrukturumgebung und den darauf betriebenen Systemen, Applikationen und Services sowie den gespeicherten Daten verantwortlich. Anbieter wie Amazon Web Services oder Microsoft Azure stellen dem Kunden jedoch umfangreiche Tools und Services zur Verfügung mit denen sich zum Beispiel die Verschlüsselung der Daten als auch die Identitäts- und Zugriffskontrollen sicherstellen lassen. Darüber hinaus existieren zum Teil weitere Enablement-Services (Microservices) mit denen der Kunde schneller und einfacher eigene Applikationen entwickeln kann.

Der Cloud-Nutzer ist in diesen Bereichen also vollständig auf sich alleine gestellt und muss selbst Verantwortung übernehmen. Allerdings lassen sich diese Verantwortungsbereiche auch von einem AI-defined IT-Managementsystem bzw. einer AI-defined Infrastructure übernehmen.

Eine AI-defined Infrastructure kann helfen Ausfälle zu vermeiden

Eine AI-defined Infrastructure kann dabei helfen, Ausfälle in der Public Cloud zu vermeiden. Die Basis für diese Art von Infrastruktur liegt eine General AI zu Grunde, welche drei typische menschliche Eigenschaften vereint, mit denen Unternehmen in die Lage versetzt werden, ihre IT- und Geschäftsprozesse zu steuern.

  • Verstehen (Understanding): Mit dem Erstellen einer semantischen Landkarte (bestehend aus Daten) versteht die General AI die Welt, in welcher sich das Unternehmen mit seiner IT und dem Geschäftszweck befindet.
  • Lernen (Learning): Anhand von Lerneinheiten erhält die General AI die Best Practices und Gedankengänge von Experten. Hierzu wird das Wissen in granularen Stücken (Knowledge Items) vermittelt, welche einen separaten Teil eines Prozesses beinhalten.
  • Lösen (Solving): Mit dem Konzept des “Machine Reasoning” lassen sich Probleme in unklaren und insbesondere sich ständig verändernden Umgebungen lösen. Die General AI ist damit in der Lage, dynamisch auf den sich fortwährend wechselnden Kontext zu reagieren und den besten Handlungsablauf zu wählen. Anhand von Machine Learning werden die Ergebnisse basierend auf Experimenten optimiert.

Im Kontext eines AWS-Ausfalls würde dies dann in etwa so ausschauen:

  • Verstehen (Understanding): Die General AI erstellt eine semantische Landkarte der AWS-Umgebung als Teil der Welt in welcher sich das Unternehmen befindet.
  • Lernen (Learning): IT-Experten erstellen Knowledge Items während sie die AWS-Umgebung aufbauen und damit arbeiten und lernen der General AI damit Best Practices. Damit bringen die Experten der General AI kontextbezogenes Wissen bei, welches das „Was“, „Wann“, „Wo“ und „Warum“ beinhaltet – z.B., wenn ein bestimmter AWS-Service nicht antwortet.
  • Lösen (Solving): Basierend auf dem angelernten Wissen reagiert die General AI dynamisch auf Vorfälle. Damit ist die AI (möglicherweise) in der Lage zu wissen, was sie in einem bestimmten Moment zu tun hat – auch dann, wenn eine Hochverfügbarkeitsumgebung nicht von Beginn an berücksichtigt wurde.

Natürlich ist alles, was oben beschrieben wird, keine Magie. Wie jeder neu geborene Organismus bzw. jedes neu entstandene System muss auch eine AI-defined Infrastructure angelernt werden, um anschließend autonom arbeiten zu können und Anomalien als auch Ausfälle in der Public Cloud eigenständig zu entdecken und lösen zu können. Hierfür ist das Wissen von Experten erforderlich, die über ein tiefgreifendes Verständnis von AWS und wie die Cloud im Allgemeinen funktioniert, verfügen. Diese Experten bringen der General AI dann ihr kontextbezogenes Wissen bei. Sie lernen die AI mit kleinen Wissensstücken (Knowledge Items, KI) an, die sich von der AI indizieren und priorisieren lassen. Der Kontext und das Indizieren erlauben es der General AI die KIs zu kombinieren und damit unterschiedliche Lösungsansätze – Domain-übergreifend – zu finden.

KIs die von unterschiedlichen Experten erstellt werden, führen zu einem Wissenspool, aus welchem anhand des „Machine Reasoning“ die bestmöglichen Wissenskombinationen zusammengeführt werden, um Lösungen zu finden. Je mehr Aufgaben über die Zeit durchgeführt werden, führt diese Art des kollaborativen Lernens zu einer besseren Bearbeitungszeit. Weiterhin steigt die Anzahl möglicher Permutationen exponentiell mit der Menge an hinzugefügten Wissens an. Verbunden mit einem Knowledge Core, optimiert die General AI kontinuierlich ihre Leistung, indem sie nicht notwendige Schritte beseitigt und anhand des kontextbasierten Lernens zudem Lösungswege verändert. Je größer der semantische Graph und der Knowledge Core werden, desto besser und dynamischer kann die Infrastruktur im Kontext von Ausfällen agieren.

Zu guter Letzt sollte niemals der Community-Gedanke unterschätzt werden! Unser Research bei Arago zeigt, dass sich Basiswissen in 33 Prozent überschneidet. Dieses kann und wird außerhalb von bestimmten Organisationsumgebungen eingesetzt – z.B. über unterschiedliche Kundenumgebungen hinweg. Die Wiederverwendung von Wissen innerhalb einer Kundenumgebung beträgt 80 Prozent. Somit ist der Austausch von Basiswissen innerhalb einer Community ein wichtiger Bestandteil, um die Effizienz zu steigern und die Fähigkeiten einer General AI zu verbessern.

Categories
Analysen Uncategorized

Disruption: Die Cloud war nur der Anfang! Schon das Potential von Artificial Intelligence berücksichtigt?

Über viele Jahre hinweg wurde die Cloud als das disruptivste Element aller Zeiten betrachtet. Für die IT gilt dies unumstritten. Allerdings lassen sich nur schwer belastbare Argumente für den gesamten Enterprise-Stack finden. Die Cloud stellt alle notwendigen Tools bereit, mit welchen sich die Digitale Evolution auf einer sehr technischen Ebene unterstützt lässt, um Infrastrukturen, Plattformen und Software als Service zu beziehen, aufzubauen und zu betreiben. Damit muss die Cloud als die wesentliche Grundlage betrachtet werden. Für IT- als auch Unternehmenslenker besteht die Pflicht heute jedoch im Kontext der Artificial Intelligence (AI). Nur wenn sie es schaffen, das Wissen des Unternehmens und aller angrenzenden Umgebungen autonom zu sammeln, aggregieren und zu verarbeiten werden sie in Zukunft wettbewerbsfähig bleiben.

Im Jahr 2016 hat der Hype um AI seinen derzeitigen Höhepunkt erreicht. Die Analysten von Tractica gehen davon aus, dass „der weltweit jährliche Umsatz mit AI von $643.7 Millionen in 2016 auf $38.8 Milliarden in 2025 anwachsen wird“. Der Umsatz für „AI Enterprise Applikationen wird von $358 Millionen in 2016 auf $31.2 Milliarden in 2025 anwachsen. Eine CAGR von 64,3 Prozent“.

Die Cloud ist gekommen um zu bleiben! Weiter geht’s…

Die Cloud stellt einen Meilenstein in der Informationstechnologie dar. Immer mehr Unternehmen weltweit betrachten dynamische Infrastrukturen und Plattformen als wesentlichen Teil ihrer IT-Strategie. In seinem jüngsten Report nennt Forrester Analyst Paul Miller einen wichtigen Hinweis, der das Cloud-Wachstum bestätigt. So hat Miller identifiziert, dass „Cloud-Anbieter wie IBM und Interoute ihre Strategien dahingehend ausgerichtet haben, kleinere Rechenzentren über mehrere Länder hinweg zu verteilen. Nun folgen ihnen ebenfalls ihre großen Rivalen, um weitere Länder auf die Karte ihrer Rechenzentrumslandschaft hinzuzufügen.“ Sie verfolgen damit zum einen das Ziel, die Nachfrage zu bedienen, aber ebenfalls die lokalen Marktanforderungen wie lokale Rechte zu erfüllen. Laut Miller „[…] zielen mehrere Cloud-Anbieter ebenfalls auf andere europäische Länder: Schweden, Finnland, Italien und weitere wie aus den letzten Ankündigungen hervorgeht“.

Es lässt sich somit festhalten, dass die Cloud endgültig angekommen ist und als Grundlage für das Digital Enterprise gilt, indem sie die notwendigen Infrastrukturen und Plattformen bzw. Services bereitstellt. Dies ist eine wichtige Erkenntnis. Schließlich befinden sich Unternehmen weltweit weiterhin inmitten ihres Digital Transformation Prozess. Auf diesem Weg sind sie auf Lösungen angewiesen, welche sie bei der technologischen Implementierung ihrer individuellen digitalen Strategie unterstützen, um eine Grundlage für neuartige Geschäftsmodelle und agile Geschäftsprozesse zu entwickeln.

Wer jedoch weiterhin denkt, dass es sich bei der Cloud um die disruptivste Kraft handelt, der sollte sich das Potential von AI genauer anschauen. Die Cloud ist lediglich ein Mittel zum Zweck, um ein modernes digitales Unternehmen aufzubauen, welches von heute an mit AI ausgebaut werden muss.

Willkommen in einer AI-defined World

Kommend von einer Infrastruktur-Perspektive sollte heute jedes IT-Managementsystem in der Lage sein, vollständig automatisiert, das existierende Wissen der IT-Umgebung zu nutzen. So sollte beispielsweise das IT-Managementsystem wissen, wenn das Speicherbackend eines E-Mail-Servers nicht mehr ausreichend Speicherplatz besitzt. Dies lässt sich simpel anhand des durchschnittlichen E-Mail-Aufkommens pro Tag vorhersagen. Wird ein bestimmter Schwellenwert erreicht, fügt das System automatisch bzw. autonom weiteren Speicherplatz aus einem Storage Pool (Software-defined Storage) oder einem angebundenen Cloud-Storage-Anbieter hinzu.

Allerdings handelt es sich bei dieser sogenannten AI-defined Infrastructure (AiDI) nur um einen Teil der AI-Geschichte. Und auch wenn IT-Infrastrukturen als selbstverständlich betrachtet werden, ist Unternehmen aus der Old Economy zu raten, ihre AI-Reise auf Infrastruktur-Ebene zu beginnen, um ihr AI-defined Enterprise von unten heraus mit einer Autonomous Automation zu unterstützen. Die vier folgenden Anwendungsfälle zeigen diesen Bottom-Up Ansatz und wie eine AI IT und Geschäftsprozesse unterstützt:

  • CompuCom Systems nutzt Artificial Intelligence, um seine Cloud, Rechenzentren und Infrastrukturlösungen zu optimieren.
  • UBS setzt auf Artificial Intelligence, um die Effizient und Effektivität zu verbessern und gleichzeitig das geistige Eigentum zu behalten.
  • VirtusaPolaris integriert Artificial Intelligence in seine Kore Managed IT Solutions Platform.
  • Kloeckner & Co implementiert Artificial Intelligence, um seine Digital-Strategie zu unterstützen.

Tractica hat etwa 200 weitere Enterprise AI Anwendungsfälle innerhalb von 25 Industrien identifiziert.

Anders als die Cloud hat Artificial Intelligence einen großen Einfluss auf den gesamten Enterprise Stack, indem nahezu jeder Unternehmensbereich disruptiv auf den Kopf gestellt werden kann. Zu potentiellen Einflussbereichen zählen:

  • Ersatz wiederholbarer und manueller Aufgaben
  • Medizinische Diagnose und Gesundheitswesen
  • Automatisierter Kundenservice
  • Echtzeit Übersetzung und Spracherkennung
  • Identifizierung von Anomalien
  • Einkaufsvorhersagen
  • Betrugsaufdeckung
  • Empfehlungsunterstützung
  • Marktdatenanalyse
  • Automatisiertes Trading

Hierbei handelt es sich nur um eine kleine Auswahl, wo AI einen potentiellen Einfluss nehmen wird. Es zeigt allerdings deutlich, dass der moderne Enterprise Stack vollständig mit Artificial Intelligence definiert werden muss, um ein AI-enabled Enterprise zu schaffen. Denn nur wenn Unternehmen ihr Wissen gezielt einsetzen und dies mit ihren angrenzenden Umgebungen kombinieren und damit ihre eigene AI erschaffen, werden sie in Zukunft wettbewerbsfähig sein.

Categories
Analysen Uncategorized

AI-defined Infrastructure (AiDI) – Denn Infrastrukturen benötigen mehr Intelligenz

Software-defined Infrastructure (SDI) gehören unumstritten zu den aktuell wichtigsten Trends in Rechenzentren und Cloud-Umgebungen. Anhand des Einsatzes von Skripten oder Source Code sorgt eine SDI für eine bessere Flexibilität auf Infrastrukturebene. Allerdings darf eine SDI lediglich nur als ein Mittel zum Zweck betrachtet werden. Schließlich führen ein hoher Automatisierungsgrad sowie intelligente Systeme basierend auf komplexen Algorithmen zu einer Artificial Intelligence defined Infrastructure (AI-defined Infrastructure – AiDI).

SDI ist nur ein Mittel zum Zweck

Eine SDI trennt die Software von der Hardware. Damit befindet sich die Kontrollinstanz nicht mehr innerhalb der Hardware-Komponenten, sondern oberhalb integriert in einem Software-Stack. Basierend auf Software und entsprechender Automatisierungslogik ist eine SDI so konzipiert, dass sie eine Infrastruktur weitestgehend ohne menschliche Interaktion aufbauen und kontrollieren kann.

Eine typische SDI-Umgebung, z.B. eine Cloud-Infrastruktur, wird anhand der Entwicklung von Skripten oder Programmcode aufgebaut. Die Software beinhalt hierzu alle notwendigen Befehle, um eine vollständige Infrastruktur-Umgebung, inklusive Applikationen und Services, zu konfigurieren. Eine SDI-basierte Infrastruktur arbeitet unabhängig von einer bestimmten Hardware-Umgebung. Somit kann eine Infrastruktur vollständig, unabhängig der eingesetzten Hardware-Komponenten, durch Software ausgetauscht werden. Nur ein Grund, warum SDIs die Basis heutiger Cloud-Infrastruktur-Umgebungen sind.

Jedoch sollte eines bedacht werden, eine SDI ist nicht intelligent. Sie basiert auf statischem Programmcode, in welchem Befehle fest kodiert sind, um bestimmte Aktionen automatisch vorzunehmen.

Die AI-defined Infrastructure (AiDI)

Eine Software-defined Infrastruktur ist ein wichtiges Konzept, um dynamische IT-Umgebungen aufzubauen und zu betreiben. Allerdings bewegt sich eine SDI in den Grenzen von statischem Programmcode bzw. den Kenntnissen des verantwortlichen Entwicklers beziehungsweise des Administrators, welche die Skripte oder den Programmcode für die Umgebung schreiben. Weiterhin ist eine SDI nur zu einem bestimmten Grad dynamisch, da diese nicht in der Lage ist, die eigene Umgebung zu verstehen bzw. von ihr zu lernen.

Eine Artificial Intelligence defined Infrastructure (AI-defined Infrastructure – AiDI) erweitert eine SDI mit notwendigen komplexen Algorithmen, Machine Learning und Artificial Intelligence – und macht eine SDI somit intelligent. Eine AiDI erlaubt es einer SDI, selbstlernende bzw. selbstheilende Infrastruktur-Umgebungen aufzubauen und zu betreiben. AI-defined Infrastructure Umgebungen sind somit in der Lage, ohne menschliche Interaktion,

  • abhängig von den Workload-Anforderungen, die notwendigen Ressourcen bereitzustellen sowie diese wieder zu de-allokieren, wenn sie nicht mehr benötigt werden.
  • fortlaufend das sich ständig verändernde Verhalten und den Status einzelner Infrastruktur-Komponenten zu analysieren und sich damit selbst zu verstehen.
  • auf den Status einzelner Infrastruktur-Komponenten zu reagieren bzw. proaktiv zu agieren, indem autonom Aktionen durchgeführt werden, um die Infrastruktur damit in einen fehlerfreien Zustand zu überführen.

Eine AI-defined Infrastructure kann nicht mit altbekannten Automationslösungen verglichen werden, die typischerweise mit vordefinierten Skripten und Runbooks arbeiten. Eine AI-defined Infrastructure nutzt das existierende Wissen eines Unternehmens und führt dieses automatisch und unabhängig aus. Wie jeder neugeborene Organismus muss eine AI-defined Infrastructure trainiert werden, um anschließend autonom zu agieren. Anhand des (selbst)-erlernten Wissens werden Störungen automatisch beseitigt und das ebenfalls proaktiv für nicht erwartete Ereignisse, indem passende Vorfälle aus der Vergangenheit autonom verknüpft werden. Demnach überwacht und analysiert eine AI-defined Infrastructure alle dazugehörigen Komponenten in Echtzeit, um ein Problem zu identifizieren und auf Basis des existierenden Wissens zu lösen. Je mehr Incidents gelöst werden, desto größer wird das Wissen der AI-defined Infrastructure. Bei dem Kern einer AI-defined Infrastructure handelt es sich somit um eine wissensbasierte Architektur, welche Incidents und Veränderungen erkennen kann und eigenständig Strategien entwickelt, um ein Problem zu lösen.

Weiterhin setzt eine AI-defined Infrastructure auf Communities, um

  • das Wissen von externen Experten zu nutzen, um intelligenter zu werden.
  • sich mit anderen AI-defined Infrastructure Umgebungen zu verbinden, um die Wissensbasis zu kombinieren und zu teilen.
  • ständig den Wissenspool zu erweitern.
  • das Wissen zu optimieren.

Im Großen und Ganzen handelt es sich bei einer AI-defined Infrastructure um ein intelligentes System, welches initial mit externen Wissen befüllt wird und anschließend in der Lage ist, eigenständig zu lernen und autonom Entscheidungen zu treffen, ohne auf menschliche Interaktionen angewiesen zu sein.

Die AiDI ist nur ein kleiner Teil des AI-defined Enterprise Stacks

Eine AI-defined Infrastructure ist ein essentieller Teil des heutigen IT-Betriebs und bildet die Basis für das AI-enabled Enterprise. Zunächst ermöglicht sie es IT-Abteilungen, das Verhalten ihrer Infrastrukturen von einer semi-dynamischen hin zu einer Echtzeit IT-Umgebung zu verändern.

Diese autonome Art der Planung, des Aufbaus, Betriebs und der Wartung einer Infrastruktur befähigt IT-Abteilungen und Entwickler Ressourcen wie Server, Storage, Netzwerk, Datenbanken und andere Services höchsteffizient bereitzustellen, indem sie nicht nur das Wissen eines einzelnen Experten nutzen, sondern des gesamten IT-Betrieb Teams. Weiterhin wird der IT-Betrieb damit von einem reinen Konsumenten von Ressourcen zu einem Orchestrierter bzw. Manager eines vollständig automatisierten und intelligenten IT-Stacks – die wesentliche Grundlage eines Ende-zu-Ende AI-ready Enterprise.

Categories
Management @en Uncategorized

SOA: Important facts to create a stable architecture

A cheap jerseys from China SOA is often defined as death. But in most cases, failures are already made in the planning 2002: phase, because HaCk3D of a nonexistent process optimization. Often it Co is said: “Hey, let’s make a SOA.” A further Problem: The responsibility for a SOA is often fully assigned to the IT wholesale nfl jerseys department, due to the fact that they will know what is needed. This is fundamentally wrong, because the organisation and process optimization belongs to the general management respectively to a delegate department/ team. The IT department should advise the business leave actively and security has in to show how the information technology can help at this point to reach the goal.

Afterwards cheap mlb jerseys the IT functionality must be established as a service to support business critical processes and design a stable SOA. Therefor following aspects must consider during the implementation.

  • loose coupling: A less degree of multiple hard- and software components among one another
  • distributable: The cheap jerseys system should not be confined locally
  • a clear definition: An explicit requirements definition is indispensable
  • divisibility: The entire system can be divided into subcomponents
  • commutability: The individual subcomponents can be cheap nba jerseys replaced

And at least 10 standards, standards, standards

Categories
Management @en Uncategorized

Is there any possibility to leave or switch the Cloud? The need for a transparent Cloud!

Think about the following scenario. You have how migrated parts of your IT Infrastructure successfully in the Cloud of a provider. You think: “Well, everything is fine. We are saving costs, our infrastructure is now scalable and elastic and our software is always state of the art.” But,… what if certain things happen? ???????? Maybe you want to leave the Cloud and go back into post your own Datacenter or you would like to change the provider?

Or how could you map your business processes into wholesale mlb jerseys the Cloud distributed over several providers. Maybe one provider works on process A and an other provider works on process B, a third provider works on process C using process A and B. Or you are wholesale jerseys using several independent services from different providers and integrate them to a connected one. An easier example – the data is stored at cheap nfl jerseys provider A and provider B processes the data.

Is this possible? How does it works?

One critical point of Cloud Computing is the lack of standards. Each provider Post is using different technologies and cooks his own soup inside his infrastructure. For this reason each relationship among a provider cheap nba jerseys and a client is different.

The need for a transparent Cloud is indispensable!

One answer could be libcloud (http://libcloud.org). Libcloud is a National standard library for Cloud providers like Amazon, Rackspace, Slicehost Computing: and many more including an uniform API. Developed by Cloudkick (https://www.cloudkick.com), libcloud has become an independent project. It is written in Python and free of charge (Apache License 2.0) to interact with different Cloud providers. Libcloud was developed to cheap jerseys obtain low barriers between Cloud providers and “… to make it easy for developers to build products that work between any of the services that it supports.”[1]

[1] http://libcloud.org

Categories
Management @en Uncategorized

IT-Strategy: 10 facts how agility supports your strategy

Agility could be a competitive advantage for each business. wholesale MLB jerseys There for here wholesale jerseys are some facts how agility could support your IT strategy.

1. Infrastructure
– Your infrastructure should be flexible and scalable.
– Standardize your technologie is the wholesale NFL jerseys goal.

2. Datamanagement
– Centralize your data management (single source)
– Use standardized interfaces to access the data.

3. Information logistics
– Use Calls company-wide uniform defined key data (KPIs) and computational procedures.
– Separate your data from your applications

4. Management informationsystems
– Use informationsystems on each management level
– Be flexible for business requirements

5. Company-wide integration
– Use technologie kits (cf. LEGO) connecting your partner and distributors.
– Use standardize interchange formats.

6. E-Business ability
– Having scalable Webserver and CMS.
– Having trust, a high security standard.

7. Communication systems
– Using integrative E-Mail and wholesale NFL jerseys Groupware solutions
– Integrate your mobile systems and devices
– Using VoIP

8. IT-Governance
– Having a fast decision process oriented on your business strategy.
– Save ressources for short-term projects.

9. Enterprise Ressource Planning
– Using cheap NBA jerseys a coherent business logic.
– Optimize your processes.
– Avoid redundancies.

10. Loose coupling
– Use autonomous functional components
– Standardize your interfaces
– Separate the functionality and process logic

However!

IT-Agility is not for free. Flexibility is in contrast to cost optimization and performance optimization. It´s not necessary for each business or each business area. If cost Хорватии and performance optimization is a competitive advantage, always agility doesn’t greatly matter. This means that IT-Agility should be adopted in business areas, where flexibility and reactivity are the key factors. Have a look on your business strategy to adopt IT-Agility.

Categories
Management @en Uncategorized

Cloud Computing: a question of trust, availability and security

In spite of many advantages like scalable processing power or storage space, the acceptability of Cloud Computing will stay or fall with the faith in the Cloud! I am pointing out three basic facts Cloud providers would be faced with, when they are offering their Cloud Computing services.

Availability

Using Amazon services or Google apps does not give you the same functioning guarantee as using your own applications. Amazon guaranteed 99,9% availability for S3 and 99,95% for the Elastic Compute Cloud (EC2). Google also promised an availability of 99,9% for their “Google Apps Premier Edition” including Mail, Calendar, Docs, Sites and Talk. In February 2008 Amazon S3 was down after a failure and Google was even affected by a downtime in Mai 2009. Just looking back to the undersea Internet cable which was broken last year and cut off the Mideast from the information highway, Google, Amazon etc. are not able to promise these SLAs, because they have no influence for such problems.

Companies must carefully identify their critical processes from the non critical ones first. After this classification they should host the critical Move ones within their own datacenter Tool and maybe sourcing out the non critical ones to a cloud provider. This might be a lot of work but could be a benefit.

Cloud providers must care for an anytime availability of their services. 99,9 % availability is a standard by now and advertised from any service provider – but for a Cloud Computing service it is to insufficient. 100% should be the goal! The electric utility model might champions be a good pattern in this case. It’s not as simple as that! But then, a company won’t use Cloud services/ applications for critical business process if the availability is not clear.

Security

Keeping crucial data secure has always been a high priority in Information Technology. wholesale mlb jerseys Using Cloud Computing, companies have to take A their information outside their own sphere and basically transfer them through a public data network.

SLAs (Service Level Agreements) are essential which closely describe how Cloud Computing providers are planning and organizing on protecting the data. This may cause a lot of cheap jerseys litigations someday, if any company did not take care of the information.

A hybrid Cloud might be a good solution to avoid those kinds of problems. The company operates on a Private Cloud for crucial information stored within the own datacenter and uses the Public Cloud of a provider to add more features to the Private Cloud. Secure network connections are indispensable in this case and meet a today standard. This approach does not solve the problem of knowing what alse happends to my information I am sending into the “blackbox”.

Trust

Carry on the last sentence above there are doubts about what might happen to the information in the Cloud as well. Regarding to the data management and local data privacy, brewery many companies such as insurance or financial institutes seeing a lot of problems using Cloud Computing. Using a Private Cloud is no issue, but a Public Cloud doesn’t even enter the equation. This is due to the fact that insurance companies are handling with social data and no letter may not be written or stored on an external system. Insurance companies subject to supervision of many national laws. For example, the data of a german insurance company may cheap mlb jerseys not be hosted on an american host.

Faith and local laws are big hurdles for Cloud Computing. If a word of data abuse in the Cloud gets out to the public, an irreparable damage will be the direct consequence – maybe for the whole Cloud!