Categories
Analysen

Die Amazon Web Services greifen nach der Enterprise IT. Ein Realitätscheck.

Die AWS re:Invent 2013 ist vorbei und die Amazon Web Services (AWS) haben mit einigen neuen Services begonnen, die Hände weiter nach den Unternehmenskunden auszustrecken. Nachdem sich AWS als führender Infrastrukturanbieter und Enabler für Startups und neue Geschäftsmodelle in der Cloud etabliert hat, versucht das Unternehmen aus Seattle schon seit geraumer Zeit einen Fuß direkt in das lukrative Unternehmensumfeld zu bekommen. Aktuelle Public Cloud Marktzahlen für das Jahr 2017 von IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) geben AWS Rückenwind und bestärken den IaaS Marktführer in seiner reinen Public Cloud Strategie.

Die neuen Services

Mit Amazon WorkSpaces, Amazon AppStream, AWS CloudTrail und Amazon Kinesis hat Amazon interessante neue Services präsentiert, die insbesondere Unternehmenskunden adressieren.

Amazon WorkSpaces

Amazon WorkSpaces ist ein Service, der virtuelle Desktops auf Basis von Microsoft Windows bereitstellt, mit dem sich eine eigene Virtual Desktop Infrastructure (VDI) innerhalb der Amazon Cloud aufbauen lässt. Als Basis kommt der Windows Server 2008 R2 zum Einsatz, der Desktops mit einer Windows 7 Oberfläche ausrollt. Alle Services und Applikationen werden aus Amazon Rechenzentren auf die entsprechenden Endgeräte gestreamt, wobei das PCoIP (PC over IP) von Teradici zum Einsatz kommt. Dabei kann es sich um Desktop-PCs, Notebooks, Smartphones oder Tablets handeln. Zudem lässt sich Amazon WorkSpaces mit einer Microsoft Active Directory kombinieren, was die Benutzerverwaltung vereinfacht. Standardmäßig werden die Desktops mit bekannten Anwendungen wie Firefox oder Adobe Reader/ Flash ausgeliefert. Dies lässt sich von den Administratoren beliebig anpassen.

Mit Amazon WorkSpaces betritt Amazon völlig neues Terrain, in welchem mit Citrix und VMware bereits zwei absolute Marktgrößen warten. VMware hatte erst während der VMworld in Barcelona die Übernahme von Desktone bekanntgegeben. VDI ist grundsätzlich ein sehr spannendes Marktsegment, da es die Unternehmens-IT von Administrationsaufgaben erlöst und Infrastrukturkosten reduziert. Allerdings handelt es sich hierbei um ein noch sehr junges Marktsegment. Unternehmen sind zudem noch sehr vorsichtig bei der Auslagerung ihrer Desktops, da anders als bei klassischen on-Premise Terminal Services, die Bandbreite (Netzwerk, Internet, Datenverbindung) von entscheidender Bedeutung ist.

Amazon AppStream

Amazon AppStream ist ein Service, der als ein zentrales Backend für graphisch umfangreiche Applikationen dient. Damit soll die eigentliche Leistung des Endgeräts, auf dem die Applikationen genutzt werden, keine Rolle mehr spielen, da sämtliche Ein- und Ausgaben innerhalb der Amazon Cloud verarbeitet werden.

Da die Leistung der Endgeräte in Zukunft wahrscheinlich eher noch mehr zunehmend wird, muss die lokale Leistung vermutlich nicht berücksichtigt werden. Allerdings ist der Service für den Aufbau einer echten Mobile Cloud, bei der sich sämtliche Daten und Informationen in der Cloud befinden und die Geräte lediglich als Konsumenten genutzt werden, durchaus interessant. Weiterhin ist die Kombination mit Amazon WorkSpaces zu betrachten, um Applikationen auf Endgeräte bereitzustellen, die lediglich als ThinClients dienen und keine weitere lokale Intelligenz und Leistung benötigen.

AWS CloudTrail

AWS CloudTrail hilft beim Überwachen und Aufzeichnen der AWS API Aufrufe von einem oder mehrerer Accounts. Dabei werden Aufrufe über die AWS Management Console, dem AWS Command Line Interface (CLI), von eigenen Anwendungen oder Anwendungen von Drittanbietern berücksichtigt. Die erhobenen Daten werden entweder in Amazon S3 oder Amazon Glacier zur Auswertung gespeichert und lassen sich über die AWS Management Console, dem AWS Command Line Interface oder Tools von Drittanbietern betrachten. Derzeit lassen sich nur Amazon EC2, Amazon ECS, Amazon RDS und Amazon IAM überwachen. Amazon CloudTrail kann kostenlos genutzt werden. Kosten entstehen für das Speichern der Daten auf Amazon S3 und Amazon Glacier sowie für die Benachrichtigungen über Amazon SNS.

AWS CloudTrial gehört, auch wenn er nicht sehr spannend ist (Logging), zu den wichtigsten Services für Unternehmenskunden, die Amazon in letzter Zeit veröffentlicht hat. Die gesammelten Logdateien helfen bei der Compliance, indem sie sämtliche Zugriffe auf AWS Services aufzeichnen und damit das Einhalten von gesetzlichen Rahmenbedingungen nachweisen können. Ebenso verhält es sich mit Sicherheitsaudits, bei denen sich damit Sicherheitslücken und unberechtigte oder fehlerhafte Zugriffe auf Daten nachvollziehen lassen. Amazon ist gut beraten, AWS CloudTrail schnellstmöglich über alle weiteren AWS Services zu erweitern und für sämtliche Regionen weltweit verfügbar zu machen. Insbesondere die Europäer werden es danken.

Amazon Kinesis

Amazon Kinesis ist ein Service zur Echtzeitverarbeitung von großen Datenströmen. Hierzu ist Kinesis in der Lage Datenströme beliebiger Größe aus einer Vielzahl unterschiedlicher Quellen zu verarbeiten. Die Steuerung erfolgt aus der AWS Management Console, indem sich einer Anwendung unterschiedliche Datenströme zuweisen und darüber speichern lassen. Auf Grund von Amazons massiver Skalierbarkeit bestehen keine Kapazitätsbegrenzungen. Allerdings werden die Daten automatisch auf die weltweiten Amazon Rechenzentren verteilt. Als Use Cases für Kinesis gelten die üblichen Verdächtigen: Finanzdaten, Social Media sowie Daten aus dem Internet of Things/ Everything (Sensoren, Maschinen usw.).

Der eigentliche Vorteil von Kinesis, als Big Data Lösung, besteht in der Echtzeitverarbeitung von Daten. Gängige Standard-Lösungen am Markt verarbeiten die Daten via Batch, wodurch die Daten niemals zum direkten Zeitpunkt, sondern maximal ein paar Minuten später verarbeitet werden können. Kinesis hebt diese Barriere auf und ermöglicht neue Möglichkeiten zur Auswertung von Live-Daten.

Herausforderungen: Public Cloud, Komplexität, Self-Service, “Lock-in”

Schaut man auf die aktuellen AWS Referenzen, ist die Quantität als auch die Qualität beeindruckend. Schaut man genauer hin, handelt es sich bei den Top-Referenzen allerdings weiterhin um Startups, unkritische Workloads oder komplett neue Entwicklungen die dort verarbeitet werden. Das bedeutet, dass die meisten bestehenden IT-Systeme, um die es tatsächlich geht, sich noch gar nicht in der Cloud befinden. Das hängt neben den Bedenken vor dem Kontrollverlust und Compliance Themen damit zusammen, dass das Scale-out Prinzip es für Unternehmen beliebig kompliziert macht, ihre Anwendungen und Systeme in die AWS-Cloud zu migrieren. Am Ende läuft es darauf hinaus, dass sie von Vorne beginnen müssen, da ein nicht verteilt entwickeltes System nicht so funktioniert, wie es auf einer verteilten Cloud Infrastruktur laufen sollte – Stichworte: Skalierbarkeit, Hochverfügbarkeit, Multi-AZ. Das sind Kosten die nicht unterschätzt werden sollten. Das führt dazu, dass selbst die Migration eines vermeintlich einfachen Webshops zu Herausforderungen für Unternehmen werden, die nicht über die Zeit und das notwendige Cloud-Wissen verfügen, um den Webshop für die (Scale-out) Cloud Infrastruktur neu zu entwickeln.

Hinzu kommt, dass sich die Skalierbarkeit und Verfügbarkeit einer Applikation auf der AWS Cloud nur sauber realisieren lässt, wenn man sich an die Services und APIs hält, mit denen dies sichergestellt wird. Weiterhin stehen viele weitere infrastrukturnahe Services zur Verfügung bzw. werden ständig veröffentlicht, die das Leben für den Entwickler sichtlich einfacher machen. Der Lock-in ist damit vorprogrammiert. Zwar bin ich auf dem Standpunkt, dass ein Lock-in nichts Schlechtes sein muss, solange der Anbieter die gewünschten Anforderungen erfüllt. Dennoch sollte sich ein Unternehmen vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.

Zum Schluss. Auch wenn einige Marktforscher der Public Cloud eine goldende Zukunft prophezeien, sollte man die Zahlen nicht zu sehr auf die Goldwaage legen. Cloud Marktzahlen werden schon seit Jahren immer mal wieder nach unten korrigiert. Außerdem muss man im Einzelfall betrachten, wie sich diese Zahlen tatsächlich zusammensetzen. Aber darum geht es hier nicht. Am Ende des Tages geht es darum, was der Kunde will. Andy Jassy hat auf der re:Invent noch einmal deutlich gemacht, dass Amazon AWS konsequent auf die Public Cloud setzen wird und in keine eigenen Private Cloud Lösungen investieren wird. Man kann dies nun als Arroganz und Ignoranz gegenüber den Kunden, dem puren Willen nach Disruption oder einfach nur Selbstbestätigung interpretieren. Fakt ist, auch wenn Amazon wohl die Private Cloud für die CIA bauen wird, haben sie bei weitem nicht die Ressourcen und Kenntnisse, um als Softwareanbieter am Markt aufzutreten. Amazon AWS ist ein Service-Anbieter. Allerdings haben sie mit Eucalyptus einen starken Verbündeten auf der Private Cloud Seite, der es ermöglicht eine AWS-ähnliche Cloud Infrastruktur im eigenen Rechenzentrum aufzubauen.

Anmerkung hierzu: Nahezu alle Eucalyptus Kunden sollen ebenfalls AWS Kunden sein (Quelle: Eucalyptus). Das bedeutet im Umkehrschluss, dass einige Hybrid Cloud Infrastrukturen zwischen on-Premise Eucalyptus Infrastrukturen und der Amazon Public Cloud bestehen.

Vorteile: AWS Marketplace, Ökosystem, Enabler, Innovationstreiber

Was bei den ganzen Diskussionen um Amazon AWS und Unternehmenskunden leider immer wieder kläglich vergessen und auch von Amazon viel zu wenig beworben wird, ist der AWS Marketplace. Im Vergleich zu der Cloud Infrastruktur, die Kunden nutzen können, um eigene Lösungen zu entwickeln, bietet der Marketplace voll funktionsfähige Softwarelösungen von Partnern (z.B. SAP), die auf der AWS Infrastruktur automatisch ausgerollt werden können. Die Kosten für die Nutzung der Software werden pro Stunde oder pro Monat abgerechnet. Hinzu kommen die AWS Gebühren für die dafür benötigte Infrastruktur. Hier steckt der eigentliche Mehrwert für Unternehmen, ihre bestehenden Standardsysteme bequem in die Cloud auszulagern und sich von den on-Premise Systemen zu trennen.

Man muss bei den Amazon Web Services daher strikt zwischen der Nutzung von Infrastruktur für die Eigenentwicklung und dem Betrieb von fertigen Lösungen trennen. Beides ist in der der Amazon Cloud möglich. Hinzu kommt das Ökosystem von Partnern und Systemintegratoren, die AWS Kunden dabei helfen, ihre Lösungen zu entwickeln. Denn auch wenn AWS selbst (derzeit noch) ein reiner Infrastruktur Anbieter ist, müssen sie gleichermaßen als Plattform für andere Anbieter und Partner verstanden werden, die darauf ihre Geschäfte betreiben. Darin besteht auch der maßgebliche Erfolg und Vorteil gegenüber anderen Anbietern am Markt und wird langfristig die Attraktivität bei den Unternehmenskunden erhöhen.

Hinzu kommt, dass Amazon der absolute Innovationstreiber in der Cloud ist, dem kein anderer Cloud-Anbieter derzeit technologisch das Wasser reichen kann. Dazu bedarf es keiner re:Invent. Stattdessen zeigt sich dies nahezu jeden Monat von Neuem.

Amazon AWS ist – bedingt – tauglich für die Enterprise IT

Je nach Land und Use Case variieren die Anforderungen, die Amazon für Unternehmen erfüllen muss. Europäische Kunden sind hier meist bedachter mit der Datenhaltung und speichern die Daten lieber im eigenen Land. Ich saß schon mit mehr als einem Kunden zusammen, der technisch überzeugt war aber das Speichern der Daten in Irland nicht in Frage kam. In einigen Fällen ist es aber auch die fehlende Einfachheit der Nutzung. Das bedeutet, dass ein Unternehmen seine bestehende Anwendung oder Webseite nicht für die Amazon Infrastruktur (neu) entwickeln möchte. Gründe hierfür sind die fehlende Zeit und das Wissen um dies umzusetzen, was gleichzeitig zu einen längeren Time to Market führen würde. Beides lässt sich auf die Komplexität zurückführen, um auf den Amazon Web Services Skalierbarkeit und Verfügbarkeit zu erreichen. Es sind nun einmal nicht nur ein paar API-Aufrufe. Stattdessen muss die vollständige Architektur auf die AWS Cloud ausgerichtet werden. In Amazons Fall liegt es insbesondere an der horizontalen Skalierung (scale-out) die dies erforderlich macht. Die Unternehmen würden lieber die vertikale Skalierung (scale-up) bevorzugen, um das bestehende System 1:1 migrieren zu können und nicht von vorne zu beginnen, sondern direkt in der Cloud Erfolge zu erzielen.

Die AWS Referenzen zeigen allerdings auch, dass ausreichend Use Cases für Unternehmen in der Public Cloud existieren, bei denen die Datenhaltung eher als unkritisch betrachtet werden kann, solange die Daten vorher klassifiziert und anschließend verschlüsselt abgelegt werden.

Analysten Kollege Larry Carvalho hat sich auf der re:Invent mit ein paar AWS Unternehmenskunden unterhalten. Ein Kunde hat eine gehostete Webseite auf AWS für weniger als $7.000 Dollar implementiert, wofür ein anderer Systemintegrator $70.000 berechnen wollte. Ein anderer Kunde hat ausgerechnet, dass er für eine on-Premise Business Intelligence Lösung inkl. Wartung etwa $200.000 pro Jahr zahlen würde. Auf Amazon AWS lediglich $10.000 pro Jahr. Diese Beispiele zeigen, dass AWS auf der einen Seite ein Enabler ist. Auf der anderen Seite aber auch, dass die Sicherheitsbedenken in einigen Fällen den Kosteneinsparungen in den Unternehmen weichen werden.

Categories
Kommentar

Die Schlüssel gehören in die Hände der Anwender: TeamDrive erhält vierte ULD Datenschutz Rezertifizierung in Folge

Das Vertrauen in eine verschlüsselte Kommunikation zur Übertragung von sensiblen Informationen über das Internet wird immer wichtiger. Dabei gilt das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein (ULD) unter der Leitung von Thilo Weichert als Vorreiter, wenn es um die unabhängige Überprüfung und Zertifizierung von Datenschutz und sicherheitsrelevanter Themen im Bereich der Informationstechnologie geht. TeamDrive hat sich im Laufe der letzten Jahre als die Dropbox Alternative für Unternehmen etabliert und setzt in Punkto Sicherheit konsequent auf eine End-to-End Verschlüsselung. Der Anbieter aus Hamburg und Gartner Cool Vendor in Privacy 2013 hat erfolgreich seine vierte ULD Datenschutz Rezertifizierung in Folge erhalten.

Die Schlüssel gehören ausschließlich in die Hände der Anwender

Im Rahmen der Rezertifizierung wurde die Sicherheit von TeamDrive in der Version 3 erneut erhöht. Neben der 256 Bit AES End-to-End Verschlüsselung wurde die Sicherheit zusätzlich mit einer RSA 3072 Verschlüsselung erweitert. Die Bedeutung der End-to-End Verschlüsselung der gesamten Kommunikation nimmt immer weiter zu. Das bedeutet, dass der gesamte Prozess, den ein Nutzer mit der Lösung durchläuft, von Anfang bis Ende durchgehend verschlüsselt ist.

In diesem Zusammenhang ist es wichtig zu verstehen, dass sich der private Schlüssel für den Zugriff auf die Daten und des Systems ausschließlich im Besitz des Anwenders befinden darf. Und auch nur ausschließlich auf dem lokalen System des Anwenders verschlüsselt gespeichert wird. Der Anbieter darf über keine Möglichkeiten verfügen, diesen privaten Schlüssel wiederherzustellen und niemals auf die gespeicherten Daten Zugriff erhalten.

Trotz aller Versprechungen ist eine Verschlüsselung nutzlos, wenn Anbieter wie Dropbox oder Box über den Schlüssel verfügen und alle Daten entschlüsseln können. Die Kontrolle darüber gehört ausschließlich in die Hände der Anwender. Das muss jedes Unternehmen bei der Auswahl eines vertrauenswürdigen Anbieters berücksichtigen.

Categories
Analysen

Runtastic: Als Consumer App in der Business Cloud

Die Erfolgsmeldungen aus der Public Cloud reißen nicht ab. Ständig erscheinen neue Web- und mobile Applikationen, die auf Infrastructure-as-a-Service (IaaS) Angebote setzen. Das ist nur ein Grund, der Marktforscher wie IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) dazu bewegt, der Public Cloud bis zum Jahr 2017 eine vermeintlich goldene Zukunft zu bescheinigen. Den Erfolg der Public Cloud kann man nicht wegdiskutieren, die Fakten sprechen für sich. Jedoch sind es derzeit überwiegend Startups und vielmals unkritische Workloads die sich in die Public Cloud bewegen. Spricht man hingegen mit IT-Entscheidern von Unternehmen, die über ausgewachsene IT-Infrastrukturen verfügen, sieht die Realität anders aus. Das zeigt auch unsere Studie über den Europäischen Cloud Markt. Insbesondere der Self-Service und die Komplexität wird von den Public Cloud Anbietern unterschätzt, wenn sie auf Unternehmenskunden zugehen. Aber auch für junge Unternehmen ist die Public Cloud nicht zwangsläufig die beste Wahl. Ich habe kürzlich mit Florian Gschwandtner (CEO) und Rene Giretzlehner (CTO) von Runtastic gesprochen, die sich gegen die Public Cloud und für eine Business Cloud, genauer T-Systems, entschieden haben.

Runtastic: Von 0 auf über 50.000.000 Downloads in drei Jahren

Runtastic besteht aus einer Reihe von Apps für Ausdauer, Kraft & Toning, Gesundheit & Wellness sowie Fitness und hilft den Nutzern dabei ihre Gesundheits- und Fitnessziele zu erreichen.

Das Unternehmen wurde im Jahr 2009 in Linz (Österreich) gegründet und hat auf Grund seines enormen Wachstums in der internationalen Mobile Health und Fitness-Branche mittlerweile Standorte in Linz, Wien und San Francisco. Die Wachstumszahlen sind beeindruckend. Nach 100.000 Downloads im Juli 2010 sind es mittlerweile über 50.000.000 Downloads (Stand: Oktober 2013). Davon alleine 10.000.000 Downloads in Deutschland, Österreich und der Schweiz, was in etwa mehr als ein Download pro Sekunde bedeutet. Runtastic verfügt über 20.000.000 registrierte Nutzer, bis zu 1.000.000 täglich aktive Nutzer und mehr als 6.000.000 monatlich aktive Nutzer.


Quelle: Runtastic, Florian Gschwandtner, November 2013

Neben den mobilen Apps setzt Runtastic ebenfalls auf das Angebot eigener Hardware, um die Apps und Services bequemer nutzen zu können. Ein weiterer interessanter Service ist das “Story Running”, der zu mehr Abwechslung und Action beim Laufen führen soll.

Runtastic: Gründe für die Business Cloud

Angesichts dieser Wachstumszahlen und Anzahl der ständig wachsenden Apps und Services ist Runtastic ein idealer Kandidat für eine Cloud Infrastruktur. Im Vergleich zu ähnlichen Angeboten sogar für eine Public Cloud. Möge man meinen. Runtastic begann mit seiner Infrastruktur bei einem klassischen Webhoster – ohne Cloud Modell. In den vergangenen Jahren wurden einige Erfahrungen mit unterschiedlichen Anbietern gesammelt. Auf Grund der ständigen Expansion, neuer Rahmenbedingungen, der wachsenden Kundenanzahl und der Bedarf an Hochverfügbarkeit war der Grund die Infrastruktur in eine Cloud auszulagern.

Dabei war eine Public Cloud für Runtastic nie eine Option, da der dedizierte(!) Speicherort der Daten höchste Priorität besitzt und das nicht nur auf Grund von Sicherheitsaspekten oder dem NSA-Skandal. So kamen die Amazon Web Services (AWS) allein aus technischen Gründen nicht in Frage, da viele Ansprüche von Runtastic sich darauf nicht abbilden lassen. Unter anderem umfasst die Kerndatenbank in etwa 500GB auf einem einzelnen MySQL-Node, was laut Giretzlehner AWS nicht erfüllen kann. Zudem sind die Kosten in einer Public Cloud für solche großen Server dermaßen teuer, das sich eine eigene Hardware schnell rechnet.

Stattdessen hat sich Runtastic für die Business Cloud von T-Systems entschieden. Gründe hierfür waren ein gutes Setup, ein hoher Qualitätsanspruch sowie zwei Rechenzentren an einem Standort (in zwei getrennten Gebäuden). Hinzu kommt ein hoher Sicherheitsstandard, ein professioneller technischer Service als auch die Kompetenz der Mitarbeiter und Ansprechpartner und eine sehr gute Anbindung an die Internetknoten in Wien und Frankfurt.

Dabei kombiniert Runtastic das Colocation Modell mit einem Cloud-Ansatz. Das bedeutet, dass Runtastic die Grundlast mit eigener Hardware abdeckt und Lastspitzen über Infrastructure-as-a-Service (IaaS) Rechenleistung von T-Systems abfängt. Das Management der Infrastruktur läuft automatisiert mittels Chef. Der Großteil der Infrastruktur ist zwar virtualisiert. Allerdings fährt Runtastic einen hybriden Ansatz. Das bedeutet, dass die Kerndatenbank, der Storage und der NoSQL Cluster auf Bare Metal (nicht virtualisiert) betrieben werden. Auf Grund der globalen Reichweite (90 T-Systems Rechenzentren weltweit) kann Runtastic auch in Zukunft sicherstellen, dass alle Apps nahtlos und überall funktionieren.

Eine etwas unkonventionelle Entscheidung ist der Drei-Jahresvertrag, den Runtastic mit T-Systems eingegangen ist. Dazu gehören das Housing der zentralen Infrastruktur, ein redundanter Internetzugang sowie der Bezug von Rechenleistung und Speicherplatz aus der T-Systems Cloud. Runtastic hat sich für dieses Modell entschieden, da sie die Partnerschaft mit T-Systems langfristig sehen und nicht von heute auf morgen die Infrastruktur verlassen wollen.

Ein weiterer wichtiger Grund für eine Business Cloud war der direkte Draht zu Ansprechpartnern und Professional Services. Das spiegelt sich zwar auch in einem höheren Preis wieder, den Runtastic jedoch bewusst in Kauf nimmt.

Es geht auch ohne Public Cloud

Runtastic ist das beste Beispiel dafür, dass junge Unternehmen auch ohne eine Public Cloud erfolgreich sein können und eine Business Cloud definitiv eine Option ist. Zwar setzt Runtastic nicht vollständig auf eine Cloud-Infrastruktur. Jedoch muss in jedem Einzelfall der Business Case gerechnet werden, ob es sich (technisch) lohnt, Teile in eine eigene Infrastruktur zu investieren und die Lastspitzen per Cloud-Infrastruktur abzufangen.

Man sieht an diesem Beispiel allerdings auch, dass die Public Cloud kein Selbstgänger für die Anbieter ist und Beratung und Professional Services aus einer Business bzw. Managed Cloud gefragt sind.

Während der Keynote auf der AWS re:Invent 2013 präsentierte Amazon AWS seinen Vorzeigekunden Netflix und dessen Netflix Cloud Plattform (siehe Video, ab 11 Minuten), die speziell für die Amazon Cloud Infrastruktur entwickelt wurde. Amazon verkauft die Netflix Tools selbstverständlich als einen positiven Aspekt, was sie definitiv sind. Allerdings verschweigt Amazon den Aufwand, den Netflix betreibt, um die Amazon Web Services zu nutzen.

Netflix zeigt sehr eindrucksvoll wie eine Public Cloud Infrastruktur via Self-Service genutzt wird. Wenn man jedoch bedenkt, was für einen Aufwand Netflix betreibt, um in der Cloud erfolgreich zu sein, muss man einfach sagen, dass Cloud Computing nicht einfach ist und eine Cloud Infrastruktur, egal bei welchem Anbieter, mit der entsprechenden Architektur aufgebaut werden muss. Das bedeutet im Umkehrschluss, dass die Nutzung der Cloud nicht immer zu den versprochenen Kostenvorteilen führt. Neben den Einsparungen der Infrastrukturkosten die immer vorgerechnet werden, dürfen niemals die weiteren Kosten z.B. für das Personal mit den notwendigen Kenntnissen und die Kosten für die Entwicklung der skalierbaren und ausfallsicheren Applikation in der Cloud vernachlässigt werden.

In diesem Zusammenhang sollte auch der übermäßige Einsatz von infrastrukturnahen Services überdacht werden. Auch wenn diese das Entwicklerleben vereinfachen. Als Unternehmen sollte man sich vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden, um sich alle Türen offen zu halten. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.

Categories
Kommentar

Disruptive Welt der IT: Neue Technologien verändern ständig den Status quo der Unternehmen #tsy13

Zero Distance klingt im ersten Moment wie eine dieser neumodischen Marketingphrasen, mit denen uns Anbieter tagtäglich erzählen, wie sie die Welt verbessern wollen. Nun, es handelt sich dabei auch um genau eine von diesen Marketingphrasen. Aber eine, in der viel Wahrheit steckt. Betrachtet man die Use Cases, die auf dem T-Systems Symposium 2013 gezeigt wurden und viele weitere weltweit, dann wird deutlich, was für Potentiale uns die moderne Informationstechnologie ermöglicht. Die Cloud bzw. Cloud Computing sind dabei nur ein Mittel zum Zweck und dienen als Enabler für neue Geschäftsmodelle und helfen bei der Veränderung unserer Welt.

Wer nicht handelt der stirbt aus!

Fakt ist, dass traditionelle Unternehmen dem Untergang geweiht sind, wenn sie sich nicht verändern. An alten Werten festzuhalten ist nicht immer die beste Strategie – insbesondere im Zeitalter des Digital Business. Startups tauchen wie aus dem nichts auf und überrennen Marktführer in ihrem Bereich, die gar keine Chance haben so schnell zu reagieren. Es ist der Vorteil der grünen Wiese, den die Startups ausnutzen und sich nicht mit lästigen Altlasten in der IT und anderweitigen Bereichen auseinandersetzen müssen. Aber es gibt auch die Unternehmen, die schon eine geraume Zeit erfolgreich auf dem Markt verweilen und die Zeichen der Zeit erkannt haben. Neue Technologien und Konzepte haben immer irgendeinen Einfluss auf das Business. Einige Unternehmen haben es verstanden sich neu zu erfinden und Cloud Computing, Big Data, Mobile und Collaboration gewinnbringend für die eigene Zwecke zu nutzen, um sich dadurch zu verändern. Andere hingegen können oder wollen es nicht verstehen und bleiben lieber ihrem Status quo treu.

Hey Bauer, wo bleibt der Bulle?

Es ist immer wieder erstaunlich in welchen Bereichen der Industrie die Informationstechnologie einen massiven Einfluss nimmt und dabei für mehr Effizienz sorgt. Nehmen wir das Beispiel der Landwirtschaft. Konkreter das Paarungsverhalten der Kühe. Das ist wichtig, denn eine Kuh gibt nur dann Milch, wenn sie gekalbt hat. Es ist für den Bauer daher von besonderem Interesse, das hier alles reibungslos abläuft.

Die Lösung: Ist eine Kuh brünstig, macht sie währenddessen typische Kopfbewegungen. Daher bekommt jede Kuh ein Halsband inkl. einem Mobilfunkchip. Der Bauer erhält darüber die Information, dass er den Bullen startklar machen kann. Auch beim Kalben hilft die Lösung. Dazu überträgt das Tool die Werte eines Thermometers mit integrierter SIM Karte. Etwa 48 Stunden vor der Geburt verändert sich die Körpertemperatur der Kuh. Der Bauer erhält zwei Stunden vor der Geburt eine SMS, um rechtzeitig vor Ort zu sein.

IT-Abteilungen müssen proaktiver werden

IT-Abteilungen sind und waren schon immer die Prügelknaben im Unternehmen. Zu recht? Nun, einige ja, andere wiederum nicht. Aber sind es die IT-Abteilungen alleine, die für die Transformation des Business zuständig sind? Jein. In erster Linie ist die Geschäftsführung für die Ausrichtung der Unternehmensstrategie verantwortlich. Sie muss sagen, welchen Weg das Unternehmen gehen soll, schließlich hat sie die Visionen. Das große Aber besteht allerdings in der Art wie die IT-Abteilung sich in diesem Kontext verhält. Ist sie einfach nur die unterstützende Kraft, die je nach Bedarf auf die Wünsche der Geschäftsführung und der Kollegen reagiert oder agiert sie lieber proaktiv?

Angriff ist die beste Verteidigung. IT-Abteilungen sollten heute am technischen und innovativen Puls der Zeit sitzen und über die Veränderungen im Markt informiert sein. Über eine ständige interne oder externe Markt- und Trendforschung müssen sie wissen, was auf sie und ggf. auf ihr Unternehmen zukommt und darauf schnellstmöglich und proaktiv reagieren, um nicht zu viel Zeit zu verlieren und im besten Fall einen Wettbewerbsvorteil zu schaffen. Je nach Trend müssen sie nicht auf jeden Zug aufspringen, aber sie sollten sich damit zumindest auseinandersetzen und verstanden haben, welcher Einfluss dadurch entsteht und ob sie oder ihr Unternehmen davon betroffen sind. Wenn sie Potential für neue Geschäftsmodelle erkennen, sollten sie diese in die Geschäftsführung tragen, die auch verstehen muss, dass IT heute Enabler und nicht nur Instandhalter ist. Das bedeutet, dass die IT-Abteilung im Unternehmen heute einen viel größeren Stellenwert hat als noch vor zehn Jahren.

Hierzu muss die Geschäftsführung der IT-Abteilung jedoch unter die Arme greifen und die IT-Abteilung von ihren Routineaufgaben befreien. In etwa 80 Prozent der IT-Ausgaben werden heute in den IT-Betrieb investiert und das nur, um die Dinge am Laufen zu erhalten. Es handelt sich also um Investitionen in den Status quo, die zu keinen Innovationen führen. Hingegen werden lediglich nur 20 Prozent der Ausgaben in Verbesserungen oder Weiterentwicklungen investiert. Dieses Verhältnis muss sich drehen, und die Geschäftsführung zusammen mit dem CIO haben die Aufgabe, diesen Wandel vorzunehmen, damit ein Unternehmen auch in Zukunft innovativ und wettbewerbsfähig bleibt.

Hören Sie auf den Status quo zu umarmen.

Categories
Analysen

Die vollständig vernetzte Welt wird Wirklichkeit #tsy13

Unternehmen sind in ihrem Alltag ständig kürzeren Veränderungszyklen ausgesetzt. Dabei ist die Consumerization of IT ein großer Treiber, die auch in Zukunft eine wichtige Bedeutung behalten wird. Seit mehreren Jahren zeigen Mobilität, Cloud, neue Applikationen, das Internet of Things und Big Data (Analysen) ihre Auswirkungen. Neben diesen technologischen Einflüssen sind es aber auch die geschäftlichen Auswirkungen wie neue Geschäftsmodelle, ständiges Wachstum, Globalisierung und gleichzeitig die Themen Sicherheit und Compliance die zu neuen Herausforderungen führen.

Die Evolution des Internets hinterlässt ihre Spuren

Betrachtet man die Evolution des Internets, wird deutlich, dass die Auswirkungen auf die Unternehmen und unsere Gesellschaft mit dem Wachstum von intelligenten Verbindungen wachsen. Gestartet mit einfachen Verbindungen über E-Mail oder Web und damit der Digitalisierung des Informationszugangs, folgte die vernetzte Wirtschaft, bei der es mit E-Commerce und Collaboration darum ging, Geschäftsprozesse zu digitalisieren. Anschließend folgte etwas, das Cisco als „Realitätsnahe Erfahrungen“ bezeichnet. Dazu gehört die Digitalisierung von geschäftlichen und sozialen Interaktionen wie Social Media, Mobile und Cloud. Der nächste Zustand den wir erreichen werden ist das „Internet of Everything“, bei dem Menschen, Prozesse, Daten und Dinge verbunden werden – die Digitalisierung der Welt.

Jeder Baustein hat im Internet of Everything seine eigene Bedeutung. Die Verbindungen zwischen den Menschen werden relevanter und wertvoller. Die richtige Person oder auch Maschine erhält über intelligente Prozesse zum richtigen Zeitpunkt die richtigen Informationen. Die Daten werden zu wertvolleren Informationen für die Entscheidungsfindung verarbeitet. Physische Geräte (Dinge) werden über das Internet untereinander vernetzt, um die intelligenten Entscheidungen zu ermöglichen.

Auf dem T-Systems Symposium 2013 in Düsseldorf sagte Cisco, dass sie im Jahr 2020 etwa 50 Milliarden untereinander vernetzte Smart Objects erwarten. Hingegen wird dann weltweit gerade einmal mit 7,6 Milliarden Menschen gerechnet. Weiterhin ist Cisco der Meinung, dass derzeit 99 Prozent der Welt noch nicht vernetzt ist und wir in Zukunft Billionen von Smart Sensors sehen werden. Diese werden unter anderem in intelligenten Gebäuden, Städten oder Häusern verbaut und dabei helfen Energie zu sparen und effizienter zu leben. Sie werden aber ebenfalls dazu führen, die Produktivität zu erhöhen oder das Gesundheitswesen zu verbessern.

Technologische Grundlagen für die vollständig vernetzte Welt

Auf Grund seiner massiven Skalierbarkeit, Verteilung, neuartigen Anwendungen und den Möglichkeiten des Überallzugriffs, ist die Cloud eine der Hauptgrundlagen für die vollständig vernetzte Welt. Ciscos Cloud Strategie besteht daher darin, Cloud Anbieter und Unternehmen es zu ermöglichen, unterschiedliche Arten von Cloud Services bereitzustellen und zu „brokern“. Gleichzeitig sollen von Cisco Applikationsplattformen für verschiedene Cloud Kategorien angeboten werden.

Die Cloud muss allerdings um Ansätze aus dem Internet der Dinge angereichert werden. Dazu gehören intelligentere Geschäftsprozesse, Menschen zu Machine-2-Machine Kommunikation sowie weitere Dinge wie Sensoren und Aktoren die überall verteilt sind. Im Endeffekt ist eine weltweit stark skalierbare Infrastruktur notwendig, die zeitliche Schwankungen und Anforderungen zwischen den unterschiedlichen Workloads steuern kann.

Eine weitere Schlüsselkomponente ist daher etwas, dass Cisco als Fog Computing bezeichnet. Der Fog hat die Aufgabe, Daten und Workloads näher an den Nutzer zu bringen, der sich am Rande einer Datenverbindung befindet. In diesem Zusammenhang wird dann auch vom „Edge Computing“ gesprochen. Der Fog befindet sich organisatorisch unterhalb der Cloud und dient als optimiertes Übertragungsmedium für die Services und Daten, die sich in der Cloud befinden. Der Begriff „Fog Computing“ wurde von Cisco als ein neues Paradigma geprägt, der verteilte Endgeräte innerhalb des Internet of Things bei dem kabellosen Datentransfer unterstützen soll. Fog Computing baut konzeptionell auf bestehende und weit verbreitete Technologien wie den Content Delivery Networks (CDN) auf, soll aber, auf Grund von Cloud Technologien, das Bereitstellen von viel komplexeren Services ermöglichen.

Da immer größere Datenmengen an eine immer größer werdende Anzahl an Benutzern ausgeliefert werden müssen, sind Konzepte notwendig, welche die Idee der Cloud verbessern und es Unternehmen und Anbietern ermöglichen, ihre Inhalte an den Endkunden über eine geographisch weit verbreitete Plattform bereitzustellen. Fog Computing soll dabei helfen, die verteilten Daten näher an den Endkunden zu transportieren und dabei die Latenz und Anzahl der dafür benötigten Hops zu verringern und Mobile Computing und Streaming Services dadurch besser zu unterstützen. Neben dem Internet of Things ist die steigende Nachfrage der Nutzer, zu jeder Zeit, von jedem Ort und mit jedem Gerät auf ihre Daten zugreifen zu können, ein weiterer Grund, warum die Idee des Fog Computing an Bedeutung zunehmen wird.

Die wesentliche Eigenschaft des Fog Computing besteht also darin, dass Workloads völlig autark von der Cloud agieren können, um den schnellen, nahen und stabilen Zugriff eines Service sicherzustellen.

Die vernetzte Welt benötigt intelligentere Technologien

Um die Cloud als die grundlegende Basis für das Internet of Things bzw. des Internet of Everything zu nutzen, müssen noch einige Hürden aus dem Weg geschafft werden. Das aktuelle Cloud Bereitstellungsmodell sieht vor, dass die Daten, in der Regel, direkt und ohne eine Zwischenschicht zum Endgerät bzw. den Endnutzer ausgeliefert werden. (Anmerkung: Es existieren bereits CDN und Edge Locations, die für das Caching und somit Beschleunigen sorgen.) Es wird daher davon ausgegangen, dass die Bandbreite zur Übertragung der Daten maximal ist und theoretisch eine Verzögerung von Null existiert. Das ist jedoch nur theoretisch der Fall. In der Praxis sorgen hohe Latenzen und somit Verzögerungen, eine schlechte Elastizität und die zur Bandbreite wesentlich schneller ansteigenden Datenmengen, für Probleme.

Aus diesem Grund sind Ansätze wie Fog Computing erforderlich, um davon ausgehen zu können, dass eine limitierte Bandbreite vorhanden, unterschiedliche Verzögerungszeiten sowie unterbrochene Verbindungen vorhanden sind. Ideen wie der Fog etablieren sich als eine intelligente Zwischenschicht, Cache bzw. wie eine Art Verstärker und koordinieren die Anforderungen unterschiedlicher Workloads, Daten und Informationen, so dass diese unabhängig voneinander und performant an die Objekte im Internet of Everything ausgeliefert werden.

Categories
Analysen

So lassen sich Schatten-IT und Covered Clouds auflösen #tsy13

Die Schatten-IT oder wie VMware es nennt, Covered Clouds (versteckt genutzte Cloud Services) sind ein großes Problem für Unternehmen. Einer VMware Studie zufolge vermuten 37 Prozent der führenden europäischen IT-Entscheider in ihren Unternehmen nicht erfasste Ausgaben für Cloud-Services. 58 Prozent der europäischen Wissensarbeiter würden ungenehmigte Cloud-Services nutzen.

Pro und Kontra für Schatten-IT (Covered Clouds)

Diese unerlaubte Nutzung hat auch ihre finanziellen Einflüsse. In den betroffenen Unternehmen vermuten Führungskräfte aus dem IT-Bereich, dass durchschnittlich 1,6 Millionen Euro ohne Erlaubnis des Unternehmens ausgegeben werden. Dies macht im Durchschnitt 15 Prozent des jährlichen IT-Budgets dieser Unternehmen aus.

Allerdings wird diese Entwicklung von vielen als positiv erachtet. 72 Prozent der IT-Führungskräfte sehen darin einen Nutzen für ihr Unternehmen. Denn 31 Prozent von diesen sind der Meinung, dass Schatten-IT und Covered Clouds das Wachstum und die Innovation beschleunigen. Mehr als die Hälfte gaben an, dass das Unternehmen dadurch schneller auf Kundenanforderungen reagieren kann.

Dennoch gibt es auch große Sicherheitsbedenken. Von denjenigen, die Schatten-IT nicht befürworten, befürchtete mehr als die Hälfte eine Verschärfung der Sicherheitsrisiken. Diese Einblicke gab VMware während des T-Systems Symposium 2013 in Düsseldorf.

Eine Maßnahme: IT-as-a-Service

IT-as-a-Service ist ein Betriebsmodell, bei dem die IT-Abteilung wie eine eigene Business Einheit geführt wird und selbst Produkte und Services für das eigene Unternehmen entwickelt. Dabei muss sich die IT-Abteilung gegen externe Mitbewerber behaupten. Schließlich haben Fachabteilungen in der heutigen Zeit eine grenzenlose Auswahl von anderen Anbietern am Markt.

VMware hat es sich zur Aufgabe gemacht, IT-Abteilungen hierzu die technischen Mittel zu liefern und sieht in IT-as-a-Service eine Chance das Verhältnis Instandhaltung zu Innovation auf 50:50 auszugleichen, anstatt die Mehrheit der Aufwendungen in die Instandhaltung zu investieren. Heute beträgt das Verhältnis ca. 80 Prozent (Wartung) zu 20 Prozent (Innovation).

VMware liegt richtig, wenn sie versuchen, sich als führender Anbieter für IT-as-a-Service Lösungen zu etablieren. Als einer der wenigen Infrastrukturanbieter am Markt sind sie mit ihren Fähigkeiten in der Lage die technischen Mittel für diesen Umschwung in den Unternehmen zu liefern. Man muss hierzu allerdings beachten, dass IT-as-a-Service kein technischer Ansatz ist, sondern sich fest im Denken der IT Abteilungen verankern muss, um erfolgreich umgesetzt zu werden. VMware kann somit nur zeigen, welche technischen Mittel zur Verfügung stehen, um den Wandel einzuleiten.

Service Portal als Middleware für die Mitarbeiter

IT-as-a-Service ist für die Schatten-IT nicht die Non-plus Ultra Lösung, kann aber dabei helfen, diesem über die Jahre gewachsenen Phänomen entgegenzuwirken. Die entsprechenden Konzepte und Technologien stehen bereit und müssen nun umgesetzt werden.

Ist eine IT-as-a-Service Philosophie innerhalb der IT-Abteilung entstanden, sollte damit begonnen werden, ein eigenes Service Portal für die Mitarbeiter, über welches diese kontrolliert auf interne und externe Cloud Services zugreifen, zu etablieren. Dabei kann es sich sowohl um Infrastruktur (virtuelle Server und Speicherplatz) als auch um Software und Plattformen handeln. Die IT-Abteilung wird dadurch immer mehr zum Service Manager (Broker) und kann durch die Nutzung externer Ressourcen (hybrid Modell) sicherstellen, dass die Mitarbeiter mit einer hohen Servicegüte rechnen können. So lässt sich einem Entwickler zum Beispiel ein Server anstatt in mehreren Wochen, innerhalb von fünf Minuten bereitstellen. Dabei sollte zudem betrachtet werden, dass Entwickler nicht nur an Rechenleistung und Speicherplatz interessiert sind, sondern auch Services benötigen, um Applikationen und eigene Services auf eine einfachere Art und Weise zu entwickeln. Das kann unter anderem durch Eigenschaften eines Platform-as-a-Service (PaaS) realisiert werden.

Categories
Kommentar

Transformation: Die Rolle der IT und des CIO verändert sich! #tsy13

Am 6. November findet das diesjährige T-Systems Symposium in Düsseldorf statt. Nachdem im vergangenen Jahr unter dem Motto “Zero Distance – perfektes Zusammenspiel” durch innovative Geschäftsmodelle und moderne ICT eine neue Art von Nähe zum Kunden im Mittelpunkt stand, sollen in diesem Jahr die Konsequenzen der Zero Distance diskutiert werden. Ich werde dieses Jahr auf dem Symposium sein und die Themen Cloud, Mobile und Collaboration vor Ort kommentieren und analysieren. Dazu werden in dieser Woche entsprechende Artikel hier auf CloudUser erscheinen.

Es geht um den Kunden

Nie war die Beziehung zum Kunden und Endnutzer so wichtig wie heute. Gleichermaßen ist aber auch der technologische Zugang zu diesen Gruppen noch nie so einfach gewesen wie heute. Das hat auch die Businessseite erkannt und erhöht stetig die Anforderungen an die IT. Eine hohe Verfügbarkeit wie eine ebenso maximale Geschwindigkeit unter den bestmöglichen Sicherheitsanforderungen sind die Ansprüche an denen sich CIOs heute messen lassen müssen. Gleichzeitig müssen heutige Lösungen so einfach und intuitiv zu bedienen sein, um gegen den immer stärker werdenden Wettbewerb um den Kunden vorbereitet zu sein.

Disruptive IT: Die Rolle der IT wird sich verändern müssen

Cloud Computing, Big Data, Mobility und Collaboration sind derzeit die disruptiven Technologien, die in vielen Bereichen einen gewaltigen Wandeln auslösen und die IT-Abteilungen und CIOs vor große Herausforderungen stellen. Diese lassen sich aber auch für die eigenen Zwecke einsetzen und damit neue Chancen entstehen lassen.

Ich habe erst vor kurzem mit einem Analysten Kollegen über die Rolle des CIOs gesprochen. Seine zunächst amüsante doch ernst gemeinte Schlussfolgerung lautete CIO = Career Is Over. Diese Meinung vertrete ich nicht. Dennoch ist die Rolle der IT und ebenfalls die des CIOs einem Wandel ausgesetzt. Der CIO muss als Innovationstreiber anstatt eines Instandhalters verstanden werden und viel stärker in die Diskussionen mit den Fachabteilungen (Marketing, Vertrieb, Produktion, Finanzen, Personal) einbezogen werden bzw. den Dialog suchen. Er muss verstehen, welche Anforderungen erwartet werden, um die notwendigen Anwendungen und Infrastrukturen schnell, skalierbar und so einfach zu bedienen wie Apps und Tools aus dem Consumer-Bereich bereitzustellen. Das bedeutet, dass die interne IT einem Transformationsprozess ausgesetzt werden muss, ohne dabei die Sicherheit und Kosten zu vernachlässigen. Dieser Wandel entscheidet über die Zukunft eines jeden CIOs und ob er weiterhin als Dr. No oder Business Enabler angesehen wird, der als strategisch wichtiger Partner des CEO und der Fachbereiche zum Treiber des Business wird.

Categories
Analysen

Die Bedeutung der Managed Cloud für Unternehmen

Cloud Computing wächst kontinuierlich. Dabei wird der Public Cloud das für die Zukunft größte Wachstum vorhergesagt. Je nachdem auf wen man hört, liegt dieses bis zum Jahr 2017 zwischen 107 Milliarden Dollar (IDC) und 244 Milliarden Dollar (Gartner). An dieser Stelle darf man sich als Leser gerne die Frage stellen, woher diese nicht unbedeutende Differenz stammt. Unterhält man sich jedoch mit IT-Entscheidern, entspricht die Public Cloud, die in erster Linie auf standardisierte Workloads und Self-Service ausgelegt ist, nicht den Anforderungen der meisten Unternehmen. Cloud Computing ist definitiv attraktiv, aber die Form ist entscheidend.

Die Komplexität darf nicht unterschätzt werden

Die größten Erfolgsmeldungen aus der Public Cloud stammen bisher von Startups oder Unternehmen, die Ideen und Geschäftsmodelle darin realisiert haben. Zwar wird auch immer wieder von Migrationen von SaaS Anwendungen mit bis zu 90.000 Nutzern berichtet. Und diese Meldungen scheinen die Erfüllungen der Anforderungen gut wieder zu spiegeln. Die Wahrheit in den meisten Unternehmen sieht aber anders aus. Selbst die Migration eines E-Mail Systems, einer der vermeintlich höchststandardisierten Anwendungen, wird dabei zum Abenteuer. Das liegt daran, dass viele Unternehmen kein Standard E-Mail System nutzen und stattdessen weitere proprietäre Add-ons oder selbstentwickelte Erweiterungen angebunden haben, die so nicht in der Cloud existieren.

Hinzu kommen weitere Applikationen, die einfach zur IT-Enterprise Architektur dazu gehören und höchst individuelle Ansprüche erfüllen. Ich habe kürzlich mit dem Strategie-Manager eines deutschen DAX Unternehmens gesprochen das weltweit tätig ist und aktuell eine Cloud Strategie evaluiert. Das Unternehmen verfügt Global über etwa 10.000(!) Applikationen (Desktop, Server, Produktionssysteme usw.). Dieses Beispiel ist sehr extrem und spiegelt nicht die durchschnittlichen Herausforderungen eines Unternehmens dar. Es zeigt aber die Dimension, in der man sich bewegen kann und die sich ebenfalls auf deutlich kleinere Applikations-Infrastrukturen herunterbrechen lassen.

Managed Cloud Services gehört die Zukunft im Unternehmensumfeld

Man möge nun argumentieren, dass die IT-Architekturen der meisten Unternehmen eh viel zu komplex sind und eine Standardisierung jedem gut tun würde. So einfach ist die Realität aber leider nicht. Auch wenn bereits einige Standard Unternehmensapplikationen für Public Clouds zertifiziert sind. Schaut man sich die erfolgreichsten Workloads in der Public Cloud an, handelt es sich dabei um Web-Applikationen für den Massenmarkt und weniger um spezifische Unternehmensapplikationen. Der Großteil der Unternehmen ist für die Cloud nicht vorbereitet. Sondern darauf angewiesen und erwartet gleichermaßen Hilfe auf dem Weg in die Cloud sowie während des Betriebs der Anwendungen und Systeme.

Das hat auch unsere Untersuchung des europäischen Cloud Markts gezeigt. Unternehmen sind interessiert an Cloud Computing und dessen Eigenschaften (Skalierbarkeit, Flexibilität oder Pay per use). Allerdings gestehen sie sich selbst ein, dass sie nicht über das Wissen und die Zeit verfügen oder es einfach nicht (mehr) zu ihrem Kerngeschäft gehört, IT-Systeme zu betreiben und dies stattdessen von dem Cloud-Anbieter übernehmen lassen. Es geht also um eine flexible Art von Managed Services. Darauf sind Public Cloud Anbieter nicht vorbereitet, da ihr Geschäft darin besteht, hochstandardisierte Infrastrukturen, Plattformen, Applikationen und Services bereitzustellen. Abhilfe sollen speziell von dem Anbieter zertifizierte Systemintegratoren bieten.

Hier besteht die Chance für Anbieter von Business Clouds. Also Cloud Anbieter, die kein Public Cloud Modell fahren, sondern anhand von Managed Services den Kunden dabei helfen, den Weg in die Cloud zu meistern und den Betrieb übernehmen und damit einen „Alles aus einer Hand“ Service bieten. Das erfolgt im Normalfall nicht auf einer Shared-Infrastructure sondern innerhalb einer Hosted Private Cloud bzw. einer Dedicated Cloud bei der sich ein Kunde explizit in einem isolierten Bereich befindet. Professional Services runden das Portfolio ab, die bei der Integration, Schnittstellen und der Weiterentwicklung helfen. Business Clouds sind auf Grund dieser Serviceleistungen, Exklusivität und höherer Sicherheit (in der Regel physikalische Isolation) teurer als Public Clouds. Betrachtet man jedoch den Aufwand, den man als Unternehmen selbst in der einen oder anderen Public Cloud betreiben muss, um tatsächlich erfolgreich zu sein oder sich Hilfe von einem der zertifizierten Systemintegratoren holt, dann ist der Kostenvorteil meist eliminiert. Zudem ist Business Cloud (Managed Cloud) Anbietern ein höheres Wissen in die eigene Cloud und deren Eigenschaften gutzuschreiben als Systemintegratoren, da diese die Infrastruktur kennen und zudem weitere spezifische Anpassungen für den Kunden vorgenommen werden können als in einer zumeist hochstandardisierten Public Cloud Infrastruktur.

Public Cloud ist kein No-go für Unternehmen

Die Public Cloud ist für Unternehmen per se kein Tabu-Thema. Im Gegenteil, denn zum einem bietet die Public Cloud den maximal einfachsten und unkompliziertesten Weg in die Cloud-Welt, ohne dabei mit dem Vertrieb in Kontakt zu geraten. Zum anderen kommt es auf die Workloads/ Use Cases an, die identifiziert werden müssen.

Der größte Vorteil einer Public Cloud für Unternehmen besteht darin, dass sie sehr kostengünstig und schnell eigene Erfahrungen in einem echten Cloud-Umfeld sammeln können und sich sehr einfach „Dinge“ ausprobieren lassen. Zudem bietet sie die Gelegenheit sehr günstig und schnell Fehler zu machen und damit frühzeitig daraus zu lernen, was früher sehr schmerzhaft gewesen wäre. Anhand einer Top Down Cloud Strategie lassen sich in der Public Cloud zudem u.a. neue Geschäftsmodelle abbilden, die über Web Applikationen realisiert werden. Hier lassen sich mit einem hybriden Ansatz z.B. die Applikationen von den Daten trennen, um die Skalierbarkeit der Public Cloud für die Applikation selbst auszunutzen, die Daten aber in einem für sich definierten sicheren Bereich zu speichern.

Ob kritische Workloads innerhalb einer Public Cloud betrieben werden sollten ist u.a. eine Entscheidung des Risikomanagements und des eigenen Aufwands den man betreiben will/ kann um dies sicherzustellen. Hierauf muss während der Evaluation zwischen einer Public und einer Managed (Business) Cloud besonders geachtet werden.

Categories
Analysen

Quo vadis VMware vCloud Hybrid Service? Was ist vom vCHS zu erwarten?

Im Rahmen der VMworld 2013 Europe in Barcelona im Oktober hat VMware bereits die Verfügbarkeit des vCHS in England mit einem neuen RZ-Standort in Slough in der Nähe von London angekündigt. Die Private-Beta-Version des europäischen vCloud Hybrid Services wird ab dem vierten Quartal 2013 vorliegen, die allgemeine Verfügbarkeit ist für das erste Quartal 2014 geplant. Dieser Schritt zeigt, dass VMware der Public Cloud eine wichtige Bedeutung zuschreibt, wurde er doch insbesondere unternommen, um den Bedürfnissen der europäischen Kunden entgegenzukommen.

Dieser Artikel ist exklusiv auf LANline.de erschienen und kann kostenlos unter “Was bringt VMwares Vcloud Hybrid Service?” gelesen werden.

Categories
Analysen

HP Cloud Portfolio: Überblick & Analyse

HPs Cloud Portfolio besteht aus einer Reihe von Cloud-basierten Lösungen und Services. Dabei ist die HP Public Cloud als echtes Infrastructure-as-a-Service (IaaS) Angebot das aktuelle Kernprodukt, was dementsprechend großzügig vermarktet wird. Die HP Enterprise Services – Virtual Private Cloud bietet eine von HP gehostete Private Cloud. Die Public Cloud Services werden ausschließlich aus den USA mit Rechenzentren im Westen und Osten ausgeliefert. Auch wenn der Vertrieb weltweit aufgestellt ist, wird lediglich Englisch unterstützt.

Portfolio Überblick

Das IaaS Kernangebot umfasst Rechenleistung (HP Cloud Compute), Speicherplatz (HP Cloud Storage) und Netzwerkkapazitäten. Weiterhin stehen die Mehrwertservices HP Cloud Load Balancer, HP Cloud Relational DB, HP Cloud DNS, HP Cloud Messaging, HP Cloud CDN, HP Cloud Object Storage, HP Cloud Block Storage und HP Cloud Monitoring zur Verfügung, mit denen sich eine virtuelle Infrastruktur für eigene Applikationen und Services aufbauen lassen.

Die HP Cloud Infrastruktur basiert auf OpenStack und ist Multi-Mandantenfähig. Die virtuellen Maschinen sind mit KVM virtualisiert und lassen sich in festen Größen (Extra Small bis Double Extra Large) pro Stunde buchen. Der lokale Speicher der virtuellen Maschinen ist nicht persistent. Langfristige Daten lassen sich aber auf einem unabhängigen Block Storage speichern und anbinden. Eigene virtuelle Maschinen Images lassen sich nicht in die Cloud hochladen. Der Load Balancer befindet sich derzeit noch in einer Private Beta. Die Infrastruktur ist eine Multi-Fault-Domain, was von dem Service Level Agreement berücksichtigt wird. Eine Multifaktor Autorisierung wird derzeit nicht angeboten.

Die HP Enterprise Cloud Services bieten eine Vielzahl unterschiedlicher auf Unternehmen ausgerichteter Lösungen. Darunter Recovery-as-a-Service, dedizierte Private Clouds und Hosted Private Clouds. Zu den Applikationsservices gehören Lösungen für Collaboration, Messaging, Mobility und Unified Communications. Zu spezifischen Unternehmensanwendungen zählen HP Enterprise Cloud Services for Microsoft Dynamics CRM, HP Enterprise Cloud Services for Oracle und HP Enterprise Cloud Services for SAP. Professional Services runden das Enterprise Cloud Services Portfolio ab. Die Enterprise Cloud Services – Virtual Private Cloud ist eine von HP gehostete und Mandantenfähige Private Cloud und richtet sich an SAP, Oracle und weitere Unternehmensanwendungen.

Analyse

HP hat viel Erfahrung im Aufbau und Betrieb von IT-Infrastrukturen und verfolgt dieselben Ziele in den Bereichen Public und Private Cloud Infrastrukturen. Dabei setzen sie auf eigene Hardwarekomponenten und ein umfangreiches Partnernetzwerk. HP verfügt über einen weltweit agierenden Vertrieb und ein gleichermaßen hohes Marketingbudget und ist damit in der Lage eine Vielzahl an Kunden zu erreichen. Auch wenn sich die Rechenzentren für die Public Cloud ausschließlich in den USA befinden.

HP hat in den letzten Jahren viel Aufwand und Entwicklung investiert. Dennoch ist der HP Public Cloud Compute Service erst seit Dezember 2012 für die Allgemeinheit am Markt verfügbar. Auf Grund dessen kann HP noch keine aussagekräftige Erfolgsbilanz für seine Public Cloud nachweisen. Es existiert nur eine begrenzte Interoperabilität zwischen der HP Public Cloud, basierend auf OpenStack, und der Private Cloud (HP CloudSystem, HP Converged Cloud) der das HP Cloud OS zugrunde liegt. Da die HP Public Cloud nicht über die Möglichkeit verfügt, eigene virtuelle Maschinen Images auf Basis eines Self-Service hochzuladen, können Kunden derzeit keine Workloads aus der Private Cloud in die Public Cloud übertragen. Selbst dann, wenn die Private Cloud auf OpenStack basiert.

INSIGHTS Report

Der INSIGHTS Report “HP Cloud Portfolio – Überblick & Analyse” kann hier kostenlos als PDF heruntergeladen werden.