Categories
Analysen

Diversifizierung? Microsofts Cloud OS Partner Netzwerk mutiert zu einer "OpenStack Community"

Im ersten Moment ließt sich die Ankündigung zum neuen Microsoft Cloud OS Partner Network in der Tat interessant. Wer nicht direkt die Microsoft Public Cloud nutzen möchte, kann ab sofort einen von zahlreichen Partnern wählen und dort indirekt auf dieselben Microsoft Technologien zurückgreifen. Ebenfalls lässt sich eine Hybrid Cloud zwischen der Microsoft Cloud und den Partner Clouds oder dem eigenen Rechenzentrum aufspannen. Für Microsoft und dessen technologischer Verbreitung innerhalb der Cloud ist es tatsächlich ein kluger Schachzug. Für das sogenannte “Cloud OS Partner Network” kann die Aktion aber schön nach hinten losgehen.

Das Microsoft Cloud OS Partner Network

Das Cloud OS Netzwerk besteht aus mehr als 25 Cloud Service Provider weltweit, die sich nach Microsoft Angaben, auf hybride Cloud-Szenarien speziell mit der Microsoft Cloud Plattform konzentrieren. Hierzu setzen diese auf eine Kombination des Windows Server mit Hyper-V, System Center und dem Windows Azure Pack. Microsoft möchte damit seine Vision unterstreichen, sein Cloud OS als Basis für Kunden-Rechenzentren, Service-Provider Clouds und der Microsoft Public Cloud zu etablieren.

Hierzu bedient das Cloud OS Partner Netzwerk mehr als 90 verschiedene Märkte mit einer Kundenbasis von insgesamt drei Millionen Unternehmen weltweit. Insgesamt 2,4 Millionen Server und mehr als 425 Rechenzentren bilden die technologische Basis.

Zu dem Partner Netzwerk gehören unter anderem T-Systems, Fujitsu, Dimension Data, CSC und Capgemini.

Vorteile für Microsoft und die Kunden: Lokalität und Verbreitung

Für Microsoft ist das Cloud OS Partner Netzwerk ein kluger Schachzug, um gemessen an der Verbreitung von Microsoft Cloud Technologien, weltweit mehr Marktanteile zu bekommen. Hinzu kommt, dass es sehr gut in Microsofts bewährte Strategie passt, die Kunden überwiegend nicht direkt, sondern über ein Netzwerk von Partnern zu versorgen.

Auch den Kunden kommt das Partner Netzwerk prinzipiell entgegen. Unternehmen, die bisher aus Gründen der Datenlokalität, oder lokaler Richtlinien wie dem Datenschutz, die Microsoft Public Cloud (Windows Azure) gemieden haben, können sich nun einen Anbieter in ihrem eigenen Land suchen, ohne auf die gewünschte Technologie zu verzichten. Für Microsoft eröffnet sich damit ein weiterer Vorteil, nicht zwingend ein Rechenzentrum in jedem Land zu bauen und sich lediglich auf die Bisherigen oder strategisch Wichtigeren zu konzentrieren.

Microsoft kann sich damit ein wenig zurücklehnen und den unbequemen Vertrieb erneut das Partnernetzwerk übernehmen lassen. Einnahmen werden wie vor dem Cloud Zeitalter mit dem Lizenzverkauf an den Partnern generiert.

Nachteile für die Partner: Diversifizierung

Man kann an dem Partner Netzwerk vieles schönreden. Fakt ist, dass Microsoft mit dem Cloud OS Netzwerk eine vergleichbare Konkurrenzsituation schafft, wies sie sich in der OpenStack Community gebildet hat. Speziell in der Public Cloud existieren dort mit Rackspace und HP nur zwei “Top Anbieter”, die im weltweiten Cloud Zirkus jedoch nur eine untergeordnete Rolle spielen. Insbesondere HP hat derzeit zu viel mit sich selbst zu kämpfen und konzentriert sich dadurch viel zu wenig auf Innovationen. Das Hauptproblem beider und all den anderen OpenStack Anbietern besteht jedoch darin, dass sie sich nicht voneinander unterscheiden. Stattdessen stehen die meisten Anbieter in direkter Konkurrenz zueinander und heben sich derzeit nicht nennenswert voneinander ab. Das ist dem Umstand geschuldet, dass alle auf exakt dieselbe technologische Basis setzen. Eine Analyse zur Situation der OpenStack Community befindet sich unter “Gefangen im goldenen Käfig. OpenStack Provider sitzen in der Falle.

Die Situation für das Cloud OS Partner Netzwerk ist sogar noch ein wenig unbequemer. Anders als bei OpenStack ist Microsoft alleiniger Technologielieferant und bestimmt wo es lang geht. Das Partner Netzwerk muss schlucken was es vorgesetzt bekommt oder kann sich nur durch die Adaption weiterer fremder Technologiestacks behelfen, was zu einem Mehraufwand führt und für weitere Kosten hinsichtlich der Entwicklung und den Betrieb sorgt.

Abgesehen von den lokalen Märkten, stehen alle Cloud OS Service Provider in einem direkten Wettbewerb zueinander und haben ausschließlich auf Basis der Microsoft Technologien keine Möglichkeit sich anderweitig zu differenzieren. Ein Guter Support und Professional Services sind zwar enorm wichtig und ein Vorteil, aber kein USP in der Cloud.

Falls das Cloud OS Partner Netzwerk floppt wird Microsoft mit einem blauen Auge davon kommen. Den großen Schaden werden die Partner davontragen.

Technologie als Wettbewerbsvorteil

Betrachtet man die wirklich erfolgreichen Cloud Anbieter am Markt, wird deutlich, dass es sich dabei um diejenigen handelt, die ihre Cloud auf einem eigenen Technologiestack aufgebaut haben und sich damit technologisch von den restlichen Anbietern am Markt differenzieren. Dabei handelt es sich um Amazon, Google oder Microsoft und eben nicht Rackspace oder HP die beide auf OpenStack setzen.

Das sollten sich Cloud OS Partner wie Dimension Data, CSC oder Capgemini vor Augen halten. Insbesondere CSC und Dimension Data haben selbst große Ansprüche in der Cloud ein Wort mitreden zu wollen.

Categories
Analysen

Cloud Computing Mythos: Es ist weniger Know-How erforderlich

Ich bin in einem Artikel, der die Vorteile des Cloud Computing hervorhebt, auf eine interessante Aussage gestossen. In einer Bildunterschrift heißt es “Es muss kein zusätzliches Know-how im Unternehmen aufgebaut werden.” Das ist völlig falsch. Denn genau das Gegenteil ist der Fall. Es wird immer noch viel mehr Wissen benötigt, als von den Anbietern versprochen wird.

Das notwendige Wissen fehlt

Die Art und Menge des benötigten Wissens hängt von der Art des Service ab, der aus der Cloud genutzt wird. Für eine vermeintlich hochstandardisierte Software-as-a-Service (SaaS) Applikation wie E-Mail wird hinsichtlich des Service und seiner Eigenschaft deutlich weniger Wissen benötigt, als ein Service, der einen bestimmten Prozess abbildet.

Für die Nutzung von Infrastructure-as-a-Service (IaaS) oder Platform-as-a-Service (PaaS) verhält es sich jedoch ganz anders. Zwar übernimmt der Anbieter in diesem Fall den Aufbau, Betrieb und die Wartung der physikalischen Infrastruktur. Die Verantwortung für die virtuelle Infrastruktur (IaaS) obliegt jedoch dem Kunden. Der Anbieter selbst – über kostenpflichtigen Support – oder zertifizierte Systemintegratoren helfen hier beim Aufbau und Betrieb. Genau so verhält es sich bei dem Betrieb einer eigenen Applikation auf einer Cloud-Infrastruktur. Der Cloud Anbieter selbst ist dafür nicht verantwortlich, sondern stellt lediglich die Infrastruktur sowie Mittel und Wege in Form von APIs, Weboberflächen und ggf. weiteren Mehrwertservices zur Verfügung, um den Kunden die Entwicklung zu erleichtern. In diesem Zusammenhang muss auch verstanden werden, dass je nach Cloud-Skalierung – Scale-out vs. Scale-up – die Applikation vollständig anders für die Cloud entwickelt werden muss – nämlich über mehrere Systeme hinweg automatisch skalierbar verteilt (Scale-out) – als es in einer nicht Cloud-Umgebung der Fall ist. Dieses architekturelle Wissen fehlt in den meisten Unternehmen an allen Ecken und Enden, was auch dem Fakt geschuldet ist, dass Hochschulen und Universitäten diese Art des programmatischen Denkens bisher nicht vermittelt haben.

Cloud Computing ist derzeit noch komplexer als es auf dem ersten Blick erscheint. Das Paradebeispiel hierfür ist Netflix. Der US-amerikanische Video-on-Demand Anbieter betreibt seine Plattform innerhalb einer Public Cloud Infrastruktur (Amazon AWS) und hat neben einem umfangreichen Produktivsystem, welches den skalierbaren und performanten Betrieb sicherstellt, ebenfalls eine umfangreiche Test-Suite – die Netflix Symian Army – entwickelt, die nur dafür zuständig ist, den einwandfreien Betrieb des Produktivsystems sicherzustellen – u.a. werden laufend willkürlich virtuelle Maschinen bewusst abgeschossen und das Produktivsystem muss dennoch weiterhin einwandfrei funktionieren.

Bedarf an Managed Cloud steigt

Die Komplexität lässt sich durch das Deploymentmodell zwar weniger verringern, die Verantwortung und das notwendige Know-How jedoch verschieben. Innerhalb einer Public Cloud regiert der Self-Service. Das bedeutet, dass der Kunde zunächst zu 100 Prozent auf sich selbst gestellt ist und die alleinige Verantwortung für die Entwicklung und den Betrieb seiner Applikation trägt.

Dieses haben viele Unternehmen erkannt und gestehen sich ein, dass sie entweder nicht über das notwendige Wissen, Personal und weitere Ressourcen verfügen, um erfolgreich eine Public Cloud (IaaS) zu nutzen. Stattdessen bevorzugen bzw. erwarten sie Hilfe von den Cloud Anbietern. In diesen Fällen handelt es sich allerdings nicht um Public Cloud Anbieter, sondern um Managed Cloud/ Business Cloud Anbieter, die neben Infrastruktur ebenfalls mit Professional Services helfen.

Mehr zum Thema Managed Cloud kann unter “Die Bedeutung der Managed Cloud für Unternehmen” nachgelesen werden.

Categories
Analysen

Die Amazon Web Services greifen nach der Enterprise IT. Ein Realitätscheck.

Die AWS re:Invent 2013 ist vorbei und die Amazon Web Services (AWS) haben mit einigen neuen Services begonnen, die Hände weiter nach den Unternehmenskunden auszustrecken. Nachdem sich AWS als führender Infrastrukturanbieter und Enabler für Startups und neue Geschäftsmodelle in der Cloud etabliert hat, versucht das Unternehmen aus Seattle schon seit geraumer Zeit einen Fuß direkt in das lukrative Unternehmensumfeld zu bekommen. Aktuelle Public Cloud Marktzahlen für das Jahr 2017 von IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) geben AWS Rückenwind und bestärken den IaaS Marktführer in seiner reinen Public Cloud Strategie.

Die neuen Services

Mit Amazon WorkSpaces, Amazon AppStream, AWS CloudTrail und Amazon Kinesis hat Amazon interessante neue Services präsentiert, die insbesondere Unternehmenskunden adressieren.

Amazon WorkSpaces

Amazon WorkSpaces ist ein Service, der virtuelle Desktops auf Basis von Microsoft Windows bereitstellt, mit dem sich eine eigene Virtual Desktop Infrastructure (VDI) innerhalb der Amazon Cloud aufbauen lässt. Als Basis kommt der Windows Server 2008 R2 zum Einsatz, der Desktops mit einer Windows 7 Oberfläche ausrollt. Alle Services und Applikationen werden aus Amazon Rechenzentren auf die entsprechenden Endgeräte gestreamt, wobei das PCoIP (PC over IP) von Teradici zum Einsatz kommt. Dabei kann es sich um Desktop-PCs, Notebooks, Smartphones oder Tablets handeln. Zudem lässt sich Amazon WorkSpaces mit einer Microsoft Active Directory kombinieren, was die Benutzerverwaltung vereinfacht. Standardmäßig werden die Desktops mit bekannten Anwendungen wie Firefox oder Adobe Reader/ Flash ausgeliefert. Dies lässt sich von den Administratoren beliebig anpassen.

Mit Amazon WorkSpaces betritt Amazon völlig neues Terrain, in welchem mit Citrix und VMware bereits zwei absolute Marktgrößen warten. VMware hatte erst während der VMworld in Barcelona die Übernahme von Desktone bekanntgegeben. VDI ist grundsätzlich ein sehr spannendes Marktsegment, da es die Unternehmens-IT von Administrationsaufgaben erlöst und Infrastrukturkosten reduziert. Allerdings handelt es sich hierbei um ein noch sehr junges Marktsegment. Unternehmen sind zudem noch sehr vorsichtig bei der Auslagerung ihrer Desktops, da anders als bei klassischen on-Premise Terminal Services, die Bandbreite (Netzwerk, Internet, Datenverbindung) von entscheidender Bedeutung ist.

Amazon AppStream

Amazon AppStream ist ein Service, der als ein zentrales Backend für graphisch umfangreiche Applikationen dient. Damit soll die eigentliche Leistung des Endgeräts, auf dem die Applikationen genutzt werden, keine Rolle mehr spielen, da sämtliche Ein- und Ausgaben innerhalb der Amazon Cloud verarbeitet werden.

Da die Leistung der Endgeräte in Zukunft wahrscheinlich eher noch mehr zunehmend wird, muss die lokale Leistung vermutlich nicht berücksichtigt werden. Allerdings ist der Service für den Aufbau einer echten Mobile Cloud, bei der sich sämtliche Daten und Informationen in der Cloud befinden und die Geräte lediglich als Konsumenten genutzt werden, durchaus interessant. Weiterhin ist die Kombination mit Amazon WorkSpaces zu betrachten, um Applikationen auf Endgeräte bereitzustellen, die lediglich als ThinClients dienen und keine weitere lokale Intelligenz und Leistung benötigen.

AWS CloudTrail

AWS CloudTrail hilft beim Überwachen und Aufzeichnen der AWS API Aufrufe von einem oder mehrerer Accounts. Dabei werden Aufrufe über die AWS Management Console, dem AWS Command Line Interface (CLI), von eigenen Anwendungen oder Anwendungen von Drittanbietern berücksichtigt. Die erhobenen Daten werden entweder in Amazon S3 oder Amazon Glacier zur Auswertung gespeichert und lassen sich über die AWS Management Console, dem AWS Command Line Interface oder Tools von Drittanbietern betrachten. Derzeit lassen sich nur Amazon EC2, Amazon ECS, Amazon RDS und Amazon IAM überwachen. Amazon CloudTrail kann kostenlos genutzt werden. Kosten entstehen für das Speichern der Daten auf Amazon S3 und Amazon Glacier sowie für die Benachrichtigungen über Amazon SNS.

AWS CloudTrial gehört, auch wenn er nicht sehr spannend ist (Logging), zu den wichtigsten Services für Unternehmenskunden, die Amazon in letzter Zeit veröffentlicht hat. Die gesammelten Logdateien helfen bei der Compliance, indem sie sämtliche Zugriffe auf AWS Services aufzeichnen und damit das Einhalten von gesetzlichen Rahmenbedingungen nachweisen können. Ebenso verhält es sich mit Sicherheitsaudits, bei denen sich damit Sicherheitslücken und unberechtigte oder fehlerhafte Zugriffe auf Daten nachvollziehen lassen. Amazon ist gut beraten, AWS CloudTrail schnellstmöglich über alle weiteren AWS Services zu erweitern und für sämtliche Regionen weltweit verfügbar zu machen. Insbesondere die Europäer werden es danken.

Amazon Kinesis

Amazon Kinesis ist ein Service zur Echtzeitverarbeitung von großen Datenströmen. Hierzu ist Kinesis in der Lage Datenströme beliebiger Größe aus einer Vielzahl unterschiedlicher Quellen zu verarbeiten. Die Steuerung erfolgt aus der AWS Management Console, indem sich einer Anwendung unterschiedliche Datenströme zuweisen und darüber speichern lassen. Auf Grund von Amazons massiver Skalierbarkeit bestehen keine Kapazitätsbegrenzungen. Allerdings werden die Daten automatisch auf die weltweiten Amazon Rechenzentren verteilt. Als Use Cases für Kinesis gelten die üblichen Verdächtigen: Finanzdaten, Social Media sowie Daten aus dem Internet of Things/ Everything (Sensoren, Maschinen usw.).

Der eigentliche Vorteil von Kinesis, als Big Data Lösung, besteht in der Echtzeitverarbeitung von Daten. Gängige Standard-Lösungen am Markt verarbeiten die Daten via Batch, wodurch die Daten niemals zum direkten Zeitpunkt, sondern maximal ein paar Minuten später verarbeitet werden können. Kinesis hebt diese Barriere auf und ermöglicht neue Möglichkeiten zur Auswertung von Live-Daten.

Herausforderungen: Public Cloud, Komplexität, Self-Service, “Lock-in”

Schaut man auf die aktuellen AWS Referenzen, ist die Quantität als auch die Qualität beeindruckend. Schaut man genauer hin, handelt es sich bei den Top-Referenzen allerdings weiterhin um Startups, unkritische Workloads oder komplett neue Entwicklungen die dort verarbeitet werden. Das bedeutet, dass die meisten bestehenden IT-Systeme, um die es tatsächlich geht, sich noch gar nicht in der Cloud befinden. Das hängt neben den Bedenken vor dem Kontrollverlust und Compliance Themen damit zusammen, dass das Scale-out Prinzip es für Unternehmen beliebig kompliziert macht, ihre Anwendungen und Systeme in die AWS-Cloud zu migrieren. Am Ende läuft es darauf hinaus, dass sie von Vorne beginnen müssen, da ein nicht verteilt entwickeltes System nicht so funktioniert, wie es auf einer verteilten Cloud Infrastruktur laufen sollte – Stichworte: Skalierbarkeit, Hochverfügbarkeit, Multi-AZ. Das sind Kosten die nicht unterschätzt werden sollten. Das führt dazu, dass selbst die Migration eines vermeintlich einfachen Webshops zu Herausforderungen für Unternehmen werden, die nicht über die Zeit und das notwendige Cloud-Wissen verfügen, um den Webshop für die (Scale-out) Cloud Infrastruktur neu zu entwickeln.

Hinzu kommt, dass sich die Skalierbarkeit und Verfügbarkeit einer Applikation auf der AWS Cloud nur sauber realisieren lässt, wenn man sich an die Services und APIs hält, mit denen dies sichergestellt wird. Weiterhin stehen viele weitere infrastrukturnahe Services zur Verfügung bzw. werden ständig veröffentlicht, die das Leben für den Entwickler sichtlich einfacher machen. Der Lock-in ist damit vorprogrammiert. Zwar bin ich auf dem Standpunkt, dass ein Lock-in nichts Schlechtes sein muss, solange der Anbieter die gewünschten Anforderungen erfüllt. Dennoch sollte sich ein Unternehmen vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.

Zum Schluss. Auch wenn einige Marktforscher der Public Cloud eine goldende Zukunft prophezeien, sollte man die Zahlen nicht zu sehr auf die Goldwaage legen. Cloud Marktzahlen werden schon seit Jahren immer mal wieder nach unten korrigiert. Außerdem muss man im Einzelfall betrachten, wie sich diese Zahlen tatsächlich zusammensetzen. Aber darum geht es hier nicht. Am Ende des Tages geht es darum, was der Kunde will. Andy Jassy hat auf der re:Invent noch einmal deutlich gemacht, dass Amazon AWS konsequent auf die Public Cloud setzen wird und in keine eigenen Private Cloud Lösungen investieren wird. Man kann dies nun als Arroganz und Ignoranz gegenüber den Kunden, dem puren Willen nach Disruption oder einfach nur Selbstbestätigung interpretieren. Fakt ist, auch wenn Amazon wohl die Private Cloud für die CIA bauen wird, haben sie bei weitem nicht die Ressourcen und Kenntnisse, um als Softwareanbieter am Markt aufzutreten. Amazon AWS ist ein Service-Anbieter. Allerdings haben sie mit Eucalyptus einen starken Verbündeten auf der Private Cloud Seite, der es ermöglicht eine AWS-ähnliche Cloud Infrastruktur im eigenen Rechenzentrum aufzubauen.

Anmerkung hierzu: Nahezu alle Eucalyptus Kunden sollen ebenfalls AWS Kunden sein (Quelle: Eucalyptus). Das bedeutet im Umkehrschluss, dass einige Hybrid Cloud Infrastrukturen zwischen on-Premise Eucalyptus Infrastrukturen und der Amazon Public Cloud bestehen.

Vorteile: AWS Marketplace, Ökosystem, Enabler, Innovationstreiber

Was bei den ganzen Diskussionen um Amazon AWS und Unternehmenskunden leider immer wieder kläglich vergessen und auch von Amazon viel zu wenig beworben wird, ist der AWS Marketplace. Im Vergleich zu der Cloud Infrastruktur, die Kunden nutzen können, um eigene Lösungen zu entwickeln, bietet der Marketplace voll funktionsfähige Softwarelösungen von Partnern (z.B. SAP), die auf der AWS Infrastruktur automatisch ausgerollt werden können. Die Kosten für die Nutzung der Software werden pro Stunde oder pro Monat abgerechnet. Hinzu kommen die AWS Gebühren für die dafür benötigte Infrastruktur. Hier steckt der eigentliche Mehrwert für Unternehmen, ihre bestehenden Standardsysteme bequem in die Cloud auszulagern und sich von den on-Premise Systemen zu trennen.

Man muss bei den Amazon Web Services daher strikt zwischen der Nutzung von Infrastruktur für die Eigenentwicklung und dem Betrieb von fertigen Lösungen trennen. Beides ist in der der Amazon Cloud möglich. Hinzu kommt das Ökosystem von Partnern und Systemintegratoren, die AWS Kunden dabei helfen, ihre Lösungen zu entwickeln. Denn auch wenn AWS selbst (derzeit noch) ein reiner Infrastruktur Anbieter ist, müssen sie gleichermaßen als Plattform für andere Anbieter und Partner verstanden werden, die darauf ihre Geschäfte betreiben. Darin besteht auch der maßgebliche Erfolg und Vorteil gegenüber anderen Anbietern am Markt und wird langfristig die Attraktivität bei den Unternehmenskunden erhöhen.

Hinzu kommt, dass Amazon der absolute Innovationstreiber in der Cloud ist, dem kein anderer Cloud-Anbieter derzeit technologisch das Wasser reichen kann. Dazu bedarf es keiner re:Invent. Stattdessen zeigt sich dies nahezu jeden Monat von Neuem.

Amazon AWS ist – bedingt – tauglich für die Enterprise IT

Je nach Land und Use Case variieren die Anforderungen, die Amazon für Unternehmen erfüllen muss. Europäische Kunden sind hier meist bedachter mit der Datenhaltung und speichern die Daten lieber im eigenen Land. Ich saß schon mit mehr als einem Kunden zusammen, der technisch überzeugt war aber das Speichern der Daten in Irland nicht in Frage kam. In einigen Fällen ist es aber auch die fehlende Einfachheit der Nutzung. Das bedeutet, dass ein Unternehmen seine bestehende Anwendung oder Webseite nicht für die Amazon Infrastruktur (neu) entwickeln möchte. Gründe hierfür sind die fehlende Zeit und das Wissen um dies umzusetzen, was gleichzeitig zu einen längeren Time to Market führen würde. Beides lässt sich auf die Komplexität zurückführen, um auf den Amazon Web Services Skalierbarkeit und Verfügbarkeit zu erreichen. Es sind nun einmal nicht nur ein paar API-Aufrufe. Stattdessen muss die vollständige Architektur auf die AWS Cloud ausgerichtet werden. In Amazons Fall liegt es insbesondere an der horizontalen Skalierung (scale-out) die dies erforderlich macht. Die Unternehmen würden lieber die vertikale Skalierung (scale-up) bevorzugen, um das bestehende System 1:1 migrieren zu können und nicht von vorne zu beginnen, sondern direkt in der Cloud Erfolge zu erzielen.

Die AWS Referenzen zeigen allerdings auch, dass ausreichend Use Cases für Unternehmen in der Public Cloud existieren, bei denen die Datenhaltung eher als unkritisch betrachtet werden kann, solange die Daten vorher klassifiziert und anschließend verschlüsselt abgelegt werden.

Analysten Kollege Larry Carvalho hat sich auf der re:Invent mit ein paar AWS Unternehmenskunden unterhalten. Ein Kunde hat eine gehostete Webseite auf AWS für weniger als $7.000 Dollar implementiert, wofür ein anderer Systemintegrator $70.000 berechnen wollte. Ein anderer Kunde hat ausgerechnet, dass er für eine on-Premise Business Intelligence Lösung inkl. Wartung etwa $200.000 pro Jahr zahlen würde. Auf Amazon AWS lediglich $10.000 pro Jahr. Diese Beispiele zeigen, dass AWS auf der einen Seite ein Enabler ist. Auf der anderen Seite aber auch, dass die Sicherheitsbedenken in einigen Fällen den Kosteneinsparungen in den Unternehmen weichen werden.

Categories
Analysen

Runtastic: Als Consumer App in der Business Cloud

Die Erfolgsmeldungen aus der Public Cloud reißen nicht ab. Ständig erscheinen neue Web- und mobile Applikationen, die auf Infrastructure-as-a-Service (IaaS) Angebote setzen. Das ist nur ein Grund, der Marktforscher wie IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) dazu bewegt, der Public Cloud bis zum Jahr 2017 eine vermeintlich goldene Zukunft zu bescheinigen. Den Erfolg der Public Cloud kann man nicht wegdiskutieren, die Fakten sprechen für sich. Jedoch sind es derzeit überwiegend Startups und vielmals unkritische Workloads die sich in die Public Cloud bewegen. Spricht man hingegen mit IT-Entscheidern von Unternehmen, die über ausgewachsene IT-Infrastrukturen verfügen, sieht die Realität anders aus. Das zeigt auch unsere Studie über den Europäischen Cloud Markt. Insbesondere der Self-Service und die Komplexität wird von den Public Cloud Anbietern unterschätzt, wenn sie auf Unternehmenskunden zugehen. Aber auch für junge Unternehmen ist die Public Cloud nicht zwangsläufig die beste Wahl. Ich habe kürzlich mit Florian Gschwandtner (CEO) und Rene Giretzlehner (CTO) von Runtastic gesprochen, die sich gegen die Public Cloud und für eine Business Cloud, genauer T-Systems, entschieden haben.

Runtastic: Von 0 auf über 50.000.000 Downloads in drei Jahren

Runtastic besteht aus einer Reihe von Apps für Ausdauer, Kraft & Toning, Gesundheit & Wellness sowie Fitness und hilft den Nutzern dabei ihre Gesundheits- und Fitnessziele zu erreichen.

Das Unternehmen wurde im Jahr 2009 in Linz (Österreich) gegründet und hat auf Grund seines enormen Wachstums in der internationalen Mobile Health und Fitness-Branche mittlerweile Standorte in Linz, Wien und San Francisco. Die Wachstumszahlen sind beeindruckend. Nach 100.000 Downloads im Juli 2010 sind es mittlerweile über 50.000.000 Downloads (Stand: Oktober 2013). Davon alleine 10.000.000 Downloads in Deutschland, Österreich und der Schweiz, was in etwa mehr als ein Download pro Sekunde bedeutet. Runtastic verfügt über 20.000.000 registrierte Nutzer, bis zu 1.000.000 täglich aktive Nutzer und mehr als 6.000.000 monatlich aktive Nutzer.


Quelle: Runtastic, Florian Gschwandtner, November 2013

Neben den mobilen Apps setzt Runtastic ebenfalls auf das Angebot eigener Hardware, um die Apps und Services bequemer nutzen zu können. Ein weiterer interessanter Service ist das “Story Running”, der zu mehr Abwechslung und Action beim Laufen führen soll.

Runtastic: Gründe für die Business Cloud

Angesichts dieser Wachstumszahlen und Anzahl der ständig wachsenden Apps und Services ist Runtastic ein idealer Kandidat für eine Cloud Infrastruktur. Im Vergleich zu ähnlichen Angeboten sogar für eine Public Cloud. Möge man meinen. Runtastic begann mit seiner Infrastruktur bei einem klassischen Webhoster – ohne Cloud Modell. In den vergangenen Jahren wurden einige Erfahrungen mit unterschiedlichen Anbietern gesammelt. Auf Grund der ständigen Expansion, neuer Rahmenbedingungen, der wachsenden Kundenanzahl und der Bedarf an Hochverfügbarkeit war der Grund die Infrastruktur in eine Cloud auszulagern.

Dabei war eine Public Cloud für Runtastic nie eine Option, da der dedizierte(!) Speicherort der Daten höchste Priorität besitzt und das nicht nur auf Grund von Sicherheitsaspekten oder dem NSA-Skandal. So kamen die Amazon Web Services (AWS) allein aus technischen Gründen nicht in Frage, da viele Ansprüche von Runtastic sich darauf nicht abbilden lassen. Unter anderem umfasst die Kerndatenbank in etwa 500GB auf einem einzelnen MySQL-Node, was laut Giretzlehner AWS nicht erfüllen kann. Zudem sind die Kosten in einer Public Cloud für solche großen Server dermaßen teuer, das sich eine eigene Hardware schnell rechnet.

Stattdessen hat sich Runtastic für die Business Cloud von T-Systems entschieden. Gründe hierfür waren ein gutes Setup, ein hoher Qualitätsanspruch sowie zwei Rechenzentren an einem Standort (in zwei getrennten Gebäuden). Hinzu kommt ein hoher Sicherheitsstandard, ein professioneller technischer Service als auch die Kompetenz der Mitarbeiter und Ansprechpartner und eine sehr gute Anbindung an die Internetknoten in Wien und Frankfurt.

Dabei kombiniert Runtastic das Colocation Modell mit einem Cloud-Ansatz. Das bedeutet, dass Runtastic die Grundlast mit eigener Hardware abdeckt und Lastspitzen über Infrastructure-as-a-Service (IaaS) Rechenleistung von T-Systems abfängt. Das Management der Infrastruktur läuft automatisiert mittels Chef. Der Großteil der Infrastruktur ist zwar virtualisiert. Allerdings fährt Runtastic einen hybriden Ansatz. Das bedeutet, dass die Kerndatenbank, der Storage und der NoSQL Cluster auf Bare Metal (nicht virtualisiert) betrieben werden. Auf Grund der globalen Reichweite (90 T-Systems Rechenzentren weltweit) kann Runtastic auch in Zukunft sicherstellen, dass alle Apps nahtlos und überall funktionieren.

Eine etwas unkonventionelle Entscheidung ist der Drei-Jahresvertrag, den Runtastic mit T-Systems eingegangen ist. Dazu gehören das Housing der zentralen Infrastruktur, ein redundanter Internetzugang sowie der Bezug von Rechenleistung und Speicherplatz aus der T-Systems Cloud. Runtastic hat sich für dieses Modell entschieden, da sie die Partnerschaft mit T-Systems langfristig sehen und nicht von heute auf morgen die Infrastruktur verlassen wollen.

Ein weiterer wichtiger Grund für eine Business Cloud war der direkte Draht zu Ansprechpartnern und Professional Services. Das spiegelt sich zwar auch in einem höheren Preis wieder, den Runtastic jedoch bewusst in Kauf nimmt.

Es geht auch ohne Public Cloud

Runtastic ist das beste Beispiel dafür, dass junge Unternehmen auch ohne eine Public Cloud erfolgreich sein können und eine Business Cloud definitiv eine Option ist. Zwar setzt Runtastic nicht vollständig auf eine Cloud-Infrastruktur. Jedoch muss in jedem Einzelfall der Business Case gerechnet werden, ob es sich (technisch) lohnt, Teile in eine eigene Infrastruktur zu investieren und die Lastspitzen per Cloud-Infrastruktur abzufangen.

Man sieht an diesem Beispiel allerdings auch, dass die Public Cloud kein Selbstgänger für die Anbieter ist und Beratung und Professional Services aus einer Business bzw. Managed Cloud gefragt sind.

Während der Keynote auf der AWS re:Invent 2013 präsentierte Amazon AWS seinen Vorzeigekunden Netflix und dessen Netflix Cloud Plattform (siehe Video, ab 11 Minuten), die speziell für die Amazon Cloud Infrastruktur entwickelt wurde. Amazon verkauft die Netflix Tools selbstverständlich als einen positiven Aspekt, was sie definitiv sind. Allerdings verschweigt Amazon den Aufwand, den Netflix betreibt, um die Amazon Web Services zu nutzen.

Netflix zeigt sehr eindrucksvoll wie eine Public Cloud Infrastruktur via Self-Service genutzt wird. Wenn man jedoch bedenkt, was für einen Aufwand Netflix betreibt, um in der Cloud erfolgreich zu sein, muss man einfach sagen, dass Cloud Computing nicht einfach ist und eine Cloud Infrastruktur, egal bei welchem Anbieter, mit der entsprechenden Architektur aufgebaut werden muss. Das bedeutet im Umkehrschluss, dass die Nutzung der Cloud nicht immer zu den versprochenen Kostenvorteilen führt. Neben den Einsparungen der Infrastrukturkosten die immer vorgerechnet werden, dürfen niemals die weiteren Kosten z.B. für das Personal mit den notwendigen Kenntnissen und die Kosten für die Entwicklung der skalierbaren und ausfallsicheren Applikation in der Cloud vernachlässigt werden.

In diesem Zusammenhang sollte auch der übermäßige Einsatz von infrastrukturnahen Services überdacht werden. Auch wenn diese das Entwicklerleben vereinfachen. Als Unternehmen sollte man sich vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden, um sich alle Türen offen zu halten. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.

Categories
Events

Veranstaltungstipp: CSC Cloud Strategie Forum

Am 22.10.13 lädt CSC zu einem kostenlosen Cloud Strategie Forum nach München ein. Nach einem Impulsvortrag von CSCs Mark Masterson werde ich eine dynamisch gehaltene Diskussionsrunde führen und zeigen, was die Cloud für Unternehmen bereithält, welche Herausforderungen auf dem Weg zu einer eigenen Cloud Strategie gemeistert werden müssen und was keinesfalls missachtet werden sollte.

Agenda

  • Impulsvortrag von Mark Masterson, “Resident Troublemaker”.
  • Dynamische Diskussionsrunde geführt von René Büst, Cloud Analyst, Top 50 Cloud Computing Blogger weltweit.
  • Gemeinsames Abendessen mit vielen Gelegenheiten zum Networking.

Inhalte des Vortrags zur Diskussionsrunde

  • Use Case Identifikation und Potentiale von Cloud Computing.
  • Anforderungen die zu beachten sind.
  • Cloud Enterprise Architecture – Überblick
  • Cloud Governance – Überblick
  • Cloud Skills – Überblick
  • Marktüberblick IaaS

Weitere Informationen und die Anmeldung

  • Wann: 22. Oktober 2013, 16:00 Uhr
  • Wo: Mandarin Oriental Hotel, Neuturmstrasse 1, 80331 München

Die kostenlose Anmeldung ist unter CSC Cloud Strategie Forum zu finden.

Categories
Kommentar

Verizon Cloud: Rechenleistung und Speicherplatz. Langweilig. Der Nächste Bitte!

Es sind diese Momente in denen man eine Pressemitteilung ließt und denkt: “Wow das könnte spannend werden.” Es sind meistens aber auch genau diese Pressemitteilungen die man nach dem zweiten Absatz gar nicht weiterlesen möchte. Ach übrigens, Verizon hat die Enterprise Cloud neu erfunden und möchte damit gegen die Amazon Web Services antreten. Ach ja, und Verizon bietet Rechenleistung und Speicherplatz an. Das sind sehr vielversprechende Services, um im IaaS Markt erfolgreich bestehen zu können und den Markt damit auf den Kopf zu stellen. Wo doch 100% aller IaaS Anbieter exakt diese Services im Portfolio haben und sich nicht weiter voneinander differenzieren.

Die Verizon Cloud

Ein Auszug aus der Pressemitteilung:

„Verizon hat die Enterprise Cloud erfunden – jetzt erfinden wir sie neu“, sagt John Stratton, President of Verizon Enterprise Solutions. „Dies ist die Revolution für Cloud Services, auf die Unternehmen schon lange gewartet haben. Wir haben das Feedback unserer Enterprise-Kunden weltweit eingeholt und darauf basierend haben wir eine komplett neue Cloud-Plattform gebaut, um unseren Kunden genau die Funktionen zu bieten, die sie benötigen.“

Und dann dies:

“Die Verizon Cloud besteht aus zwei Hauptkomponenten: Verizon Cloud Compute und Verizon Cloud Storage. Verizon Cloud Compute ist die IaaS-Plattform, Verizon Cloud Storage ist ein objektbasierter Storage-Service.”

Verzion bietet ernsthaft Rechenleistung und Speicherplatz an. Etwas das 100% aller IaaS Anbieter auf dem Markt im Portfolio haben und verkauft dies als REVOLUTION? Nicht wirklich, oder?

ProfitBricks und CloudSigma lassen grüßen

Verizon preist weiterhin die Granularität ihrer Infrastruktur Ressourcen an:

“Bisher verfügten Services über voreingestellte Konfigurationen für Größe (z.B. klein, mittel, groß) und Leistung und nur wenig Flexibilität bei virtuellen Maschinen sowie der Netzwerkleistung und der Storage-Konfiguration. Kein anderes Cloud-Angebot bietet dieses Maß an Kontrolle.

Falsch! ProfitBricks und CloudSigma bieten von Beginn an dieses Maß an Granularität und Flexibilität. Selbst diese Eigenschaft der Verizon Cloud ist keine Revolution.

Was zwar ebenfalls keine Revolution darstellt, aber aktuelle VMware Nutzer ansprechen könnte ist die Kompatibilität zum VMware Hypervisor. Ein vielversprechender Markt, da weiterhin viele Unternehmen noch VMware Hypervisor einsetzen. Wobei auch VMware mit seinem eigenen vCloud Hybrid Service dort ein Wort mitreden wird.

Mit den falschen Waffen in den Kampf ziehen

Es ist erstaunlich, wie viele Anbieter versuchen mit neuen Angeboten gegen die Amazon Web Services zu kämpfen und anstatt einer Atombombe lediglich ein stumpfes Messer mitbringen. Zumal Verizon die Lösung von Grund auf neu entwickelt hat.

Mir stellt sich langsam die Frage, wann wir das erste Nirvanix innerhalb der IaaS-Anbieter sehen die lediglich Rechenleistung und Speicherplatz anbieten. Schließlich positionieren sich immer mehr Kandidaten.

Der nächste Bitte! (Viva la Revolution.)

Categories
Analysen

Google erweitert die Compute Engine um Load Balancer Funktionalität. Aber wo bleibt die Innovationsmaschine?

In einem Blogpost hat Google weitere Erneuerungen an seiner Cloud Platform bekanntgeben. Neben der Erweiterung und Verbesserung des Google Cloud Datastore und der Ankündigung der Google App Engine 1.8.3, hat das Infrastructure-as-a-Service (IaaS) Angebot Google Compute Engine nun einen Load Balancing Service erhalten.

Neues vom Google Cloud Datastore

Um die Produktivität von Entwicklern weiter zu erhöhen, hat Google seinen Cloud Datastore um mehrere Funktionalitäten erweitert. Dazu gehören die Google Query Language (GQL). Die GQL ist eine SQL-ähnliche Sprache und richtet sich speziell an datenintensive Applikationen, um Entities und Keys aus dem Cloud Datastore abzufragen. Weiterhin lassen sich über die Abfrage von Metadaten weitere Statistiken von den darunterliegenden Daten erhalten. Google sieht darin einen Vorteil, um bspw. eigene interne Administrationskonsolen zu entwickeln, eigene Analysen vorzunehmen oder eine Anwendung zu debuggen. Zudem wurden Verbesserungen an dem lokalen SDK vorgenommen. Dazu gehören Erweiterungen am Kommandozeilen Tool sowie eine Unterstützung für Entwickler, die Windows einsetzen. Nachdem der Cloud Datastore in seiner ersten Version die Sprachen Java, Python und Node.js unterstützt hat, wurde nun auch Ruby hinzugefügt.

Google App Engine 1.8.3

Die Erneuerungen der Google App Engine Version 1.8.3 richten sich überwiegend an die PHP Laufzeitumgebung. Weiterhin wurde die Integration mit dem Google Cloud Storage, der nach Aussagen von Google an Beliebtheit gewinnt, verstärkt. Ab sofort können über Funktionen wie opendir() oder writedir() direkt auf die Buckets des Cloud Storage zugegriffen werden. Weiterhin können über is_readable() und is_file() weitere stat()-ing Informationen abgefragt werden. Ebenfalls lassen sich nun Metadaten an die Dateien im Cloud Storage anhängen. Zudem wurden anhand eines durch memcache realisierten „Optimistic Reading Cache“ Verbesserungen im Hinblick auf die Performance vorgenommen. Insbesondere die Geschwindigkeit von Anwendungen, welche regelmäßig von derselben Datei im Cloud Storage lesen, soll sich damit erhöhen.

Load Balancing mit der Compute Engine

Die Google Compute Engine wurde um eine Layer 3 Load Balancing Funktionalität erweitert, mit der sich nun auch auf Googles IaaS Angebot skalierbare und fehlertolerante Web-Applikationen entwickeln lassen. Mit der Load Balancing Funktion lässt sich der eingehende TCP/UDP Traffic über unterschiedliche Compute Engine Maschinen (virtuelle Maschinen) innerhalb derselben Region verteilen. Zudem kann damit sichergestellt werden, dass keine fehlerhaften virtuellen Maschinen eingesetzt werden, um HTTP-Anfragen zu beantworten und Lastspitzen ausgeglichen werden. Die Konfiguration des Load Balancer erfolgt entweder per Kommandozeile oder über die REST-API. Die Load Balancer Funktion kann noch bis Ende 2013 kostenlos genutzt werden, anschließend wird der Service kostenpflichtig.

Google holt viel zu langsam auf

Zwei wichtige Erneuerungen stechen bei den Neuigkeiten zur Google Cloud Platform hervor. Zum einen die neue Load Balancing Funktion der Compute Engine, zum anderen die bessere Integration der App Engine mit dem Google Cloud Storage.

Die Load Balancing Erweiterung kommt zugegebenermaßen viel zu spät. Schließlich handelt es sich dabei um eine der essentiellen Funktionen eines Cloud Infrastruktur Angebots, um dafür zu sorgen, skalierbare und hochverfügbare Systeme zu entwickeln und welche alle anderen bestehenden Anbieter am Markt bereits im Portfolio haben.

Die erweiterte Integration des Cloud Storage mit der Google App Engine ist insofern wichtig, um Entwicklern mehr S3-ähnliche Funktionen aus dem PaaS heraus zu bieten und damit mehr Möglichkeiten im Hinblick auf den Zugriff und die Verarbeitung von Daten in einem zentralen und skalierbaren Speicherort zu bieten.

Unterm Strich kann man sagen, dass Google sein IaaS Portfolio weiter stetig ausbaut. Was dabei allerdings auffällt, ist die sehr langsame Geschwindigkeit. Von der Innovationsmaschine Google, die man aus vielen anderen Bereichen des Unternehmens kennt, ist gar nichts zu erkennen. Google erweckt den Eindruck, dass es IaaS anbieten muss, um nicht allzu viele Entwickler an die Amazon Web Services und andere Anbieter zu verlieren, die Compute Engine aber nicht hoch priorisiert hat. Dadurch wirkt das Angebot sehr stiefmütterlich behandelt. Das zeigt z.B. die sehr späte Erweiterung um das Load Balancing. Ansonsten dürfte man von einem Unternehmen wie Google erwarten, mehr Ehrgeiz und Geschwindigkeit in den Ausbau des Angebots zu investieren. Schließlich sind bei keinem anderen Unternehmen, mit Ausnahme von Amazon, mehr Erfahrungen im Bereich hochskalierbarer Infrastrukturen vorhanden. Dies sollte sich relativ schnell in ein öffentliches Angebot umwandeln lassen, zumal Google gerne damit wirbt, das Kunden dieselbe Infrastruktur nutzen können, auf der ebenfalls sämtliche Google Services betrieben werden. Abgesehen von der App Engine, die jedoch im PaaS-Markt einzuordnen ist, muss sich die Google Compute Engine weiterhin hinten anstellen, was auch noch eine längere Zeit der Fall sein wird, wenn nicht die Geschwindigkeit forciert wird und weitere essentielle Services ausgerollt werden.

Categories
Kommentar

ProfitBricks eröffnet Preiskampf mit den Amazon Web Services für Infrastructure-as-a-Service

ProfitBricks macht ernst. Das Berliner Infrastructure-as-a-Service (IaaS) Startup geht mit einer harten Kante gegen die Amazon Web Services vor und reduziert seine Preise sowohl in den USA als auch in Europa um 50 Prozent. Weiterhin hat der IaaS-Anbieter einen Vergleich vorgelegt, der zeigt, dass die eigenen virtuellen Server eine mindestens doppelt so hohe Performance haben sollen als die der Amazon Web Services und Rackspace. Damit versucht sich ProfitBricks über den Preis als auch über die Leistung von den US-amerikanischen Top Anbietern zu diversifizieren.

Die Preise für Infrastructure-as-a-Services sind noch viel zu hoch

Einhergehend mit der Ankündigung zeigt sich CMO Andreas Gauger entsprechend angriffslustig. „Wir haben den Eindruck, dass die regelrecht als Marktbeherrscher auftretenden Cloud Unternehmen aus den USA ihre Marktmacht für zu hohe Preise missbrauchen. Sie muten den Unternehmen bewusst undurchsichtige Tarifmodelle zu und verkünden regelmäßig punktuelle Preissenkungen, um den Eindruck einer Preisdegression zu wecken“, so Gauger.

ProfitBricks hat sich daher das Ziel gesetzt, den IaaS-Markt über den Preis von hinten aufzurollen und technische Innovationen und damit für einen Anbieter enstehende Kosteneinsparungen auch direkt und merkbar an den Kunden durchzureichen.

Bis zu 45 Prozent günstiger als Amazon AWS

ProfitBricks positioniert sich sehr deutlich gegen Amazon AWS und zeigt zwei Preisvergleiche. Kostet eine M1 Medium Instanz mit 1 Core, 3,75 GB RAM und 250 GB Block Storage bei Amazon AWS 0,1291 Euro pro Stunde bzw. 93,15 Euro pro Monat, enstehen bei ProfitBricks hierfür Kosten von 0,0694 EUR pro Stunde bzw. 49,95 Euro pro Monat. Eine Einsparung von 45 Prozent.

Werden 1 Core, 8 GB RAM und 1.000 GB redundanter Storage benötigt, ist der Unterschied noch größer. Die Kosten für eine M1 XLarge Instanz mit 4 Cores, 15 GB RAM und 1.680 GB temporärem Storage inkl. 1.000 GB Block Storage belaufen sich bei Amazon pro Monat auf 372,62 Euro. Bei ProfitBricks würden für die exakt geforderten Anforderungen 130,22 Euro pro Monat entstehen. Dabei handelt es sich um eine Einsparung von 65 Prozent pro Server.

Diversifikation allein über den Preis ist schwierig

Sich als IaaS-Anbieter alleine über den Preis zu diversifizieren ist schwierig. Wir erinnern uns, Infrastruktur ist Commodity und vertikale Services sind die Zukunft der Cloud, mit denen der Kunde einen Mehrwert erhält.

Auf diesem Weg dem IaaS Platzhirsch die Stirn zu bieten ist mutig und wirkt sehr tollkühn. Allerdings sollte man eines nicht vergessen. Als Hosting-Experten der ersten Stunde werden Andreas Gauger und Achim Weiß die Zahlen rund um ihre Infrastruktur validiert haben und suchen mit dieser Aktion sicherlich nicht den kurzen Ruhm. Es bleibt daher abzuwarten wie Amazon AWS und die anderen IaaS-Anbieter auf diesen Schlag reagieren werden. Denn ProfitBricks zeigt mit dieser Preisreduzierung, dass Kunden Infrastruktur tatsächlich deutlich günstiger bekommen können, als es derzeit der Fall ist.

Etwas sollte man als IaaS-Nutzer bei dieser Preisdiskussion allerdings nicht aus den Augen verlieren. Neben den Preisen für Rechenleistung und Speicherplatz – die immer wieder hochgehalten werden – gibt es weitere Faktoren zu berücksichtigen, die den Preis bestimmen und welche immer erst am Ende des Monats wirklich in Erinnerung gerufen werden. Dazu gehören die Kosten für den Datentransfer in die Cloud hinein und aus der Cloud heraus sowie Kosten für anderweitige Services die um die Infrastruktur herum angeboten und pro API Aufruf berechnet werden. Da fehlt in mancher Hinsicht die Transparenz. Weiterhin ist ein Vergleich der unterschiedlichen IaaS-Anbieter nur schwierig darzustellen, da viele mit unterschiedlichen Einheiten, Konfigurationen und/oder Paketen arbeiten.

Categories
Services @de

Exklusiv: openQRM 5.1 wird um Hybrid Cloud Funktionalität erweitert und bindet Amazon AWS und Eucalyptus als Plugin ein

Bald ist es soweit. Noch in diesem Sommer wird openQRM 5.1 erscheinen. Projektmanager und openQRM-Enterprise CEO Matt Rechenburg hat mir vorab bereits ein paar sehr interessante neue Features verraten. Neben einem vollständig überarbeiteten Backend-Design wird die Open-Source Cloud Infrastruktursoftware aus Köln um Hybrid-Cloud Funktionalität erweitert, indem Amazon EC2, Amazon S3 und deren Klon Eucalyptus als Plugin eingebunden werden.

Neue Hybrid-Cloud Funktionen in openQRM 5.1

Ein kleiner Überblick über die neuen Hybrid-Cloud Funktionen in der kommenden openQRM 5.1 Version:

  • openQRM Cloud spricht transparent mit Amazon EC2 und Eucalyptus.
  • End-User innerhalb einer privaten openQRM Cloud können sich per Self-Service vom Administrator ausgewählte Instanz-Typen bzw. AMI’s bestellen, die dann von openQRM Cloud in Amazon EC2 (oder Amazon kompatiblen Clouds) automatisch provisioniert werden.
  • Benutzerfreundliches Password-Login für den End-User der Cloud per WebSSHTerm direkt im openQRM Cloud Portal.
  • Automatisches Applications Deployment mittels Puppet.
  • Automatische Kostenabrechnung über das openQRM Cloud-Billingsystem.
  • Automatisches Service Monitoring via Nagios für die Amazon EC2 Instanzen.
  • openQRM High-Availability auf Infrastrukturebene für Amazon EC2 (oder kompatible Private Clouds). Das bedeutet: Fällt die EC2 Instanz aus oder tritt in einer Amazon Availability Zone (AZ) ein Fehler auf, wird eine exakte Kopie dieser Instanz neu gestartet. Im Falle eines Ausfalls einer AZ wird die Instanz sogar automatisch in einer anderen AZ derselben Amazon Region wieder hochgefahren.
  • Integration von Amazon S3. Daten lassen sich direkt über openQRM auf Amazon S3 speichern. Beim Erstellen einer EC2 Instanz kann ein Skript, welches auf S3 abgelegt ist mit angegeben werden, was z.B. weitere Befehle beim Start der Instanz ausführt.

Kommentar: openQRM erkennt den Trend genau zur richtigen Zeit

Auch openQRM-Enterprise zeigt mit dieser Erweiterung, dass die Hybrid Cloud ein immer ernst zunehmender Faktor beim Aufbau von Cloud-Infrastrukturen wird und kommt mit den neuen Features genau zur richtigen Zeit. Das Unternehmen aus Köln orientiert sich dabei nicht überraschend am aktuellen Public Cloud Marktführer Amazon Web Services. Damit lässt sich openQRM ebenfalls in Kombination mit Eucalyptus und anderen Amazon kompatiblen Cloud-Infrastrukturen nutzen, um eine massiv skalierbare Hybrid-Cloud Infrastruktur aufzubauen. Dabei setzt openQRM auf sein bewährtes Plugin-Konzept und bildet Amazon EC2, S3 und Eucalyptus genau so ab. Amazon und Eucalyptus werden, neben eigenen Ressourcen aus einer privaten openQRM Cloud, damit zu einem weiteren Ressourcen Provider, um schnell und unkompliziert mehr Rechenleistung zu erhalten.

Zu den absoluten Killerfeatures gehören meiner Ansicht nach das automatische Applications Deployment mittels Puppet, mit dem End-Nutzer sich bequem und automatisiert EC2 Instanzen mit einem vollständigen Softwarestack selbst bereitstellen können, sowie die Berücksichtigung der Amazon AZ-übergreifenden High-Availability Funktionalität, die von vielen Cloud-Nutzern aus Unwissenheit immer wieder vernachlässigt wird.

Viel Beachtung hat das Team ebenfalls der Optik und dem Interface des openQRM-Backends geschenkt. Die vollständig überarbeitete Oberfläche wirkt aufgeräumter und dadurch übersichtlicher in der Handhabung und wird die Bestandskunden positiv überraschen.

Categories
Kommentar

Infrastruktur ist Commodity! Vertikale Services sind die Zukunft der Cloud.

Im Jahr 2014 erwartet der Infrastructure-as-a-Service Markt weltweit ein Gesamtumsatz von geschätzten 6 Milliarden Dollar. Ein guter Grund in diesem Cloud Segment sein Glück zu versuchen. Zahlreiche Anbieter sind in den letzten Jahren auf diesen Zug aufgesprungen und versuchen dem Platzhirsch Amazon Web Services (AWS) Marktanteile abzunehmen. Keine leichte Aufgabe, da sich die Innovationskurve der meisten Verfolger im Vergleich zu AWS eher flach verhält. Ein Grund besteht in dem versteiften Festhalten an dem Wort Infrastruktur in Infrastructure-as-a-Services. Argumente, wegen einer deutlich höheren Performance von AWS zu einem Mitbewerber zu wechseln hören sich im ersten Moment verlockend an. Aber unterm Strich zählt der Reifegrad des Portfolios und der Blick über das gesamte Angebot und nicht nur ein kleiner Bereich, in dem man sich einen technologischen Vorsprung verschafft hat.

Infrastructure-as-a-Services meinen tatsächlich Services

Auch wenn die Amazon Web Services der erste IaaS Anbieter am Markt war, nimmt das Wort „Web-Services“ eine zentrale Rolle in der Philosophie des Unternehmens ein. Gestartet mit den grundlegenden und zentralen Services Amazon EC2 (Rechenleistung, virtuelle Maschine) und Amazon S3 (Speicherplatz) wurden in sehr kurzen Zeiträumen immer weitere neue Services ausgerollt, die mit Infrastruktur nur im weitesten Sinne etwas zu tun haben. Services wie Amazon SQS, Amazon SNS, Amazon SWF oder Amazon SES helfen AWS-Kunden dabei, die Infrastruktur zu nutzen. Das Starten einer einzigen Amazon EC2 Instanz ist nämlich genauso viel Wert, wie ein virtueller Server bei einem klassischen Webhoster. Nicht mehr und nicht weniger – und ist im Endeffekt monatlich sogar noch teurer. Wer also hofft, in Zukunft weiterhin mit Infrastrukturkomponenten – virtueller Rechenleistung, Speicherplatz, Gateway usw. – auf die Party eingeladen zu werden, wird wohl draußen bleiben müssen.

Sich aus dem Preiskampf, den sich Amazon, Microsoft und Google derzeit liefern, weitestgehend herauszuhalten ist ebenfalls ratsam. Dieser erfreut zwar die Kunden, wird früher oder später aber zu einer Marktbereinigung führen. Außerdem, wenn man sich anschaut wie Jeff Bezos Amazon führt (bspw. Kindle Strategie), lässt er sich auf jede Preisschlacht ein, nur um Marktanteile zu gewinnen. Daher sollten IaaS Anbieter das Kapital lieber nutzen, um die Attraktivität des Portfolios zu erhöhen. Kunden sind bereit für Innovationen und Qualität zu bezahlen. Darüber hinaus sind Entscheider bereit für Lösungen aus der Cloud teilweise dasselbe und sogar mehr auszugeben wie für on-Premise Angebote. Die Bedeutung liegt verstärkt auf der Flexibilisierung der Unternehmens-IT, um dem Unternehmen damit mehr Agilität zu verschaffen.

Hierzu ein Tweet von meinem Freund und Analysten-Kollegen Ben Kepes aus Neuseeland, der den Nagel ironisch auf den Kopf trifft.

Vertikale Services sind die Zukunft der Cloud

Der Infrastructure-as-a-Services Markt hat bei weitem noch nicht seinen Zenit erreicht. Dennoch ist Infrastruktur zur Commodity geworden und ist nichts Innovatives mehr. Wir sind an einem Punkt in der Cloud angekommen, wo es darum geht, die Cloud Infrastrukturen zu nutzen, um darauf Services vertikal aufzubauen. Dafür sind Unternehmen und Entwickler neben virtueller Rechenleistung und Speicherplatz auf Services von dem Anbieter angewiesen, um das eigene Angebot performant, skalierbar und ausfallsicher zu betreiben. Trotz des mittlerweile umfangreichen Service-Portfolios von Anbietern wie Amazon, Microsoft und Google ist weiterhin viel Zeit, Wissen, Aufwand und somit auch Kapital notwendig, um diesen Zustand zu erreichen. Weiterhin werden von den Anbietern nur proprietäre infrastrukturnahe Services angeboten, um mit der Infrastruktur zu arbeiten. Alles Weitere muss selbst unter Zuhilfenahme dieser Services entwickelt werden.

Aus diesem Grund fehlen dem Markt Anbieter von externen Service-Portfolios, die von Unternehmen und Entwicklern genutzt werden können, um fertige Services, die auf den Infrastrukturen und Plattformen selbst entwickelt werden müssten, on-Demand einzusetzen. Solche Mehrwertdienste lassen sich für ein bestimmtes Geschäftsszenario horizontal in die vertikalen Services integrieren und bei Bedarf nutzen. Diese BBaaS (Business-Bricks-as-a-Services) fügen sich anbieterunabhängig in bestehende Infrastructure-as-a-Services und Platform-as-a-Services ein und schaffen für den Nutzer einen Mehrwert. Die einzelnen Geschäftsbausteine sind standardisiert und bereits hochskalierbar und hochverfügbar als Web-Services implementiert und lassen sich einfach und ohne großen Aufwand integrieren.

Mehr zu dem BBaaS Konzept gibt es unter: Business-Bricks-as-a-Service (BBaaS) – Geschäftsbausteine in der Cloud.