Categories
Kommentar

Schuldzuweisungen in Zeiten des Cloud Computing

Gestern ist mir wieder ein Tweet über den Weg gelaufen, der nicht nachvollziehbar ist. Der Bilderservice Mobypicture twittert “Mobypicture is currently unavailable because of system maintenance by Amazon….”. Währenddessen waren auf dem Statusboard der Amazon Web Services unter http://status.aws.amazon.com keine Auffälligkeiten erkennbar. Der Mobypicture Service hingegen war nicht erreichbar. Ich werde hier Amazon nicht verteidigen. Aber die Schuld per Tweet einfach auf den Anbieter zu schieben, scheint mir dann doch zu einfach. Es scheint eher so, dass Mobypicture die Möglichkeiten der AWS Cloud nicht kennt bzw. diese nicht nutzt – wie schon Instagram.

Wer ist denn “schuld” in der Cloud?

Das kommt darauf an. Nämlich unter anderem davon, was von der Cloud Infrastruktur bzw. dem Cloud Service ausfällt. Bei SaaS als auch PaaS sind mir als Nutzer weitestgehend die Hände gebunden. Beim IaaS halte jedoch ich größtenteils die Fäden selbst in der Hand und muss dafür sorgen, dass meine Applikation auf der Infrastruktur einwandfrei arbeitet. Selbst dann, wenn die darunterliegende Infrastruktur Stückweit ausfällt. Dafür gibt es Mittel und Wege. Wenn ich alles daheim im eigenen Rechenzentrum mache, sorge ich schließlich auch für Redundanz und kann maximal mit dem Finger auf bspw. die kaputte Festplatte zeigen. In der Cloud stehen mir aber deutlich mehr Möglichkeiten zur Verfügung. Extrem(!) gesagt dürfte eine eigene Applikation erst dann ausfallen, wenn die gesamte IaaS-Cloud eines Anbieters ausfällt.

Mehr Eigenverantwortung bitte!

Es ist nicht das erste Mal, dass ich das schreibe. “Beim Cloud Computing geht es um Selbstverantwortung.

Mehr Eigenverantwortung und IaaS bedeutet, darauf zu achten die Möglichkeiten der verteilten Cloud Infrastruktur zu nutzen und die Architektur der Applikation genau diesen Begebenheiten anzupassen und diese dafür zu entwickeln. Stichworte: Parallelität, Skalierbarkeit usw.

Im Falle der Amazon Web Services bedeutet dies:

  • Nicht nur eine virtuelle Maschine einsetzen.
  • Sich nicht nur auf eine Availability Zone verlassen.
  • Nicht nur eine Region nutzen.
  • Eine Multivendor Strategie in Betracht ziehen.

Dann sieht es schon anders aus.


Bildquelle: http://www.akademische.de

Categories
Analysen

"Infrastructure-as-a-Platform" mit mehr Komfort in die Cloud

Die Zukunft der Unternehmens-IT liegt im X-as-a-Service. Vor allem Infrastructure-as-a-Services ermöglichen den schnellen Zugriff auf Rechen- und Speicher-Ressourcen und erfreuen sich immer größerer Beliebtheit. Was jedoch vielen Angeboten fehlt ist die sogenannte “Convenience”, also die bequeme Konfiguration der Infrastruktur. Der Hamburger Managed Hosting Anbieter internet4YOU geht neue Wege und erfindet den Bereich “Infrastructure-as-a-Platform (IaaP)“. Vor allem für kleine- und mittelständische Unternehmen, die nicht über das notwendige IT-Know-How verfügen, um sich Standard IaaS Ressourcen zusammenzubauen, ist IaaP ein sehr interessanter Ansatz.

Infrastructure-as-a-Platform – Die Einfachheit zählt

Was den meisten IaaS-Lösungen fehlt, ist der komfortable Zugriff auf Ressourcen, mit denen sich virtuelle Infrastrukturen aufbauen lassen. Dabei handelt es sich in der Regel um Services von Cloud Anbietern der ersten Generation, wie bspw. den Amazon Web Services. Hier erfolgt der Zugriff über eine API, um damit die virtuellen Maschinen zu steuern und sämtliche Infrastrukturkomponenten und Services miteinander interagieren zu lassen. Graphische Verwaltungs-/ Konfigurationsoberflächen sind nur mit einem sehr kleinen Funktionsumfang vorhanden. Instanzen lassen sich zwar starten, stoppen und herunterfahren, für die Konfiguration einer komplexen Infrastruktur ist aber Expertenwissen sowie umfangreiches Know-How mit paralleler Programmierung usw. erforderlich.

Und das ist der entscheidende Faktor. Der gewöhnliche Cloud Nutzer ist kein Cloud Computing Experte und muss bzw. sollte es auch nicht sein. Er kennt sich nicht mit den Themen aus, die eine Cloud überhaupt zu einer Cloud machen. Das ist für ihn auch nicht notwendig, er will die “Blackbox” schließlich nur für seine Zwecke nutzen. Darüber hinaus hat er nicht das Interesse oder gar die Zeit, sich mit den oft komplexen Systemen und Prozessen auseinanderzusetzen und diese zu erlernen. In der Regel erwartet der durchschnittliche Cloud Nutzer eine in sich stimmige und integrierte Plattform, auf der er sich seine notwendigen IT-Ressourcen zusammenbauen kann, die er über einen bestimmen Zeitraum für seine Zwecke benötigt.

Es gibt keine offizielle Definition von Infrastructure-as-a-Platform. Ursprünglich stammt der Begriff von ScaleUp Technologies. Dabei handelt es sich um eine eigenständige Tochter von internet4YOU, die Lösungen für den Aufbau und die Verwaltung von Cloud Infrastrukturen anbietet. Neben internet4YOU respektive ScaleUp Technologies bieten auch Anbieter wie Profitbricks und Zimory aber auch Open-Source Lösungen wie openQRM die Möglichkeiten einer IaaP.

Infrastructure-as-a-Platform gehört die Zukunft

Neben dem einfacheren Zugriff auf die Ressourcen, bündeln Infrastructure-as-a-Platform Lösungen insbesondere verschiedene IaaS Ressourcen wie Rechenleistung, Speicherplatz, Netzwerkkomponenten usw. und ermöglichen Unternehmen damit den Aufbau eines eigenen Rechenzentrum on-Demand, also ein “Data-Centre-as-a-Service” (DCaaS).

Bereits etablierte Cloud Computing Anbieter – der ersten Generation – müssen damit beginnen in diesem Bereich aufzuholen und ihren bestehenden und neuen Kunden mehr Convenience bieten, mit der diese die Infrastrukturen bequemer nutzen können und während der Konfiguration zudem weniger Zeit und Expertenwissen benötigen. Denn insbesondere IT-Abteilungen von kleinen- und mittelständischen Unternehmen werden in Zukunft auf diesen Komfort achten.


Bildquelle: ©Gerd Altmann / PIXELIO

Categories
Kommentar

Die Cloud überlebt sämtliche Speichermedien

Ich habe eine interessante Infographik gefunden, die zeigt, dass die Cloud sämtliche Speichermedien überleben wird. Die Graphik veranschaulicht sehr gut, wie lange die Daten auf einer bestimmten Speichertechnologie sicher abgelegt werden können, bis auf diese nicht mehr zugegriffen werden kann oder wann ein Wechsel auf eine andere Technologie erforderlich ist.

Die Cloud überlebt sämtliche Speichermedien

Die Cloud Anbieter sorgen für das Überleben der Daten

Die Graphik konzentriert sich auf die Lebensdauer eines bestimmten Speichermediums, abhängig von der Nutzung. Eine oft benutzte CD wird natürlich nicht so lange eingesetzt werden können als eine, auf die einmalig Daten kopiert wurden und die anschließend vorsichtig behandelt wird. Hierbei sollte man aber auch nicht den Lebenszyklus einer Technologie vergessen. Nach einem bestimmten Zeitraum, auch abhängig davon wie erfolgreich die Technologie ist, kann diese eingestellt und nicht weiter unterstützt werden. Was passiert dann?

Ein weiteres nicht zu unterschätzendes Risiko sind die Dateiformate und deren Abwärtskompatibilität. So ändern z.B. Anbieter wie Microsoft regelmäßig ihre Office-Datenformate (z.B. .doc > .docx), die dann nur von der aktuellen Office Version bestmöglich unterstützt werden. Mir sind zudem Erfahrungen bekannt, wo sich Excel 97 Tabellen zwar mit Office 2000 öffnen ließen, sämtliche Formatierungen und Formeln aber nicht mehr korrekt dargestellt wurden. Fatal waren die Probleme mit den Formeln, da diese auf den ersten Blick richtig waren. Erst auf dem zweiten Blick wurde deutlich, dass sämtliche Ergebnisse falsch berechnet wurden.

An dieser Stelle helfen Software-as-a-Service (SaaS) Lösungen, indem die Daten in dem Service gespeichert werden und der Anbieter Anspassungen an der Software regelmäßig vornimmt und die “internen” Datenformate ebenfalls selbst anpasst, ohne dass der Nutzer davon betroffen ist. Das trifft natürlich nur dann zu, wenn der Cloud Speicher auch über eigene Office Lösungen verfügt, die in den Storage integriert sind, wie z.B. Google Apps, Zoho oder Office 365.

Werden Daten in der Cloud gespeichert, muss man sich als Unternehmen nicht um die darunterliegende Speichertechnologie kümmern. Der Anbieter stellt den Speicherplatz als Service bereit und sorgt dafür, dass die Technologie den aktuellen Standards entspricht. Die Sorge um die Technologieunterstützung wandert demnach vom Unternehmen hin zum Anbieter.

Alte vs. Neue Welt

Ein gutes Beispiel für eine disruptive Technologie innerhalb des schon sehr disruptiven Cloud Computing ist der erst kürzlich von Amazon veröffentlichte Service Amazon Glacier. Dabei handelt es sich um einen Cloud Service für die Datenarchivierung bzw. für das Langzeit-Backup. Glacier soll Unternehmen dazu bewegen, ihre Tape Libraries aufzugeben und die Daten stattdessen kostengünstig in die Cloud zu verlagern.

AWS beschreibt Amazon Glacier als einen kostengünstigen Storage Service, der dafür entwickelt wurde, um Daten dauerhaft zu speichern. Zum Beispiel für die Datenarchivierung bzw, die Datensicherung. Der Speicher ist, entsprechend der aktuellen Marktsituation, sehr günstig. Kleine Datenmengen können ab 0,01 US-Dollar pro GB pro Monat gesichert werden. Um den Speicher so kostengünstig anzubieten, ist der Service, im Vergleich zu Amazon S3, für solche Daten gedacht, auf die selten zugegriffen wird und deren Zugriffszeit mehrere Stunden betragen darf.

Daten in Amazon Glacier werden als ein Archive gespeichert. Dabei kann ein Archiv aus einer einzigen oder mehreren einzelnen zusammengefassten Dateien bestehen, die in einem sogenannten Tresor organisiert werden können. Der Zugriff auf einen Tresor kann über den AWS Identity and Access Management-Service (IAM) gesteuert werden. Um ein Archiv von Glacier zu laden, ist ein Auftrag erforderlich. Die Bearbeitung so eines Auftrags benötigt, laut Amazon, in der Regel zwischen 3,5 bis 4,5 Stunden.

Anstatt auf gewohnte Speichersysteme, verlässt sich Amazon Glacier auf kostengünstige Commodity Hardware. (Der ursprüngliche Ansatz, Cloud Computing kostengünstig anzubieten.) Für eine hohe Datenredundanz besteht das System aus einer sehr großen Menge von Speicher-Arrays, die sich aus einer Vielzahl von kostengünstigen Festplatten zusammensetzen.

Dann bekomme ich aber auch Meldungen wie Folgende zugeschickt, die zeigen, dass die “Alte Welt” den Kampf noch nicht aufgegeben hat.

“Anbieter” hat die Speicherdichte und Energieeffizienz seiner xyz-Appliances deutlich erhöht und verfügt nun über die effizienteste Enterprise-Disk-Backup- und Deduplizierungslösung am Markt. Die xyz bietet nun 3 TB-Festplatten und damit eine 50 Prozent höhere Speicherdichte, 42 Prozent niedrigeren Energieverbrauch und 25 Prozent höhere Performance. Verglichen mit Wettbewerbsprodukten beansprucht die xyz die kleinste Stellfläche bei gleichzeitig höchstem Mehrwert.

Neben der Verschlüsselung von ruhenden Daten (Data-at-rest) in der xyz, hat “Anbieter” sowohl die Produktfamilie der xyz-Serie als auch die “Produkt” Tape Libraries mit zusätzlichen Security-Erweiterungen ausgestattet. Diese zahlreichen Updates helfen die Datensicherungseffizienz in Unternehmen zu erhöhen und gleichzeitig den immer anspruchsvolleren Service Level Agreements (SLAs) und Sicherheitsbedürfnissen gerecht zu werden.

Die Cloud macht Speichermedien überflüssig

Es gab Zeiten, in denen Unternehmen sich darüber Gedanken machen mussten, welche Speichertechnologie sie einsetzen sollten, um Daten über einen langen Zeitraum sicher zu archivieren. Es ist sehr leicht zu argumentieren, “Schieb einfach alles in die Cloud, da läuft’s schon.”. So ist das natürlich nicht. Aber Cloud Anbieter können hier definitiv helfen, indem sie die darunter liegenden Speichertechnologien bei Bedarf austauschen, ohne dass der Kunde etwas davon mitbekommt. Vor allem die Anbieter der “Alten Welt” sollten sich darüber Gedanken machen, wie sie ihren Kunden diese on-Premise Sorgen nehmen können und sich den Ideen aus der “Neuen Welt” annehmen.

Ich kenne bspw. ein Unternehmen, dass einen Mitarbeiter, der eigentlich schon in Rente sein sollte, beschäftigt, da er der Einzige ist, der das Wissen über eine spezielle Magnetband Technologie besitzt. Dies ist dem Umstand der Aufbewahrungsfristen geschuldet. Erst wenn die Frist abgelaufen ist, darf dieser Mitarbeiter in seinen Wohl verdienten Ruhestand gehen.


Quelle: http://www.thecloudinfographic.com

Categories
Analysen

Profitbricks: "Live Vertical Scaling" und die Krux mit der Parallelität

Ich hatte über Profitbricks, direkt nach deren Go-Live im Mai, geschrieben. Dabei ist das Unternehmen nicht unbedingt gut bei weggekommen. Denn ein “Infrastructure-as-a-Service (IaaS) der nächsten Generation” konnte ich da noch nicht erkennen. Eine grafische Bedienoberfläche, freie Vernetzungsstrukturen durch echte Isolation des Kundennetzwerks im virtuellen Rechenzentrum, vermaschte redundante Vernetzung mit Infiniband, maßgeschneiderte Server und ein hochredundanter Storage, zeugen unter dem besagten Titel von mehr Marketingexpertise als großer Innovation. Ich habe mir das Angebot einmal genauer angeschaut und bin positiv überrascht. Insbesondere die Funktion “Live Vertical Scaling” überzeugt. Allerdings steckt der Teufel im Detail.

Scale Up vs. Scale Out

Skalierbarkeit bedeutet, dass die Leistung eines Systems durch das Hinzufügen weiterer Ressourcen wie ganzer Rechnersysteme oder granularer Einheiten wie CPU und Arbeitsspeicher erhöht wird. Das System kann dann mit zunehmender beanspruchter Leistung linear mitwachsen. So lassen sich z.B. plötzliche Lastspitzen begegnen unter denen das System nicht zusammenbricht. Unterschieden wird dabei zwischen dem Scale Up und dem Scale Out.

Scale Up

Während eines Scale Up, auch vertikale Skalierung genannt, wird die Leistung des Systems gesteigert, indem weitere granulare Ressource zu einem Rechnersystem hinzugefügt werden. Dabei kann es sich um Speicherplatz, CPUs oder Arbeitsspeicher handeln. Man kann auch sagen, ein einzelner Rechner wird mit weiteren bzw. Leistungsstärkeren Komponenten aufgerüstet.

Scale Out

Ein Scale Out, horizontale Skalierung, steigert die Leistung eines Systems, indem weitere vollständige Rechner zu dem Gesamtsystem hinzugefügt werden. Man kann sich das Szenario auch so vorstellen, dass man sich einen Cluster von Rechnern aufbaut, über den skaliert wird, indem der Cluster immer um die benötigte Anzahl an Rechnern erweitert wird.

Live Vertical Scaling

Ich weise immer darauf hin, dass Anwendungen für die Eigenschaften einer Cloud entwickelt werden müssen. Also mit der Infrastruktur parallel mitwachsen müssen, wenn sich die Last verändert und weitere virtuelle Ressourcen automatisch hinzugefügt werden müssen.

Profitbricks hat nun das “Live Vertical Scaling” vorgestellt und geht anders als bspw. die Amazon Web Services (AWS), Rackspace oder Windows Azure den Weg der vertikalen Skalierung. Die anderen drei genannten Anbieter setzen hingegen auf die horizontale Skalierung. Profitbricks beschreibt seine Lösung wie folgt:

Das Besondere dabei: Das System, beispielsweise ein Server, kann auf diese Art quasi unabhängig von der verwendeten Software und ohne deren Modifikation beschleunigt werden. Ideal ist dies beispielsweise für LAMP (Linux, Apache, MySQL, PHP)-Systeme, da MySQL ohne Anpassung die neuen Ressourcen erkennt und ohne Neustart vom Mehr profitiert.

Grundsätzlich hat Profitbricks recht. Nicht jede Software ist so implementiert, insbesondere die Legacy Anwendungen, dass sie skalierbar sind. Das hängt damit zusammen, dass diese Anwendungen nicht für den parallelen Betrieb auf mehreren Systemen entwickelt wurden. Für eine vertikale Skalierung ist, bis zu einem gewissen Grad, keine parallele Entwicklung notwendig, d.h. im Prinzip muss der Programmcode in diesem Fall nicht mehr angefasst werden, um die Leistung zu erhöhen.

Die Probleme stecken im Detail

Aber, der Teufel steckt im Detail.

Parallelität der Softwarearchitektur

Eine Anwendung muss mehrere Cores unterstützen, um die Leistungsfähigkeit des Rechners auszunutzen. Diese Problematik viel auf, als Intel seine Core 2 Duo Prozessoren auf den Markt brachte. Die Rechner verfügten zwar über zwei CPU-Kerne, die alten Anwendungen unterstützen aber nur einen. Der Vorteil eines zweiten CPU-Kerns war somit dahin. Das bedeutet, dass eine Anwendung auch auf die vertikale Skalierung vorbereitet werden muss. Was nützt es, wenn der Server bis zu 48 CPU-Kerne unterstützt, die Anwendung aber lediglich einen einzigen nutzen kann.

Die Software muss also, trotz vertikaler Skalierung, parallelisiert werden. Denn die Leistungssteigerung hängt effektiv mit dem Parallelisierungsgrad der Anwendung und dem Betriebssystem zusammen. Das Betriebssystem sorgt für das Verteilen der Prozesse und Anwendungen auf die jeweiligen Kerne. Die Anwendung muss für den Betrieb auf mehreren Prozessen zudem so parallelisiert werden, dass einzelne Threads dabei gleichzeitig auf mehreren Prozessoren laufen.

Profitbricks schreibt: “Bei anderen IaaS-Anbietern muss der Nutzer seine Server erst herunter fahren, dann die neuen Ressourcen buchen und die Systeme anschließend neustarten. Selbst im besten Fall kommt es hierbei zu einem Ausfall der Server von einigen Minuten, so dass derartige Modifikationen ohne Live Vertical Scaling nur in den Nachtstunden machbar sind.

Das ist falsch. Bei AWS, Rackspace als auch Windows Azure lassen sich die Systeme per API/ Skripte steuern. Es können also weitere Ressourcen per Scale Out ohne Unterbrechungen hinzugefügt werden. Soll eine virtuelle Ressource ausgetauscht werden, lassen sich zunächst automatisch neue Ressourcen hinzufügen und anschließend die nicht mehr gewollten herunterfahren. Und das alles ohne Ausfallzeit.

Profitbricks nennt hier als Beispiel definitiv keine IaaS Cloud-Anbieter. Denn das geschilderte Szenario darf im Cloud Computing so überhaupt nicht auftreten!

Was ist mit Design for Failure?

Profibricks schreibt zwar, “Stehen auf dem physischen Server, auf dem eine bestimmte Kunden-VM läuft, nicht genügend Ressourcen bereit, um den per DCD gewünschten Wert zu erfüllen, verschiebt der von ProfitBricks verwendete Hypervisor die virtuelle Maschine automatisch auf einen anderen Server. Dies passiert, ohne die jeweils in der VM laufenden Anwendungen negativ zu beeinflussen.

Aber wie verhält es sich, wenn der darunterliegende physikalische Host oder die virtuelle Maschine, auf der sich die Anwendung befindet ausfällt? Da sich die Anwendung lediglich auf einem einzigen System befindet und nicht über mehrere Systeme verteilt läuft, wäre ein Ausfall die Folge.

Interessante Lösung, aber…

“Live Vertical Scaling” ist auf jedenfall eine interessante Lösung. Profitbricks versucht Infrastructure-as-a-Service (IaaS) für Anwender benutzerfreundlicher zu machen, womit sie auf dem richtigen Weg sind. Denn für die meisten IaaS-Angebote sind noch zu viele Expertenkenntnisse notwendig und manuelle Arbeit erforderlich. Einfache Automatisierung und Convenience sind die Schlagworte. Aber wie ich beschrieben habe, steckt der Teufel im Detail. Man sollte sich also zunächst über seine eigenen Bedürfnisse und die der Anwendung im Klaren sein, bevor man sich für die vertikale Skalierung entscheidet.


Bildquelle: http://krishnasblog.com

Categories
News

Big Data Nutzer in Unternehmen sind vorwiegend Anwendungsentwickler

Big Data Lösungsanbieter Jaspersoft hat die Ergebnisse einer kürzlich durchgeführten Umfrage zum frühen Einsatz von Hadoop in Unternehmen veröffentlicht. Über 600 Mitglieder der Jaspersoft-Community hatten an der Big Data-Umfrage teilgenommen. Unter den Teilnehmern, die Hadoop für Big Data im Unternehmen verwenden, haben 59 Prozent bereits eine Hadoop-basierte Big Data-Lösung im Einsatz bzw. implementieren sie gerade, während 77 Prozent der Hadoop-Anwender die Big Data-Lösungen innerhalb der nächsten sechs Monate bereitstellen werden.

Ergebnisse der Umfrage

  • 63 Prozent der Hadoop-Benutzer in Unternehmen sind Anwendungsentwickler, 15 Prozent BI-Berichtsentwickler und 10 Prozent BI-Administratoren oder Gelegenheitsnutzer.
  • Nur 37 Prozent der Hadoop-Benutzer arbeiten in der Software- oder Internet-Branche. Hadoop wird in den unterschiedlichsten Branchen eingesetzt, von der Finanzbranche bis zum Bildungssektor.
  • 57 Prozent setzen Big Data mit Hadoop lokal ein, während 43 Prozent die Lösung in der Cloud bereitstellen.
  • Der beliebteste Big Data-Speicher war Hadoop HDFS (82 %), gefolgt von HBase (34 %), relationalen Datenbanken (31 %), MongoDB (30 %), Hive (25 %) und Cassandra (14 %).
  • 38 Prozent benötigen Analysen in Echtzeit bzw. nahezu Echtzeit für ihre Big Data-Anwendung mit Hadoop.
Categories
Analysen

Den Return on Investment (ROI) des Cloud Computing bestimmen

Unternehmen sind angehalten den Wert jeder Investition über den Return on Investment (ROI) zu bestimmen. Das ist bei neuen Technologien/ Konzepten wie dem Cloud Computing nicht trivial, da hier derzeit noch wenig bis keine Erfahrungswerte vorliegen. Startups sind davon eher unbefangen, da sie keine Vergleichswerte mit klassischen Systemen haben, etablierte Unternehmen sind jedoch darauf angewiesen.

Der Return on Investment

Der Begriff Return on Investment (deutsch Kapitalverzinsung, Kapitalrendite oder Anlagenrendite) bezeichnet ein Modell zur Messung der Rendite einer unternehmerischen Tätigkeit, gemessen am Gewinn im Verhältnis zum eingesetzten Kapital. Der ROI beschreibt als Oberbegriff für Renditekennzahlen sowohl die Eigenkapitalrendite als auch die Gesamtkapitalrendite.

Quelle: Wikipedia.de

Wie den ROI der Cloud bestimmen?

Es stellt sich als nicht ganz leicht heraus, einen ROI für etwas zu bestimmen, das man nicht gut einschätzen kann oder gar kennt und vor allem kein reales Zahlenmaterial vorliegen hat. Daher muss man sich Bereiche suchen, die zwar keine harten Zahlen wiederspiegeln, aber dennoch den Wert und Nutzen des Cloud Computing zeigen. Dabei handelt es sich um Kosteneinsparungen, Prozessoptimierung, die Verbesserung der Agilität und den praktischen Gewinn durch die Nutzung des Cloud Computing.

Kosteneinsparungen

Nachdem man sich einen Überblick über seine bisher eingesetzten Anwendungen gemacht und diese in Klassen geordnet hat, ist es an der Zeit, potentielle Kandidaten herauszufiltern, bei denen ein Wechsel in die Cloud die Kosten senken können. Ein möglicher Kandidat ist das ERP System, was in eine Cloud Umgebung migriert werden könnte. Anhand der Konsolidierung und Virtualisierung können somit die Anzahl der tatsächlich benötigten Server und gleichzeitig die dafür notwendigen Racks reduziert werden.

Ebenso verhält es sich für Unternehmen, die über eine F&E Abteilung verfügen und die Hardwareinfrastruktur ihrer Labor verkleinern wollen. Einsparungen finden sich hier primär in den Bereichen Entwicklung und Instandhaltung der eingesetzten Applikationen und Hardwarelandschaften. Aber auch der geringere Aufwand für die Installation von Software reduziert die Kosten durch die Nutzung von Cloud-basierten Applikationen und verringert das notwendige Budget. Ein weiterer Vorteil: Die Cloud- basierten Lösungen können auf jedem Arbeitsplatzrechner über einen Webbrowser bereitgestellt werden.

Unternehmen die weiterhin on-Premise ihre Infrastruktur hosten werden zudem relativ schnell bemerken, dass eine eigene Infrastruktur in-House zu betreiben, große Investitionen in eigene Hard- und Software bedeutet. Hosting in der Cloud bedeutet, die fixen Kosten zu variablen Kosten zu transformieren, da auf Grund des Pay as you go Modells nur die Ressourcen berechnet werden, die tatsächlich genutzt werden.

Auf Grund kleiner Hürden und geringem technischen Wissen können selbst nicht IT-Mitarbeiter Cloud Computing einsetzen, um Infrastrukturen und Applikationen für das Unternehmen einzukaufen. Das führt zu Einsparungen bei Arbeits-und Know-How Kosten sowie Installations- und Instandhaltungskosten, vgl. Total Cost of Ownership.

Prozessoptimierung und Agilität

Mit Cloud Applikationen lassen sich zudem Unternehmensprozesse optimieren, indem sich, auf Grund des on-Demand Modells, verstärkt auf die Weiterentwicklung der Kenntnisse und Lösungen konzentrieren lässt. Unternehmen sind somit agiler und können schneller auf Marktveränderungen reagieren und neue Möglichkeiten identifzieren um zu wachsen.

Wenn ein Unternehmen wächst oder sich verändert, werden dafür schnell mehr Ressourcen und entsprechend Betriebsmittel benötigt. Das kann von ein paar Wochen bis zu Monaten dauern. Das beinhaltet ebenfalls das Schulen des Personals. All das bedeutet für ein Unternehmen Stillstand. Cloud Computing ermöglicht die schnelle Provisionierung der benötigten Ressourcen und stellt damit die Skalierung sicher.

Kosten sagen nicht immer viel aus

Der erfolgreiche Einsatz von Cloud Computing lässt sich nicht immer in Zahlen ausdrücken. Daher lässt sich der ROI des Cloud Computing am besten aus dem Nutzen bestimmen. Administratoren und CIOs sollten dazu auf die offensichtlich Werte achten, die beim Einsatz entstehen. Sie sollten sich z.B. fragen, was sie von der Nutzung eines bestimmten Service erwarten können. Auf dieser Basis lassen sich weitere, auf den Nutzen bezogene, Fragen entwickeln, die sich nicht auf das Finanzielle konzentrieren. So können bspw. Metriken entwickelt werden, die sich auf den sichtbaren Nutzen eines Cloud Service beziehen, den dieser in der Lage ist zu liefern. Metriken könnten sein:

  • Wie schaut es mit dem Support und weiteren Services aus, die durch den Anbieter bereitgestellt werden?
  • Können Einsparungen erzielt werden?
  • Wie kompliziert ist der Abrechnungsvorgang?
  • Wie ist die Benutzerfreundlichkeit des Service?
  • Ist die dynamische Nutzung durch den neuen Service gewährleistet?
  • Wie flexibel ist der neue Service in Bezug auf Veränderungen und wechselnder Anforderungen?
  • Wie schnell kann der neue Cloud Service adaptiert und bereitgestellt werden?
  • Wie sehen die Wartungs- und Upgradekosten sowie die Ausfallzeiten im Vergleich zum Cloud Service aus?
  • Wie ist der Einfluss auf das Unternehmen, wenn Services in Zukunft aus der Cloud bezogen werden?
  • Wie sehen die Risiken in Bezug auf die Unternehmensprozesse und gespeicherten Daten in der Cloud aus?
  • Konnte die Zufriedenheit meiner Mitarbeiter erhöht werden?
  • Hat sich die Agilität und Flexibilität verbessert?

Der ROI ist wichtig, aber…

Der Return on Investment ist eine wichtige Kennzahl in einem Unternemen, allerdings sollte und darf die finanzielle Seite nicht die einzige Grundlage des ROI sein. Insbesondere beim Cloud Computing spiegelt sich der Wert und Nutzen der Services nicht immer im monetären Bereich wieder. Und auch wenn die Metrik manchmal nicht ganz greifbar ist, sollte der Wert, den ein Cloud Service für ein Unternehmen liefert, dennoch nicht vernachlässigt und stattdessen sorgfältig betrachtet werden.


Bildquelle: http://us.intacct.com

Categories
Analysen

Cloud Marketplaces sind die Zukunft des Cloud Computing

In den letzten Monaten sind vermehrt Cloud Marketplaces erschienen. Dazu zählen u.a. der AWS Marketplace, der Chrome Web Store, der internet4YOU Cloud Marketplace oder der Business Marketplace der Deutschen Telekom. Hier können sich Unternehmen aber auch Endnutzer aus einem Katalog von Services ihr eigenes Produktivätsportfolio zusammenstellen und haben dadurch einen ausgewählten Überblick von möglichen potentiellen Kandidaten.

Marktplätze sorgen für Übersicht

Ein Cloud Marktplatz ist vor allem dadurch charakterisiert, dass er, wie bspw. ein klassischer Webshop, Produkte in Form von Anwendungen aber auch Infrastruktur kategorisiert. Gerade dann wenn sich ein neuer Trend etabliert, schiessen tagtäglich neue Lösungen aus dem Boden. Das macht es für Einkäufer, aber auch Endkunden zunehmend schwieriger, den Überblick über den Markt zu behalten.
Cloud Marktplätze räumen auf und fassen die unterschiedlichen Cloud Angebote thematisch zusammen. Sie bilden quasi ein unabhängiges Ökosystem von Cloud Services.

Die Spreu vom Weizen trennen

Wohlgemerkt gibt es auch viele “schlechte” Cloud Applikationen auf dem Markt, die keinen echten Mehrwert bieten oder schlicht weg einfach nicht gut durchdacht sind. Cloud Marktplätze helfen, potentielle Top-Applikationen von eher unbedeutenden Services zu trennen. Eine Entscheidungshilfe bieten hier bereits die Betreiber solcher Marktplätze selbst. So sagt die Deutsche Telekom, dass sie über ihren Marktplatz zwar eine Vielzahl von Drittanbieter Lösungen bereitstellen wollen, aber bewusst auf Klasse statt Masse setzen werden. Das birgt natürlich die Gefahr, das potenzielle gute Anwendungen es nicht in den Marktplatz schaffen werden, da diese durch das Raster der Telekom fallen werden. Auf der anderen Seite ist eine Vorauswahl natürlich notwendig, um die Qualität und damit das Ansehen des Marktplatz zu gewährleisten.
Hat es ein Angebot in den Marktplatz geschafft, steht dem Nutzer mit der “Crowd” ein weiteres Entscheidungskriterien zur Verfügung. Anhand eines Bewertungssystem wird die Qualität und Funktion der Anwendung von anderen Nutzern bewertet und kommentiert und gibt damit ein Stückweit mehr Adaptionshilfe.

Die Reichweite erhöhen

Cloud Marktplätze können vor allem jungen Unternehmen helfen, die über ein geringes Kapital für Werbung und PR verfügen, ihren Bekanntsheitsgrad und die Reichweite zu erhöhen. Aber auch für etablierte Unternehmen, die mit Cloud Angeboten starten, ergeben sich dadurch Chancen, sich einer breiten Masse zu präsentieren und sich vor dem bestehenden Mittbewerb transparent zu bewähren.

Cloud Marketplaces sind keine Cloud Broker

Eines sollten man jedoch beachten. Cloud Markplätze bieten in ihrer reinen Form nur Services und Applikationen an, ohne einen weiteren Mehrwert zu bieten. Anstatt sich bspw. über die Suchmaschine seiner Wahl nach möglichen Angeboten zu informieren und direkt auf die Webseiten der Anbieter zugehen, erfolgt der Zugriff über den Marktplatz. Nach einer ersten Anmeldung über den Marktplatz, kann anschließend auch der direkte Weg zum Anbieter genommen werden. Der Marktplatz dient dann nur noch als Verwaltungsinstrument für die Nutzer und das Hinzufügen oder Kündigen anderer Services.

Cloud Broker Services hingegen integrieren und erweitern mehrere Cloud Angebote und schaffen damit einen Mehrwert um die Cloud Servies herum.
Das Cloud Services Brokerage Modell bietet ein architektonisches-, business-, und IT-Betriebs-Modell, mit dem verschiedene Cloud Services bereitgestellt, verwaltet und adaptiert werden können. Und das sich innerhalb eines föderierten und konsistenten Bereitstellung-, Abrechnung-, Sicherheit-, Administration- und Support-Framework befindet. Unternehmen werden damit in die Lage versetzt, ihr Cloud-Services Management zu vereinheitlichen, um damit den Innovationsgrad zu erhöhen, die globale Zusammenarbeit zu verbessern, die Betriebskosten zu senken und insgesamt besser zu wachsen. Cloud Computing Anbieter erhalten damit die Möglichkeit die Bereitstellung ihrer Cloud Services zu vereinheitlichen und ihr eigenes Services Netzwerk zu differenzieren und damit eine umfangreiche Cloud Computing Plattform bereitzustellen. Technologie-Anbieter können damit ein Ökosystem von Mehrwertdiensten aufbauen, um ihre wichtigsten Angebote zu differenzieren, die Kundenbindung erhöhen und neue Vertriebswege erschließen.

Cloud Marketplaces sind ein logischer Trend

Cloud Marketplaces gehören zu der logischen Entwicklung des Cloud Computing, um Unternehmen und Entwickler den einfachen Zugriff auf IT-Ressourcen zu ermöglichen. Neben einer gut dokumentierten API gehören ebenfalls übersichtliche und umfangreiche Web-Oberflächen zu einem guten Cloud Angebot, die es dem Nutzer ermöglichen sich “auch mal eben” eine Cloud Infrastruktur “zusammenzuklicken”, um z.B. ein paar Tests durchzuführen. Bereits viele Anbieter sind auf diesen Zug aufgesprungen und ermöglichen über einen eigenen Cloud Marktplatz den Zugriff auf ihre IaaS-Ressourcen. Zudem reichern sie ihre Infrastruktur-Angebote über den Marktplatz mit Betriebssystem-Images oder weiteren Software-Lösungen an, um den virtuellen Ressourcen damit einen echten Nutzen zu geben.

Unternehmen können sich einen Cloud Marketplace vorstellen wie mehrere Regal in einen quasi unendlich großen Supermarkt. Und genau so sollten sie ihn auch nutzen, um sich ihre Infrastruktur beliebig zusammenzubauen. Spannend wird es, wenn wir einen Schritt weitergehen und die Ressourcen und Lösungen nicht mehr nur von einem einzigen Anbieter beziehen, sondern über mehrere Anbieter oder deren Marktplätze, wo wir uns dann beim Thema Cloud Brokerage Services – siehe oben – befinden.


Bildquelle: Wikipedia

Categories
News

Amazon baut Marktplatz für seine EC2 Reserved Instances

Amazon hat vorgestern seinen Reserved Instance Marketplace vorgestellt. Dabei handelt es sich um einen Marktplatz, auf dem AWS Kunden ihre EC2 Reserved Instances an andere Unternehmen verkaufen oder Instances anderer Kunden kaufen können.

Amazon baut Marktplatz für seine EC2 Reserved Instances

Flexibilisierung von Reserved Instances

Reserved Instances erlauben es AWS Kunden, sich für einen geringen einmaligen Betrag reservierte Rechenleistungen zu kaufen, die ihnen garantiert zur Verfügung stehen, wenn sie diese benötigen.

Mit dem Reserved Instances Marketplace ermöglicht es AWS seinen Kunden nun diese reservierten Instanzen wieder zu verkaufen, wenn z.B. die AWS Region gewechselt werden soll, sich der Instanztyp ändern muss oder Kapazitäten verkauft werden sollen bei denen noch Laufzeit besteht.

Darüber hinaus lassen sich über den Marktplatz nun auch Reserved Instances einkaufen, die nicht an die bekannten Laufzeiten von einem oder gar drei Jahren gebunden sind. Damit lassen sich auch Projekte mit einer garantierten Rechenleistung von bspw. sechs Monaten absichern.

Der Marktplatz und weitere Informationen befinden sich unter http://aws.amazon.com/de/ec2/reserved-instances/marketplace

Categories
Kommentar

Vernichtet Cloud Computing die Enterprise IT?

Cloud Computing gehört zu den disruptivsten Technologien und Konzepten der letzten 10 Jahre. Mit dem flexiblen Bezug von quasi unendlich verfügbaren Ressourcen lassen sich zwar nicht einfacher virtuelle Infrastrukturen aufbauen, aber agiler und kurzfristig. Auch der Zugriff auf – neue – Anwendungen und Daten, die durch die Cloud ortsunabhängig zur Verfügung stehen, hat einen erheblichen Einfluss auf uns, unsere Arbeitswelt und damit auch zwangsläufig auf die Enterprise IT. Durch das Cloud Computing getriebene Themen wie Bring your own device (BYOD) und Mobile Computing, aber auch die Consumerization of IT (CoIT) hinterlassen immer mehr Spuren in den IT-Umgebungen vieler Unternehmen. Es stellt sich somit die Frage, ob das Cloud Computing und seine oben genannten Gefährten dazu beitragen werden, dass die Enterprise IT, wie wir sie kennen nicht mehr lange existieren wird.

Mitarbeiter zeigen wo es lang geht

Die CoIT sorgt dafür, dass IT-Wissen kein rares Gut mehr ist. Vorbei sind die Zeiten, in denen IT-Abteilungen dem Großteil der restlichen Mitarbeiter gleich mehrere Schritte voraus sind. Das liegt unter anderem daran, das die Informationstechnologie in unserem alltäglichen Leben einen omnipräsenten Zustand eingenommen hat. Zudem hat sich die Bedienbarkeit in den letzten Jahren deutlich vereinfacht und die Angst vor dem unbekannten Computern, Smartphones usw. schwindet stetig. Vergessen sollte man auch nicht den demographischen Wandel. Der Nachwuchs wächst mit und in die neuen Technologien herein und hat es mit der IT daher viel einfacher als die vorherigen Generationen. Das Verhältnis von Mitarbeitern die sich mit IT auskennen und denjenigen die Schwierigkeiten damit haben, wird sich immer stärker verändern, bis wir an einem Punkt angelangt sind, wo es keine nicht IT-affinen Mitarbeiter mehr geben wird.

Ständig neue Technologien, die primär für den privaten Gebrauch gedacht sind, beeinflussen die Mitarbeiter darüber hinaus im großen Stil. In Kombination mit der CoIT und dem demographischen Wandel sehen somit immer mehr Nutzer neue Möglichkeiten, diese eher privaten Technologien in ihren Arbeitsalltag einzusetzen und sich damit das Leben zu vereinfachen und die eigene Produktivität zu steigern.

Ein weiteres Problem, das sich die Enterprise IT ausgesetzt sieht: Die IT-Abteilungen sind zu langsam und sitzen weiterhin auf ihrem Thron. Es gibt viele Mitarbeiter und Projekte die innerhalb des Unternehmens und für die Außenwirkung Ideen haben. Dafür benötigen sie allerdings Ressourcen und diese in Form von IT. Dabei kann es sich von einer trivialen Angelegenheit wie Zugriffsrechte, über neue Applikationen bis hin zu Servern oder vollständigen Infrastrukturen handeln. Für jedes genannte Thema ist mindestens ein Ticket bis hin zu zahlreichen Meetings erforderlich. Oder die Antwort lautet schlicht und einfach – Nein! Im Falle von Ja! kann die Bereitstellungszeit mehrere Wochen oder gar Monate benötigen. Für ein einfaches Testsystem steht das in keinem Verhältnis, fördert die Missgunst bei den Mitarbeitern und kann im schlimmsten Fall das ganze Projekt gefährden.

Die Cloud vereinfacht den Zugang

Mitarbeiter und Projekte suchen daher Auswege, um zum einen Diskussionen aus dem Weg zu gehen und zum anderen ihre Ziele im vorgegebenen Zeitfenster zu erreichen. Dem Kunden sind die internen Machtkämpfe relativ egal und er sollte davon besser auch nichts mitbekommen.

Möglich machen es ihnen Lösungen aus der Cloud. Seien es nun vollständige Applikationen (Software-as-a-Service, SaaS), Plattformen für die Entwicklung und den Betrieb eigener Anwendungen (Platform-as-a-Service, PaaS) oder ganze Infrastrukturen für umfangreiche IT-Landschaften (Infrastructure-as-a-Service, iaaS). In der Cloud ist für jeden etwas dabei, wenn auch nicht für jede Situation.

Und auch mobile Applikationen, die ihre Daten bevorzugt in der Cloud ablegen, oder Cloud Storage Services und moderne HTML 5 Applikationen ermöglichen den ortsunabhängigen Zugriff.

Cloud Computing unterstützt die Enterprise IT

Die Enterprise IT darf nicht die Augen vor dem Cloud Computing verschließen und muss diese disruptive Technologie als Unterstützer ihrer täglichen Arbeit sehen. Ähnlich verhält es sich mit BYOD. In beiden Fällen gilt: Augen zu und durch funktioniert nicht! Proaktiv handeln und den Mitarbeiten wieder einen Schritt voraus sein ist gefragt.

Wer sich nun fragt, wie Cloud Computing ein Unterstützer sein kann, hier vier Beispiele:

Irgendwann wird der CEO/ CIO in der Tür stehen und erwarten, dass die Datenmengen die täglich im Web, in den lokalen Systemen usw. gesammelt werden, im großen Stil analysiert und unmenschliche Verknüpfungen angestellt werden sollen, da ein Informationsvorsprung einen Wettbewerbsvorteil bedeutet. Stichwort: Big Data. Wie sollen also in kurzer Zeit die Unmengen an benötigten Systemen für die Verarbeitung (Rechenleistung) und Ablage (Speicherplatz) beschafft und konfiguriert werden? Und wie sollen diese aus dem IT-Budget des laufenden Jahres finanziert werden? Selbst die Entwicklung einer eigenen Big Data Applikation kostet bereits viel Zeit und Geld. Genau, Cloud Computing. Denn Cloud Infrastrukturen sind eine ideale Lösung für die Anforderungen von Big Data. Aber ebenfalls speziell darauf ausgerichtete PaaS Lösungen können bereits helfen, “nur” die Abfragen zu schreiben.

Das Big Data Beispiel lässt sich auf so ziemlich jeden Fall anwenden, wenn es darum geht, kurzfristig Anforderungen zu erfüllen, bei denen mehr als “nur ein paar” virtuelle Server benötigt werden. Denn eines sollte man nicht vergessen, für jede virtuelle Ressource werden auch physikalische Ressourcen benötigt.

Auch neue Anwendungen lassen sich via SaaS kurzfristig, kostengünstig bzw. kostenlos testen, ohne dafür eigene Hardware zu nutzen oder gar die dafür notwendige darunterliegende Software zu besitzen, installieren und konfigurieren.

IT-Abteilungen können Cloud Computing zudem nutzen, um die eigene Innovationsfähigkeit und damit den Innovationsgrad des Unternehmen selbst zu erhöhen, indem sie kurzfristig auf Cloud Technologien zurückgreifen, um neue Ideen zu testen oder zu entwickeln.

Eines sollte weiterhin angemerkt werden. Cloud Computing ist kein Job Killer. Änderungen im Job und Weiterbildungen sind ein normales Phänomen, die natürlich auch die Cloud mit sich bringt. Allerdings erledigen die Cloud Infrastrukturen nicht alles von alleine. Um bspw. ein IaaS Angebot zu nutzen, müssen weiterhin die virtuellen Server Stückweit konfiguriert werden und die virtuelle Infrastruktur und Applikationen so gestaltet werden, dass sie tatsächlich skalierbar und hochverfügbar arbeiten. IT-Abteilungen müssen in der Cloud “verteilt” denken und agieren.

Enterprise IT stirbt nicht aus

Die Enterprise IT wird nicht aussterben. Es sei denn, sie passt sich nicht den aktuellen und zukünftigen Begebenheiten und Trends an. Nicht die IT-Abteilungen werden die technologische Marschroute mehr vorgeben. Die Mitarbeiter werden zeigen und darauf aufmerksam machen, welche Technologien sie für ihre Produktivität benötigen. IT-Abteilungen sollten also verstehen, dass sie in einigen Fällen noch einen gewissen Vorsprung vor den Kollegen haben, dieser aber stetig schwindet. Umgehen können und sollten sie mit dieser Situation, indem sie

  • Auf Mitarbeiter eingehen.
  • Offen sein.
  • Innovationen von Mitarbeitern in das Unternehmen hineintragen lassen.
  • Verstehen dass es mittlerweile viele kleine CIOs/ CTOs gibt.
  • Crowdsourcing innerhalb des Unternehmens einsetzen, um Wünsche und Bedürfnisse zu erkennen.
  • Sich ebenfalls mit dem Markt für Consumer Produkte auseinandersetzen und Ideen für den Einsatz im Unternehmen ableiten.
  • Den Mitarbeitern wieder einen Schritt voraus sein.
  • Die Innovationsfähigkeit und den Innovationsgrad steigern.
Categories
Analysen

Windows Server 2012 – Microsoft vervollständigt sein Cloud Computing Portfolio

Microsoft hat mit dem Windows Server 2012 die neue Ära seines Serverbetriebssystems eingeläutet, mit dem sich das Unternehmen auf den Aufbau und den Betrieb von Cloud Infrastrukturen konzentrieren und sein Engagement im Bereich Cloud Computing unterstreichen will. Dabei fokussien sich die Redmonder insbesondere auf die Private Cloud, wollen im Bereich Public bzw. Hosted Cloud aber ebenfalls ein Wort mitreden.

Windows Server 2012 - Microsoft vervollständigt sein Cloud Computing Portfolio

Hintergrund: Windows Server 2012

Der Windows Server 2012 kommt mit vielen Neuigkeiten. Aus der Cloud Brille betrachtet, befinden sich die größten Innovationen im Bereich der Virtualisierung. Und hier im Speziellen mit dem neuen Hyper-V 3.0, der mit seiner neuen Funktion Hyper-V-Replica virtuelle Festplatte und vollständige Server asynchron zwischen mehreren Hyper-V-Hosts im Netzwerk manuell oder automatisiert repliziert und synchronisiert. Dabei wird die Replikation über das Dateisystem vorgenommen. Virtuelle Server lassen sich zudem im laufenden Betrieb zwischen unterschiedlichen Hyper-V-Hosts replizieren. Damit verspricht Microsoft den Betrieb von hochverfügbaren virtuellen Servern (Hochverfügbarkeitslösung) ohne den Einsatz eines Cluster.

Microsoft spricht Hybrid Cloud

Mit dem Windows Server 2012 rundet Microsoft sein Cloud Portfolio auf der on-Premise Seite (Private Cloud) ab. Nach Windows Azure (PaaS, IaaS), Office 365/ Office 2013, Dynamics CRM Online und weitere Angebote (SaaS), bildet der neue Windows Server die Basis der IT-Infrastruktur im unternehmenseigenen Rechenzentrum bzw. in dem des Service Provider.

Neben dem Private Cloud Szenario zielt Microsoft ebenfalls auf die Hybrid Cloud. Dazu beinhaltet der Windows Server 2012 neben neuen Storage- und Netzwerktechnologien, Virtualisierungs- und Automatisierungskomponenten ebenfalls Funktionen für die Integration mit Microsoft Windows Azure und dem System Center. Damit lässt sich die on-Premise Umgebung um Ressourcen aus der Microsoft Public Cloud erweitern und u.a. .NET Anwendungen sowohl innerhalb der Private als auch der Public Cloud skalierbar einsetzen.

Vorteil: Microsoft ist bereits an der Basis

Auch wenn Microsoft im Bereich Cloud im Vergleich zu den Playern Amazon Web Services oder Google ziemlich spät aus den Startlöchern gekommen ist, holen sie mit ihrem Cloud Portfolio kräftig auf. Speziell der neue Windows Server 2012 ermöglicht Microsoft direkt die Kunden zu erreichen, die Amazon und Google aus eigener Kraft nicht bekommen können und werden. Nämlich diejenigen die der Public Cloud eher kritisch gegenüber eingestellt sind bzw. die Kunden, die bereits auf Microsoft Produkte setzen.

Wo Amazon und Google sehr leicht die (Web)-Startups dieser Welt einfangen und Microsoft sich mit Azure schwer tut, hat Microsoft bereits den Fuß bei etablierten Unternehmen in der Tür, wo bekanntlich die höheren Umsätze generiert werden.

Daher kam auch Amazons strategische Kooperation mit Eucalyptus nicht überraschend, um auch auf der Private Cloud Seite zumindest eine AWS ähnliche Plattform für das Hybrid Cloud Szenario zu unterstützen. Wo Microsoft sich als Serviceanbieter als auch Softwareanbieter positioniert, sind Amazon als auch Google reine Serviceanbieter, die im Umfeld von on-Premise Software und die dafür notwendigen nachgelagerten Prozesse wenig Erfahrung haben.