Categories
Kommentar

Cloud Computing: Offen oder Geschlossen? Vendor Lock-in ist kein Argument!

Cloud Computing spaltet sich derzeit in zwei Lager. Die Liebhaber eines geschlossenen, proprietären Systems und die Befürworter einer offenen (Open-Source) Cloud. Interessanterweise stellen verstärkt die Open-Source Jünger, allen voran das OpenStack Projekt die größten Lautsprecher dar (Rackspace: Linux der Cloud). Sei es auch nur, um mehr Aufmerksamkeit von den derzeit erfolgreichen geschlossenen Systemen (Amazon Web Services (AWS), Microsoft Windows Azure) auf sich zu lenken. Eines vorweg, pauschal lässt sich nicht sagen, welcher Ansatz der “Bessere” ist. Es hängt immer von den eigenen Anforderungen und Möglichkeiten ab. Zudem sollte man schauen, wie geschlossen die proprietären Systeme wirklich sind. Man wird zum einen merken, dass viel mehr religiöse Ansichten dahinter stecken als man denkt und das die Argumentation Vendor Lock-in bei Open-Source Clouds nicht zwangsläufig zutrifft. Denn einen Vendor Lock-in hat man immer.

Geschlossene Cloud gleich Lock-in?

Hauptargumentation aus dem Open-Source Lager gegen proprietare Cloud Angebote ist das Risiko eines Lock-in. Um diesen zu umgehen, solle man stattdessen auf Angebote setzen, die auf Open-Source basieren, um sich über eine eigene Private Cloud die Freiheit zu verschaffen, also die Infrastruktur und Daten dann ggf. in die eigene Cloud zu transferieren.

Eines sollte man jedoch nicht vergessen, ohne Open-Source funktioniert derzeit so gut wie kein Cloud Angebot. So besteht die AWS Cloud aus wahrscheinlich der größten XEN (Hypervisor) Installation weltweit. Zudem wird argumentiert, dass mann sich bei AWS in einen Lock-in begibt. Bei der DynamoDB mag dies richtig sein. Aber für alle anderen Services gibt es Lösungen wie Eucalyptus, openQRM oder sogar OpenStack selbst, die entsprechende Schnittstellen bereitstellen. Und auch Microsoft ermöglicht es, zwischen Windows Azure und einer auf Microsoft basierenden Private Cloud mit dem Microsoft Server 2012 und dem System Center 2012 Daten usw. hin und her zu schieben. Man ist hier also auch nicht zwangsläufig auf die Public Cloud angewiesen.

Wo versteckt sich der Lock-in?

Ein Vendor Lockin besteht dann, wenn ein System, Angebot oder Lösung sehr stark abhängig macht.

Ein analoges Beispiel dafür ist Ikea. Das Design der Möbel ist so markant, dass es für einen Innenarchitekten Laien (wie mich) schwierig ist, es mit einem anderen Design zu kombinieren. Also geht man dazu über, weitere Möbel bei Ikea zukaufen. Zudem verfügt Ikea über eigene Maße und proprietäre Techniken z.B. bei den Waschbecken oder auch bei den Küchen, Schrauben und sonstigen Verbindungen.

Das Risiko des Lock-ins in der Cloud befindet sich hauptsächlich bei den Daten und Prozessen, wenn diese dort ebenfalls abgebildet werden. Denn in beiden Fällen befinden sich hier die geschäftskritischen Bereiche, die so beweglich wie möglich in der Cloud liegen sollten.

Die Ressourcen wie virtuelle Maschinen sind nicht, wie möglicherweise vermutet, von dem Lock-in betroffen. Hierzu existieren bereits diverse Import/ Export Tools z.B. von VMware für AWS oder speziell V2V (Virtual to Virtual) oder V2P (Virtual to Physical) Mechanismen von openQRM. Das bedeutet, das sich virtuelle Maschinen und deren Inhalte bequem hin und her schieben lassen.

Die Daten selbst sind in der Cloud in der Regel ebenfalls nicht von einem Lock-in betroffen. Die meisten Anbieter verfügen über entsprechende Schnittstellen, über die sich die Daten bewegen und transferieren lassen. Bei den Prozessen wird es schon schwieriger. Aber, wie viele Unternehmen haben in der Vergangenheit ihre Prozesse in die Hände von SAP Systemen gelegt und damit einen Lock-in verursacht?

Ein Lock-in ist nichts Schlechtes

Ein Lock-in, wenn er denn vorliegt, muss nicht immer etwas Schlechtes sein. Im Gegenteil, er führt zu Innovationen und verringert die Komplexität. Der Anbieter nimmt einem beim Design und der Auswahl Stückweit die Entscheidung ab und sorgt für eine stetige Weiterentwicklung und Verbesserung des Systems.

Zudem sollte man schauen, wer sich einen Lock-in nicht leisten kann. Kleine und mittelständische unternehmen, die ggf. über eine kleine oder keine IT-Abteilung verfügen, nehmen das gerne in Kauf, da sie sich die Implementation einer komplexen Umgebung nicht leisten können bzw. nicht über die Expertise verfügen. Analoges Beispiel, Ikea: Man bekommt relativ günstig gute Möbel und kann alles miteinander gut kombinieren.

Außerdem, schaut man sich Open-Source Projekte wie OpenStack an, wird deutlich, dass es nicht immer einfach ist, alle Interessen unter einen Hut zu bekommen. Open-Source mag zwar offen sein. Auf Grund der vielen beteiligten Unternehmen können so manche Konflikte den Innovationsgrad jedoch verringern. Aus diesem Grund kann ein Vorteil darin bestehen, wenn nur ein Unternehmen an der Spitze des Projekts/ Angebots steht und die Koordination übernimmt. Auch wenn mehrere Teilnehmer mehr Input und Expertise liefern. Hier haben auch geschlossene Anbieter einen Vorteil, da sie alleine verantwortlich sind, und damit schneller handeln. Das kann im Umkehrschluss bedeuten, dass der Lock-in von OpenStack in den potentiellen Konflikten und dem daraus folgenden langsamen Innovationsgrad besteht.

APIs sind entscheidend

Wichtig für jedes Cloud Computing Angebot sind die APIs. Auf diese muss sowohl von Innen als auch von Außen zugegriffen werden können, um auf dieser Basis die Daten in aus der Cloud zu transferieren.

Vorteile vs. Nachteile von Open-Source

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den “richtigen” Weg zu entscheiden.

Fazit

Verantwortliche die sich für eine Cloud Infrastruktur entscheiden, wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über eine Open-Source oder proprietären Cloud Infrastruktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine Open-Source Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und eine proprietäre Cloud besser für den eigenen Innovationsgrad ist oder auch andere Möglichkeiten evaluiert werden müssen.

Categories
News

Entwarnung: Windows Azure Compute rollt wieder rund

Kurz nachdem ich den Post zu Windows Azure Compute Problemen in den Regionen “South Central US” und “West Europe” veröffentlicht hatte, zeigte das Azure Statusboard wieder alle Status ohne Probleme an (Häckchen ganz links).

Windows Azure Compute rollt wieder rund

Categories
News

Windows Azure Compute in "South Central US" und "West Europe" mit Problemen

Zwar ist davon bisher nichts auf Twitter oder sonstigen Medien zu lesen, aber Windows Azure Compute zeigt aktuell Auffälligkeiten bei der Verfügbarkeit in “South Central US” und “West Europe”. Zudem weiß ich aus einer sehr sicheren Quelle das mindestens ein Unternehmen, dass seinen Service auf Azure Compute betreibt, Probleme hat. Die Webseiten sind nicht erreichbar. Es verwundert hier allerdings ein wenig, dass das Unternehmen hierzu keine Statusmeldung im Social Web geschrieben hat.

Windows Azure Compute in

Das Statusboard berichtet bereits seit dem “20-Nov-12, 9:00 PM UTC” von Problemen mit der Verfügbarkeit von Windows Azure Compute in den Regionen “South Central US” und “West Europe”. Im Detail schreibt Microsoft über das “Partial impact to Service management” für beide Regionen:

20-Nov-12, 9:00 PM UTC

We are experiencing an issue with Compute Service Management in West US, South Central US, North Europe and West Europe sub-regions. We are actively investigating this issue and working to resolve it as soon as possible. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

20-Nov-12, 10:00 PM UTC

We are gathering all the data required to identify the root cause and resolve the issue as soon as possible. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

20-Nov-12, 11:00 PM UTC

Service Management is still partially impacted for existing and new hosted service deployments in West US, South Central US, North Europe and West Europe sub-regions. Customers may experience failures with Create, Delete and Update operations. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

21-Nov-12, 12:00 AM UTC

The incident has been mitigated for new hosted service deployments in the sub-regions. Customers with hosted services already deployed in these sub-regions may still experience service management failures or timeouts. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

21-Nov-12, 1:00 AM UTC

We identified the root cause and are executing the repair steps. The steps will be executed on multiple nodes of the impacted clusters and this will take several hours. Further updates will be published after the recovery is complete. We apologize for any inconvenience this causes our customers.

Categories
News

Use Case: Cloud Computing hilft Entertainment

Welche Einflüsse haben neue technologische Innovationen wie die Cloud auf die Kreativ-Industrie, welches Potenzial entsteht durch neue Arbeitstechniken und wie verändert sich mit der Microsoft Cloud die tägliche Arbeit in Medien und Produktionsfirmen? Antworten gab das diesjährige Forum D’Avignon, eines der wichtigsten Wirtschafts- und Kulturforen in Europa, das vom 15. bis 17. November in Avignon, Frankreich, stattfand. Die Gäste konnten sich hier über die Innovation des ScreenerOne von Bertelsmann arvato informieren. Das auf der Microsoft Cloud basierende Content Collaboration System ermöglicht es den GrundyUFA Produktionsteams von „Gute Zeiten, schlechte Zeiten“, „Verbotene Liebe“, „Alles was zählt“ und „Unter Uns“ sämtliche Inhalte orts- und zeitunabhängig zu verwalten und abzustimmen.

GrundyUFA setzt auf ScreenerONE

Seit 2011 vertraut GrundyUFA, Marktführer im Segment lang laufender Serien, bei ihren Produktionen auf das Cloud-basierte Content Collaboration System ScreenerONE. Eine Applikation, die die Bertelsmann-Tochter arvato gemeinsam mit GrundyUFA und Microsoft Partnern entwickelt hat. Auf Basis der Microsoft Cloud Windows Azure kam der ScreenerONE zunächst bei der Produktion des Daily Dramas „Verbotene Liebe“ zum Einsatz. Die erfolgreiche Evaluierungsphase einhergehend mit den positiven Veränderung im täglichen Workflow der GrundyUFA Kreativteams führten nun zu der Erweiterung der Collaboration-Plattform zu einer unternehmensweiten Lösung. Seitdem kommt der ScreenerONE auch bei den Produktionen „Gute Zeiten, schlechte Zeiten“, „Alles was zählt“ und „Unter Uns“ zum Einsatz, die täglich für ein Millionenpublikum produziert werden.

ScreenerONE – Im Praxiseinsatz bewährt

Zeit ist kostbar, vor allem bei der Produktion von Daily-Dramas. Daher konzentrierte sich die Zielsetzung von GrundyUFA in der Evaluierungsphase der Lösung auf die erfolgreiche Umsetzung ihres „24h Konzepts“: Innerhalb von 24 Stunden nach Dreh müssen alle inhaltlichen Abstimmungen erfolgt sein, unabhängig wo gedreht wird und wo die Ansprechpartner sitzen. Was wiederum die Sicherstellung einer effektiven Zusammenarbeit über verschiedene Kanäle und Devices einschließt. Als Collaboration-Plattform erlaubt der ScreenerOne dem Produktionsteam sämtliche Inhalte, von Video-Sequenzen und Storyboards, über Tonaufnahmen und Scripts bis hin zu Pressefotos einer jeden Folge zu verwalten, Metadaten einzusehen und Anmerkungen einzufügen.
Räumliche Distanzen spielen dabei für die Produktionen keine Rolle mehr. Gedrehtes Material – unabhängig ob Daily Drama oder Online Serien – wird in Echtzeitkommunikation von überall, zu jedem Zeitpunkt und Device-unabhängig, ob PC, Notebook, Smartphone oder Tablet, bewertet und abgestimmt. Die Arbeitsweise entfernt sich auf diese Weise von hierarchischen Prozessen und organisiert sich fortan collaborativ, drehfreie Zeiten werden reduziert und ein produktives Arbeiten ermöglicht.

Green Producing in der Windows Cloud

Indem der GrundyUFA Workflow in der Microsoft Cloud vollkommen datenträgerfrei ist, führt er neben der Reduktion von Kosten zu wichtigen Einsparpotenzialen für die Umwelt. So verringerte sich beispielsweise beim Mallorca-Dreh der „Verbotene Liebe“ der Transportaufwand für Film- und Datenmaterial auf der Insel und von der Balearen-Insel nach Deutschland deutlich. Dabei gelten für die Film- und Medienbranche besondere Anforderungen an die Lösungen und die Cloud-Plattform, auf der die Lösung betrieben wird. Hierzu zählt auch die Unterstützung verschiedener Dateiformate, sodass die vor Ort erstellten Clips Device-übergreifend fehlerfrei abspielbar sind. Daneben gewährt die Windows Azure Technologie eine hohe Skalierbarkeit und Verfügbarkeit, sodass GrundyUFA ihren Workflow jederzeit ihren echten Anforderungen anpassen kann. Mit sicheren Rechenzentren und einer speziellen Microsoft Play Ready Technologie sorgt Microsoft zudem für den Schutz der Medieninhalte vor illegalen Raubkopien und schützt somit das geistige Eigentum der Produktionsfirma.

Categories
Analysen

Wer als IaaS-Anbieter zu Amazon konkurrenzfähig sein will muss mehr als nur Infrastruktur im Portfolio haben

Immer mehr Anbieter versuchen ihr Glück im Bereich Infrastructure-as-a-Service (IaaS) und wollen dem Platzhirsch Amazon Web Services (AWS) ein Stück vom Kuchen abnehmen. GigaOm hat bereits die Frage gestellt, ob es eine AWS Kopie aus Europa geben wird, die ähnlich wie Amazon in den USA den europäischen Markt dominieren wird. Sie kamen zu einem klaren Nein. Ich bin ebenfalls der Meinung, dass es in naher Zukunft keine nennenswerte Konkurrenz aus Europa geben wird. Ich gehe sogar einen Schritt weiter und gehe davon aus, dass es weltweit derzeit keinen Anbieter gibt und erst einmal geben wird, der – Stand heute – Amazon das Wasser reichen kann. Denn anders als es GigaOm macht, muss man den Cloud Markt global betrachten. Es gibt auf Grund der Strukturen grundsätzlich keine regional begrenzte Cloud. Jeder Nutzer kann sich weltweit bedienen. Es sei denn ein Anbieter entscheidet sich strikt dagegen. Das gibt es sogar – in Deutschland. Ich möchte Amazon an dieser Stelle keinen Freifahrtsschein ausstellen, aber für den Mitbewerb wird es sehr schwierig im IaaS Bereich diesen Marktanteil zu erreichen.

Der Markt ist groß genug aber…

Der IaaS Markt ist groß genug und bietet genug Platz für mehrere Infrastruktur-Anbieter. Jedoch sollte man sich vor Augen halten, wer sich derzeit für die Public Cloud und wer für die Private Cloud entscheidet. Danach lohnt sich ein Blick auf die Angebote der jeweiligen IaaS Anbieter, um die Spreu vom Weizen zu trennen. Dann wird auch klar, warum Amazon die Nase vorn hat und es für Neulinge schwer werden wird, wenn sie sich einfach nur auf reine Infrastruktur konzentrieren. So mancher Anbieter versucht gegen Amazon zum Beispiel mit einer höheren (Netzwerk)-Performance anzutreten. Das ist sicherlich ein netter Versuch, aber kein ausschlaggebendes Argument.

Public Cloud: Entwickler & Startups

Die Public Cloud wird bevorzugt von Entwicklern und Startups genutzt, die auf Basis des unkomplizierten Ressourcenbezugs und dem pay per use Modell ihre Geschäftsmodelle aufbauen. Mein Lieblingsbeispiel ist Pinterest, die nach eigener Aussage ohne Cloud Computing nicht so erfolgreich sein könnten. Das lag zum einem an der Möglichkeit stetig zu wachsen und die Ressourcen den Bedürfnissen nach zu erweitern ohne das Kapital für eine eigene riesige Serverfarm zu besitzen. Auf der anderen Seite hat die Cloud es Pinterest ermöglicht, effizient zu arbeiten und kostengünstig zu experimentieren. Zudem konnte die Webseite sehr schnell wachsen, während sich nur ein sehr kleines Team um die Wartung kümmern musste. Im Dezember beschäftigte Pinterest insgesamt nur 12 Mitarbeiter.

Private Cloud: Unternehmen

Viele etablierte Unternehmen stellen das Thema Datenschutz respektive Sicherheit über die hohen Investitionskosten und Wartungskosten einer Private Cloud. Hinzu kommt, dass ich in Gesprächen immer wieder höre, dass “eh bereits Investitionen in Hard-/ Software getätigt wurden” und das nun noch ausgenutzt werden muss. Laut einer Gartner Umfrage planen 75% der Befragten bis 2014 eine Strategie in diesem Bereich. Bereits viele unterschiedliche Unternehmen haben Private Cloud Lösungen in Pilot-Projekten und im produktiven Betrieb im Einsatz. Dabei ist das Hauptziel, für sich den größten Nutzen aus der Virtualisierung zu ziehen.

Infrastruktur bedeutet mehr als nur Infrastruktur

Den Fehler den – vor allem – neue IaaS Anbieter machen ist, sich nur auf reine Infrastruktur zu konzentrieren. Das bedeutet, sie bieten nur die typischen Ressourcen wie Rechenleistung, Speicherplatz, Betriebssystem-Images, weitere Software und Lösungen wie Datenbanken an. Das mag vom IaaS Grundgedanken her auch alles richtig sein, reicht aber mittlerweile nicht mehr aus, um gegen Amazon zu bestehen.

Services, Services, Services

Schaut man sich das Angebot der Amazon Web Services genauer an, besteht es mittlerweile aus viel mehr als nur virtuellen Ressourcen, Rechenleistung und Speicherplatz. Es handelt sich dabei um ein umfangreiches Service-Portfolio, welches stetig und mit einem riesen Tempo ausgebaut wird. Alle Services sind ineinander vollständig integriert und bilden ein eigenes Ökosystem, mit dem ein eigenes Rechenzentrum aufgebaut und komplexe Anwendungen entwickelt und gehostet werden können.

Entwickler sind Amazons Jünger

Auf Grund dieses in sich stimmigen Angebots ist Amazon eine beliebte Anlaufstelle für Entwickler und Startups, die hier viele Möglichkeiten finden, ihre eigenen Ideen umzusetzen. Ich habe über diese Situation schon kritisch geschrieben und bleibe dabei, dass Amazon sich ebenfalls verstärkt auf die Bedürfnisse von Unternehmen konzentrierten sollte. Dennoch sind Entwickler derzeit Amazons Trumpf, welche den Cloud Anbieter zum führenden IaaS weltweit machen.

Komfort

Was AWS derzeit fehlt ist der Komfort. Hier setzen neue Anbieter an und bündeln mit “Infrastructure-as-a-Platform” Lösungen verschiedene IaaS Ressourcen wie Rechenleistung, Speicherplatz, Netzwerkkomponenten usw. und ermöglichen Unternehmen damit den Aufbau eines eigenen Rechenzentrum on-Demand, also ein “Data-Centre-as-a-Service” (DCaaS). In diesem Bereich muss Amazon damit beginnen aufzuholen und ihren bestehenden und neuen Kunden mehr Convenience bieten, mit der diese die Infrastrukturen bequemer nutzen können und während der Konfiguration zudem weniger Zeit und Expertenwissen benötigen. Denn insbesondere IT-Abteilungen von kleinen- und mittelständischen Unternehmen werden in Zukunft auf diesen Komfort achten.

Schwer aber nicht unmöglich

Amazon gehört zu den Cloud Anbietern der ersten Generation und es gibt Bereiche in denen sie aufholen müssen. Aber das Konzept ist sehr ausgefeilt. Unter der Haube sind sie möglicherweise technologisch nicht mehr auf dem neuesten Stand. Aber die Frage ist, wie sehr es einen Kunden interessiert, ob nun Technologie A oder Technologie B in der “Blackbox” eingesetzt wird, solange die Services zur Verfügung stehen, mit denen das verfolgte Ziel realisiert werden kann. Zudem lassen sich bestimmte Technologien auf Grund der losen Kopplung der Infrastruktur und der Services (Building Blocks) austauschen.

Wie ich oben geschrieben habe, ist der Markt groß genug und nicht alle Unternehmen werden zu Amazon gehen. Ich möchte nur darauf aufmerksam machen, dass es mittlerweile nicht mehr reicht, sich nur auf die grundlegenden IaaS-Eigenschaften zu konzentrieren, wenn man ein IaaS-Angebot gegen Amazon in den Ring schickt. Ich hatte vor längerer Zeit die Amazon Web Services der Google Cloud Platform (AWS vs. Google Cloud) bzw. Microsoft Windows Azure (AWS vs. Azure) gegenübergestellt. Beide sind für mich diejenigen Public IaaS Anbieter, die derzeit in der Lage sind, aufzuholen. Allerdings sieht man besonders an Googles Tabelle, dass an einigen Stellen noch so manche Service-Lücken bestehen.


Bildquelle: ©Stephanie Hofschlaeger / PIXELIO

Categories
News

Microsoft erklärt den Grund für den Ausfall von Windows Azure in der Region "West Europe"

Microsoft hat gestern weitere Informationen zu dem 2-stündigen Ausfall von Windows Azure in Europa in der letzten Woche bekanntgegeben. In einer ersten Stellungnahme am Tag nach dem Ausfall berichtete Microsoft von einer fehlerhaften Netzwerkkonfiguration, die zu den Problemen geführt haben soll.

Fehlkonfiguration und Nachrichtenflut

In einem weiteren Blogbeitrag erklärt Windows Azure General Manager Mike Neil, dass Microsoft weitere Rechenkapazitäten hinzufügen wollte, um die steigende Nachfrage in der Sub-Region “West Europa” zu befriedigen. Allerdings wurde das Limit der für die neuen Kapazitäten benötigten “Devices” nicht angepasst. Da die Last auf diesen Cluster plötzlich stark Anstieg, wurde der Grenzwert schnell überschritten, was zu einer großen Anzahl von Netzwerkmanagement-Nachrichten führte. Die erhöhten Managementdaten lösten wiederum Fehler in der Hardware des Clusters aus, wodurch die CPU-Auslastung auf 100% anstieg.

Cloud Computing ist eine Frage des Vertrauens und der Transparenz

Mit dem Stand heute haben wir für das Jahr 2012 zwei Spitzenreiter bei den Public Cloud Ausfällen. Platz eins teilen sich Amazon (3) und Salesforce (3), gefolgt von Microsoft (2). Das Ausfälle immer mal wieder vorkommen werden, daran sollte man sich höchstwahrscheinlich gewöhnen. Denn eine 100% Verfügbarkeit gibt es nun einmal nicht. Und jeder Anbieter, der eine 100% Verfügbarkeit verkauft, DER LÜGT! Warum? Ganz einfach, wie bei einigen Amazon Ausfällen, als auch dem letzten Microsoft Ausfall ist u.a. menschliches Versagen Schuld an dem Ausfall. Menschen machen Fehler.

Cloud Computing Anbieter müssen daher dafür sorgen, dass ihre Dienstleistungen und vor allem die Art wie sie arbeiten transparent ist. Das schließt die zeitnahe und umfangreiche Analyse aber vor allem die uneingeschränkte öffentliche Kommunikation während eines Ausfalls ein. Transparenz ist im Cloud Computing enorm wichtig für ein Unternehmen, dass seine Daten einem Anbieter anvertraut und bei dem die Daten vermeintlich auf dem selben physikalischen System gespeichert sind wie die eines Mitbewerbers. Denn Transparenz schafft Vertrauen!


Bildquelle: http://haymarket.net.au

Categories
News

Fehlerhafte Netzwerkkonfiguration war Schuld am Windows Azure Ausfall für die Region "West Europe"

Grund für den ca. 2,5-stündigen Ausfall von Microsoft Cloud Service Windows Azure Compute am vergangenen Donnerstag (26.07.12) war offenbar eine fehlerhafte Netzwerkkonfiguration. Das schreibt Windows Azure General Manager Mike Neil in einem Blogbeitrag.

Fehlerhafte Netzwerkkonfiguration war Schuld an Windows Azure Ausfall für die Region

Fehlerhaft konfiguriertes Netzwerk-Device

Wie Neil schreibt, war nur Azure Compute in der Region “West Europe” von dem Ausfall betroffen. Das Problem sei auf ein falsch konfiguriertes Netzwerk-Device zurückzuführen, was dafür gesorgt hat, dass der Datenverkehr nicht mehr zu einem zuständigen Cluster in dieser Region übertragen wurde. Als die Grenze für ausgehende Verbindungen erreicht wurde, führte dies zu weiteren Problemen in einem anderen Netzwerk-Device innerhalb dieses Clusters, was das Netzwerkmanagement und die Wiederherstellung erschwerte.

Microsoft will in der kommenden Woche weitere detaillierte Informationen zu dem Ausfall veröffentlichen.

Microsoft holt gegenüber Amazon auf – Salesforce spielt auch mit

Es handelt sich bereits um den zweiten schweren Ausfall von Windows Azure in den letzten Monaten. Erst am 29. Februar 2012 wurde die Microsoft Azure Cloud Opfer des diesjährigen Schaltjahres und war damit für 12 Stunden nicht erreichbar.

Ausfall-Könige bleiben in diesem Jahr jedoch (noch) die Amazon Web Services, die das negative Duell mit einem Vorsprung von einem Ausfall anführen. Zwischenstand 3 (AWS) zu 2 (Microsoft). Aber auch Salesforce spielt langsam in der Liga mit und bietet bereits zwei Ausfälle.

Categories
News

Microsoft Windows Azure Compute in der Region "West Europe" ausgefallen

Microsoft kämpft laut dem offiziellen Statusboard aktuell mit einem Ausfall seiner Cloud Computing Plattform Azure in der Region “West Europe” und hier speziell mit dem Bereich Azure Compute. Microsoft liefert seine Cloud Services für Westeuropa aus Rechenzentren in Amsterdam und Dublin aus.

Windows Azure Compute in der Region

Ursachen für den Ausfall sind nicht genauer bekannt

Die Ursache für den Ausfall wurde bisher noch nicht veröffentlicht. Es wird lediglich von Problemen mit der Verfügbarkeit der Services gesprochen. Allerdings sollen die Accounts für den Cloud Storage davon nicht betroffen sein.

26-Jul-12 · 11:09 AM UTC
We are experiencing an availability issue in the West Europe sub-region, which impacts access to hosted services in this region. We are actively investigating this issue and working to resolve it as soon as possible. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers

26-Jul-12 · 12:09 PM UTC
We are still troubleshooting this issue, and capturing all the data that will allow us to resolve it. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers

26-Jul-12 · 1:09 PM UTC
We are still troubleshooting this issue, and verifying the most probable cause. Storage accounts in this region are not affected. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

Update

26-Jul-12 · 1:33 PM UTC
The issue has been addressed. Full service functionality has been restored in the region. Storage accounts and running applications were not impacted throughout the duration of the incident. We apologize for any inconvenience this caused our customers.

Ausfälle häufen sich

Nachdem die Amazon Web Services erst kürzlich innerhalb von 14 Tagen mit zwei schweren Ausfällen zu kämpfen hatten, wurde Microsofts Cloud Infrastruktur Opfer des diesjährigen Schaltjahres am 29. Februar. Bisher steht es in diesem Jahr allerdings noch 3:2 für die Amazon Web Services.

Categories
Analysen

Microsoft attackiert die Amazon Web Services über die Private Cloud

Microsoft portiert seine Cloud Lösungen Windows Azure Web Sites, Virtual Machines und das Service Management Portal auf den Windows Server und ermöglicht es damit Hosting Anbieter ihren Kunden hochverfügbare Webseiten und Infrastructure-as-a-Service Lösungen auf Basis von Microsoft Cloud Technologien anzubieten. Anders als die Google Compute Engine, lassen sich die neuen Microsoft Cloud Lösungen prinzipiell auch in einer Private Cloud aufbauen. Die Cloud Implementierung, die sich bei etablierten Unternehmen tendenziell als die Bevorzugte herausstellt.

Microsoft Hosting Services

Die Microsoft Hosting Services setzten sich im Kern aus der “Windows Server Hosting Platform”, “Infrastructure-as-a-Service”, “Windows Azure” und den “Business Productivity Hosting Solutions” zusammen. Dabei bietet die Hosting Plattform ein Framework, Web Server, Datenbanken und weitere Tools, mit denen Web Seiten auf Windows gehostet werden können. Mit dem “Dynamic Data Center Toolkit” können Web-Hoster on-Demand virtuelle Server, Cluster, Netzwerkinfrastrukturen und Speicherplatz bereitstellen. Über Windows Azure stehen Möglichkeiten zur Verfügung, neue Anwendungen auszurollen sowie neue Cloud Services zu erstellen. Die “Business Productivity Hosting Solutions” ermöglichen das Anbieten von Business Anwendungen auf Basis von Microsoft Exchange 2010 und SharePoint 2010.

Granularer wird zwischen “Web Sites”, “Virtual Machines”, dem “Service Management Portal” und einer “API” unterschieden.

Web Sites

Mit “Web Sites” können hochverfügbare und skalierbare Webseiten-Infrastrukturen aufgebaut werden, mit denen man über 10.000 Seiten in einer einzigen Web Farm verwalten kann. Zudem werden unterschiedliche Frameworks und Sprachen wie ASP.NET, ASP, PHP und Node.js mit einer vollständigen Git Integration unterstützt.

Virtual Machines

Zusammen mit bekannten Microsoft Technologien wie System Center und Windows Server lassen sich Infrastructure-as-a-Service Angebote aufbauen, mit denen virtuelle Machinen mit Windows Server und Linux bereitgestellt werden.

Service Management Portal und API

Anhand einer Metro-basierten Oberfläche und einem Self-Service Portal lassen sich “Web Sites” und “Virtual Machines” verwalten. Mit einer REST-basierten API lässt sich das Portal anpassen und erweitern, um damit bspw. andere Portal anzubinden.

Amazon ist ein reiner Service Anbieter

Auch wenn sich das neue Microsoft Angebot in erster Linie an Hosting-Anbieter richtet, sollte man nicht vergessen, wie einfach es ist, die Lösungen für die Private Cloud verfügbar zu machen.

Die Amazon Web Services verstehen es zwar hochwertige Public Cloud IaaS auszuliefern. Wenn es um die on-Premise Anforderungen von Unternehmen geht, hat Microsoft hier allerdings die Nase vorn. Wo AWS in der Cloud geboren ist und langsam damit anfangen muss, etablierte Kunden von der Basis abzuholen, um das große Geschäft zu machen, kommt Microsoft aus dem on-Premise Bereich und ist hier mit Abstand Marktführer.

Zudem weiß Microsoft, was es bedeutet, Software anzubieten, diese zu warten, Updates auszuliefern usw. Amazon ist ein reiner Service Anbieter und ist in kurzer Zeit nicht in der Lage diese Expertise und vor allem die notwendigen Vertriebskanäle aufzubauen.

Private Cloud wird bevorzugt

Und genau darin besteht auch Microsofts großer Vorteil. Das Unternehmen befindet sich bereits dort, wo die meisten Unternehmen gerne bleiben möchte, in den eigenen vier Wänden ihres Rechenzentrums, in der Private Cloud. Laut einer KPMG-Studie haben fast 60% (400 Befragte) der IT-Entscheider gute Erfahrung mit Private Cloud Lösungen gemacht. 21% wollen in Zukunft hier gezielter investieren. Dabei fließen bereits 19% des IT-Budgets in die Private Cloud, bevorzugt in Infrastructure-as-a-Services.

Für das Jahr 2013 wollen ein Drittel der befragten Unternehmen 26% – 50% ihres IT-Budget in die Private Cloud stecken. Darüber hinaus interessieren sich ca. 90% der Unternehmen nicht(!) für die Public Cloud, wobei 6% diese nutzen und 7% darüber nachdenken.

Amazons einziger Private Cloud Anker heißt Eucalyptus

Man kann sich nun die Frage stellen, ob AWS überhaupt daran interessiert ist, mit Microsoft in der Private Cloud in den Wettbewerb zu ziehen. Egal wird es ihnen allerdings nicht sein, das haben Maßnahmen zu Beginn des Jahres gezeigt.

Genauer geht es um den Deal der Amazon Web Services mit Eucalyptus Inc., die einen Fork der Amazon Web Services für die Private Cloud anbieten. Die Kooperation ist so aufgebaut, das Entwickler aus beiden Unternehmen Lösungen schaffen werden, um Private Cloud Lösungen auf Basis von Eucalyptus mit der Amazon Infrastruktur nahtlos zu verbinden. Zudem sollen die Kunden für die Nutzung von AWS als auch Eucalyptus dieselben Management Tools verwenden können. Darüber hinaus soll die Kompatibilität beider APIs verbessert werden.

Eucalyptus ist derzeit also der einzige Weg für die Amazon Web Services in die Rechenzentren der Unternehmen, wo Microsoft bereits wartet.

Categories
News

SQL Reporting für Microsoft Windows Azure ist verfügbar

Windows Azure SQL Reporting – ehemals bekannt als SQL Azure Reporting Services – ist der neue Name für Microsofts Cloud Reporting Service. Mit dem neuen Service können Entwickler das Business Intelligence Development Studio und die SQL Server Data Tools nutzen, um Berichte zu erstellen, wie sie es von den SQL Server Reporting Services auf dem Windows Server gewohnt sind.

SQL Reporting für Microsoft Windows Azure ist verfügbar

Die Berichte können zudem in die bekannten Formate Excel, Word, HTML, PDF, XML und CSV exportiert werden. Bis zum 1. August kann der neue Reporting Service kostenlos genutzt werden. Anschließend werden 0,88 Cent pro Stunde pro Bericht berechnet.

Cloud und On-Premise

SQL Reporting für Azure bietet darüber hinaus ein SLA (Service Level Agreement) und ermöglicht das Veröffentlichen von Berichten in die Cloud oder lässt Berichte direkt in on-Premise Anwendungen integrieren, die dann über den Webbrowser oder von mobilen Endgeräten oder den Desktop-PC abgerufen werden können.