Categories
Analysen

Cloud Computing und Big Data – Der ideale Use Case

Ich hatte schon einmal im März die Frage gestellt, ob Infrastructure-as-a-Service (IaaS) die ideale Lösung für die Herausforderungen von Big Data ist. Bereits damals bin ich zu dem Ergebnis gekommen, dass die Verarbeitung und Analyse großer Datenmengen – kurz: Big Data – ein idealer Use Case für das Cloud Computing ist. Unternehmen können die hohen Anforderungen, die Big Data erwartet, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Was ist Big Data

Als Big Data werden besonders große Datenmengen bezeichnet, die mit Hilfe von Standard-Datenbanken und Daten-Management-Tools nicht oder nur unzureichend verarbeitet werden können. Problematisch sind hierbei vor allem die Erfassung, die Speicherung, die Suche, Verteilung, Analyse und Visualisierung von großen Datenmengen. Das Volumen dieser Datenmengen geht in die Terabytes, Petabytes, Exabytes und Zettabytes.

Quelle: Wikipedia.de

Beispiele für Big Data

Für Unternehmen bietet die Analyse von Big Data die Möglichkeit zur Erlangung von Wettbewerbsvorteilen, Generierung von Einsparungspotentialen und zur Schaffung von neuen Geschäftsfeldern. Beispiele hierfür sind:

  • zeitnahe Auswertung von Webstatistiken und Anpassung von Online-Werbemaßnahmen
  • bessere, schnellere Marktforschung
  • Entdeckung von Unregelmäßigkeiten bei Finanztransaktionen (Fraud-Detection)
  • Einführung und Optimierung einer intelligenten Energieverbrauchssteuerung (Smart Metering)
  • Erkennen von Interdependenzen in der medizinischen Behandlung
  • Realtime-Cross- und Upselling im E-Commerce und stationären Vertrieb
  • Aufbau flexibler Billingsysteme in der Telekommunikation

Quelle: Wikipedia.de

Herausforderungen von Big Data

Klassische relationale Datenbanksysteme sowie Statistik- und Visualisierungsprogramme sind oft nicht in der Lage, derart große Datenmengen zu verarbeiten. Für Big Data kommt daher eine neue Art von Software zum Einsatz, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeitet. Hierbei gibt es folgende Herausforderungen:

  • Verarbeitung vieler Datensätze
  • Verarbeitung vieler Spalten innerhalb eines Datensatzes
  • schneller Import großer Datenmengen
  • sofortige Abfrage importierter Daten (Realtime-Processing)
  • kurze Antwortzeiten auch bei komplexen Abfragen
  • Möglichkeit zur Verarbeitung vieler gleichzeitiger Abfragen (Concurrent Queries)

Die Entwicklung von Software für die Verarbeitung von Big Data befindet sich noch in einer frühen Phase. Prominent ist der MapReduce-Ansatz, der in der Open-Source-Software (Apache Hadoop und MongoDb), sowie in einigen kommerziellen Produkten (Aster Data, Greenplum u. a.) zum Einsatz kommt.

Quelle: Wikipedia.de

Cloud Computing und Big Data: Der perfekte Use Case

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere “normale” Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Wettbewerbsfähigkeit steigern

McKinsey’s Report “Big data: The next frontier for innovation, competition, and productivity”, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Big Data Verarbeitung in der Cloud

Kosteneinsparungen für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit Big Data

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Categories
Analysis

Checklist: Check a Cloud Computing provider for authenticity

Increasingly the question is asked, how an authentic Cloud Computing offer can be recognized. It is often said: “We let our data processing be dealt with by a service provider in their data center. We are then already using Cloud, right?” Caution! Cloud Computing has recently been abused by the marketing departments of various providers, resulting in a dilution of the concept taking place. What was once for example, a “managed server”, is now simply a “Cloud server”. Eventually however, only the sticker was replaced. This “principle” is also known as Cloud-Washing.

Check a Cloud Computing provider for authenticity

Cloud Computing and its characteristics

Cloud Computing primarily refers to a service model, with which (theoretically unlimited) IT resources such as computational power, disk space, applications and other types of services-on-demand can be accessed. The resources will be charged based only on the pay-as-you-go concept , which is in fact used at present.

In addition to the known characteristics of Cloud Computing, there are other typical occurrences that distinguish a Cloud. Besides general characteristics, these also include technical ones as well as the viewing angle from the perspective of a company.

General Characteristics

Elasticity
Cloud allows you to scale resources up and down as required. The time required is in the range of seconds and minutes, not weeks or months.

Economies of Scale
The Cloud Computing provider is able to exploit economies of scale and can obtain the required infrastructure for Cloud Computing such as power, cooling, bandwidth and hardware at the best possible price.

Pay as you Go
This is more about a general feature rather than a commercial one. Through the use of Cloud, technicians reach decisions regarding the allocation of resources, which have a direct impact on the consumption of resources and the extent of total costs. Therefore in future, everyone has a duty to lead the company more efficiently.

Technical Characteristics

Rapid scalability
Additional resources can be bought on-Demand in a matter of minutes in order to meet the requirements of unexpected situations when needed. These include e.g. complex calculations or an unexpectedly high number of visitors on the website. If the resources are no longer needed, they can be returned to Cloud.

Resources are abstract and uncomplicated
The hardware needed for the operation of a Cloud changes and is constantly being improved. However, it is the Cloud Computing provider’s job to take care of this. A Cloud Computing user no longer has to deal with the details behind a Cloud.

A Cloud consists of individual modules
The IT resources of a Cloud Computing provider consist of small modules. This means they are available separately and are calculated separately. A user has the option of not using any resources, using all of them, or just using a few, which are provided to him as a service via the Cloud.

Experimentation is cost-effective
Cloud Computing removes the economic hurdle for experimenting. This allows new ideas to be tested without long-term investment in the required hardware, in which case one might resort to temporary resources.

Characteristics from the perspective of a company

No upfront investment
Cloud Computing was created to share resources when necessary. For this reason, no one-time or large investments are necessary before the actual need arises.

Variable costs that come from fixed costs
Instead of relying on a fixed number of resources over a long contract period (usually one to three years), Cloud Computing enables the use of resources to be changed in real-time.

Investments become overheads
Investments are usually spread over a long period, leading to a multi-year commitment to using a certain amount of resources. Overheads however, reflect the actual usage of Cloud services and can be modified in real-time.

Resource allocation is more granular
Cloud Computing enables minimal usage in terms of time and resources, for example, server usage per hour and the individual bytes of used memory.

The company gains flexibility
Due to the fact that a company no longer binds itself to resources for the long term, it is able to respond to changes more quickly, with reference to the required amounts and the type of business activity.

The provider remains under observation
The core business of Cloud Computing providers is to provide its Cloud for public use. Therefore, it has a strong incentive to provide its services so that they are reliable, applicable and cost-effective. Cloud therefore reflects the core competencies of a provider once again.

Costs are associative
Due to Cloud Computing’s flexible resource allocation model, it is just as easy to apply and operate 100 servers for an hour as it is to do so with a server for 100 hours. It encourages innovative thinking in terms of solutions to problems that are only made possible by massive scaling.

The Checklist

Let it be understood that as a rule, you cannot and should not look into the interior. In the case of a Cloud, it is a black box which is either controlled via an API (interface) or a web interface. It thus depends on the external values that you can see and observe directly.

Checklist: Check a Cloud Computing provider for authenticity


The checklist can also be viewed and downloaded as a PDF at Checklist: Check a Cloud Computing provider for authenticity.


Bildquelle: ©Claaslietz / PIXELIO

Categories
Kommentar

Cloud Computing: Offen oder Geschlossen? Vendor Lock-in ist kein Argument!

Cloud Computing spaltet sich derzeit in zwei Lager. Die Liebhaber eines geschlossenen, proprietären Systems und die Befürworter einer offenen (Open-Source) Cloud. Interessanterweise stellen verstärkt die Open-Source Jünger, allen voran das OpenStack Projekt die größten Lautsprecher dar (Rackspace: Linux der Cloud). Sei es auch nur, um mehr Aufmerksamkeit von den derzeit erfolgreichen geschlossenen Systemen (Amazon Web Services (AWS), Microsoft Windows Azure) auf sich zu lenken. Eines vorweg, pauschal lässt sich nicht sagen, welcher Ansatz der “Bessere” ist. Es hängt immer von den eigenen Anforderungen und Möglichkeiten ab. Zudem sollte man schauen, wie geschlossen die proprietären Systeme wirklich sind. Man wird zum einen merken, dass viel mehr religiöse Ansichten dahinter stecken als man denkt und das die Argumentation Vendor Lock-in bei Open-Source Clouds nicht zwangsläufig zutrifft. Denn einen Vendor Lock-in hat man immer.

Geschlossene Cloud gleich Lock-in?

Hauptargumentation aus dem Open-Source Lager gegen proprietare Cloud Angebote ist das Risiko eines Lock-in. Um diesen zu umgehen, solle man stattdessen auf Angebote setzen, die auf Open-Source basieren, um sich über eine eigene Private Cloud die Freiheit zu verschaffen, also die Infrastruktur und Daten dann ggf. in die eigene Cloud zu transferieren.

Eines sollte man jedoch nicht vergessen, ohne Open-Source funktioniert derzeit so gut wie kein Cloud Angebot. So besteht die AWS Cloud aus wahrscheinlich der größten XEN (Hypervisor) Installation weltweit. Zudem wird argumentiert, dass mann sich bei AWS in einen Lock-in begibt. Bei der DynamoDB mag dies richtig sein. Aber für alle anderen Services gibt es Lösungen wie Eucalyptus, openQRM oder sogar OpenStack selbst, die entsprechende Schnittstellen bereitstellen. Und auch Microsoft ermöglicht es, zwischen Windows Azure und einer auf Microsoft basierenden Private Cloud mit dem Microsoft Server 2012 und dem System Center 2012 Daten usw. hin und her zu schieben. Man ist hier also auch nicht zwangsläufig auf die Public Cloud angewiesen.

Wo versteckt sich der Lock-in?

Ein Vendor Lockin besteht dann, wenn ein System, Angebot oder Lösung sehr stark abhängig macht.

Ein analoges Beispiel dafür ist Ikea. Das Design der Möbel ist so markant, dass es für einen Innenarchitekten Laien (wie mich) schwierig ist, es mit einem anderen Design zu kombinieren. Also geht man dazu über, weitere Möbel bei Ikea zukaufen. Zudem verfügt Ikea über eigene Maße und proprietäre Techniken z.B. bei den Waschbecken oder auch bei den Küchen, Schrauben und sonstigen Verbindungen.

Das Risiko des Lock-ins in der Cloud befindet sich hauptsächlich bei den Daten und Prozessen, wenn diese dort ebenfalls abgebildet werden. Denn in beiden Fällen befinden sich hier die geschäftskritischen Bereiche, die so beweglich wie möglich in der Cloud liegen sollten.

Die Ressourcen wie virtuelle Maschinen sind nicht, wie möglicherweise vermutet, von dem Lock-in betroffen. Hierzu existieren bereits diverse Import/ Export Tools z.B. von VMware für AWS oder speziell V2V (Virtual to Virtual) oder V2P (Virtual to Physical) Mechanismen von openQRM. Das bedeutet, das sich virtuelle Maschinen und deren Inhalte bequem hin und her schieben lassen.

Die Daten selbst sind in der Cloud in der Regel ebenfalls nicht von einem Lock-in betroffen. Die meisten Anbieter verfügen über entsprechende Schnittstellen, über die sich die Daten bewegen und transferieren lassen. Bei den Prozessen wird es schon schwieriger. Aber, wie viele Unternehmen haben in der Vergangenheit ihre Prozesse in die Hände von SAP Systemen gelegt und damit einen Lock-in verursacht?

Ein Lock-in ist nichts Schlechtes

Ein Lock-in, wenn er denn vorliegt, muss nicht immer etwas Schlechtes sein. Im Gegenteil, er führt zu Innovationen und verringert die Komplexität. Der Anbieter nimmt einem beim Design und der Auswahl Stückweit die Entscheidung ab und sorgt für eine stetige Weiterentwicklung und Verbesserung des Systems.

Zudem sollte man schauen, wer sich einen Lock-in nicht leisten kann. Kleine und mittelständische unternehmen, die ggf. über eine kleine oder keine IT-Abteilung verfügen, nehmen das gerne in Kauf, da sie sich die Implementation einer komplexen Umgebung nicht leisten können bzw. nicht über die Expertise verfügen. Analoges Beispiel, Ikea: Man bekommt relativ günstig gute Möbel und kann alles miteinander gut kombinieren.

Außerdem, schaut man sich Open-Source Projekte wie OpenStack an, wird deutlich, dass es nicht immer einfach ist, alle Interessen unter einen Hut zu bekommen. Open-Source mag zwar offen sein. Auf Grund der vielen beteiligten Unternehmen können so manche Konflikte den Innovationsgrad jedoch verringern. Aus diesem Grund kann ein Vorteil darin bestehen, wenn nur ein Unternehmen an der Spitze des Projekts/ Angebots steht und die Koordination übernimmt. Auch wenn mehrere Teilnehmer mehr Input und Expertise liefern. Hier haben auch geschlossene Anbieter einen Vorteil, da sie alleine verantwortlich sind, und damit schneller handeln. Das kann im Umkehrschluss bedeuten, dass der Lock-in von OpenStack in den potentiellen Konflikten und dem daraus folgenden langsamen Innovationsgrad besteht.

APIs sind entscheidend

Wichtig für jedes Cloud Computing Angebot sind die APIs. Auf diese muss sowohl von Innen als auch von Außen zugegriffen werden können, um auf dieser Basis die Daten in aus der Cloud zu transferieren.

Vorteile vs. Nachteile von Open-Source

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den “richtigen” Weg zu entscheiden.

Fazit

Verantwortliche die sich für eine Cloud Infrastruktur entscheiden, wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über eine Open-Source oder proprietären Cloud Infrastruktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine Open-Source Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und eine proprietäre Cloud besser für den eigenen Innovationsgrad ist oder auch andere Möglichkeiten evaluiert werden müssen.

Categories
News

Studie prognostiziert Wachstum von Cloud-Dienstleistungen von jährlich 17 Prozent auf 2,3 Milliarden Euro im Jahr 2015

Parallels hat heute seinen zweiten “Parallels SMB Cloud Insights Report für Deutschland” vorgestellt. Die kostenlose Studie zeigt Service Providern, welche Cloud-Dienstleistungen in welchem Umfang seitens kleiner und mittelständischer Unternehmen (SMB) mit bis zu 250 Mitarbeitern nachgefragt werden. 2011 befragte Parallels 400 deutsche SMBs unterschiedlicher Größen und Branchen über ihre Nutzung von, ihre zukünftigen Pläne mit und ihre allgemeine Einstellung zu Cloud-Services. Diese Untersuchung wurde für 2012 mit 400 neuen Interviews aktualisiert, um mögliche Trends festzustellen.

Wachstum in 2012 um 13 Prozent auf 1,5 Milliarden Euro

Basierend auf dieser Befragung ist der Markt der Cloud-Dienstleistungen für SMBs in Deutschland in diesem Jahr um 13 Prozent auf 1,5 Milliarden Euro gewachsen und setzt sich wie folgt zusammen: gehostete Infrastrukturen 531 Millionen Euro, Webpräsenz 336 Millionen Euro, gehostete Kommunikation und Zusammenarbeit (bestehend aus gehosteten Business-Class E-Mail- und PBX-Services) 95 Millionen Euro und Business-Applikationen 493 Millionen Euro. Für die Jahre 2013 und 2014 rechnet Parallels mit einem Anstieg um 17 Prozent pro Jahr, was in einem Marktpotenzial von 2,3 Milliarden Euro im Jahr 2015 resultiert.

Dieses Wachstum wird zu einem großen Teil auf SMBs zurückzuführen sein, die zusätzliche Cloud-Services nutzen oder bereits genutzte Cloud-Services um neue Applikationen und Funktionen erweitern. Demzufolge wird der SMB-Markt denjenigen Service Providern, die sich mit den verschiedenen SMB-Zielgruppen in Deutschland vertraut machen, neue SMB-Wachstumspotenziale eröffnen. Darüber hinaus bieten ihre vorhandenen Kunden Up- und Cross-Sell-Potenzial.

Parallels hat festgestellt, dass SMBs unterschiedlicher Größe und Kategorie spezifische Bedürfnisse und Pläne hinsichtlich ihrer Nutzung von Cloud-Services haben. Service Provider, die ihr Cloud-Geschäft ausbauen möchten, müssen ihre SMB-Zielgruppen besonders gut kennen, um ihnen die richtigen Services anbieten zu können. Dabei bieten die folgenden drei Gruppen das höchste Wachstumspotenzial:

  • Cloud-Umsteiger: Diese SMBs arbeiten derzeit mit Inhouse-Lösungen. Sie sind aber dabei oder planen, auf gehostete Services umzusteigen. Viele SMBs, die derzeit über Inhouse-Server verfügen, erwägen, sobald ein Upgrade ihrer Infrastruktur erforderlich ist, auf gehostete Server umzusteigen.
  • Cloud-Einsteiger: Diese Kategorie besteht aus SMBs, die derzeit keine eigene IT-Infrastruktur nutzen und in Erwägung ziehen, direkt in die Cloud einzusteigen, ohne zuvor in selbstbetriebene IT-Systeme zu investieren.
  • Cloud-Aufsteiger: Diese SMBs, die bereits in gewissem Umfang Cloud-Services nutzen, stellen ein Potenzial für Upselling auf neue und erweiterte Cloud-Angebote dar.

Für den deutschen Markt sieht der SMB Cloud Insights Report die größten Wachstumschancen in folgenden Bereichen:

Gehostete Infrastruktur

  • Inzwischen nutzen 21 Prozent der deutschen SMBs gehostete Server. Das Wachstum in diesem Bereich kommt durch SMBs, die auf eine Cloud-Lösung umsteigen, sobald ihre Inhouse-Server ersetzt werden müssen. Im Laufe der nächsten drei Jahre könnten so 400.000 neue gehostete Server entstehen.
  • Mikro-SMBs (mit 1-9 Mitarbeitern), die größtenteils zur IT-Kategorie der Do-it-yourselfer gehören, stellen ein besonders großes Potenzial dar. Sie umfassen fast 85 Prozent der deutschen SMBs und 64 Prozent von ihnen planen definitiv, in den nächsten drei Jahren auf gehostete Server umzusteigen oder ziehen dies zumindest in Betracht.

Webpräsenz

  • Derzeit betreiben 17 Prozent der Mikro-SMBs, 28 Prozent der kleinen SMBs (mit 10-49 Mitarbeiter) und 40 Prozent der mittleren SMBs (50-250 Mitarbeiter) in Deutschland selbst gehostete Websites. Die Mehrheit dieser Unternehmen plant, in den nächsten drei Jahren auf externe Web-Hosting-Pakete umzusteigen oder zieht dies zumindest in Betracht, was den derzeitigen Markt um 177.000 neue Websites vergrößern würde.
  • 62 Prozent der 400.000 Mikro-SMBs, die noch keine eigene Website haben, wollen innerhalb der nächsten drei Jahre eine gehostete Website einrichten oder ziehen dies zumindest in Betracht – dadurch könnte der Markt um mehr als 200.000 neue Web-Hosting-Pakete wachsen.
  • Enormes Potenzial liegt auch im Upselling bei Bestandskunden. Etwa 16 Prozent der SMBs, die heute bereits ein Web-Hosting-Paket nutzen, wollen ihre Investitionen hierfür im Laufe der nächsten drei Jahre erhöhen, um ihre Webpräsenz auszubauen und die Sicherheit ihrer Website zu verbessern. Bei den mittleren SMBs liegt diese Zahl sogar bei 36 Prozent.

Gehostete Kommunikation und Zusammenarbeit

  • Derzeit nutzen gerade einmal 7 Prozent der SMBs kostenpflichtige Business-Class E-Mail-Services und 3 Prozent der SMBs kostenpflichtiges gehostetes PBX. In den nächsten Jahren werden diese beiden Cloud-Services mit einem jährlichen Wachstum von 47 Prozent zu den am schnellsten wachsenden Bereichen gehören.
  • Vor allem bei den mittleren SMBs hat die Nutzung kostenpflichtiger gehosteter E-Mail um 190 Prozent zugenommen. Der größte Teil dieses Wachstums ist darauf zurückzuführen, dass viele mittlere SMBs von in-house betriebenen E-Mail-Servern auf in der Cloud gehostete Business-Class E-Mail-Services umgestiegen sind.

Business-Applikationen

  • In deutschen SMBs hat die Nutzung von Online-Applikationen seit dem vergangenen Jahr um 7 Prozent zugenommen. 60 Prozent von ihnen nutzen heute eine oder mehrere kostenfreie oder kostenpflichtige Online-Applikationen.
  • Die in deutschen SMBs am häufigsten genutzten Business-Applikationen sind Telefonkonferenz-Services (31 Prozent der SMBs), Instant-Collaboration-Services (19 Prozent) sowie Online-Backup- und -Datenspeicher-Services (16 Prozent). Die in den nächsten drei Jahren am schnellsten wachsenden Applikationen werden Instant-Collaboration- Services (bei 24 Prozent der SMBs geplant), Telefonkonferenz-Services (bei 15 Prozent geplant) und Webkonferenz-Services (bei 13 Prozent geplant) sein.

Erstmals auch Zahlen für den gesamten Cloud-Markt in Europa und Nordafrika

Parallels hat seine Marktanalyse in diesem Jahr um eine Studie zur Nachfrage von Cloud-Diensten in Europa und Nordafrika (EUNA) erweitert. Diese beziffert den Markt für Hosting- und Cloud-Dienstleistungen in der gesamten Region auf 9,6 Milliarden Euro für 2012, wobei die Verbreitung der Cloud-Dienste sehr stark vom Entwicklungsstand des Cloud-Marktes im jeweiligen Land abhängt.

Dieser Gesamtmarkt setzt sich sich wie folgt zusammen: gehostete Infrastrukturen 3 Milliarden Euro, Webpräsenz 2,8 Milliarden Euro, gehostete Kommunikation und Zusammenarbeit 900 Millionen Euro und Business-Applikationen 2,9 Milliarden Euro. Die Parallels-Studie geht davon aus, dass dieser Markt mit einer Wachstumsrate von 33 Prozent ein Volumen von 22,6 Milliarden im Jahr 2015 haben wird.

Aktuell ist der Parallels SMB Cloud Insights Report in insgesamt 16 Ausgaben erhältlich. Neben einem globalen Report, einer Ausgabe für Europa und Nordafrika sowie einer Ausgabe für den asiatisch-pazifischen Raum gibt es länderspezifische Analysen für die USA, Brasilien, Mexico, Frankreich, Deutschland, Niederlande, Polen, Russland, Spanien, Australien, China, Indien und Japan. Diese stehen zum kostenlosen Download zur Verfügung unter http://www.parallels.com/de/smbreport

Categories
News

Knapp jeder zweite Arbeitnehmer hofft auf Produktivitätssteigerung durch „Bring your own…“

Der Trend Consumerization of IT unter Einbezug privater IT-Geräte und Anwendungen ist in deutschen Unternehmen nicht mehr aufzuhalten. Immer mehr Mitarbeiter projizieren private IT-Gewohnheiten auf den Arbeitsplatz. Das geht aus dem aktuellen Market Paper „Consumerization Study CIO Challenges 2012 – Herausforderungen mit ‚Bring your own‘“ hervor, das techconsult im Auftrag von Microsoft verfasst hat. Demnach nutzen bereits knapp zwei Drittel der befragten Arbeitnehmer private Geräte wie Smartphones und Laptops an ihrem Arbeitsplatz und sogar mehr als ein Viertel private Anwendungen und Services. 44 Prozent der Befragten gehen davon aus, dass der Einsatz der eigenen gewohnten Geräte die Produktivität um bis zu 30 Prozent steigert. Während die Mitarbeiter der Nutzung privater Endgeräte am Arbeitsplatz eher unkritisch gegenüberstehen, sehen Unternehmen immer noch große Herausforderungen, private Geräte und Anwendungen sicher in die bestehende IT-Infrastruktur einzubinden.

Knapp jeder zweite Arbeitnehmer hofft auf Produktivitätssteigerung durch „Bring your own...“

69 Prozent nutzen private Endgeräte im Unternehmen

Die Grenzen zwischen der Arbeitswelt und dem Privatleben verschwinden zusehends. Vor diesem Hintergrund stehen IT-Verantwortliche vor der Herausforderung, ihren Mitarbeitern die Möglichkeit einzuräumen, sich am Arbeitsplatz in ihren gewohnten und gewünschten Kommunikations- und Arbeitsumfeldern zu bewegen. Diese Entwicklung zeigen auch die Ergebnisse des aktuellen techconsult Market Papers, das gezielt die Sicht der Anwender in den Mittelpunkt rückt und dafür mehr als 1.000 Mitarbeiter in Unternehmen zum Thema Consumerization befragt hat. Rund 69 Prozent der Befragten nutzen bereits private Endgeräte im Unternehmen und rund 26 Prozent greifen regelmäßig auf private Anwendungen und Services wie E-Mail, Office-Lösungen und Bildbearbeitungsprogramme zurück.

„Bring your own…“ – Herausforderung für Unternehmen

Während knapp 30 Prozent der befragten Mitarbeiter den Aufwand für das Management privater Endgeräte und Software am Arbeitsplatz als gering einschätzen, sehen es die Unternehmen deutlich kritischer. Rund 60 Prozent der Befragten gaben an, dass ihr Arbeitgeber gegen die Nutzung privater Endgeräte ist und 74 Prozent würden es ablehnen, dass private Software genutzt wird. Während „Bring your own“ für Mitarbeiter ein geeignetes Mittel ist, ihre Motivation und Zufriedenheit zu erhöhen, stehen IT-Verantwortliche vor der Herausforderung, die Geräte und Anwendungen sicher in die bestehende IT-Infrastruktur einzubinden.

„Consumerization Study CIO Challenges 2012“: eine Mitarbeiter-Studie in sieben Akten

Für die „Consumerization Study CIO Challenges 2012” von techconsult wurden insgesamt mehr als 1.000 Mitarbeiter aus Unternehmen mit mehr als 250 PC-Arbeitsplätzen zu ihren IT-Nutzungsverhalten am Arbeitsplatz und mehr als 90 Studenten im Abschlusssemester zu ihren Anforderungen an zukünftige Arbeitgeber befragt. In verschiedenen themenorientieren Market Papers werden die Ergebnisse monatlich veröffentlicht:

  1. Herausforderung mit „Bring your own“
  2. Der mediale Mitarbeiter von heute
  3. Die Umsetzung von Unternehmensrichtlinien auf dem Prüfstand
  4. Die CIO-Challenges auf Führungsebene (leitende Angestellte, Management)
  5. Die CIO-Challenges auf Abteilungsebene (Vertrieb, Marketing, Controlling und IT)
  6. IT-Lifestyle-Artikel als Job-Motivator
  7. Trendcheck: Consumer-orientierte IT im Wandel der Zeit

Bildquelle: ©Robert Müller / PIXELIO

Categories
Management @de

DevOps: Führt Cloud Computing zu NoOps?

Neben den Themen Cloud Computing und Big Data zählt das Thema DevOps zu den wichtigsten Themen der nahen Zukunft. Der Begriff DevOps leitet sich von dem Präfix “Dev” von Softwareentwickler (Developer) sowie dem Suffix “Ops” von IT-Betrieb (Operations) ab. Zusammengesetzt entsteht damit das Wort DevOps und symbolisiert die enge Zusammenarbeit beider Unternehmensbereiche, also der Softwareentwicklung und dem IT-Betrieb.

Dev vs. Ops

Jede Unternehmens-IT lebt von den eingesetzten Applikationen. Aufgabe der Entwickler (Dev) ist es diese bestehenden Applikationen zu verbessern oder neue zu entwerfen. Der IT-Betrieb (Ops) hat die Aufgabe die für die Entwicklung notwendinge IT-Infrastruktur und Umgebungen bereitzustellen. Beide ziehen also generell am selben Strang, laufen aber dennoch in zwei unterschiedliche Richtungen. Die Entwickler wollen schneller neue Applikationen entwerfen und ausrollen. Der IT-Betrieb lässt gerne alles beim Alten und ist froh, wenn die aktuellen Systeme so stabil laufen (Änderungen könnten zu Problemen führen und das bedeutet Arbeit.)

Neben dem zeitlichen Druck, den beide Bereiche unterlegen sind, verstärkt zudem die Komplexität der modernen IT-Infrastrukturen die beidige Zusammenarbeit. Werden neue Versionen ausgerollt, muss anschließend sichergestellt werden, dass alles weiterhin so funktioniert wie vorher, nur besser. Außerdem hat der Umfang an Applikationen in Unternehmen im Laufe der letzten Jahre stetig zugenommen, die es gilt bestmöglich zu unterstützen sowie die Interoperabilität sicherzustellen.

Automatisierung

Eigentlich brauchen Unternehmen mittlerweile einen Hybriden, der in beiden Welten zu Hause ist, sich also mit der Arbeit der Entwickler auskennt und zugleich den IT-Betrieb versteht. Dieser Hybride sorgt dafür Probleme zu vermeiden und zugleich für Automatisierung und damit eine optimale Planung und Kontrolle. Dieser Hybrid ist der bereits genannte DevOps und muss nicht zwangsläufig eine Person oder ein Team sein. Nein, dabei kann es sich auch um ein Stück Software handeln, die für die Abstimmung des Entwicklungsbereiches und des IT-Betriebs zuständig ist und eine DevOps Strategie völlig autonom implementiert.

Heißt die Cloud Lösung “NoOps”?

Möglicherweise! Erleichtert die Cloud vielleicht das Thema DevOps oder macht es gar obsolet? Klar ist, Entwickler sind in der Cloud nicht mehr maßgeblich auf den IT-Betrieb angewiesen, denn dieser wird durch den Anbieter dargestellt. Im Falle von IaaS (Infrastructure-as-a-Service) behalten wir die aktuelle Situation bei, nur in der Cloud, eben genauso nur anders. Hier muss das entsprechende System, dass auf der Cloud Infrastruktur läuft von einem Team (Operations) betrieben und gewartet werden, wohingegen das andere Team (Developer) das System entwickelt bzw. darauf entwickelt? Oder ist IaaS für die Entwickler mittlerweile sogar so einfach, dass das Operations-Team wegfallen kann? Ganz anders sieht es beim PaaS (Platform-as-a-Service) aus. Hier ist der Bereich Operations zu 100% unwichtig. Die vollständige Plattform und der Stack den die Anwendung benötigt, wird durch den Anbieter bereitgestellt und gewartet, wodurch dieser für den Bereich Operations verantwortlich ist.

So oder so hilft eine (IaaS, PaaS) Cloud Infrastruktur Entwicklern dabei ihre Software automatisiert auszurollen, diese zu überwachen und ebenfalls zu verwalten. Entwickler (Dev) können mit der Cloud also völlig autonom vom IT-Betrieb (Ops) die für die Entwicklung notwendigen IT-Ressourcen selbst bereitstellen und warten. Wo wir beim Thema NoOps sind!


Bildquelle: http://blog.zenoss.com

Categories
News

Branchentrends für 2013: Cloud Computing bleibt – Collaboration ganz weit vorne

Die Finanz Informatik Technologie Service (FI-TS) gibt einen Ausblick auf die IT-Themen und -Entwicklungen, die im kommenden Jahr für Banken und Versicherungen besonders wichtig werden sollen. Auffallend ist dabei, dass einige der Trends aus 2012 auch im nächsten Jahr noch auf der Agenda bleiben. Dies gilt vor allem für die Umsetzung konkreter Projekte im Bereich Cloud Computing. Neu hinzu kommt das Thema Collaboration, mit dem sich die Institute bereits 2013 befassen sollten.

Die wichtigen Themen im Überblick

Marktlage erfordert weitere Standardisierung

Besonders das Niedrigzinsniveau und ein verändertes Anlageverhalten der Kunden bringen nicht nur Banken sondern auch Versicherungen dazu, weitere Einsparungen und eine noch nachhaltigere Kostenoptimierung umzusetzen. Das bedeutet für die Institute in der Folge, ihre IT-Systeme einerseits zu konsolidieren und andererseits noch mehr auf standardisierte Techniken und Anwendungen zu setzen, um bestmöglich auf die sich verändernde Marktlage reagieren zu können.

Die Vorteile der Cloud nutzen

Die Suche nach weiteren Einsparungs- und Standardisierungsmöglichkeiten führt dazu, dass sich Banken und Versicherungen auch im Jahr 2013 weiterhin sehr intensiv mit Cloud-Angeboten befassen werden. Hier geht es für die Organisationen in erster Linie darum, einen erfahrenen Service-Partner zu finden, der Cloud-Dienste anbieten kann, die auf die speziellen Bedürfnisse der hochregulierten Branche zugeschnitten sind. Dann können Banken und Versicherungen die konkreten Vorteile von Cloud-Services nutzen und ihre Kosten weiterhin optimieren. Zudem erreichen sie so ein höheres Maß an Flexibilität das ihnen ermöglicht, frühzeitig auf Entwicklungen, beispielsweise BYOD (Bring Your Own Device), vorbereitet zu sein.

An Mobile Device Management (MDM) führt kein Weg vorbei

Das Thema MDM zählte bereits im Jahr 2012 zu den viel diskutierten Themen. Zu Beginn des neuen Jahres steht eines fest: An MDM kommt niemand vorbei – zumal es auch BYOD ermöglicht. Davon sind vor allem die Versicherungen betroffen, deren Branche sich besonders im Vertrieb derzeit in einem Strukturwandel befindet. Hier stehen die Einführung neuer Online-Angebote sowie die Nutzung mobiler Endgeräte klar im Fokus. Daher gilt es für Versicherungen in 2013 konkrete Services zu evaluieren, die es ermöglichen, entweder die Smartphones und Tablets ihrer Mitarbeiter sicher in den Geschäftsalltag einzubinden oder sie selbst mit entsprechenden mobilen Endgeräten auszustatten. Auch hier lohnt in jedem Fall der Blick auf Mobile-Device-Management-Angebote aus der Cloud.

Collaboration auf die Agenda setzen

Die bisher erwähnten Entwicklungen haben eines gemeinsam: Sie verändern die Art der Zusammenarbeit (Collaboration) im Geschäftsalltag von Morgen – nicht nur innerhalb der Organisationen sondern besonders im Dialog mit den Kunden. Denn diese möchten in Zukunft zu jeder Zeit und von einem beliebigen Endgerät aus auf performante Online-Angebote beispielsweise für Bankgeschäfte zugreifen oder ihre Versicherung bequem per Online-Video-Chat oder Co-Browsing erreichen können. Diese neue Art der Zusammenarbeit ist die logische Fortführung der aktuellen Entwicklungen in den Bereichen Cloud-Computing. Daher sollten Banken und Versicherungen das Thema bereits 2013 auf ihre Agenda setzen.

Kommentar

Eigentlich kommentiere ich gewöhnliche News nicht, aber sind die Themen Collaboration und Mobile Device Management (MDM) nicht alte Hüte und sollten schon lange in jeder IT-Strategie fest verankert sein?! Jedes Unternehmen (auch im Banken- und Versicherungsumfeld), das erst im Jahr 2013 mit diesen Themen beginnt, hängt dem Wettbewerb schon hinterher!


Bildquelle: ©Gerd Altmann / PIXELIO

Categories
Kommentar

Deutsche Cloud: Ist Deutschland souverän? Lieber keine Unternehmensdaten in Deutschland speichern?

So mancher deutsche Cloud Computing Anbieter brüstet sich mit den hohen Datenschutzrichtlinien in unserem Land. Da wird der Patriot Act als Vorwand genommen, sich doch lieber für eine “Deutsche Cloud” zu entscheiden, statt für einen “bösen” US-amerikanischen Anbieter bzw. dessen deutsches Tochterunternehmen. Datenschutz “Made in Germany” halt.

Datenschutz in Deutschland: Nur Wunschdenken?

Ein Video von Frontal 21 rückt, meiner Ansicht nach, sämtliche Datenschutz-Diskussionen in ein anderes Licht. Nein, es stellt nicht das Cloud Computing in Frage, sondern Deutschland als Standort zum Speichern von Daten. Abgesehen davon, Cloud Computing ist ein globales und kein lokales Konzept (“Deutsche Cloud”…). Aber, haben die Macher des Videos ernsthaft gut recherchiert, würde Irland als Standort für Cloud Computing Anbieter in Europa völlig ausreichen. Anders ausgedrückt: Als Unternehmen sollte man davon dann tatsächlich absehen, seine Daten bei einem Anbieter in Deutschland zu speichern. Denn was ist unser Bundesdatenschutzgesetz unter Berücksichtigung dieses Videos noch wert?

Quelle: Deutschland souverän?
Weitere Informationen: Die demokratische Souveränität ist teilsuspendiert

Categories
News

Entwarnung: Windows Azure Compute rollt wieder rund

Kurz nachdem ich den Post zu Windows Azure Compute Problemen in den Regionen “South Central US” und “West Europe” veröffentlicht hatte, zeigte das Azure Statusboard wieder alle Status ohne Probleme an (Häckchen ganz links).

Windows Azure Compute rollt wieder rund

Categories
News

Windows Azure Compute in "South Central US" und "West Europe" mit Problemen

Zwar ist davon bisher nichts auf Twitter oder sonstigen Medien zu lesen, aber Windows Azure Compute zeigt aktuell Auffälligkeiten bei der Verfügbarkeit in “South Central US” und “West Europe”. Zudem weiß ich aus einer sehr sicheren Quelle das mindestens ein Unternehmen, dass seinen Service auf Azure Compute betreibt, Probleme hat. Die Webseiten sind nicht erreichbar. Es verwundert hier allerdings ein wenig, dass das Unternehmen hierzu keine Statusmeldung im Social Web geschrieben hat.

Windows Azure Compute in

Das Statusboard berichtet bereits seit dem “20-Nov-12, 9:00 PM UTC” von Problemen mit der Verfügbarkeit von Windows Azure Compute in den Regionen “South Central US” und “West Europe”. Im Detail schreibt Microsoft über das “Partial impact to Service management” für beide Regionen:

20-Nov-12, 9:00 PM UTC

We are experiencing an issue with Compute Service Management in West US, South Central US, North Europe and West Europe sub-regions. We are actively investigating this issue and working to resolve it as soon as possible. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

20-Nov-12, 10:00 PM UTC

We are gathering all the data required to identify the root cause and resolve the issue as soon as possible. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

20-Nov-12, 11:00 PM UTC

Service Management is still partially impacted for existing and new hosted service deployments in West US, South Central US, North Europe and West Europe sub-regions. Customers may experience failures with Create, Delete and Update operations. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

21-Nov-12, 12:00 AM UTC

The incident has been mitigated for new hosted service deployments in the sub-regions. Customers with hosted services already deployed in these sub-regions may still experience service management failures or timeouts. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

21-Nov-12, 1:00 AM UTC

We identified the root cause and are executing the repair steps. The steps will be executed on multiple nodes of the impacted clusters and this will take several hours. Further updates will be published after the recovery is complete. We apologize for any inconvenience this causes our customers.