Categories
Analysen

Cloud Computing benötigt professionelle, unabhängige und vertrauenswürdige Zertifizierungen

Ich hatte vor über einem Jahr bereits über denn Sinn und Unsinn von Cloud Siegeln, Zertifikaten, Verbänden und Initiativen geschrieben. Ich bin damals schon zu dem Ergebnis gekommen, dass wir vertrauenswürdige Zertifizierungen benötigen. Allerdings sah der deutsche Markt eher schwach aus und wurde neben EuroCloud von weiteren Interessenvertretung wie der “Initiative Cloud Services Made in Germany” oder “Deutsche Wolke” vertreten. Aber es gibt mittlerweile einen vielversprechenden unabhängigen Neuling.

Ergebnisse aus dem letzten Jahr

“Cloud Services Made in Germany” und “Deutsche Wolke”

Was Initiativen im Allgemeinen gemeinsam haben ist, dass Sie mit diversen Versprechen versuchen, so viele Anbieter von Cloud Computing Services wie möglich in die eigenen Reihen zu lotsen. Vor allem “Cloud Services Made in Germany” springt auf das vermeintliche Qualitätsmerkmal Made in Germany auf und verspricht dabei “Mehr Rechtssicherheit bei der Auswahl von Cloud-basierten Diensten…”.

Und exakt so positionieren sich “Cloud Services Made in Germany” und “Deutsche Wolke”. Mit schwachen Bewertungskriterien machen sich beide sehr attraktiv für Anbieter aus Deutschland, die mit dem “Aufkleber” wiederum auf ihren Webseiten Werbung machen können. Jedoch wird in den Kriterien in keinster Weise auf die wirkliche Qualität eines Service eingegangen. Darf sich der Service wirklich Cloud Service nennen? Wie ist das Abrechnungsmodell? Sorgt der Anbieter für eine Cloud Computing konforme Skalierbarkeit und Hochverfügbarkeit? Und viele weitere Fragen, die essentiell wichtig sind, um die Qualität eines Cloud Service zu bewerten!

Beide Initiativen haben in Ihrer Form auf jeden Fall eine Berechtigung. Sollten allerdings nicht als ein Qualitätskriterium für einen guten Cloud-Service genutzt werden. Stattdessen gehören Sie in die Kategorie “Patriotismus: Hallo Welt, schaut mal wir Deutschen können auch Cloud.”

EuroCloud und Cloud-EcoSystem

Neben beiden Initiativen gibt es noch die Vereine EuroCloud und Cloud-EcoSystem, welche beide mit Gütesiegel und Zertifikat werben. EuroCloud hat dafür seinen SaaS Star Audit im Angebot. Der SaaS Star Audit richtet sich, wie der Name schon sagt, ausschließlich an Software-as-a-Service Anbieter. Je nach Wunsch und Geldbeutel kann sich dieser vom EuroCloud Verband mit einem bis fünf Sternen auszeichnen lassen, wobei der Anbieter ebenfalls Mitglied des EuroCloud sein muss. Die Anzahl der Sterne sagt wiederum auch etwas über den Umfang der Prüfung aus. Werden bei einem Stern lediglich “Vertrag & Compliance” und ein bisschen “Betrieb Infrastruktur” überprüft, werden bei fünf Sternen ebenfalls, Prozesse und Sicherheit intensiver überprüft.

Das Cloud-EcoSystem hingegen hat mit “Cloud-Experte” sein Qualitäts-Zertifikat für Saas & Cloud Computing Berater sowie sein “Trust in Cloud” für Cloud Computing Anbieter. Ein “Cloud-Experte” nach dem Cloud-EcoSystem e.V. soll Anbietern wie auch Anwendern eine Entscheidungshilfe bieten können. Dabei kann ein Experte neben dem Schreiben und Erstellen von Fachartikeln und Checklisten ebenfalls Qualitätskontrollen vornehmen. Außerdem soll sich ein Kunde darauf verlassen können, dass der Berater über bestimmte Eigenschaften eines Kriterienkatalogs für “Cloud-Experten” verfügt. So soll jeder “Cloud-Experte” über tiefes Fachwissen und Basis Qualifikationen sowie vorhandene Referenzen verfügen und auf Wunsch seine selbst erstellten Unterlagen bereitstellen. Im Grunde geht es laut dem Cloud-EcoSystem e.V. also darum, das Cloud-EcoSystem zu gestalten und zu präsentieren.
Das „Trust in Cloud“-Zertifikat soll als Entscheidungshilfe für Unternehmen und Anwender dienen und sich als ein Qualitäts-Zertifikat für SaaS und Cloud-Lösungen etablieren. Auf Basis des Zertifikats sollen Nutzer die Möglichkeit erhalten Cloud-Lösungen objektiv zu vergleichen und an Hand aufbereiteter Informationen zu einer sicheren Entscheidung kommen. Die Zertifizierung basiert auf einem Katalog mit 30 Fragen, der in 6 Kategorien á 5 Fragen unterteilt ist. Die Fragen müssen durch den Prüfling mit Ja oder Nein beantwortet werden und zudem nachgewiesen werden. Beantwortet der Cloud Anbieter eine Frage mit Ja, erhält er dafür eine “Cloud”. Die Checkliste umfasst die Kategorien Referenzen, Datensicherheit, Qualität der Bereitstellung, Entscheidungssicherheit, Vertragsbedingungen, Serviceorientierung und Cloud-Architektur.

Sowohl EuroCloud als auch das Cloud-EcoSystem gehen den richtigen Weg und versuchen Anbieter anhand selbst aufgestellter Kriterien zu bewerten. Zwei Punkte gilt es dabei jedoch zu hinterfragen. Zunächst handelt es sich um Vereine, das bedeutet, man muss als Anbieter Mitglied werden. Es sei berechtigterweise gefragt, welcher Verein sein Mitglied durch eine Prüfung durchfallen lässt – Unabhängigkeit? Weiterhin stellen beide ihre eigenen Anforderungskataloge auf, die nicht miteinander vergleichbar sind. Nur weil ein Anbieter von zwei verschiedenen Vereinen ein “Gütesiegel” hat, das nach unterschiedlichen Kriterien bewertet, bedeutet das noch lange nicht, dass der Cloud-Service auch echte Qualität liefert – Vertraulichkeit.

Die Profis steigen in den Ring: TÜV Rheinland

Unbeachtet von allen Organisationen, die sich extra für die Cloud zusammengefunden haben, hat der TÜV Rheinland eine Cloud-Zertifizierung gestartet. Der TÜV selbst ist den meisten eher von der Prüfung und Abnahme von Krananlagen, Fahrgeschäften oder der Hauptuntersuchung beim Auto bekannt. Hat aber auch in der IT seit über 15 Jahren Erfahrungen in den Bereichen der Beratung und Zertifizierung im Hinblick auf Compliance, Risikomanagement und Informationssicherheit.

Der Cloud-Zertifizierungsprozess ist sehr umfangreich und hat seinen Preis. Ein erster Blick auf den Prüfungsprozess und den Anforderungskatalog zeigt jedoch, dass der TÜV Rheinland damit ein sehr mächtiges Werkzeug für die Prüfung von Cloud-Services und -Infrastrukturen entwickelt hat.

Beginnend mit einem “Cloud-Readiness Check” werden zunächst Sicherheit, Interoperabilität, Compliance und Datenschutz auf ihre Cloud-Tauglichkeit überprüft und darauf basierend ein Aktionsplan erstellt. Im Anschluss folgt die Überprüfung des “Cloud-Designs”, bei dem das Konzept und die Lösung selbst unter die Lupe genommen werden. Hier werden unter anderem Themen wie die Architektur aber auch die Netzwerksicherheit, Zugriffskontrollen usw. überprüft. Anschließend wird die eigentliche Umsetzung der Cloud-Lösung betrachtet und Qualitätschecks vorgenommen. Danach erfolgt die Vorbereitung zur Zertifizierung und später die eigentliche Zertifizierung.

Der Cloud-Anforderungskatalog des TÜV-Rheinland umfasst fünf Hauptbereiche, die wiederum in zahlreiche Teilbausteine untergliedert sind. Dazu gehören Prozessorganisation, Aufbauorganisation, Datensicherheit, Compliance / Datenschutz und Prozesse. Alles in allem ein sehr tiefgehender Anforderungskatalog.

In einem genannten Referenzprojekt hat der TÜV Rheinland acht Wochen für die Zertifizierung eines international tätigen Infrastructure-as-a-Service Anbieter benötigt.

Unabhängige und vertrauenswürdige Cloud Zertifizierungen sind zwingend erforderlich

Die Qualität und der Nutzen von Zertifikaten und Gütesiegeln stehen und fallen mit den Unternehmen, die mit der Prüfung beauftragt sind sowie deren definierten Prüfkriterien. Schwache Anforderungskataloge treffen weder eine ehrliche Aussage, noch helfen Sie, die Qualitätsunterschiede von Cloud-Lösungen für den Nutzer klar darzustellen. Im Gegenteil, IT-Entscheider verlassen sich im Zweifelsfall auf diese vermeintlich geprüften Services, deren Qualität auf einem anderen Blatt steht. Hinzu kommt, dass es im Cloud Computing nicht mehr darum geht, eine Software oder einen Service einzusetzen, geschweige denn zu installieren. Es wird am Ende nur noch konsumiert und der Anbieter ist für alle anderen Prozesse verantwortlich, die der Kunde sonst selbst übernommen hätte.

Aus diesem Grund sind unabhängige, vertrauenswürdige, aber vor allem professionelle Zertifizierungen notwendig, um eine ehrliche Aussage über die Qualität und Eigenschaft eines Cloud-Service, seines Anbieters und aller nachgelagerten Prozesse wie Sicherheit, Infrastruktur, Verfügbarkeit usw. zu gewährleisten. Als Anbieter sollte man daher ehrlich zu sich selbst sein und sich am Ende für eine Zertifizierung entscheiden, die auf professionelle Kriterienkataloge setzt, welche nicht nur an der Oberfläche kratzen sondern tief in die Lösung eintauchen und damit eine glaubwürdige Aussage über die eigene Lösung treffen.

Categories
Analysen

GigaOM Analyst Webinar – The Future of Cloud in Europe [Aufzeichnung]

Am 9. Juli 2013 haben Jo Maitland, Jon Collins, George Anadiotis und ich über die Chancen und Herausforderungen der Cloud in Europa und einzelnen Ländern wie Deutschland oder Großbritannien gesprochen und einen kleinen Einblick in den Cloud Computing Markt in Europa gegeben. Die Aufzeichnung dieses internationalen GigaOM Analyst Webinar “The Future of Cloud in Europe” ist nun online.

Hintergrund des Webinar

Vor circa einem Jahr hat die europäische Kommission ihre „Pro Cloud“ Strategie bekanntgegeben, um damit die stagnierende Wirtschaft durch Innovationen anzukurbeln. Die Kommissare vertreten die Meinung, dass die Cloud nicht in Europa aber mit Europa stattfinden muss. Aus diesem Grund haben die drei GigaOM Research Analysten Jo Collins (Inter Orbis), George Anadiotis (Linked Data Orchestration) und René Büst (New Age Disruption) unter der Moderation von Jo Maitland (GigaOM Research) einen Blick auf die aufstrebenden Cloud Anbieter in Europa und ihr Abschneiden zu US-amerikanischen Anbietern geworfen. Dabei sind sie auf die Probleme eingegangen, denen sich Einkäufer von Cloud Services in Europa ausgesetzt sehen und die noch nicht betrachteten Möglichkeiten von europäischen Cloud Anbietern diskutiert. Ist Europa beispielsweise in der Lage ein lebendiges Cloud Computing Ökosystem aufzubauen? Das ist derzeit eine schwierige Frage, da US-amerikanische Cloud Anbieter in diesem Markt dominieren.

Fragen die beantwortet wurden

  • Was sind die größten Treiber hinter den Möglichkeiten der Cloud in Europa und dem Einsatz?
  • Was sind die Hemmnisse für die Nutzung von Cloud Computing in Europa?
  • Existieren bestimmte Trends und Möglichkeiten innerhalb bestimmter Länder (Großbritannien, Deutschland, andere EU Staaten?)
  • Welche europäischen Cloud Computing Anbieter sind die Hoffnungsträger und warum?
  • Was sind die noch nicht erschlossenen Möglichkeiten für Cloud Computing in Europa?
  • Vorhersagen für die Zukunft des Cloud Computing in Europa.

Die Aufzeichnung des Analyst Webinar

Categories
Kommentar

ProfitBricks eröffnet Preiskampf mit den Amazon Web Services für Infrastructure-as-a-Service

ProfitBricks macht ernst. Das Berliner Infrastructure-as-a-Service (IaaS) Startup geht mit einer harten Kante gegen die Amazon Web Services vor und reduziert seine Preise sowohl in den USA als auch in Europa um 50 Prozent. Weiterhin hat der IaaS-Anbieter einen Vergleich vorgelegt, der zeigt, dass die eigenen virtuellen Server eine mindestens doppelt so hohe Performance haben sollen als die der Amazon Web Services und Rackspace. Damit versucht sich ProfitBricks über den Preis als auch über die Leistung von den US-amerikanischen Top Anbietern zu diversifizieren.

Die Preise für Infrastructure-as-a-Services sind noch viel zu hoch

Einhergehend mit der Ankündigung zeigt sich CMO Andreas Gauger entsprechend angriffslustig. „Wir haben den Eindruck, dass die regelrecht als Marktbeherrscher auftretenden Cloud Unternehmen aus den USA ihre Marktmacht für zu hohe Preise missbrauchen. Sie muten den Unternehmen bewusst undurchsichtige Tarifmodelle zu und verkünden regelmäßig punktuelle Preissenkungen, um den Eindruck einer Preisdegression zu wecken“, so Gauger.

ProfitBricks hat sich daher das Ziel gesetzt, den IaaS-Markt über den Preis von hinten aufzurollen und technische Innovationen und damit für einen Anbieter enstehende Kosteneinsparungen auch direkt und merkbar an den Kunden durchzureichen.

Bis zu 45 Prozent günstiger als Amazon AWS

ProfitBricks positioniert sich sehr deutlich gegen Amazon AWS und zeigt zwei Preisvergleiche. Kostet eine M1 Medium Instanz mit 1 Core, 3,75 GB RAM und 250 GB Block Storage bei Amazon AWS 0,1291 Euro pro Stunde bzw. 93,15 Euro pro Monat, enstehen bei ProfitBricks hierfür Kosten von 0,0694 EUR pro Stunde bzw. 49,95 Euro pro Monat. Eine Einsparung von 45 Prozent.

Werden 1 Core, 8 GB RAM und 1.000 GB redundanter Storage benötigt, ist der Unterschied noch größer. Die Kosten für eine M1 XLarge Instanz mit 4 Cores, 15 GB RAM und 1.680 GB temporärem Storage inkl. 1.000 GB Block Storage belaufen sich bei Amazon pro Monat auf 372,62 Euro. Bei ProfitBricks würden für die exakt geforderten Anforderungen 130,22 Euro pro Monat entstehen. Dabei handelt es sich um eine Einsparung von 65 Prozent pro Server.

Diversifikation allein über den Preis ist schwierig

Sich als IaaS-Anbieter alleine über den Preis zu diversifizieren ist schwierig. Wir erinnern uns, Infrastruktur ist Commodity und vertikale Services sind die Zukunft der Cloud, mit denen der Kunde einen Mehrwert erhält.

Auf diesem Weg dem IaaS Platzhirsch die Stirn zu bieten ist mutig und wirkt sehr tollkühn. Allerdings sollte man eines nicht vergessen. Als Hosting-Experten der ersten Stunde werden Andreas Gauger und Achim Weiß die Zahlen rund um ihre Infrastruktur validiert haben und suchen mit dieser Aktion sicherlich nicht den kurzen Ruhm. Es bleibt daher abzuwarten wie Amazon AWS und die anderen IaaS-Anbieter auf diesen Schlag reagieren werden. Denn ProfitBricks zeigt mit dieser Preisreduzierung, dass Kunden Infrastruktur tatsächlich deutlich günstiger bekommen können, als es derzeit der Fall ist.

Etwas sollte man als IaaS-Nutzer bei dieser Preisdiskussion allerdings nicht aus den Augen verlieren. Neben den Preisen für Rechenleistung und Speicherplatz – die immer wieder hochgehalten werden – gibt es weitere Faktoren zu berücksichtigen, die den Preis bestimmen und welche immer erst am Ende des Monats wirklich in Erinnerung gerufen werden. Dazu gehören die Kosten für den Datentransfer in die Cloud hinein und aus der Cloud heraus sowie Kosten für anderweitige Services die um die Infrastruktur herum angeboten und pro API Aufruf berechnet werden. Da fehlt in mancher Hinsicht die Transparenz. Weiterhin ist ein Vergleich der unterschiedlichen IaaS-Anbieter nur schwierig darzustellen, da viele mit unterschiedlichen Einheiten, Konfigurationen und/oder Paketen arbeiten.

Categories
Kommentar

Gefangen im goldenen Käfig. OpenStack Provider sitzen in der Falle.

OpenStack ist als Cloud-Software auf dem Vormarsch. Reihenweise mehren sich die Ankündigungen, dass immer mehr Unternehmen und Anbieter auf das nun mehr drei Jahre alte Open-Source Projekt zurückgreifen, um skalierbare Lösungen und eigene Infrastructure-as-a-Service (IaaS) Angebote zu präsentieren. Allerdings steckt die OpenStack-Gemeinde meiner Ansicht nach in einem großen Dilemma – Diversifizierung. Hinzu kommt, dass von Außen immer wieder unnötige Unruhen hinein getragen werden, die genau diese Problematik nicht betrachten. So sind zum Beispiel die Diskussionen über die Amazon API Kompatibilität durch Randy Bias genau so wenig förderlich wie Simon Wardleys Forderung, OpenStack müsse so sein wie die Amazon Web Services (quasi ein Klon). OpenStack muss seinen eigenen Weg finden. Allerdings ist OpenStack selbst nicht das Problem, es sind die Provider die OpenStack einsetzen. Diese stehen zu 100% in der Verantwortung sinnvolle Angebote zu präsentieren und OpenStack für sich gewinnbringend einzusetzen.

Amazon API Kompatibilität ist ein Mittel zum Zweck

Ich halte es für wichtig, dass OpenStack die Amazon API implementiert, um die Möglichkeit zu bieten, ggf. eine Hybrid Cloud zu den Amazon Web Services aufspannen zu können. OpenStack Service Provider sollten ihren Kunden zumindest die Option anbieten, um nicht nur theoretisch keinen Vendor lock-in zu versprechen, sondern diesen tatsächlich zu ermöglichen.

Das war es aber auch schon. Mehr Einfluss sollte Amazon auf die OpenStack-Gemeinde nicht haben dürfen. Um mal die Kurve zur “Linux der Cloud” zu bekommen. Hat Linux sich an Microsoft Windows orientiert? Nein. Und es ist trotzdem erfolgreich geworden. Meiner Ansicht liegt das Problem auch darin begründet, dass Linux aus einer Ideologie heraus von einer einzelnen Person entwickelt und dann von einer großen Community voran getrieben wurde. OpenStack hingegen wurde ins Leben gerufen um zu 100% einen kommerziellen Zweck für die OpenStack-Gemeinde zu erfüllen. Aus diesem Grund ist OpenStack nichts anderes als eine große Marketingmaschine aller beteiligten Provider. Die OpenStack-Gemeinschaft muss ihren eigenen Weg finden, selbst für Innovationen sorgen und sich von dem was Amazon macht nicht beeinflussen lassen.

Amazon Web Services sind NICHT der größte Konkurrent

Was ich in der ganzen Amazon Web Services vs. OpenStack Diskussion weiterhin nicht verstehe ist, dass hier ständig Äpfel mit Birnen verglichen werden. Wie kann man einen Public Cloud Anbieter mit einer Software für den Aufbau von Public/ Private Clouds vergleichen? Es muss viel mehr darum gehen, dass man die OpenStack Provider – und zwar jeden einzelnen – mit den Amazon Web Services vergleicht. Erst dann kann man eine echte Aussage treffen!

Allerdings wird man dann sehr schnell merken, dass der durch die OpenStack-Gemeinde selbst ernannte Konkurrent Amazon Web Services überhaupt nicht der Konkurrent ist! Das hört sich jetzt hart an, ist aber die Wahrheit. Es gibt derzeit keinen einzigen OpenStack Service Provider der den Amazon Web Services ansatzweise das Wasser reichen kann. Die Amazon Web Services sind der imaginäre Konkurrent, der Wunsch-Konkurrent in den Köpfen der Anbieter. Ich stelle dazu mal das Service-Angebot der beiden Top Public Cloud OpenStack Provider Rackspace und HP den Amazon Web Services gegenüber.

Amazon Web Services

Rackspace

HP

Amazon EC2 Cloud Servers Compute
Auto Scaling
Elastic Load Balancing Cloud Load Balancers Load Balancer
Amazon EMR
Amazon VPC
Amazon Route 53 Cloud DNS DNS
AWS Direct Connect
Amazon S3 Cloud Files Object Storage
Amazon Glacier Cloud Backup
Amazon EBS Cloud Block Storage Block Storage
AWS Import/Export
AWS Storage Gateway
Amazon CloudFront CDN
Amazon RDS Cloud Databases Relational Database
Amazon DynamoDB
Amazon ElastiCache
Amazon Redshift
Amazon CloudSearch
Amazon SWF
Amazon SQS Messaging
Amazon SES
Amazon SNS
Amazon FPS
Amazon Elastic Transcoder
AWS Management Console Management Console
AWS Identity and Access Management (IAM)
Amazon CloudWatch Cloud Monitoring Monitoring
AWS Elastic Beanstalk Application Platform as a Service
AWS CloudFormation
AWS Data Pipeline
AWS OpsWorks
AWS CloudHSM
AWS Marketplace
Cloud Sites
Managed Cloud
Mobile Stacks

Diese Gegenüberstellung zeigt, dass nicht die Amazon Web Services der größte Konkurrenz sind, sondern die Gefahr aus dem eigenen Lager kommt. Wo ist die Diversifizierung, wenn schon die beiden großen OpenStack Public Cloud Provider zu 90% exakt dieselben Services anbieten? Das Service-Portfolio sowohl von Rackspace als auch von HP ist bei weitem nicht in der Lage, eine Konkurrenz zu den Amazon Web Services darzustellen. Im Gegenteil, beide nehmen sich gegenseitig Marktanteile weg, indem das Angebot nahezu identisch ist.

Gefangen im goldenen Käfig

Die OpenStack Provider stecken in einem Dilemma, das ich als den goldenen Käfig betrachte. Hinzu kommt, dass sich alle Anbieter im Grunde genommen gegenseitig kannibalisieren, das zeigt die Gegenüberstellung der Services von Rackspace und HP, indem die Portfolios sich kaum unterscheiden.

Aber warum sitzen alle OpenStack Provider nun im goldenen Käfig. Nun, sie profitieren voneinander, indem jeder neue Ideen und Lösungen dem Projekt zur Verfügung stellt und alle gleichermaßen von einer gemeinsamen Code-Basis profitieren, um daraus ihr eigenes Angebot schnüren zu können. Das bedeutet im Umkehrschluss aber auch, dass niemand einen echten Wettbewerbsvorteil daraus ziehen kann, indem alle mit den selben Mitteln in diesem Käfig sitzen. Der Käfig selbst beinhaltet grundsätzlich etwas Wertvolles und bietet über die vorhanden Services seine Möglichkeiten. Allerdings hat jeder Anbieter nur eingeschränkte Freiheiten, indem alle über dieselbe Grundversorgung verfügen.

Rackspace versucht sich über einen erweiterten Support zu differenzieren. Piston Cloud hält sich ganz aus dem Public Cloud Wettbewerb heraus und bietet nur Private bzw. Hosted Private Clouds an.

Ich habe auf Twitter schon Diskussionen verfolgt, in denen es darum ging, sich mit Amazon mit einer OpenStack Hybrid Cloud zu duellieren. Da vergessen so manche allerdings Eucalyptus auf ihrer Rechnung, die eine exklusive Partnerschaft mit Amazon haben und in letzter Zeit immer mehr Services entwickelt haben, um die Service-Lücke zu Amazon zu schließen.

Weiterhin darf eines nicht außer Acht gelassen werden. Der Vergleich mit Linux scheint vom Ansatz her richtig zu sein. Allerdings können die meisten Linux Distributionen kostenlos genutzt werden. OpenStack Provider hingegen müssen ihre Services verkaufen, um rentabel zu sein. Das bedeutet ebenfalls, dass OpenStack Provider dazu verdammt sind, so viel Profit wie möglich aus ihrem Service-Angebot zu machen, um die laufenden Kosten für die Infrastruktur usw. zu decken.

Differenzierung geht nur über ein attraktives Service-Portfolio

Mit dem goldenen Käfig muss man sich als OpenStack Provider abfinden. Aber das bedeutet nicht, dass man deswegen nur einer von vielen Anbietern bleiben muss. Zum einen sollte man davon Abstand nehmen, Infrastructure-as-a-Services als tragendes Geschäftsmodell zu sehen, zumindest als kleiner Anbieter. Infrastruktur ist Commodity. Weiterhin sollte man nicht damit weitermachen oder gar damit anfangen, die Amazon Web Services nachzuahmen, der Zug ist abgefahren. Stattdessen sollte versucht werden, das Rad weiter zu entwickeln und über Innovationen die nächsten Amazon Web Services zu werden.

Vielmehr geht es allerdings darum, dass jeder OpenStack Provider das Beste für sich aus dem OpenStack Projekt machen muss und dabei die Innovationen nicht vergessen darf. In Zukunft wird nur derjenige Cloud-Anbieter erfolgreich sein, der Services anbietet, die den Kunden einen echten Mehrwert bieten. Dabei kann und wird OpenStack eine sehr große Rolle spielen, allerdings nicht im Mittelpunkt stehen sondern nur als Mittel zum Zweck dienen.

Die OpenStack Provider müssen damit anfangen, aus der Marketingmaschine OpenStack die Innovationsmaschine OpenStack zu machen. Dann kommt die Bewunderung von ganz alleine.

Categories
Services @de

Exklusiv: openQRM 5.1 wird um Hybrid Cloud Funktionalität erweitert und bindet Amazon AWS und Eucalyptus als Plugin ein

Bald ist es soweit. Noch in diesem Sommer wird openQRM 5.1 erscheinen. Projektmanager und openQRM-Enterprise CEO Matt Rechenburg hat mir vorab bereits ein paar sehr interessante neue Features verraten. Neben einem vollständig überarbeiteten Backend-Design wird die Open-Source Cloud Infrastruktursoftware aus Köln um Hybrid-Cloud Funktionalität erweitert, indem Amazon EC2, Amazon S3 und deren Klon Eucalyptus als Plugin eingebunden werden.

Neue Hybrid-Cloud Funktionen in openQRM 5.1

Ein kleiner Überblick über die neuen Hybrid-Cloud Funktionen in der kommenden openQRM 5.1 Version:

  • openQRM Cloud spricht transparent mit Amazon EC2 und Eucalyptus.
  • End-User innerhalb einer privaten openQRM Cloud können sich per Self-Service vom Administrator ausgewählte Instanz-Typen bzw. AMI’s bestellen, die dann von openQRM Cloud in Amazon EC2 (oder Amazon kompatiblen Clouds) automatisch provisioniert werden.
  • Benutzerfreundliches Password-Login für den End-User der Cloud per WebSSHTerm direkt im openQRM Cloud Portal.
  • Automatisches Applications Deployment mittels Puppet.
  • Automatische Kostenabrechnung über das openQRM Cloud-Billingsystem.
  • Automatisches Service Monitoring via Nagios für die Amazon EC2 Instanzen.
  • openQRM High-Availability auf Infrastrukturebene für Amazon EC2 (oder kompatible Private Clouds). Das bedeutet: Fällt die EC2 Instanz aus oder tritt in einer Amazon Availability Zone (AZ) ein Fehler auf, wird eine exakte Kopie dieser Instanz neu gestartet. Im Falle eines Ausfalls einer AZ wird die Instanz sogar automatisch in einer anderen AZ derselben Amazon Region wieder hochgefahren.
  • Integration von Amazon S3. Daten lassen sich direkt über openQRM auf Amazon S3 speichern. Beim Erstellen einer EC2 Instanz kann ein Skript, welches auf S3 abgelegt ist mit angegeben werden, was z.B. weitere Befehle beim Start der Instanz ausführt.

Kommentar: openQRM erkennt den Trend genau zur richtigen Zeit

Auch openQRM-Enterprise zeigt mit dieser Erweiterung, dass die Hybrid Cloud ein immer ernst zunehmender Faktor beim Aufbau von Cloud-Infrastrukturen wird und kommt mit den neuen Features genau zur richtigen Zeit. Das Unternehmen aus Köln orientiert sich dabei nicht überraschend am aktuellen Public Cloud Marktführer Amazon Web Services. Damit lässt sich openQRM ebenfalls in Kombination mit Eucalyptus und anderen Amazon kompatiblen Cloud-Infrastrukturen nutzen, um eine massiv skalierbare Hybrid-Cloud Infrastruktur aufzubauen. Dabei setzt openQRM auf sein bewährtes Plugin-Konzept und bildet Amazon EC2, S3 und Eucalyptus genau so ab. Amazon und Eucalyptus werden, neben eigenen Ressourcen aus einer privaten openQRM Cloud, damit zu einem weiteren Ressourcen Provider, um schnell und unkompliziert mehr Rechenleistung zu erhalten.

Zu den absoluten Killerfeatures gehören meiner Ansicht nach das automatische Applications Deployment mittels Puppet, mit dem End-Nutzer sich bequem und automatisiert EC2 Instanzen mit einem vollständigen Softwarestack selbst bereitstellen können, sowie die Berücksichtigung der Amazon AZ-übergreifenden High-Availability Funktionalität, die von vielen Cloud-Nutzern aus Unwissenheit immer wieder vernachlässigt wird.

Viel Beachtung hat das Team ebenfalls der Optik und dem Interface des openQRM-Backends geschenkt. Die vollständig überarbeitete Oberfläche wirkt aufgeräumter und dadurch übersichtlicher in der Handhabung und wird die Bestandskunden positiv überraschen.

Categories
Services @de

Application Lifecycle Engine: cloudControl veröffentlicht Private Platform-as-a-Service

Der Platform-as-a-Service (PaaS) Anbieter cloudControl hat mit der Application Lifecycle Engine einen Private PaaS auf Basis der Technologien seines Public PaaS veröffentlicht. Das Unternehmen aus Berlin möchte damit Unternehmen die Möglichkeit geben, auch im eigenen Rechenzentrum einen selbstverwalteten PaaS zu betreiben, um damit mehr Kontrolle über den Speicherort der Daten zu bekommen und den Zugriff auf die jeweiligen Daten zu regeln.

cloudControl Application Lifecycle Engine

Die cloudControl Application Lifecycle Engine leitet sich technologisch aus dem eigenen Public-PaaS Angebot ab und dient seit 2009 als Grundlage für den Cloud-Service.

Die Application Lifecycle Engine ist als Middleware zwischen der grundlegenden Infrastruktur und der eigentlichen Applikationen zu verstehen (PaaS Konzept) und bietet eine vollständige Laufzeitumgebung für Anwendungen. Damit erhalten Entwickler die Möglichkeit, sich auf die Entwicklung ihrer Applikation zu konzentrieren und können unbequeme Prozesse und die Bereitstellung übernehmen lassen.

Die nun veröffentlichte Application Lifecycle Engine soll es großen Unternehmen ermöglichen, einen eigenen Private PaaS in einer selbstverwalteten Infrastruktur zu betreiben, um sich damit die Vorteile der Cloud auch in die eigenen vier Wände zu holen. Die Plattform setzt dazu auf offene Standards und verspricht damit einen Vendor-Lock-in zu vermeiden. cloudControl spannt zudem eine hybride Brücke, indem bereits auf cloudControls Public PaaS entwickelte Anwendungen im Private PaaS und umgekehrt betrieben werden können.

Weiterhin adressiert cloudControl mit der Application Lifecycle Engine Service Provider, die selber ein PaaS Angebot aufbauen möchten und damit ihre bestehenden Services und Infrastrukturleistungen bündeln können.

Trend zu Private und Hybrid Lösungen verstärkt sich

cloudControl ist nicht das erste Unternehmen, dass den Trend hin zum Private PaaS erkannt hat. Dennoch zeigt die aktuelle Sicherheitslage, dass Unternehmen viel bewusster im Umgang mit der Cloud werden und abwägen, wo sie ihre Daten speichern bzw. verarbeiten lassen. Aus diesem Grund kommt cloudControl genau zur richtigen Zeit, um Unternehmen die Möglichkeit zu bieten, mehr Kontrolle über ihre Daten zurückzugewinnen und das Bewusstsein zu stärken, wo sich ihre Daten tatsächlich befinden. Gleichzeitig ermöglicht cloudControl Unternehmen damit aber auch, die eigene selbstverwaltete IT-Infrastruktur mit einer echten Cloud-DNA aufzuwerten, indem IT-Abteilungen den Entwicklern einen unkomplizierten Zugriff auf Ressourcen gewähren können und damit schneller und produktiver Ergebnisse liefern können. Weiterhin können IT-Abteilungen die Application Lifecycle Engine als eine Chance nutzen, sich innerhalb des Unternehmens als partnerschaftlicher Service-Broker für die Fachabteilungen zu positionieren.

Nicht zu vernachlässigen ist die Möglichkeit, cloudControls Angebot im Hybrid-Betrieb zu nutzen. Es kann durchaus, relativ schnell, zu dem Umstand kommen, dass nicht mehr ausreichend lokale Ressourcen (Rechenleistung, Speicherplatz) zur Verfügung stehen, die für den Private PaaS benötigt werden. In diesem Fall kann über die homogene Architektur der Application Lifecycle Engine auf den Public PaaS von cloudControl ausgewichen werden, um Projekte und den Fortschritt der Entwicklungsaktivitäten nicht zu beeinträchtigen.

Categories
Analysen

Cloud Computing ist ein gutes Mittel gegen die Schatten-IT

Cloud Computing wird immer als ein großer Förderer der Schatten-IT dargestellt. Das hat weiterhin seine Richtigkeit und auch ich habe das Thema immer wieder stark propagiert. Mit der richtigen IT-Strategie lässt sich die Schatten-IT aber sogar durch Cloud Computing präventiv verhindern, eindämmen und beseitigen. Das ist kein einfacher Weg, der sich aber für alle Beteiligen lohnt.

Gründe für eine Schatten-IT

Schatten-IT ist kein Phänomen des Cloud Computing. In jedem größeren Unternehmen hat der eine oder andere Entwickler seinen Server unterm Tisch stehen oder IT-Projekte haben irgendwo selbst installierte MySQL Datenbanken, im schlimmsten Fall außerhalb des Unternehmens bei einem Hoster. Nutzer haben, solange sie die entsprechenden Rechte für die Installation besitzen, eigene Softwarelösungen im Einsatz, mit denen sie produktiver arbeiten können, als mit den ihnen vorgesetzten Lösungen. Was sind Gründe für eine Schatten-IT?

  • Unzufriedenheit der Mitarbeiter mit eingesetzten Technologien.
  • IT-Technologien erfüllen nicht den gewünschten Zweck.
  • IT-Abteilungen sind zu langsam.
  • IT-Abteilungen liefern nicht entsprechend der gewünschten Anforderungen.
  • Aus Kostendruck werden Ressourcen gestrichen.

Wie kommt Schatten-IT zum Ausdruck?

  • Eigener Server unter dem Tisch.
  • Workstation wird zum Server.
  • Einsatz von Cloud Infrastrukturen
  • Eigene Kreditkarte wird genutzt und anschließend über Spesen verrechnet.
  • Nicht angemeldete oder genehmigte selbst installierte Software.
  • Nutzung von Cloud-Services und -Software.

Wie hilft Cloud Computing?

Man muss nur die Gründe der Mitarbeiter betrachten, um zu verstehen, warum zu Mitteln der Schatten-IT zurückgegriffen wird. Die Rebellen unter uns mal beiseite gelassen, geht es in erster Linie um die Unzufriedenheit und die Hilflosigkeit der Mitarbeiter, die ihre Arbeit produktiver erledigen möchten. Unterm Strich geht es, unabhängig von einer Technologie, um Kommunikation und Gegenseitiges Verständnis. Dass eine IT-Abteilung nicht die Geschwindigkeit haben kann wie zum Beispiel ein Public Cloud Anbieter ist ganz normal und sehr gut nachvollziehbar, sonst könnte die IT schließlich gleich der Anbieter sein und nicht der Konsument. Aber es gibt Mittel und Wege den Anschluss an den Markt nicht zu schnell zu verlieren.

  • Nicht alles verbieten und offen auf Wünsche eingehen.
  • Kommunizieren und von den Mitarbeitern Ideen einfordern.
  • Think Tanks und Innovations-Teams etablieren, die ständig neue Trends in das Unternehmen treiben.
  • Eigenen Self-service anbieten.
  • Ähnlich schnellen Zugriff auf Ressourcen ermöglichen wie Public Cloud Anbieter.
  • Middleware als Service Portal für Mitarbeiter, über die auf interne und externe Cloud Services Zugriff gewährt wird.

Cloud Computing ist für die Schatten-IT nicht die Non-plus Ultra Lösung und auf jeden Fall ein Treiber dieses Problems. Aber gleichzeitig kann Cloud Computing dabei helfen, diesem über die Jahre gewachsenen Phänomen entgegenzuwirken. Die entsprechenden Konzepte und Technologien stehen bereit und müssen nun umgesetzt werden.

Ein vielversprechender Ansatz ist der Aufbau eines eigenen Service Portals für die Mitarbeiter, über welches diese kontrolliert auf interne und externe Cloud Services zugreifen. Dabei kann es sich sowohl um Infrastruktur (virtuelle Server und Speicherplatz) als auch um Software und Plattformen handeln. Die IT-Abteilung wird dadurch immer mehr zum Service Broker und kann durch die Nutzung externer Ressourcen (hybrid Modell) sicherstellen, dass die Mitarbeiter mit einer hohen Servicegüte rechnen können. So lässt sich einem Entwickler zum Beispiel ein Server anstatt in mehreren Wochen, innerhalb von fünf Minuten bereitstellen.

Categories
Kommentar

Top Cloud Computing Washer – Diese Unternehmen sagen die Unwahrheit über ihre Produkte

Seit Beginn des Cloud Computing versuchen die alten Hardwarehersteller ihr Geschäft vor Umsatzeinbrüchen zu retten, indem sie ihre Speicherlösungen wie NAS (Network Attached Storage) oder anderweitige Lösungen als “Private Cloud” Produkte verkaufen, um sich damit gegen echte flexible, skalierbare und verfügbare Lösungen aus der Cloud zu positionieren. Der Amerikaner nennt diese Art des Marketing “Cloud-Washing”. Selbstverständlich nutzen diese Anbieter die aktuelle politische Lage (PRISM, Tempora, usw.), um das Marketing um ihre Produkte weiter zu verstärken. Tragischerweise springen auch junge Unternehmen auf diesen Zug mit auf. Denn was die Alten können, dürfen sie schließlich auch. Falsch gedacht. Was diese Anbieter jedoch überhaupt nicht interessiert ist, dass sie echte Anbieter von Cloud Computing Lösungen damit rücksichtslos mit Füßen treten. Das ist falsch und eine Wettbewerbsverzerrung, da mit Marketingfloskeln geworben wird, die nachweislich nicht erfüllt werden können. Unterm Strich wird also nicht nur der Mitbewerb und die Cloud von diesen Anbietern in ein falsches Licht gerückt, sondern ebenfalls dem Kunden ein Produkt mit falschen Vorstellungen verkauft. Der eine oder andere Entscheider wird mit Sicherheit bald sein böses Erwachen erleben.

Hintergrund: Cloud Computing vs. Cloud-Washing

Auf CloudUser sind in den letzten Jahren viele Artikel zum Thema Cloud-Washing erschienen. Hier eine kleine Auswahl:

Was sagt denn Wikipedia?

Private Cloud, laut Wikipedia

“Private Cloud – die private Rechnerwolke – bietet Zugang zu abstrahierten IT-Infrastrukturen innerhalb der eigenen Organisation (Behörde, Firma, Verein).”

Nach der NIST Definition, laut Wikipedia

Das NIST listet fünf essenzielle Charakteristika für Cloud-Computing

  • Selbstzuweisung von Leistungen aus der Cloud durch den oder die Nutzer, die bei Bedarf bereitstehen soll (“Self-service provisioning” und “As-needed availability”).
  • Skalierbarkeit bietet die Entkopplung von Nutzungsschwankungen und Infrastrukturbeschränkungen (Scalability).
  • Zuverlässigkeit (“reliability”) und Ausfalltoleranz (“fault-tolerance”) garantieren permanent definierte Qualitätsstandards der IT-Infrastruktur für den Nutzer.
  • Optimierung und Konsolidierung bietet Effizienz und Ökonomie in Anpassung an fortlaufende Umweltschutzstandards, die sukzessive vom Cloud-Diensteanbieter optimiert werden können (Optimization/Consolidation).
  • Qualitätssicherung und -kontrolle kann fortlaufend durch den Diensteanbieter überwacht und sichergestellt werden, ohne dass die Nutzer belastet werden müssten (QoS – Quality of Service).

Quelle: http://de.wikipedia.org/wiki/Cloud-Computing

Top Cloud Computing Washer

Protonet

Der neueste Geniestreich aus der Hamburger Startup-Szene. Ein NAS mit einer graphischen Oberfläche für Social Collaboration in einer wirklich(!) hübschen orangen Box wird als Private Cloud vermarktet. Dabei wird selbstverständlich das PRISM-Pferd geritten.

ownCloud

Bis auf den Namen steckt grundsätzlich erst einmal nicht viel Cloud in ownCloud. ownCloud ist ein Stück Software mit der sich – nicht ohne großen Aufwand – ein (echter) Cloud-Storage aufbauen lässt. Dafür wird natürlich auch ein Betriebssystem, Hardware und vieles mehr benötigt.

Synology

Synology schreibt selbst, dass sie “… ein Anbieter von dedizierten Network Attached Storage (NAS)-Produkten.” sind. Fein, warum dann auf den Private Cloud Zug aufspringen? Klar, verkauft sich derzeit gut. Wenn aus der Cloud bald Qloud werden sollte, dann verkauft Synology bestimmt auch Private Qlouds.

D-Link

D-Link ist auch nicht von schlechten Eltern. In einer Pressemitteilung aus dem vergangenen Jahr hieß es großzügig:

D-Link, der Netzwerkexperte für das digitale Zuhause, erweitert die Cloud-Familie um einen neuen Router: Mit dem tragbaren DIR-506L lässt sich die persönliche Datenwolke bequem in die Tasche stecken.

und

D-Link investiert konsequent in die Entwicklung von Cloud Produkten sowie Services. … Bereits verfügbar sind die Cloud Router … mehrere Netzwerkkameras sowie der Netzwerk-Videorekorder …

D-Link cloudifiziert mittlerweile sogar Netzwerkkameras und Netzwerk-Videorekorder, nur um über den Cloud-Zug den Absatz zu erhöhen. Wohlgemerkt auf Kosten und dem Rücken der Kunden.

Oracle

Oracle liebt Hardware und Lizenzen. Das war auch anfangs deutlich zu merken. Vorkonfigurierte Applikationsserver, die für eine monatliche Gebühr anzumieten waren und dann im Rechenzentrum des Kunden installiert werden sollten, wurden als Infrastructure-as-a-Service vermarket. Langsam fängt sich der Anbieter jedoch. Es bleibt abzuwarten, welchen Einfluss die Kooperation mit Salesforce auf Larry Ellison haben wird. Er wird sich bestimmt immer noch ärgern, dass er die Sun Cloud Technologie nach der Übernahme einfach nicht mehr beachtet hat.

Weitere Tipps sind erwünscht

Das sind nur ein paar Anbieter, die den Cloud Computing Zug nutzen, um ihr bestehendes oder sogar neues Geschäftsmodell zu sichern. Wer weitere Tipps hat, darf diese mit dem Betreff “Cloud-Washer” gerne an clouduser[at]newagedisruption[.]com senden.

Categories
Kommentar

Die IT-Abteilung stirbt nicht aus – Aber sie wird sich verändern müssen

Vor kurzem machte ein Artikel in der englischen Computerworld die Runde, in der die These aufgestellt wurde, dass die IT-Abteilungen bis zum Ende dieser Dekade verschwinden könnten. Ingo Notthoff von T-Systems stellte daraufhin auf Facebook die Frage zur Debatte, ob “Die IT-Abteilungen aussterben werden.”. Ich hatte dazu eindeutig geantwortet, dass sie nicht aussterben, sondern sich zum Service Broker wandeln. Diese Diskussion hat Ingo wiederum in einem Blogbeitrag niedergeschrieben. Ich möchte an dieser Stelle das Thema noch einmal aufgreifen und meinen Standpunkt ausführlich darlegen.

Trotz Consumerization of IT fehlen die wichtigen Kenntnisse

Auch wenn ich alles sehr begrüße, was in jeder Form verspricht disruptiv zu sein. Es gibt Dinge, die werden auch in Zeiten des massiven Einsatzes von Technologien und Self-Services benötigt. Ich rede vom Menschen.

Ich weiß und es ist richtig, dass Cloud-Services per Self-Service quasi von jedem im Unternehmen genutzt werden können, um die Ziele nach den persönlichen Anforderungen zu erreichen ohne jedes Mal auf die IT-Abteilung warten zu müssen. Aber ist das auch vernünftig? Kann jeder, nur weil er ein iPhone oder eine SaaS-Applikation bedienen kann, ebenfalls darüber entscheiden, welche Services wertvoll und wichtig für das Unternehmen sind. Im Zweifelsfall wird das Wissen dann zu 100% von externen Beratern eingeholt, was nicht zwangsläufig immer von Vorteil ist. Kosten für Personal sparen ist schön und gut, aber irgendwann hört es auf. Denn wo hierfür Kosten eingespart werden, müssen andere dafür mehr arbeiten. Die Line of Business Manager werden sich bedanken.

Außerdem muss man einfach mal in die Unternehmen reinhören. Selbstverständlich möchten die meisten, dass die IT schneller funktioniert, aber möchten sie neben ihren Hauptaufgaben auch noch dafür die Verantwortung übernehmen? Nein. Das funktioniert sicherlich für ein paar Bereiche im Unternehmen, aber den meisten Mitarbeitern werden die Kenntnisse, Lust und Zeit dafür fehlen.

IT-Abteilungen müssen sich neu erfinden

Nachdem ich meine Lanze für die IT-Abteilungen gebrochen habe, muss auch hier Kritik geäußert werden. Hat sich nicht jeder schon über die langsame, der Zeit hinterherhängende IT-Abteilung geärgert? Wie kann es sein, dass man auf die Hardware für ein Testsystem(!) bis zu 3 Monate warten muss und am Ende stellt sich heraus, dass es doch nur eine virtuelle Maschine ist. Solche Erfahrungen füttern natürlich diejenigen, welche die IT-Abteilungen am liebsten von heute auf morgen abschaffen möchten. In diesem Fall sogar zurecht.

Trotzdem ist jede gute IT-Abteilung sehr wertvoll für jedes Unternehmen. Die Extrembeispiele bestätigen glücklicherweise nicht die Regel. Allerdings darf keine IT-Abteilung so weitermachen, sondern sich über einen strukturellen Wandel Gedanken machen und diesen letztendlich auch umsetzen. Durch die Cloud hat sie ihre zentrale Position für den Einkauf und Betrieb von IT-Lösungen verloren. Schatten-IT ist hier das bislang bewährte Mittel der Mitarbeiter, um sich an der IT-Abteilung vorbei, schnell und nach Bedarf IT-Services zu besorgen.

Diesen Umstand gilt es zu beseitigen. Schatten-IT ist nicht unbedingt etwas sehr schlechtes. Zumindest hilft sie dabei, dass Mitarbeiter ihre Aufgaben schnell und auf ihre Art zu arbeiten erledigen. Für jeden Entscheider und IT-Verantwortlichen ist sie allerdings vergleichbar mit einem Gang über glühende Kohlen. Es gibt in einem Unternehmen nichts Schlimmeres, wenn die linke Hand nicht weiß was die rechte macht oder wenn IT-Lösungen zu einem unkontrollierten Wildwuchs ausufern. Das lässt sich nur durch eine zentrale Organisation handhaben. Bei der sich die IT-Abteilungen nicht wieder in ihren Elfenbeinturm zurückbegeben sollen, sondern pro-aktiv mit den Mitarbeiten der Fachabteilungen kommunizieren, um deren Bedürfnisse und Anforderungen zu verstehen. Die IT-Abteilung ist der interne IT-Dienstleister der Mitarbeiter und Fachabteilungen und so gehört sie auch ins Unternehmen eingeordnet. Broker-Plattformen sind in Zeiten von internen und externen (Cloud)-Services die Werkzeuge mit denen sie die Koordination für die Mitarbeiter regeln.

Koordination ist enorm wichtig

Wo wir abschließend noch einmal zu dem Thema IT-Verantwortung innerhalb des Unternehmens kommen. Je nachdem welcher Studie man Glauben schenken soll, ist die Private Cloud derzeit die bevorzugte Cloud-Form im Unternehmen. Immerhin sagen das 69 Prozent der Befragten. Darüber hinaus treffen in 80 Prozent aller Fälle die IT-Abteilungen die Entscheidungen über den Einkauf von IT-Lösungen. Das hört sich im ersten Moment nach dem Erhalt des Status Quo an. Wird auf Grund der aktuellen politischen Entwicklungen aber wohl vorerst die Realität bleiben. Nichts desto trotz ermöglichen auch echte Private Cloud Lösungen den Unternehmen eine flexible Zuweisung von Ressourcen über einen Self-Service an ihre Mitarbeiter.

Doch wer soll diese Private Cloud Infrastrukturen aufbauen und wer soll sie koordinieren? Es können nur die IT-Abteilungen machen. Allen anderen Mitarbeitern fehlen dazu die notwendigen Kenntnisse und die Zeit. IT-Abteilungen müssen von den Anbietern in der Public Cloud lernen und den Fachabteilungen auf einem ähnlichen Weg einen schnellen und vor allem unkomplizierten Zugriff auf IT-Ressourcen ermöglichen. Das funktioniert nur, wenn sie sich als Service-Broker für interne und externe IT-Services aufstellen und sich als partnerschaftlicher Dienstleister verstehen.

Categories
Analysen

Der Cloud Computing Markt in Deutschland 2013

Die Bedeutung des Cloud Computing nimmt in Deutschland immer weiter zu. Glaubt man lokalen Marktforschern, ist das Interesse an on-Demand Services weiterhin ungebrochen und nimmt sogar stetig zu. Gleiches lässt sich von der Anbieterseite sagen. In regelmäßigen Abständen erscheinen neue Services oder gar Anbieter am Markt. Insbesondere der Software-as-a-Service (SaaS) Markt erfreut sich in Deutschland wachsender Beliebtheit. Infrastructure-as-a-Service (IaaS) Anbieter sind ähnlich gut vertreten, sollten jedoch nicht die gleichen Fehler machen wie ihr internationaler Mitbewerb. Für Platform-as-a-Service (PaaS) Anbieter ist noch ausreichend Platz.

Cloud-Nachfrage in Deutschland mit stetigem Wachstum

Vertraut man auf die Zahlen der Marktforscher von Techconsult, nutzen bereits ein Drittel aller kleineren deutschen Unternehmen Lösungen aus der Cloud. Die größte Nachfrage kommt dabei aus dem Mittelstand bevorzugt dem Handel, der Banken- und Versicherungsbranche. Konzerne und große Mittelständler gehören zu den führenden Unternehmen beim Einsatz, aber auch die kleinen holen stark auf. Haben im vergangenen Jahr nur acht Prozent der kleinen- und mittelständischen Unternehmen geplant Cloud Lösungen einzusetzen, sind ist in diesem Jahr bereits 24 Prozent.

29 Prozent der Unternehmen aus dem Handel interessieren sich für Cloud Computing. Das sei ein Anstieg um satte 21 Prozent im Vergleich zum Vorjahr. Im Dienstleistungssektor setzt jedes vierte Unternehmen auf Cloud Services, zum Vorjahr ein Anstieg von über zehn Prozent. Das größte Interesse kommt aus dem Umfeld der Banken und Versicherungen. 33 Prozent der Unternehmen aus diesen Branchen setzen demnach auf Cloud Technologien, obwohl die Cloud im Vorjahr noch eher skeptisch betrachtet wurde.

Ähnliches Verhalten zeigen die Konferenzen

Auf dem ersten Amazon Web Services Summit im Jahr 2010 in der Berliner Kalkscheune konnten noch überschaubare 150 Teilnehmer gezählt werden. Mittlerweile ist Amazon in das Berlin Conference Center umgezogen und erreichte mit 1.500 Teilnehmern so viele, dass außerhalb Monitore aufgestellt werden mussten. Ähnlich verhält es sich mit Salesforce. Das als SaaS-CRM Anbieter bekanntgewordene Unternehmen konnte auf seiner diesjährigen Customer Company Tour 13 nach eigenen angaben 1.800 Besucher begrüßen.

Im Vergleich zu den Massen, die regelmäßig auf US-amerikanische Konferenzen stürmen, sind das zwar eher Peanuts. In Deutschland jedoch sehr gute Quoten.

Verteilung der Cloud Computing Anbieter in Deutschland

Was die Beispiele von Amazon und Salesforce sehr gut zeigen: Beide Unternehmen sind Cloud-Service Anbieter und handeln nicht mit virtuellen Ressourcen. Auch wenn Amazon der erste IaaS Anbieter am Markt war und als Paradebeispiel gilt, sind es die Web Services um die Infrastruktur herum, die den Kunden den eigentlichen Mehrwert liefern. Genau so verhält es sich bei Salesforce. Als Mischform aus SaaS- und PaaS-Anbieter gestartet, richtet der CRM-Anbieter seine Plattform für die Zukunft und Themen wie The Internet of Things aus.

Bei den beiden oben genannten Punkten straucheln die meisten deutschen Cloud-Anbieter allerdings. Der IaaS Markt in Deutschland ist sehr ausgeprägt. Neben vielen Tochterfirmen internationaler Unternehmen, suchen immer mehr Anbieter aus Deutschland ihren Platz in diesem Cloud Segment. Allerdings setzen dabei alle auf dieselbe Strategie und machen denselben Fehler wie viele internationale Anbieter auch, um IaaS Marktanteile zu gewinnen. Erstens wird sich ausschließlich darauf konzentriert, virtuelle Ressourcen (Rechenleistung, Speicherplatz) anzubieten und keine Mehrwert-Services drum herum, vgl. Amazon AWS. Zweitens werden ausschließlich Unternehmenskunden angesprochen. Entwickler werden nicht berücksichtigt. Das ist aus finanzieller Sicht attraktiver, führt aber dazu, dass Entwickler zwangsläufig auf US amerikanische Anbieter ausweichen müssen, da es keine ähnlichen deutschen aber auch europäischen Alternativen gibt.

Den größten Cloud-Markt in Deutschland stellen die SaaS-Anbieter. Hier gesellen sich viele bekannte IT-Größen aber auch vermehrt junge Unternehmen mit innovativen Ideen. Getrieben werden SaaS-Angebote vor allem durch Marktplätze von großen Anbietern wie dem der Telekom oder Fujitsu. Beide fassen damit, die ihrem befinden nach, qualitativ hochwertige Services unter einem Dach zusammen und sorgen für ein sortiertes Angebot, auf das Unternehmen zurückgreifen können. Besonderes Merkmal von vielen deutschen SaaS-Lösungen ist die Tatsache, dass diese sich lieber selbst um den Aufbau der notwendigen Cloud-Infrastruktur kümmern und bewusst auf ein deutsches Rechenzentrum zurückgreifen. Themen wie Zukunftssicherheit der eigenen Lösung und Vertrauen durch den Kunden sind dabei die Hauptentscheidungskriterien.

Der Markt für PaaS-Anbieter ist weiterhin sehr offen. Die Zahl der Anbieter die direkt aus Deutschland heraus gestartet sind, lässt sich an einer Hand abzählen und ist sehr überschaubar. Zudem setzen zwei der drei auf IaaS Angebote US-amerikanischer Anbieter. Hier bietet sich neben einigen internationalen Mitbewerbern noch Möglichkeiten für einen PaaS, der direkt in Deutschland betrieben wird. Allerdings sind dafür die großen (deutschen/ europäischen) IaaS Anbieter gefragt, um jungen Unternehmen und Entwicklern die Möglichkeit zu geben, schneller so eine Lösung zu entwickeln.

Deutschland ist auf einem guten Weg in der Cloud

Unterm Strich kann man sagen, dass der deutsche Cloud Computing Markt ein gut ausbalanciertes Verhältnis von XaaS Lösungen hat, allerdings noch einige Potentiale auf der Strecke bleiben, indem die wichtige Gruppe der Startups und Entwickler nicht mit für sie geeigneten Services angesprochen werden und diese daher zu Anbietern aus Übersee zurückgreifen müssen.

Die aufstrebenden Zahlen hinsichtlich der Cloud-Nutzung in Deutschland zeigen, dass das Vertrauen in die Anbieter stetig wächst und das Verständnis für den Mehrwert von Cloud-Services angekommen ist. Es zeigt aber auch, dass die Anbieter selbst an sich gearbeitet haben und die Bedenken und Kritiken ihrer potentiellen Kunden bereit sind zu beseitigen.