Cloud Computing

The OpenStack appeal continues to rise

For many CIOs and cloud strategists the open cloud management framework OpenStack still counts as a pure marketing engine. But this perception is deceiving. With the “Icehouse” release and the serious support of big IT vendors the open source project is evolving into a leading cloud standard.

The OpenStack momentum continues to build

OpenStack can be used in several different scenarios as an infrastructure foundation for public, private and hybrid clouds. Crisp Research sees “Icehouse” as an important step for the OpenStack community to increase its appeal and to help users on their journey of running their own OpenStack based cloud. To be successful with OpenStack, it is important for CIOs to find the right mix of products, services and resources in the community.

The numbers of the recent “OpenStack Summit” are an indicator for the building OpenStack momentum. More than 4,000 attendees testify to the growing importance of the open source cloud infrastructure software. It is the same with the current OpenStack deployments. In comparison to Q1/2014, the worldwide projects increased by 60 percent in Q2/2014.

On-premise private cloud deployments are still in the lead. There were 55 private cloud deployments in Q1/2014 and 85 deployments in Q2/2014. Even the number of worldwide OpenStack public clouds has jumped, from 17 to 29.

Icehouse is a milestone

After a perceived hype, OpenStack is on a good way to become one of the important cloud standards for private and hybrid cloud environments alongside Microsoft’s Cloud OS. The commitments and investments of almost all big technology vendors imply a clear future development. The new “Icehouse” release is a milestone regarding stability and functionality, and former bugs have been fixed.

– –
* The numbers base on the official statistics of the OpenStack Foundation.

Cloud Computing

Amazon AWS builds a data center in Germany: Nice idea!

The Amazon Web Services will open a new cloud region targeting the German market by establishing a data center in Germany (Frankfurt). But is this so exciting for German companies?

Amazon AWS to touch down in Germany

Apparently, Amazon AWS has recognized the importance of the German market and the concerns of German companies. Crisp Research knows from reliable sources that the cloud provider will open a cloud region for the German market with a location in Frankfurt in the coming weeks.

After the announcement of Salesforce of a German data center location, Amazon is the next big U.S. cloud provider to follow the trend. This again shows the attractiveness of Germany. After all, most American companies treat the German market rather stepmotherly. Typically, the majority of American cloud providers supply the European market through data centers in Ireland (Dublin) and the Netherlands (Amsterdam). This reduces the attractiveness of cloud providers, especially in the case of medium-sized German businesses. Consultations with IT users consistently show that storing data outside of Germany and an agreement that is based on maximum European law are a no-go.

[Update]: Technical evidence

On the 4th of July 2014 German blogger Nils Jünemann published an article technically referencing on a new AWS region “eu-central-1”. Using a traceroute to “” he proved, that something is available. However, when I traceroute on the 5th of July 2014 the host was unknown.

AWS Portfolio: Slowly reaching the enterprise IT

In addition to the data center site, Amazon has announced AWS CloudTrail last year, the first service to allow companies more control over compliance. AWS CloudTrail helps you monitor and record the AWS API calls to one or more accounts. Here views from the AWS Management Console, the AWS Command Line Interface (CLI), from your own applications or third party applications are taken into account. The collected data are stored on either Amazon S3 or Amazon Glacier for evaluation and can be viewed on tools from AWS or external providers. Amazon CloudTrail can be used free of charge. However, costs are associated with storing the data on Amazon S3 and Amazon Glacier as well as with Amazon SNS notifications.

AWS CloudTrail is one of the most important services for enterprise customers that Amazon has released in recent times. The collected logs support the compliance with government regulations by allowing recording of all accesses to AWS services. One can operate more successful security audits based on the log data, identifying the precise origin of vulnerabilities and unauthorized or erroneous hits on data.

Enterprise quo vadis?

After establishing itself as a leading infrastructure provider and enabler for startups and new business models in the cloud, the company from Seattle has been trying to get one foot directly in the lucrative business environment for quite some time. However, one question remains open. Will that be enough to achieve a critical mass of German companies in order to evolve from a provider for startups and developers to a serious alternative for IT workloads for business?

Yes, under certain conditions:

  • Business related services must be launched simultaneously in all regions and not only in the U.S..
  • AWS requires a network of partners in order to reach the mass of attractive German corporate customers.
  • The localization of all information, such as white papers, how-to’s and training is critical.
  • Less self-service, more managed services and professional services, e.g. through the partner network.
  • Reducing complexity by simplifying the use of the scale-out principle.
  • Cloud Connectivity for reliable access to the services.
  • Avoidance of the service lock-in.
  • Strengthening the AWS Marketplace for easier use of scalable standard workloads and applications.
  • Consideration of hybrid cloud scenarios and strengthening of the partner Eucalyptus on the private cloud side.

Note on the Eucalyptus partnership: Nearly all Eucalyptus customers should also be AWS customers (Source: Eucalyptus). This means, conversely, that some hybrid cloud infrastructure exists between on-premise Eucalyptus infrastructure and the Amazon public cloud.

The existing question marks: Microsoft and Google

Medium-sized businesses demand from cloud providers that the data are stored in a German data center. About 75 percent consider physical data location a necessity to enforce German law more easily.

After Salesforce, IBM and Amazon are the only remaining major cloud providers who could be expected to make investments in this direction.

About Google, one can unfortunately say that nothing will happen in the near or far future. The DNA and mentality of the company in terms of data location and customer concerns differ too strongly from those of other providers.

At Microsoft, the cards are basically good. However, the Redmond company doesn’t need to play them now. Microsoft is pursuing a different strategy by using the Cloud OS Partner Network for local providers worldwide (e.g. Pironet NDH in Germany), empowering them with the so-called “Azure Pack” to offer an own Microsoft Azure based cloud infrastructure in a hosted model from a local data center.

How the trend of building local data centers will develop remains to be seen. Bottom line is, Germany and especially the location of Frankfurt, among others due to the DE-CIX, are well prepared to take additional international cloud providers. A key finding of this development is that international providers have understood the concerns and are willing to make compromises in the name of what is good for the user.

Cloud Computing

Analyst Report: Amazon AWS vs. Microsoft Azure

After Microsoft needed to fight against vendors like Novell, Oracle, IBM or HP for on-premise market shares in the last decades, with the Amazon Web Services a new giant has been established in the public cloud, who puts out feelers to the enterprise customer. A market which predominantly is dominated by Microsoft and which reveals an enormous potential for the vendors.

Market forecasts by Crisp Research show a strong growth by 40 percent per year for the next years, whereby revenues in Germany in 2018 amounted up to 28 billion euros. This free analyst report compares the service portfolio as well as the strategy of the Amazon Web Services with that of Microsoft Azure.


Report: OpenStack im Unternehmenseinsatz – Teil 1: Grundlagen und aktueller Einsatz

Der OpenStack Zug nimmt auch in Deutschland langsam Fahrt auf. Die Anzahl der Anfragen von CIOs, die das Open Source-basierte Cloud Management-Framework als Alternative evaluieren, ist in den vergangenen 6 Monaten deutlich gestiegen, wie interne Statistiken von Crisp Research belegen.

Für immer mehr Unternehmen stellt sich die Frage, ob OpenStack in den kommenden Jahren ein fester Bestandteil der Cloud-Integrationsstrategie wird und demnach bei der Planung und Implementierung hybrider Cloud-Infrastrukturen mit berücksichtigt werden muss.

Im Rahmen mehrerer aktueller Research-Projekte geht Crisp Research der Fragen nach, inwieweit OpenStack schon „Enterprise-ready“ ist und welche Hürden bis zur Enterprise-Grade Cloud Management Plattform noch zu nehmen sind. In diesem kostenlosen Report wird ein Überblick zur Entwicklung, den Komponenten und aktuellen Einsatzszenarien gegeben.

Der Report steht kostenlos unter “OpenStack im Unternehmenseinsatz (Teil 1)” zum Download zur Verfügung.


Die Community Cloud wird an Bedeutung gewinnen.

Wie kommen Unternehmen aus der Cloud heraus ohne ihre Komfortzone zu verlieren. Diese Fragen hören wir immer wieder. Ich bin der Meinung, dass man sich nicht zwangsläufig aus der Cloud zurückziehen muss, sondern einfach versuchen sollte, mehr Kontrolle zurückzugewinnen und die Ideen der Cloud für sich selbst zu nutzen. In diesem Zusammenhang sollte man die Community Cloud in Betracht ziehen, denn diese wird in meinen Augen immer mehr an Bedeutung gewinnen. Der Bedarf und vor allem das Verständnis hierfür muss nur geweckt werden. Tenor: “Aufbau einer eigenen Hosted Private Cloud, betrieben von einer Gemeinschaft die sich vertraut.” Das ist sowohl für Unternehmen, Organisationen, Bürogemeinschaften und regelmäßige Projektpartner interessant.

Was ist eine Community Cloud?

Innerhalb einer Community Cloud schließen sich Unternehmen einer gleichen Branche zusammen und fassen ihren eigenen Private Clouds zu einer Community Cloud zusammen, die nur exklusiv diesen Mitgliedern zugänglich ist. Community Clouds bieten sich an, wenn Unternehmen dieselben Anforderungen und Aufgaben haben und die Infrastruktur auf ähnliche Weise nutzen wollen. Der Vorteil einer Community Cloud besteht in der Reduzierung des Kapazitätsbedarfs und somit einer verbesserten Ressourcenallokation auf Grund der gemeinsamen Nutzung von Ressourcen. Dies führt zu einer allgemeinen Kostenreduzierung und verringert den allgemeinen Overhead. Abgesehen von der darunterliegenden Infrastruktur können alle Mitglieder der Community Cloud ebenfalls dieselben Services und Applikationen gemeinsam nutzen.

Ein sehr gutes Beispiel für eine Community Cloud ist das ENX Netzwerk, ein Zusammenschluss der “europäischen Automobilindustrie für den sicheren Austausch kritischer Entwicklungs-, Einkaufs-, und Produktionssteuerungsdaten.” Das ENX bietet den angeschlossenen Automobilherstellern- und Lieferanten unternehmensübergreifende Managed Security Services und einen einheitlichen Service Level des darunter liegenden Netzwerkes. Gleichzeitig ist das ENX Netzwerk für die angeschlossenen Nutzer so offen und flexibel gestaltet wie das öffentliche Internet.

Gründe für eine Community Cloud

Bereits das Ergebnis einer BITKOM Studie im Februar 2013 kam zu dem Ergebnis, dass im Jahr 2012 immerhin 34 Prozent auf eine Private Cloud setzen und 29 Prozent planen, diese Cloud-Form in Zukunft einzusetzen. Der Grund dafür liegt in der Angst vor einem Datenverlust in der Public Cloud. Das sagten zumindest 79 Prozent.

Die Neuauflage der BITKOM Studie, mit aktuellen Ergebnissen für das Jahr 2013, liefert ein paar Veränderungen. Weiterhin setzten mit 36 Prozent der befragten Unternehmen die meisten auf eine Private Cloud. Das sind zwei Prozent mehr als im Jahr 2012. Das Interesse an der Public Cloud hat mit insgesamt 15 Prozent deutlicher zugenommen.

Interessanterweise gaben allerdings auch 77 Prozent der Unternehmen an, dass die größte Hürde für den Einsatz einer Private Cloud [… die Sorge vor einem unberechtigten Zugriff auf sensible Daten …] ist. Weitere 45 Prozent haben Angst vor einem Verlust der Daten, die in der Private Cloud gespeichert sind.

Zukunftssicherheit, Vertrauen und Abhängigkeit

Während eines Vortrags bei einem Unternehmen dessen Namen ich nicht nennen darf und mit Folien die nicht öffentlich zugänglich sind, habe ich in meinen zukünftigen Cloud-Trends die Treiber für die steigende Bedeutung von Community Clouds aufgezeigt.

Ich habe dabei die drei Treiber als “höhere Zukunftssicherheit”, “größeres Vertrauen” und “weniger Abhängigkeit/ mehr Kontrolle” charakterisiert. Es sind exakt die Themen, die auch in aktuellen Diskussionen immer wieder aufkommen. Damals, im März 2013, habe ich die “höhere Zukunftssicherheit” am Beispiel der Schließung vom Google Reader festgemacht. Da die Nutzer sich nicht sicher sein können, wie lange ein Cloud Service überhaupt überlebt. Als Beispiel für “größeres Vertrauen” mussten die mittlerweile bestätigten Berichte, dass Amazon AWS eine Cloud für den CIA bauen soll, herhalten. Schließlich sollte man schon stutzig werden, wenn ein Marktführer mit einem Geheimdienst zusammenarbeitet – wie wir mittlerweile alle feststellen durften… Den Grund für “(weniger) Abhängigkeit” habe ich aus dem Zeit-Artikel “Das autarke Dorf“, der im selben Zeitraum erschienen ist und bei dem es darum geht, dass ein kleines Dorf in Brandenburg sich unabhängig von den Energiekonzernen gemacht hat und dort sogar ein eigenes Stromnetz besitzt. Cloud Computing = Utility Computing = Stromnetz…

Maximale Zentralität hin zur Semi-Dezentralität

Allein auf Grund dieser drei Treiber, plus den aktuellen Diskussionen, sehe ich ein wachsendes Potential für die Community Cloud, die derzeit noch keine große Verbreitung hat. In diesem Zusammenhang sehe ich zudem einen Wechsel von einer zurzeit stark ausgeprägten Zentralität zu einer Semi-Dezentralität.

Die meisten Unternehmen und Organisationen sehen in der Public Cloud einen großen Vorteil und wollen in ihren Genuss kommen, um Kosten zu reduzieren, ihre IT zu konsolidieren und gleichermaßen mehr Skalierbarkeit und Flexibilität erhalten. Auf der anderen Seite sind Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle wichtige Artefakte, die niemand gerne aufgeben möchte.

Die Community Cloud ist der Mittelweg, um beides zu erreichen. Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle durch den Einfluss, was in der Community Cloud passiert und die Vorteile einer Public Cloud, durch das Partizipieren von einer echten Cloud Infrastruktur.

Tipp: Hosted Community Cloud

Es stehen mittlerweile einige Lösungen bereit, die als Basis für die eigene professionelle (Community) Cloud genutzt werden können. Dabei sollte man jedoch immer ein Auge auf die grundlegende Infrastruktur richten, die das Rückgrat der gesamten Cloud bildet. In diesem Zusammenhang darf man allerdings auch nicht den Aufwand unterschätzen, den es bedeutet, eine professionelle Cloud-Umgebung aufzubauen, ordnungsgemäß zu betreiben und zu warten. Weiterhin sind die Kosten für die notwendigen physikalischen Ressourcen zu kalkulieren.

Aus diesem Grund macht es für viele kleinere und mittlere Unternehmen, aber auch Bürogemeinschaften, Co-Working Spaces oder regelmäßige Projektpartnerschaften Sinn, den Community Cloud Gedanken in Betracht zu ziehen, um in den Genuss der Public Cloud (Shared Umgebung) zu kommen aber weiterhin Einfluss auf die Zukunftssicherheit, das Vertrauen, die Abhängigkeit und Kontrolle der Umgebung zu haben und Kostenvorteile u.a. durch Ressourcenallokation zu erzielen. Hierzu sollte man sich zudem überlegen, ein Team aufzubauen, dass sich exklusiv um den Aufbau, Betrieb, die Administration und Wartung der Community Cloud kümmert. Vergleiche dazu das ENX-Netzwerk. Dafür ist kein eigenes Rechenzentrum oder eine Co-Location erforderlich. Ein IaaS-Anbieter kann dazu als ideale Basis für eine Hosted Community Cloud dienen.


Integration und Cloud Computing: Irgendetwas zwischen Versprechen, Erwartungen, Komplexität und Mehrkosten

Cloud Computing Anbieter sollten sich der Realität stellen und ihren potentiellen Kunden die Wahrheit sagen! Die Integration im gesamten Cloud Stack sorgt für die größte Komplexität in der Cloud. Das beinhaltet ebenfalls die weiteren Kosten die kein Public Cloud Anbieter neben seinen on Demand und pay per use Versprechen transparent auf seinen Marketingfolien stehen hat. Ein Überblick.

Wie ist die Erwartungshaltung der Anwender?

Cloud Computing Anbieter versprechen neben der bedarfsgerechten Nutzung (on Demand) und Abrechnung (Pay per use) einen einfachen Zugriff auf IT-Ressourcen. Das hört sich auf dem Papier fantastisch an und funktioniert in der Regel sehr gut. Der Spaß hört allerdings auf wenn es darum geht, bestehende Systeme oder gar neue Services in der Cloud zu kombinieren. Die Integration verursacht die größten Schmerzen.

Gespräche mit Anwendern und Anfragen von an der Cloud interessierten Unternehmen spiegeln eine harte Realität wieder. Die Erwartungshaltungen bestehen z.B. darin, existierende on Premise Lösungen gegen 1:1 Äquivalente in der Cloud zu ersetzen. Die Hoffnung besteht, dass sich damit der Integrationsaufwand – der früher on Premise bestand – deutlich einfacher realisieren lässt, da sich die Systeme der jeweiligen Anbieter “bereits innerhalb einer zentralisierten Infrastruktur befinden”. Es wird also davon ausgegangen, dass sich die altbekannte Schnittstellenproblematik, die jeder IT-Abteilung seit Jahrzehnten große Probleme bereitet, einfacher umsetzen lässt. Dabei handelt es sich aus Anwendersicht um eine nachvollziehbare Erwartungshaltung. Schließlich halten die Anbieter die Fäden innerhalb ihrer Cloud Infrastruktur (auch SaaS-Angebote) in der Hand und könnten eine einfachere Integration zwischen mehreren Systemen aus dem eigenen Hause bieten.

Ähnliche Rückmeldungen kommen von den Cloud Systemintegratoren. APIs und die Integration von anbieterübergreifenden Services aber ebenfalls anbieterproprietären Services sorgen in der Cloud für den selben Aufwand wie on Premise.

Wie sieht die Realität aus?

Im Prinzip sollte die Cloud das Mekka für jeden IT-Verantwortlichen sein. Er kann sich die besten Services für seinen Anwendungsfall heraussuchen, diese vorab ohne großen Aufwand testen und anschließend integrieren. Das ganze Ausmaß des Disasters spiegeln allerdings bereits aktuelle Cloud Marktplätze wieder. Cloud-Marktplätze versuchen Best-of-Breed Lösungen zu katalogisieren, indem sie einzelne Cloud-Lösungen in unterschiedliche Kategorien zusammenfassen und Unternehmen damit ein umfangreiches Portfolio verschiedener Lösungen bieten, mit der sich eine Cloud-Produktivitäts-Suite zusammenstellen lässt. Dennoch zeigen diese Marktplätze, obwohl sie sehr stark kontrolliert und vermeintlich integriert sind, an einer entscheidenden Stelle massive Probleme mit der Integration. Es existieren viele einzelne SaaS-Applikationen die nicht zusammenspielen. Das bedeutet, dass keine gemeinsame Datenbasis existiert und das z.B. der E-Mail Service nicht auf die Daten im CRM-Service zugreifen kann und umgekehrt. Damit entstehen einzelne Datensilos und Insellösungen innerhalb des Marktplatzes.

Die Anzahl neuer SaaS-Applikationen wächst täglich und damit auch der Bedarf, diese unterschiedlichen Lösungen miteinander zu integrieren und Daten austauschen zu lassen. Aktuell bewegt sich der Cloud-Markt jedoch unkontrolliert auf viele kleine Insellösungen zu, die jede für sich zwar einen Mehrwert bieten, in der Summe jedoch zu vielen kleinen Dateninseln führen. Mit solchen Entwicklungen haben Unternehmen schon in den Zeiten vor der Cloud zu kämpfen gehabt und das vergebens.

Worauf sollte man achten?

Eines sollten (angehende) Cloud Nutzer beachten und vor allem verstehen. Die Cloud ist ungleich der bekannten on Premise Infrastruktur. Das bedeutet, selbst die Migration eines E-Mail Systems, einer der vermeintlich höchststandardisierten Anwendungen, wird dabei zum Abenteuer. Das liegt daran, dass viele Unternehmen kein Standard E-Mail System nutzen und stattdessen weitere proprietäre Add-ons oder selbstentwickelte Erweiterungen angebunden haben, die so nicht in der Cloud existieren.

Hinzu kommen weitere Applikationen, die einfach zur IT-Enterprise Architektur dazu gehören und höchst individuelle Ansprüche erfüllen. Ich habe mit dem Strategie-Manager eines deutschen DAX Unternehmens gesprochen das weltweit tätig ist und eine Cloud Strategie evaluiert. Das Unternehmen verfügt Global über etwa 10.000(!) Applikationen (Desktop, Server, Produktionssysteme usw.). Dieses Beispiel ist sehr extrem und spiegelt nicht die durchschnittlichen Herausforderungen eines Unternehmens dar. Es zeigt aber die Dimension, in der man sich bewegen kann und die sich ebenfalls auf deutlich kleinere Applikations-Infrastrukturen herunterbrechen lassen.

Vor dem Weg in die Cloud sollten sich IT-Entscheider daher darüber Gedanken machen und die Chance nutzen, die alten über die Jahre hinweg entstandenen Sonderlocken abzuschneiden. Eine 1:1 Migration wird ohne großen Aufwand und Mehrkosten nicht funktionieren und die Einsparpotentiale, welche die Cloud bietet, relativieren. Wer sich für den Umzug seiner individuell entwickelten Applikationen auf eine Cloud Infrastruktur (IaaS) bzw. Platform (PaaS) entscheidet sollte einplanen, das er mit der Entwicklung dieser Applikation auf der grünen Wiese startet. Eine 1:1 Migration wird (evtl. je nach Cloud Infrastruktur/ Platform) nicht funktionieren und ist ein Mythos.

Wer Hilfe beim Betrieb seiner virtuellen Infrastruktur (IaaS) bzw. Entwicklungsplattform (PaaS) benötigt, sollte nicht auf einen Public Cloud Anbieter setzen, sondern auf einen Managed Cloud Anbieter bzw. Hosted Private PaaS Anbieter, die beide zusätzlich Professional Services bieten.

Cutting out the middleman funktioniert nicht!

Die Public Cloud hat auf Grund des Self-Service den Beigeschmack des “Cutting out the middleman”, bei dem ein Zwischenhändler nicht mehr benötigt wird, da sich der Endkunde direkt beim Hersteller bedient. Für Distributoren, die sich ausschließlich auf den reinen Wiederverkauf von Software und Hardware spezialisiert haben, trifft dies auch zu. Software-as-a-Service wird zu deren Tod führen, wenn sie sich nicht verändern. Cloud Natives (Startups, innovative Unternehmen) werden sich ebenfalls den Self-Service zu nutze machen. Allerdings gilt das nicht für die Masse im Unternehmensumfeld.

Systemintegratoren werden wichtiger als jemals zuvor. “Cutting out the middleman” in der Public Cloud funktioniert nicht. Dafür sind die Schnittstellenproblematik und das fehlende Cloud Wissen zu gegenwärtig. Carlo liegt mit seiner Vermutung, dass Accenture mit Cloud Beratung und Integration bereits 3,6 Milliarden Dollar Umsatz macht, tendenziell richtig. Die Indizien und Rückmeldungen aus dem Markt sind eindeutig.

Auf jeden Fall dürfen sich Systemintegratoren und Integration-as-a-Service Anbieter auf eine rosige Zukunft freuen.


Enterprise Cloud: IBM bringt sich in Position

Letzte Woche hat IBM angekündigt mehr als 1,2 Milliarden US-Dollar in den Ausbau seines globalen Cloud Angebots zu investieren. Hierzu sollen Cloud-Services aus weltweit 40 Rechenzentren in 15 Ländern bereitgestellt werden. Deutschland wird IBM aus einem Rechenzentrum in Ehningen versorgen. Dabei wird Softlayer, das IBM in 2013 übernommen hat, eine Schlüsselrolle spielen, dessen Kapazitäten sich in diesem Zuge verdoppeln sollen.

Investitionen sind ein deutliches Zeichen

Die 1,2 Milliarden US-Dollar sind nicht die ersten Investitionen, die IBM in den vergangenen Jahren in sein Cloud Business fließen lässt. Seit 2007 wurden über 7 Milliarden US-Dollar in die Expansion des Geschäftsfeldes investiert. Darunter 2 Milliarden US-Dollar für Softlayer. Hinzu kommen mehr als 15 weitere Akquisitionen die Cloud Computing Lösungen und Know-How in das Unternehmen gebracht haben. Die letzte große Ankündigung war die Summe von 1 Milliarde US-Dollar, die IBM in sein Cognitive Computing System Watson investieren wird, um es u.a. der breiten Masse als Service zur Verfügung zu stellen.

Diese Investitionen zeigen, dass es IBM mit der Cloud tatsächlich ernst meint und sie als eine Säule für seine zukünftige Unternehmensstrategie sieht. So sieht auch die Erwartungshaltung aus. IBM geht davon aus, dass der weltweite Cloud-Markt bis zum Jahr 2020 auf mehr als 200 Milliarden US-Dollar wachsen wird. Bis zum Jahr 2015 will IBM jährlich sieben Milliarden US-Dollar weltweit mit seinen Cloud-Lösungen erwirtschaften.

Softlayer Positionierung ist von entscheidender Bedeutung

Ein Besonderes Augenmerk will IBM auf die Softlayer Cloud legen. Hierzu sollen sich die Kapazitäten im Jahr 2014 verdoppeln. Laut IBM konnten durch den Zukauf des Cloud Computing Anbieter in 2013 fast 2.400 neue Kunden gewonnen werden. Mit Softlayer sollen die wichtigsten Märkte und Finanzzentren gezielt gestärkt werden. Weiterhin soll die Softlayer Cloud in Zukunft auch von der Watson Technologie profitieren.

Die Akquisition von Softlayer war ein wichtiger Schritt für IBMs Cloud-Strategie, um sich eine bessere Cloud-DNA einzuverleiben. Die IBM SmartCloud hat bis zum heutigen Tag enttäuscht. Das ergeben nicht nur Gespräche mit potentiellen Kunden die sich zum größten Teil negativ über das Angebot und die Nutzung geäußert haben.

Spannend wird die Erweiterung der Softlayer Cloud werden. Laut der offiziellen Softlayer Webseite werden derzeit an sieben Standorten weltweit mehr als 191.500 Server betrieben.

  • Dallas: 104,500+ Server
  • Seattle: 10,000+ Server
  • Washington: 16,000+ Server
  • Houston: 25,000+ Server
  • San Jose: 12,000+ Server
  • Amsterdam: 8,000+ Server
  • Singapore: 16,000+ Server

Das sind im Vergleich zu anderen Cloud Playern wie die Amazon Web Services (über 450.000), Microsoft (etwa 1.000.000) und Google allerdings nur Peanuts. Selbst nach einer Verdopplung im Jahr 2014 auf 383,300 Server.

IBMs weltweite Cloud Rechenzentren

Ein Teil der genannten 1,2 Milliarden US-Dollar sollen im Jahr 2014 genutzt werden, um insgesamt 15 neue Rechenzentren zu eröffnen. In der Summe sollen dann 40 Rechenzentren verteilt auf 15 Länder die weltweite Basis der IBM Cloud bilden. Die neuen Cloud-Rechenzentren werden in China, Hongkong, Japan, Indien, London, Kanada, Mexiko City, Washington D.C. und Dallas entstehen. Das deutsche Cloud-Rechenzentrum steht in Ehningen bei Stuttgart das Schweizer in Winterthur.

Auf der technischen Seite besteht jedes neue Cloud-Rechenzentrum aus mindestens vier sogenannten PODS (Points of Distribution). Eine eigenständige Einheit besteht aus 4.000 Servern. Jeder POD arbeitet unabhängig von den anderen PODs, um die Services bereitzustellen und soll eine garantierte Verfügbarkeit von 99,9 Prozent aufweisen. Kunden können sich für die Nutzung eines POD mit 99,9 Prozent Verfügbarkeit entscheiden oder eine Verteilung über mehrere PODs wählen, um damit das Verfügbarkeitsverhältnis zu erhöhen.

Der Footprint im Unternehmensumfeld

IBM will sich mit seinen Investitionen klar gegen die Amazon Web Services positionieren. Man muss jedoch eines unterscheiden. Amazon AWS (AWS) ist einzig und alleine in der Public Cloud vertreten und wird dieses laut Aussage von Andy Jassy auf der letzten re:Invent auch bleiben. AWS glaubt an die Public Cloud und es besteht kein Interesse auch in (Hosted) Private Cloud Infrastrukturen zu investieren. Ein Unternehmen, das bei AWS jedoch das nötige Kleingeld mitbringt erhält dort durchaus seine eigene private Region, die von AWS verwaltet wird (ähnlich AWS GovCloud).

Beim Wettbewerb zwischen IBM und AWS geht es in erster Linie nicht um den Vorsprung in der Public, Private oder sonst einer Art von Cloud-Form. Es geht um die Vormachtstellung bei den Unternehmenskunden. AWS ist mit Startups und Entwicklern groß geworden und versucht seit geraumer Zeit auch die Attraktivität bei den Unternehmen zu erhöhen. Das haben sie mit mehreren neuen Services auf der vergangenen re:Invent gezeigt. Dabei handelt es sich allerdings um einen Markt, auf dem IBM bereits seit Jahrzehnten vertreten ist und über eine gute und breite Kundenbasis sowie wertvolle Kontakte bei den Entscheidern verfügt. Das ist ein Vorteil der, trotz AWSs derzeitigen technischen Vorsprung, nicht zu unterschätzen ist. Ein weiterer Vorteil der für IBM zum Tragen kommt ist die große Basis an Partnern im Bezug auf die technische Unterstützung und dem Vertrieb. Denn der reine Self-Service, den eine Public Cloud bietet, passt nicht zum Großteil der Unternehmenskunden. Dennoch muss IBM zusammen mit der Softlayer Cloud bei den Unternehmen erst noch technisch überzeugen und den Kunden einen konkreten Nutzen für die Wertschöpfung aufzeigen um erfolgreich zu sein.

Was sich für IBM als ein Vorteil gegenüber anderen Cloud-Anbietern wie AWS erweisen wird, ist die lokale Präsenz mit Rechenzentren in mehreren Ländern. Insbesondere der deutsche Markt wird dies zu schätzen wissen, wenn ebenfalls das Angebot stimmt. Hier bleibt es spannend zu sehen, ob andere US Cloud-Anbieter nachziehen werden und ein Rechenzentrum in Deutschland eröffnen, um den Bedenken deutscher Unternehmen entgegenzukommen.

IBMs Investitionen zeigen, dass der Anbieter die Cloud als eine zukünftige tragende Säule sieht und in diesem Bereich ein tragfähiges Geschäft aufbauen will.


Ab in die Private Cloud. OpenStack ist keine Infrastrukturlösung für die Public Cloud!

OpenStack ist unbestritten der neue Star am Himmel für Open-Source Cloud-Infrastrukturen. Zahlreiche bekannte Größen, darunter Rackspace, RedHat, HP, Deutsche Telekom und IBM setzen auf die Software, um ihre Angebote aufzubauen. Aber ein Thema bleibt spannend. Alle reden davon, dem unangefochtenen Marktführer Amazon Web Services Marktanteile abzunehmen. Allen voran die genannten Public Cloud Anbieter, die sich für OpenStack entschieden haben. Keine Frage, im großen Cloud Computing Markt wird jeder seinen Platz finden. Aber ist OpenStack die richtige Technologie, um ein Marktführer in der Public Cloud zu werden oder reicht es am Ende “nur” für die Private Cloud (Hybrid Cloud)?

Rackspace erweitert sein Portfolio um Cloud Consulting-Services

Ich hatte bereits über das Diversifikationsproblem geschrieben und habe in diesem Zusammenhang OpenStack als den goldenen Käfig bezeichnet, da alle beteiligten Anbieter im selben Dilemma stecken und sich nicht voneinander unterscheiden. Denn stellt man alleine nur die beiden Top OpenStack Anbieter Rackspace und HP gegenüber, dann zeigt sich, dass die Portfolios in etwa zu 99 Prozent gleich sind.

Um die Gunst seiner Shareholder zu besänftigen hat Rackspace bereits erste neue Wege beschritten und seine Strategie verändert und damit selbst die Aufholjagd in der Public Cloud gestoppt. Laut Rackspace CTO John Engates fragen Kunden verstärkt um Hilfe, damit Rackspace mit seinen Kenntnissen beim Aufbau von Cloud Infrastrukturen hilft. Rackspace wird sich in Zukunft somit scheinbar etwas weniger auf das Hosting von Cloud Services konzentrieren und stattdessen mehr in Beratungsdienstleistungen von Cloud Infrastrukturen investieren. Dabei könnte es sich um einen klugen Schachzug handeln. Schließlich ist die Nachfrage nach Private Cloud Infrastrukturen ungebrochen und OpenStack wird hier eine führende Rolle einnehmen. Eine weitere Chance könnte hier mit der Hybrid Cloud bestehen, indem die Private Cloud Infrastrukturen mit Rackspaces Public Cloud verbunden werden.

Eigene Technologien sind ein Wettbewerbsvorteil

Eine weitere interessante Frage ist, ob eine Technologie, was OpenStack letztendlich nur ist, entscheidend für den Erfolg ist? Ein Blick auf führende Anbieter wie die Amazon Web Services, Microsoft Windows Azure und nun auch die Google Compute Engine sowie deren gefühlte Kronprinzen (CloudSigma, ProfitBricks) zeigen eines. Alle haben proprietäre Infrastrukturlösungen unter den IaaS-Angeboten aufgebaut. Zwar setzen soweit alle an der einen oder anderen Stelle auf eine Open-Source Lösung. Aber am Ende ist alles selbst entwickelt und integriert. Das führt zu der Schlussfolgerung, dass proprietäre Technologien ein Wettbewerbsvorteil sind, da schließlich nur ein einziger Anbieter davon profitiert. Oder war Amazon AWS doch “einfach nur der erste Anbieter am Markt” und hat deswegen diesen enormen Vorsprung?

Zahlen sprechen für OpenStack Private Clouds

Auf der offiziellen OpenStack Webseite werden Use Cases vorgestellt, wie OpenStack tatsächlich eingesetzt wird. Diese sind unterteilt in den Kategorien: On-Premise Private Cloud, Hosted Private Cloud, Hybrid Cloud und Public Cloud. Ein Blick auf die aktuelle Verteilung (Stand: 14.01.2014) für den OpenStack Einsatz kommt zum folgenden Ergebnis.

OpenStack-Deployments 01/14/2014

Demnach liegen On-Premise Private Cloud (55) Installation ganz klar an der Spitze mit einem weitem Abstand gefolgt von Hosted Private Cloud (19) und Public Cloud (17) Deployments. Es folgen die Hybrid Clouds (10) und nicht genauer spezifizierte Projekte (4).

Bei den Zahlen handelt es sich wohlgemerkt um die Deployments, die offiziell an OpenStack gemeldet wurden. Allerdings zeigen diese eine deutliche Tendenz wo die Zukunft von OpenStack liegt. In der Private Cloud. Wobei ich davon ausgehe, dass Hosted Private Cloud Deployments und Hybrid Clouds noch stärker zunehmen werden. Genauso wie OpenStack Installationen, die als Mittel zum Zweck dienen und die reine infrastrukturelle Grundlage für Web-Dienste bilden.


Egal ob Public oder Private, auf eine Cloud kann niemand mehr verzichten!

Im Jahr 2014 befinden wir uns endlich im Jahr der Cloud. Versprochen! Wie schon 2012 und 2013 wird sie auch in diesem Jahr den Durchbruch schaffen. Versprochen! Steht doch überall geschrieben. Legen wir den Sarkasmus mal ein wenig beiseite und schauen der Realität ins Auge, sieht die Wahrheit gar nicht so düster aus. Es kommt nur auf die Form der Cloud an. IDC und Gartner sprechen von Milliarden von Dollar, die in den kommenden Jahren in den weltweiten Public IaaS Markt investiert werden sollen. Crisp Research hat sich für 2013 den deutschen IaaS Markt angeschaut und kommt zu völlig gegensätzlichen Zahlen. In Public IaaS wurden in etwa 210 Millionen Euro, in Private Cloud Infrastrukturen hingegen mehrere Milliarden Euro investiert. Gegensätzlicher können sich zwei Märkte fast nicht verhalten. Aber das ist ok, das ist unsere deutsche Mentalität. Vorsichtig. Langsam. Erfolgreich. Eines sollten sich Unternehmen für 2014 und die kommenden Jahre jedoch auf die Agenda schreiben. Egal ob es nun um eine Public oder Private Cloud geht. Eines ist sicher, auf eine Cloud kann kein Unternehmen mehr verzichten! Garantiert! Warum? Weiterlesen.

Das Bereitstellungsmodell der IT hat sich verändert

Im Kern geht es bei einer Cloud um die Art und Weise wie IT-Ressourcen bereitgestellt werden. Das erfolgt on-Demand über einen Self-Service und nach einem Verrechnungsmodell, dass die Kosten nach dem tatsächlichen Verbrauch bestimmt.

Die oben genannten IT-Ressourcen, in Form von Applikationen (SaaS), Plattformen (Entwicklungsumgebungen; PaaS) und Infrastrukturen (virtuelle Server, Speicherplatz; IaaS), werden als Services bereitgestellt, die sich ein Nutzer bestellen kann. Das bedeutet im Umkehrschluss allerdings auch, dass bei einer gewöhnlichen Virtualisierung nicht aufgehört werden darf. Virtualisierung ist nur ein Mittel zum Zweck. Schließlich muss der Nutzer auch irgendwie an die Ressourcen gelangen. Zum Telefonhörer greifen, die IT-Abteilung anrufen und warten ist kein Zeichen davon, dass eine Cloud-Infrastruktur vorhanden ist. Ganz im Gegenteil.

Über welche Art von Cloud die Ressourcen nun bereitgestellt werden, das ist abhängig vom Use Case. Es gibt nicht die “Über Cloud”, die alle Probleme auf einmal löst. Für eine Public Cloud existieren genügend Anwendungsfälle. Sogar für Themen oder Industrien, die im ersten Moment weit weg erscheinen. Unterm Strich handelt es sich in vielen Fällen um eine Frage der Daten. Und genau diese gilt es zu klassifizieren. Dann kann es zur Entscheidung kommen, dass nur eine Private Cloud in Frage kommt. In diesem Fall wird man als Unternehmen dann selbst zum Cloud-Anbieter (mit allen Höhen und Tiefen die ein Public Cloud Anbieter zu bewältigen hat), baut eine eigene Cloud-Infrastruktur auf und versorgt direkt seine internen Kunden. Oder man geht zu einem der Managed Cloud Anbieter, die innerhalb einer dedizierten Umgebung eine Private Cloud exklusiv nur für einen Kunden betreiben und zudem Professional Services im Portfolio haben, die Public Cloud Anbieter in der Regel nur über ein Partnernetzwerk bieten.

Es ist einzig und alleine entscheidend, dass Unternehmen sich einem Cloud-Modell zuwenden, denn …

Mitarbeiter fordern Services on Demand

Mitarbeiter wollen Service(s) und sie wollen diese(n) jetzt und nicht in zwei Wochen oder drei Monaten. Und wenn sie nicht das bekommen was sie benötigen, dann finden sie einen Weg es zu bekommen. Ehrlich! Es existieren seit geraumer Zeit viele attraktive Alternativen auf dem IT-Markt, die nur ein paar Mausklicks und eine Kreditkartennummer entfernt sind die Bedürfnisse zu befriedigen. Das speziell im IaaS Bereich dann noch sehr viel Arbeit wartet, diese Falle ist den meisten nicht IT-lern erst einmal nicht bewusst. Aber Sie haben augenscheinlich das bekommen, was sie brauchten und wenn es nur der Wunsch nach Aufmerksamkeit war. Der Cloud-Anbieter hat schließlich sofort reagiert. Das Wunder des Self-Service!

IT-as-a-Service ist nicht nur irgendein Buzz-Word. Es ist die Realität. IT-Abteilungen sind dem Druck ausgesetzt, wie eine eigene Business Einheit geführt zu werden und selbst Produkte und Services für das eigene Unternehmen zu entwickeln oder zumindest nach den Bedürfnissen bereitzustellen. Sie müssen daher proaktiv reagieren. Und damit ist nicht das Anlegen von Handschellen gemeint, indem die Ports der Firewall geschlossen werden. Nein, hier geht es darum sich selbst zu hinterfragen.

Das dies funktioniert hat die Deutsche Bahn Tochter DB-Systel eindrucksvoll bewiesen, indem sie den Bereitstellungsprozess mit einer eigenen Private Cloud von 5 Tagen auf 5 Minuten(!) pro virtuellen Server reduziert hat.

Hybrid Cloud im Auge behalten

Bei den ständigen Diskussionen, ob nun eine Public oder Private Cloud in Frage kommt, sollte immer die Option einer Hybrid Cloud im Hinterkopf behalten werden.

Eine Hybrid Cloud ermöglicht einen eindeutigen Use Case für den Einsatz einer Public Cloud. Dabei können bestimmte Bereiche der IT-Infrastruktur (Rechenleistung und Speicherplatz) in einer Public Cloud Umgebung abgebildet werden. Der Rest und unternehmenskritische Bereiche bleiben innerhalb der selbstverwalteten on-Premise IT-Infrastruktur oder Private Cloud.

Darüber hinaus liefert das Hybrid Cloud Modell einen wertvollen Ansatz für das Architektur-Design, indem Teile der lokalen Infrastruktur, die hohe Kosten verursachen, aber gleichermaßen schwierig zu skalieren sind, mit Infrastrukturen kombiniert werden, die massiv skalierbar und bei Bedarf provisioniert werden können. Die Anwendungen und Daten werden auf der für den Einzelfall besten Plattform ausgerollt und die Verarbeitung zwischen beiden integriert.

Der Einsatz hybrider Szenarien bestätigt die Tatsache, dass nicht alle IT-Ressourcen in Public Cloud Umgebungen abgebildet werden sollten und für einige sogar niemals in Frage kommen. Werden Themen wie die Compliance, Geschwindigkeitsanforderungen und Sicherheitsbeschränkungen betrachtet, ist eine lokale Infrastruktur weiterhin notwendig. Die Erfahrungen aus dem hybriden Modell helfen dabei aber zu verstehen, welche Daten lokal bleiben sollten und welche innerhalb einer Public Cloud Umgebung verarbeitet werden können.


Warum ich (noch) nicht an den Deutsche Börse Cloud Exchange (DBCE) glaube

Nach einem globalen “Paukenschlag” ist es medial wieder sehr ruhig um den “Deutsche Börse Cloud Exchange” (DBCE) geworden. Dennoch werde ich immer wieder auf den Cloud-Marktplatz angesprochen – der die Ambitionen hat, den Infrastructure-as-a-Service (IaaS) Markt zu revolutionieren – und werde dabei um eine Einschätzung zu dessen Marktpotential und Zukunft gefragt. Nun, zusammenfassend komme ich ständig zur selben Aussage, dass ich, gemessen an der heutigen Situation, noch nicht an den DBCE glaube und ihm wenig Marktpotential einräume. Warum das so ist? Weiterlesen.

Zwei Geschäftsmodelle

Zunächst sehe ich im DBCE zwei Geschäftsmodelle. Das eine wird in 2014 zur Realität. Der Marktplatz für das Angebot und die Nachfrage von virtuellen Infrastruktur-Ressourcen (Rechenleistung und Speicherplatz), die von Anwendern für den realen Einsatz (Applikationsbetrieb, Daten speichern) genutzt werden sollen.

Bei dem zweiten Geschäftsmodell handelt es sich noch um Zukunftsmusik. Der Handel von virtuellen Ressourcen wie man es von den Futures kennt. Denn sind wir ehrlich. Was ist es, was eine Börse wirklich kann? Ihre eigentliche Aufgabe? Ihr Kerngeschäft? Den Transfer von kritischen Infrastrukturressourcen und Workloads organisieren und überwachen? Nein. Die Börse kann den Preis von virtuellen Gütern bestimmen und damit handeln lassen. Der IaaS-Marktplatz ist nur der Vorbote, um den Markt an dieses Handelsgeschäft heranzuführen und das dafür notwendige Angebot und die Nachfrage zusammenzubringen.

Anbieter und Anwender

Für einen Marktplatz werden grundsätzlich zwei Parteien benötigt. Die Anbieter und die Nachfrager, in diesem Fall die Anwender. Um die Anbieter wird sich der DBCE wenig Gedanken machen müssen. Ist der finanzielle, organisatorische und technische Aufwand relativ gering, wird die Angebotsseite relativ schnell Ressourcen zu bieten haben. Die Problematik besteht auf der Seite der Nachfrager.

Ich habe mich hierzu mit Reuven Cohen unterhalten, der mit SpotCloud im Jahr 2010 den ersten weltweiten IaaS-Marktplatz veröffentlicht hat. In der Spitze hatte SpotCloud 3.200 Anbieter(!) und 100.000 Server weltweit verwaltet. Die Nachfrageseite viel eher bescheiden aus.

Auch wenn Reuven im Jahr 2010 damit viel zu früh dran war, mache ich noch heute dafür fünf Themen verantwortlich, die den DBCE hemmen werden: Das Vertrauen, die Psychologie, die Use Cases, die Technik (APIs) und das Management.

Vertrauen und Psychologie

Die Idee hinter dem DBCE klingt theoretisch klasse. Aber warum ist der DBCE nun tatsächlich vertrauenswürdiger als andere IaaS-Marktplätze? Genießt eine Börse weiterhin dass Vertrauen für das sie als Institution steht bzw. stehen sollte? Hinzu kommt, dass IT-Entscheider ganz anders ticken. Der Großteil der Unternehmen ist weiterhin mit der Public Cloud überfordert und hat Angst die IT und Daten aus der Hand zu geben. Es gibt einen guten Grund, warum die Zahlen von Crisp Research zeigen, dass in Deutschland im Jahr 2013 nur etwa 210 Millionen Euro für Public Infrastructure-as-a-Service (IaaS) ausgegeben wurde. Hingegen lagen die Investitionen für Private Cloud Infrastrukturen bei 2,3 Milliarden Euro.

Das unterstreicht ebenfalls eine Forrester Studie, die besagt:

“From […] over 2,300 IT hardware buyers, […] about 55% plan to build an internal private cloud within the next 12 months.”

Daran wird auch ein unabhängiger Marktplatz nichts ändern. Im Gegenteil, selbst wenn der DBCE für mehr transparenz sorgen soll, schafft er eine weitere Komplexitätsebene zwischen den Anwendern und den Anbietern, die von den Anwendern erst einmal verstanden und adaptiert werden muss. Das spiegelt sich auch in den Use Cases bzw. Workloads wieder, die darauf laufen sollen.

Use Cases

Warum sollte man den DBCE nutzen? Das ist eine Frage, die nicht leicht zu beantworten ist. Warum sollte man über einen Marktplatz Ressourcen einkaufen, wenn ich sie auch von einem Anbieter direkt beziehen kann, der bereits über eine globale Reichweite, viele Kunden und eine bewährte Infrastruktur verfügt? Der Preis und die Vergleichbarkeit können ein entscheidendes Merkmal sein. Wenn die virtuelle Maschine (VM) bei Anbieter A heute ein wenig günstiger ist als bei Anbieter B, dann wird die VM bei Anbieter A genutzt. Wirklich? Nein, das würde die Anwendungsarchitektur dermaßen verkomplizieren, dass die Entwicklung für dieses Szenario in keinem Verhältnis zu dessen Nutzen steht. Cloud Computing ist eh schon viel zu kompliziert, dass ein kluger Cloud Architekt davon Abstand nehmen würde. Man sollte in diesem Zusammenhang auch nicht die technischen Hürden vergessen, die Cloud-Anwender bereits heute mit sehr weit entwickelten Cloud Infrastrukturen haben.

Ein Szenario was sich mit dem DBCE gut abbilden lassen würde ist ein Multi-Cloud Konzept um technische Risiken (z.B. Ausfall eines Anbieters) zu streuen.

Wofür wir zur nächsten und der wohl größten Hürde kommen – den APIs.

API und Management

Die Diskussionen um “den” bevorzugten API-Standard in der Cloud hören nicht auf. Zum de-facto Standard für Rechenleistung und Speicherplatz haben sich Amazon EC2 (Compute) und Amazon S3 (Storage) entwickelt, die von so gut wie allen anderen Anbietern und Projekten unterstützt werden.

Der DBCE will sich quasi als Middleware zwischen die Anbieter und die Anwender setzen und für beide Seiten eine einheitliche eigene(!) Schnittstelle bieten. Hierzu setzt der DBCE auf die Technologie von Zimory, die zwar über offene Schnittstellen verfügt, welche aber proprietär sind. Anstatt sich auf einen bekannten Standard zu konzentrieren oder einen aus der Open-Source Gemeinde (OpenStack) zu adaptieren, versucht der DBCE einen eigenen Weg zu finden.

Frage: Mit dem Hintergrund, dass wir Deutschen, was das Thema Cloud angeht, uns bisher nicht gerade mit Ruhm bekleckert haben. Warum sollte sich der Markt auf einen neuen Standard einlassen der aus Deutschland kommt und dazu auch noch proprietär ist?

Ein weiteres Problem besteht in den Managementlösungen für Cloud Infrastrukturen. Entweder haben sich potentielle Anwender bereits für eine Lösung entschieden und stehen damit vor der Herausforderung die neuen APIs in irgendeiner Form zu integrieren oder Sie befinden sich weiterhin im Entscheidungsprozess. Hier besteht die Problematik darin, dass bisher keine gängige Cloud-Managementlösung die DBCE APIs unterstützt.

Systemintegratoren und Cloud-Broker

Es gibt zwei Zielgruppen in denen Potential steckt und die gleichzeitig die Tür zu den Anwendern öffnen können. Die Systemintegratoren (Channelpartner) und Cloud-Broker.

Ein Cloud Service Broker ist ein Drittanbieter, der im Auftrag seiner Kunden Cloud Services mit Mehrwerten anreichert und dafür sorgt, dass der Service die spezifischen Erwartungen eines Unternehmens erfüllt. Darüber hinaus hilft er bei der Integration und Aggregation der Services, um ihre Sicherheit zu erhöhen oder den originalen Service mit bestimmten Eigenschaften zu erweitern.

Ein Systemintegrator entwickelt (und betreibt) im Auftrag seiner Kunden ein System oder eine Applikation auf einer Cloud-Infrastruktur.

Da beide im Auftrag der Anwender agieren und die Infrastrukturen, Systeme und Applikationen betreiben, können sie die proprietären APIs adaptieren und stellen damit sicher, dass sich der Anwender damit nicht auseinandersetzen muss. Darüber hinaus können sowohl Systemintegratoren als auch Cloud-Broker den DBCE nutzen, um für sich kostengünstig Cloud-Ressourcen einzukaufen und ein Multi-Cloud Modell nutzen. Hierbei spielt die Komplexität der Systemarchitektur wieder ein Rolle, von welcher der End-Anwender aber nichts mitbekommen darf.

Eine Frage der Zeit

Ich habe in diesem Artikel mehr Fragen aufgeworfen als beantwortet. Ich möchte den DBCE auch nicht zu negativ bewerten, denn die Idee ist gut. Aber die oben genannten Punkte sind essentiell wichtig, um überhaupt ein Fuß in die Tür der Anwender zu bekommen. Dabei wird es sich um einen Lernprozess für beide Seite handeln, den ich auf etwa fünf Jahre schätze, bis dieses Modell bei den Anwendern zu einer signifikanten Adaptionsrate führt.