Categories
Analysis

Google expands the Compute Engine with load balancer functionality. But where is the innovation machine?

In a blog post, Google has announced further renovations to its cloud platform. In addition to the expansion and improvement of the Google Cloud Datastore and the announcement of the Google App Engine 1.8.3, the infrastructure-as-a-service (IaaS) offer Google Compute Engine has received a load balancing service.

News from the Google Cloud Datastore

To further increase the productivity of developers, Google has expanded its Cloud Datastore with several functionalities. These include the Google Query Language (GQL). The GQL is a SQL-like language and is specifically aimed at data-intensive applications to query Entities and Keys from the Cloud Datastore. Furthermore, more statistics can get from the underlying data by the query of metadata. Google sees this as an advantage, for example, to develop an own internal administrative console to do own analysis or debug an application. In addition, improvements to the local SDK were made. These include enhancements to the command line tool and support for developers using Windows. After the first version of the Cloud Datastore has support Java, Python, and Node.js, now Ruby has been added.

Google App Engine 1.8.3

The renewal of the Google App Engine version 1.8.3 mainly directed to the PHP runtime environment. Furthermore, the integration with the Google Cloud Storage, which according to Google is gaining popularity, was reinforced. From now on functions such as opendir() or writedir() can be used to directly access bucket in Cloud Storage. Further stat()-ing information can be queried via is_readable() and is_file(). Metadata can also be write to Cloud Storage files now. Moreover performance improvements through memcache-backed optimistic read caching were made, to improve the performance of applications that need to read frequently from the same Cloud Storage file.

Load Balancing with the Compute Engine

The Google Compute Engine is expanded with a Layer 3 load balancing functionality which allows to develop scalable and fault-tolerant web applications on the Google IaaS. With the load balancing function, the incoming TCP/UDP traffic can be distributed across different Compute Engine machines (virtual machines) within the same region. Moreover, this ensures that no defective virtual machines are used to respond to HTTP requests and load peaks are offset. The configuration of the load balancer is carried out either via command line or via the REST API. The Load Balancer function can be used free of charge until the end of 2013, then the service will be charged.

Google’s progress is too slow

Two important innovations stick out in the news about the Google Cloud Platform. On the one hand, the new load balancing function of the Compute Engine, on the other hand the strengthen integration of the App Engine with Google Cloud Storage.

The load balancing extension is admittedly much too late. After all, this is one of the essential functions of a cloud infrastructure offering, to ensure to develop scalable and highly available systems and which all other existing providers on the market already have in their portfolio.

The extended integration of the Cloud Storage with the Google App Engine is important to give developers more S3-like features out from the PaaS and create more opportunities in terms of access and to provide the processing of data in a central and scalable storage location.

Bottom line, it can be stated that Google continues to expand its IaaS portfolio steadily. What stands out here, is the very slow speed. From the innovation engine Google, which we know from many other areas of the company, is nothing to see. Google gives the impression that it has to offer IaaS to not lose too many developers on the Amazon Web Services and other providers, but the Compute Engine is not highly prioritized. As a result, the offer has treated very little attention. The very late extension to the load balancing is a good example. Otherwise you might expect more ambition and speed to invest in the expansion of the offer, from a company like Google. Finally, except for Amazon, no other company has more experience in the field of highly scalable infrastructures. This should be relatively quickly transformed into a public offering, especially like Google advertises that customers can use the same infrastructure on which also all Google services are running. Apart from the App Engine, which is classified in the PaaS market, the Google Compute Engine must continue to hire back. This will be the case for a long time, if the expansion speed is not accelerated, and other essential services are rolled out.

Categories
Analysis

Cloud computing requires professional, independent and trustworthy certifications

I had written about a year ago on the sense and nonsense of cloud seals, certificates, associations and initiatives. At that time I already come to the conclusion that we need trustworthy certifications. However, the German market looked rather weak and was represented alongside EuroCloud with other advocacy groups as the “Initiative Cloud Services Made in Germany” or “Deutsche Wolke”. But there is a promising independent freshman.

Results from last year

“Cloud Services Made in Germany” and “Deutsche Wolke”

What initiatives generally have in common is to try to steer as many providers of cloud computing services as possible in their own ranks with various promises. Especially “Cloud Services Made in Germany” jump on the supposed quality feature Made in Germany, and promises to “more legal certainty in the selection of cloud-based services …”.

And exactly this is how “Cloud Services Made in Germany” and “Deutsche Wolke” position themselves. With weak criteria, both of them are very attractive for vendors from Germany, which in turn can advertise with the “stickers” on their websites. But in the criteria nothing is discussed in any way about the real quality of a service. Is the service really a cloud service? How is the pricing model? Ensures the provider a cloud computing conformal scalability and high availability? And many more questions that are essentially important to evaluate the quality of a cloud service!

Both initiatives have in any case credentials in their form. However, they should not be used as a quality criterion for a good cloud service. Instead, they belong to the category “Patriotism: Hello World, look we Germans can also do cloud.”

EuroCloud and Cloud-EcoSystem

In addition to these two initiatives, there are the association EuroCloud and Cloud-EcoSystem, both advertise with a seal and certificate. EuroCloud has its SaaS Star Audit. The SaaS Star Audit is aimed, as the name implies, exclusively to software-as-a-service provider. Depending on the budget, the provider may be honored by one to five stars by the EuroCloud federation, but must also be a member of EuroCloud. The number of stars says something about the scope of the audit. While with one star only “contract and compliance” and a bit “operating infrastructure” are being checked, five stars also check processes and security intensively.

The Cloud-EcoSystem by contrast has with its “Cloud Expert” a quality certificate for Saas & Cloud Computing consultants and with its “Trust in Cloud” one for cloud computing providers. A “Cloud Expert” after the definition of the Cloud-EcoSystem should offer providers and users a decision guidance. In addition to writing, creating professional articles and checklists an expert also carry out quality checks. Furthermore, a customer should be able to trust that the advisor has certain properties of criteria for “cloud experts.” So every “cloud expert” should have a deep understanding and basic skills, and have references available and provide its self-created documents on request. Basically, according to the Cloud-EcoSystem, it is about to shape and present the Cloud-EcoSystem.

The “Trust in cloud” certificate should serve as guidance for companies and users and establish itself as a quality certificate for SaaS and cloud solutions. On the basis of the certificate users receive the opportunity to compare cloud solutions objectively and come to a secure decision. The certification is based on a set of 30 questions, divided into 6 categories each of 5 questions. The questions must be answered by the examinee with Yes or No and also be proved. If the cloud provider answers a question with Yes, he receives a “cloud”. The checklist includes the categories of references, data security, quality of provision, decision confidence, contract terms, service orientation and cloud architecture.

Both EuroCloud and the Cloud-EcoSystem go the right way and try to evaluate providers based on self-imposed criteria. However, in this case two points should be questioned. First, these are associations, that means as a provider you have to be a member. It is legitimately asked which association member can fail an examination – independence? Furthermore, both create their own requirements catalogs, which are not comparable. Just because a provider has a “seal of approval” of two different associations, which evaluate according to different criteria, does not mean at all that the cloud service also provides real quality – confidentiality.

The pros get into the ring: TÜV Rheinland

Regardless of all the organizations that have come together specifically for the cloud, TÜV Rheinland has launched a cloud-certification. TÜV itself is most likely aware of the testing and acceptance of cranes, fun rides and the general inspection for the car. But also have more than 15 years of experience in the IT areas of consulting and certification with regard to compliance, risk management and information security.

The cloud-certification process is extensive and has a price. A first look at the audit process and the list of requirements shows that the TÜV Rheinland has thus developed a very powerful tool for the testing of cloud services and infrastructures.

Starting with a “Cloud-Readiness Check” first security, interoperability, compliance and data privacy are checked for their cloud-based suitability and a plan of action is created. This is followed by the review of the “cloud design” in which the concept and solution are examine carefully. Among others, topics such as architecture but also the network security and access controls are examined. Afterwards, the actual implementation of the cloud solution is considered and quality checks are carried out. After, the preparation of the certification follows and later the actual certification.

The cloud requirements catalogue of the TÜV Rheinland comprises five main areas, which are in turn subdivided into a number of sub-elements. This includes organizing processes, organizational structure, data security, compliance / data privacy and processes. All in all a very profound requirement catalog.

In a called reference project TÜV Rheinland requires eight weeks for the certification of an international infrastructure-as-a-service provider.

Independent and trustworthy cloud certifications are mandatory

The quality and usefulness of certificates and labels stand and fall with the companies that are responsible for auditing and their defined criteria. Weak requirements catalogs meet neither an honest statement, nor will they help to illustrate the clear differences in quality of cloud solutions for the buyer. On the contrary, IT decision-makers in doubt rely on these supposedly tested services, whose quality is another matter. In addition, in cloud computing it is not about to install a software or a service. At the end it is consumed only and the provider is responsible for all other processes that would otherwise have taken the customer himself.

For this reason, independent, trustworthy, and above all professional certifications are necessary to ensure an honest statement about the quality and property of a cloud service, its provider and all downstream processes such as security, infrastructure, availability, etc. As a provider one should be honest with themselves and at the end decide on a certification, which focuses on professional lists of criteria, not just scratch the surface but deeply immersed in the solution and thus make a credible statement about the own solution.

Categories
Analyst Cast @de

Future of Cloud in Europe

Categories
Analyst Cast

The Future of Cloud in Europe

Categories
Analysen

Google erweitert die Compute Engine um Load Balancer Funktionalität. Aber wo bleibt die Innovationsmaschine?

In einem Blogpost hat Google weitere Erneuerungen an seiner Cloud Platform bekanntgeben. Neben der Erweiterung und Verbesserung des Google Cloud Datastore und der Ankündigung der Google App Engine 1.8.3, hat das Infrastructure-as-a-Service (IaaS) Angebot Google Compute Engine nun einen Load Balancing Service erhalten.

Neues vom Google Cloud Datastore

Um die Produktivität von Entwicklern weiter zu erhöhen, hat Google seinen Cloud Datastore um mehrere Funktionalitäten erweitert. Dazu gehören die Google Query Language (GQL). Die GQL ist eine SQL-ähnliche Sprache und richtet sich speziell an datenintensive Applikationen, um Entities und Keys aus dem Cloud Datastore abzufragen. Weiterhin lassen sich über die Abfrage von Metadaten weitere Statistiken von den darunterliegenden Daten erhalten. Google sieht darin einen Vorteil, um bspw. eigene interne Administrationskonsolen zu entwickeln, eigene Analysen vorzunehmen oder eine Anwendung zu debuggen. Zudem wurden Verbesserungen an dem lokalen SDK vorgenommen. Dazu gehören Erweiterungen am Kommandozeilen Tool sowie eine Unterstützung für Entwickler, die Windows einsetzen. Nachdem der Cloud Datastore in seiner ersten Version die Sprachen Java, Python und Node.js unterstützt hat, wurde nun auch Ruby hinzugefügt.

Google App Engine 1.8.3

Die Erneuerungen der Google App Engine Version 1.8.3 richten sich überwiegend an die PHP Laufzeitumgebung. Weiterhin wurde die Integration mit dem Google Cloud Storage, der nach Aussagen von Google an Beliebtheit gewinnt, verstärkt. Ab sofort können über Funktionen wie opendir() oder writedir() direkt auf die Buckets des Cloud Storage zugegriffen werden. Weiterhin können über is_readable() und is_file() weitere stat()-ing Informationen abgefragt werden. Ebenfalls lassen sich nun Metadaten an die Dateien im Cloud Storage anhängen. Zudem wurden anhand eines durch memcache realisierten „Optimistic Reading Cache“ Verbesserungen im Hinblick auf die Performance vorgenommen. Insbesondere die Geschwindigkeit von Anwendungen, welche regelmäßig von derselben Datei im Cloud Storage lesen, soll sich damit erhöhen.

Load Balancing mit der Compute Engine

Die Google Compute Engine wurde um eine Layer 3 Load Balancing Funktionalität erweitert, mit der sich nun auch auf Googles IaaS Angebot skalierbare und fehlertolerante Web-Applikationen entwickeln lassen. Mit der Load Balancing Funktion lässt sich der eingehende TCP/UDP Traffic über unterschiedliche Compute Engine Maschinen (virtuelle Maschinen) innerhalb derselben Region verteilen. Zudem kann damit sichergestellt werden, dass keine fehlerhaften virtuellen Maschinen eingesetzt werden, um HTTP-Anfragen zu beantworten und Lastspitzen ausgeglichen werden. Die Konfiguration des Load Balancer erfolgt entweder per Kommandozeile oder über die REST-API. Die Load Balancer Funktion kann noch bis Ende 2013 kostenlos genutzt werden, anschließend wird der Service kostenpflichtig.

Google holt viel zu langsam auf

Zwei wichtige Erneuerungen stechen bei den Neuigkeiten zur Google Cloud Platform hervor. Zum einen die neue Load Balancing Funktion der Compute Engine, zum anderen die bessere Integration der App Engine mit dem Google Cloud Storage.

Die Load Balancing Erweiterung kommt zugegebenermaßen viel zu spät. Schließlich handelt es sich dabei um eine der essentiellen Funktionen eines Cloud Infrastruktur Angebots, um dafür zu sorgen, skalierbare und hochverfügbare Systeme zu entwickeln und welche alle anderen bestehenden Anbieter am Markt bereits im Portfolio haben.

Die erweiterte Integration des Cloud Storage mit der Google App Engine ist insofern wichtig, um Entwicklern mehr S3-ähnliche Funktionen aus dem PaaS heraus zu bieten und damit mehr Möglichkeiten im Hinblick auf den Zugriff und die Verarbeitung von Daten in einem zentralen und skalierbaren Speicherort zu bieten.

Unterm Strich kann man sagen, dass Google sein IaaS Portfolio weiter stetig ausbaut. Was dabei allerdings auffällt, ist die sehr langsame Geschwindigkeit. Von der Innovationsmaschine Google, die man aus vielen anderen Bereichen des Unternehmens kennt, ist gar nichts zu erkennen. Google erweckt den Eindruck, dass es IaaS anbieten muss, um nicht allzu viele Entwickler an die Amazon Web Services und andere Anbieter zu verlieren, die Compute Engine aber nicht hoch priorisiert hat. Dadurch wirkt das Angebot sehr stiefmütterlich behandelt. Das zeigt z.B. die sehr späte Erweiterung um das Load Balancing. Ansonsten dürfte man von einem Unternehmen wie Google erwarten, mehr Ehrgeiz und Geschwindigkeit in den Ausbau des Angebots zu investieren. Schließlich sind bei keinem anderen Unternehmen, mit Ausnahme von Amazon, mehr Erfahrungen im Bereich hochskalierbarer Infrastrukturen vorhanden. Dies sollte sich relativ schnell in ein öffentliches Angebot umwandeln lassen, zumal Google gerne damit wirbt, das Kunden dieselbe Infrastruktur nutzen können, auf der ebenfalls sämtliche Google Services betrieben werden. Abgesehen von der App Engine, die jedoch im PaaS-Markt einzuordnen ist, muss sich die Google Compute Engine weiterhin hinten anstellen, was auch noch eine längere Zeit der Fall sein wird, wenn nicht die Geschwindigkeit forciert wird und weitere essentielle Services ausgerollt werden.

Categories
Analysis

GigaOM Analyst Webinar – The Future of Cloud in Europe [Recording]

On July 9 Jo Maitland, Jon Collins, George Anadiotis and I talked about the opportunities and challenges of the cloud in Europe and countries such as Germany or the UK, and gave an insight into the cloud computing market in Europe. The recording of the international GigaOM analyst webinar “The Future of Cloud in Europe” is online now.

Background of the webinar

The European Commission unveiled its “pro cloud” strategy a year ago, hoping to reignite the stagnant economy through innovation. The Commissioner proclaimed boldly that the cloud must “happen not to Europe, but with Europe”. And rightly so. A year later, three GigaOM Research analysts from Europe Jo Collins (Inter Orbis), George Anadiotis (Linked Data Orchestration) and Rene Buest (New Age Disruption) – moderated by Jo Maitland (GigaOM Research) – looked at who the emerging cloud players are in the region and their edge over U.S. providers. They digged into the issues for cloud buyers in Europe and the untapped opportunities for providers. Can Europe build a vibrant cloud computing ecosystem? That’s a tough question today as U.S. cloud providers still dominant the industry.

Questions which were answered

  • What’s driving cloud opportunities and adoption in Europe?
  • What are the inhibitors to adoption of cloud in Europe?
  • Are there trends and opportunities within specific countries (UK, Germany, peripheral EU countries?)
  • Which European providers show promise and why?
  • What are the untapped opportunities for cloud in Europe?
  • Predictions for the future of cloud in Europe.

The recording of the analyst webinar

Categories
Cloud Computing

GigaOM Analyst Webinar – The Future of Cloud in Europe [Recording]

On July 9 Jo Maitland, Jon Collins, George Anadiotis and I talked about the opportunities and challenges of the cloud in Europe and countries such as Germany or the UK, and gave an insight into the cloud computing market in Europe. The recording of the international GigaOM analyst webinar “The Future of Cloud in Europe” is online now.

Background of the webinar

The European Commission unveiled its “pro cloud” strategy a year ago, hoping to reignite the stagnant economy through innovation. The Commissioner proclaimed boldly that the cloud must “happen not to Europe, but with Europe”. And rightly so. A year later, three GigaOM Research analysts from Europe Jo Collins (Inter Orbis), George Anadiotis (Linked Data Orchestration) and Rene Buest (New Age Disruption) – moderated by Jo Maitland (GigaOM Research) – looked at who the emerging cloud players are in the region and their edge over U.S. providers. They digged into the issues for cloud buyers in Europe and the untapped opportunities for providers. Can Europe build a vibrant cloud computing ecosystem? That’s a tough question today as U.S. cloud providers still dominant the industry.

Questions which were answered

  • What’s driving cloud opportunities and adoption in Europe?
  • What are the inhibitors to adoption of cloud in Europe?
  • Are there trends and opportunities within specific countries (UK, Germany, peripheral EU countries?)
  • Which European providers show promise and why?
  • What are the untapped opportunities for cloud in Europe?
  • Predictions for the future of cloud in Europe.

The recording of the analyst webinar

Categories
Analysen

Cloud Computing benötigt professionelle, unabhängige und vertrauenswürdige Zertifizierungen

Ich hatte vor über einem Jahr bereits über denn Sinn und Unsinn von Cloud Siegeln, Zertifikaten, Verbänden und Initiativen geschrieben. Ich bin damals schon zu dem Ergebnis gekommen, dass wir vertrauenswürdige Zertifizierungen benötigen. Allerdings sah der deutsche Markt eher schwach aus und wurde neben EuroCloud von weiteren Interessenvertretung wie der “Initiative Cloud Services Made in Germany” oder “Deutsche Wolke” vertreten. Aber es gibt mittlerweile einen vielversprechenden unabhängigen Neuling.

Ergebnisse aus dem letzten Jahr

“Cloud Services Made in Germany” und “Deutsche Wolke”

Was Initiativen im Allgemeinen gemeinsam haben ist, dass Sie mit diversen Versprechen versuchen, so viele Anbieter von Cloud Computing Services wie möglich in die eigenen Reihen zu lotsen. Vor allem “Cloud Services Made in Germany” springt auf das vermeintliche Qualitätsmerkmal Made in Germany auf und verspricht dabei “Mehr Rechtssicherheit bei der Auswahl von Cloud-basierten Diensten…”.

Und exakt so positionieren sich “Cloud Services Made in Germany” und “Deutsche Wolke”. Mit schwachen Bewertungskriterien machen sich beide sehr attraktiv für Anbieter aus Deutschland, die mit dem “Aufkleber” wiederum auf ihren Webseiten Werbung machen können. Jedoch wird in den Kriterien in keinster Weise auf die wirkliche Qualität eines Service eingegangen. Darf sich der Service wirklich Cloud Service nennen? Wie ist das Abrechnungsmodell? Sorgt der Anbieter für eine Cloud Computing konforme Skalierbarkeit und Hochverfügbarkeit? Und viele weitere Fragen, die essentiell wichtig sind, um die Qualität eines Cloud Service zu bewerten!

Beide Initiativen haben in Ihrer Form auf jeden Fall eine Berechtigung. Sollten allerdings nicht als ein Qualitätskriterium für einen guten Cloud-Service genutzt werden. Stattdessen gehören Sie in die Kategorie “Patriotismus: Hallo Welt, schaut mal wir Deutschen können auch Cloud.”

EuroCloud und Cloud-EcoSystem

Neben beiden Initiativen gibt es noch die Vereine EuroCloud und Cloud-EcoSystem, welche beide mit Gütesiegel und Zertifikat werben. EuroCloud hat dafür seinen SaaS Star Audit im Angebot. Der SaaS Star Audit richtet sich, wie der Name schon sagt, ausschließlich an Software-as-a-Service Anbieter. Je nach Wunsch und Geldbeutel kann sich dieser vom EuroCloud Verband mit einem bis fünf Sternen auszeichnen lassen, wobei der Anbieter ebenfalls Mitglied des EuroCloud sein muss. Die Anzahl der Sterne sagt wiederum auch etwas über den Umfang der Prüfung aus. Werden bei einem Stern lediglich “Vertrag & Compliance” und ein bisschen “Betrieb Infrastruktur” überprüft, werden bei fünf Sternen ebenfalls, Prozesse und Sicherheit intensiver überprüft.

Das Cloud-EcoSystem hingegen hat mit “Cloud-Experte” sein Qualitäts-Zertifikat für Saas & Cloud Computing Berater sowie sein “Trust in Cloud” für Cloud Computing Anbieter. Ein “Cloud-Experte” nach dem Cloud-EcoSystem e.V. soll Anbietern wie auch Anwendern eine Entscheidungshilfe bieten können. Dabei kann ein Experte neben dem Schreiben und Erstellen von Fachartikeln und Checklisten ebenfalls Qualitätskontrollen vornehmen. Außerdem soll sich ein Kunde darauf verlassen können, dass der Berater über bestimmte Eigenschaften eines Kriterienkatalogs für “Cloud-Experten” verfügt. So soll jeder “Cloud-Experte” über tiefes Fachwissen und Basis Qualifikationen sowie vorhandene Referenzen verfügen und auf Wunsch seine selbst erstellten Unterlagen bereitstellen. Im Grunde geht es laut dem Cloud-EcoSystem e.V. also darum, das Cloud-EcoSystem zu gestalten und zu präsentieren.
Das „Trust in Cloud“-Zertifikat soll als Entscheidungshilfe für Unternehmen und Anwender dienen und sich als ein Qualitäts-Zertifikat für SaaS und Cloud-Lösungen etablieren. Auf Basis des Zertifikats sollen Nutzer die Möglichkeit erhalten Cloud-Lösungen objektiv zu vergleichen und an Hand aufbereiteter Informationen zu einer sicheren Entscheidung kommen. Die Zertifizierung basiert auf einem Katalog mit 30 Fragen, der in 6 Kategorien á 5 Fragen unterteilt ist. Die Fragen müssen durch den Prüfling mit Ja oder Nein beantwortet werden und zudem nachgewiesen werden. Beantwortet der Cloud Anbieter eine Frage mit Ja, erhält er dafür eine “Cloud”. Die Checkliste umfasst die Kategorien Referenzen, Datensicherheit, Qualität der Bereitstellung, Entscheidungssicherheit, Vertragsbedingungen, Serviceorientierung und Cloud-Architektur.

Sowohl EuroCloud als auch das Cloud-EcoSystem gehen den richtigen Weg und versuchen Anbieter anhand selbst aufgestellter Kriterien zu bewerten. Zwei Punkte gilt es dabei jedoch zu hinterfragen. Zunächst handelt es sich um Vereine, das bedeutet, man muss als Anbieter Mitglied werden. Es sei berechtigterweise gefragt, welcher Verein sein Mitglied durch eine Prüfung durchfallen lässt – Unabhängigkeit? Weiterhin stellen beide ihre eigenen Anforderungskataloge auf, die nicht miteinander vergleichbar sind. Nur weil ein Anbieter von zwei verschiedenen Vereinen ein “Gütesiegel” hat, das nach unterschiedlichen Kriterien bewertet, bedeutet das noch lange nicht, dass der Cloud-Service auch echte Qualität liefert – Vertraulichkeit.

Die Profis steigen in den Ring: TÜV Rheinland

Unbeachtet von allen Organisationen, die sich extra für die Cloud zusammengefunden haben, hat der TÜV Rheinland eine Cloud-Zertifizierung gestartet. Der TÜV selbst ist den meisten eher von der Prüfung und Abnahme von Krananlagen, Fahrgeschäften oder der Hauptuntersuchung beim Auto bekannt. Hat aber auch in der IT seit über 15 Jahren Erfahrungen in den Bereichen der Beratung und Zertifizierung im Hinblick auf Compliance, Risikomanagement und Informationssicherheit.

Der Cloud-Zertifizierungsprozess ist sehr umfangreich und hat seinen Preis. Ein erster Blick auf den Prüfungsprozess und den Anforderungskatalog zeigt jedoch, dass der TÜV Rheinland damit ein sehr mächtiges Werkzeug für die Prüfung von Cloud-Services und -Infrastrukturen entwickelt hat.

Beginnend mit einem “Cloud-Readiness Check” werden zunächst Sicherheit, Interoperabilität, Compliance und Datenschutz auf ihre Cloud-Tauglichkeit überprüft und darauf basierend ein Aktionsplan erstellt. Im Anschluss folgt die Überprüfung des “Cloud-Designs”, bei dem das Konzept und die Lösung selbst unter die Lupe genommen werden. Hier werden unter anderem Themen wie die Architektur aber auch die Netzwerksicherheit, Zugriffskontrollen usw. überprüft. Anschließend wird die eigentliche Umsetzung der Cloud-Lösung betrachtet und Qualitätschecks vorgenommen. Danach erfolgt die Vorbereitung zur Zertifizierung und später die eigentliche Zertifizierung.

Der Cloud-Anforderungskatalog des TÜV-Rheinland umfasst fünf Hauptbereiche, die wiederum in zahlreiche Teilbausteine untergliedert sind. Dazu gehören Prozessorganisation, Aufbauorganisation, Datensicherheit, Compliance / Datenschutz und Prozesse. Alles in allem ein sehr tiefgehender Anforderungskatalog.

In einem genannten Referenzprojekt hat der TÜV Rheinland acht Wochen für die Zertifizierung eines international tätigen Infrastructure-as-a-Service Anbieter benötigt.

Unabhängige und vertrauenswürdige Cloud Zertifizierungen sind zwingend erforderlich

Die Qualität und der Nutzen von Zertifikaten und Gütesiegeln stehen und fallen mit den Unternehmen, die mit der Prüfung beauftragt sind sowie deren definierten Prüfkriterien. Schwache Anforderungskataloge treffen weder eine ehrliche Aussage, noch helfen Sie, die Qualitätsunterschiede von Cloud-Lösungen für den Nutzer klar darzustellen. Im Gegenteil, IT-Entscheider verlassen sich im Zweifelsfall auf diese vermeintlich geprüften Services, deren Qualität auf einem anderen Blatt steht. Hinzu kommt, dass es im Cloud Computing nicht mehr darum geht, eine Software oder einen Service einzusetzen, geschweige denn zu installieren. Es wird am Ende nur noch konsumiert und der Anbieter ist für alle anderen Prozesse verantwortlich, die der Kunde sonst selbst übernommen hätte.

Aus diesem Grund sind unabhängige, vertrauenswürdige, aber vor allem professionelle Zertifizierungen notwendig, um eine ehrliche Aussage über die Qualität und Eigenschaft eines Cloud-Service, seines Anbieters und aller nachgelagerten Prozesse wie Sicherheit, Infrastruktur, Verfügbarkeit usw. zu gewährleisten. Als Anbieter sollte man daher ehrlich zu sich selbst sein und sich am Ende für eine Zertifizierung entscheiden, die auf professionelle Kriterienkataloge setzt, welche nicht nur an der Oberfläche kratzen sondern tief in die Lösung eintauchen und damit eine glaubwürdige Aussage über die eigene Lösung treffen.

Categories
Analysen

GigaOM Analyst Webinar – The Future of Cloud in Europe [Aufzeichnung]

Am 9. Juli 2013 haben Jo Maitland, Jon Collins, George Anadiotis und ich über die Chancen und Herausforderungen der Cloud in Europa und einzelnen Ländern wie Deutschland oder Großbritannien gesprochen und einen kleinen Einblick in den Cloud Computing Markt in Europa gegeben. Die Aufzeichnung dieses internationalen GigaOM Analyst Webinar “The Future of Cloud in Europe” ist nun online.

Hintergrund des Webinar

Vor circa einem Jahr hat die europäische Kommission ihre „Pro Cloud“ Strategie bekanntgegeben, um damit die stagnierende Wirtschaft durch Innovationen anzukurbeln. Die Kommissare vertreten die Meinung, dass die Cloud nicht in Europa aber mit Europa stattfinden muss. Aus diesem Grund haben die drei GigaOM Research Analysten Jo Collins (Inter Orbis), George Anadiotis (Linked Data Orchestration) und René Büst (New Age Disruption) unter der Moderation von Jo Maitland (GigaOM Research) einen Blick auf die aufstrebenden Cloud Anbieter in Europa und ihr Abschneiden zu US-amerikanischen Anbietern geworfen. Dabei sind sie auf die Probleme eingegangen, denen sich Einkäufer von Cloud Services in Europa ausgesetzt sehen und die noch nicht betrachteten Möglichkeiten von europäischen Cloud Anbietern diskutiert. Ist Europa beispielsweise in der Lage ein lebendiges Cloud Computing Ökosystem aufzubauen? Das ist derzeit eine schwierige Frage, da US-amerikanische Cloud Anbieter in diesem Markt dominieren.

Fragen die beantwortet wurden

  • Was sind die größten Treiber hinter den Möglichkeiten der Cloud in Europa und dem Einsatz?
  • Was sind die Hemmnisse für die Nutzung von Cloud Computing in Europa?
  • Existieren bestimmte Trends und Möglichkeiten innerhalb bestimmter Länder (Großbritannien, Deutschland, andere EU Staaten?)
  • Welche europäischen Cloud Computing Anbieter sind die Hoffnungsträger und warum?
  • Was sind die noch nicht erschlossenen Möglichkeiten für Cloud Computing in Europa?
  • Vorhersagen für die Zukunft des Cloud Computing in Europa.

Die Aufzeichnung des Analyst Webinar

Categories
Comment

Caught in a gilded cage. OpenStack provider are trapped.

OpenStack is on the rise. The number of announcements increase that more and more companies and vendors rely on the more than three years old open source project to provide scalable solutions and own infrastructure-as-a-service (IaaS) offerings. However, in my view, the OpenStack community is in a dilemma – diversification. In addition, unnecessary disturbances from the outside carried indoors, which do not consider exactly this issue. Thus, for example, the discussions on the Amazon API compatibility by Randy Bias are as little conducive as Simon Wardley’s demand OpenStack should be like the Amazon Web Services (virtually a clone). OpenStack has to find its own way. However, OpenStack itself is not the problem, it is the provider who use OpenStack. These are 100% responsible to present meaningful offers and deploy OpenStack profitably for themselves.

Amazon API compatibility is a means to an end

I think it is important that OpenStack is implementing the Amazon API in order to offer the possibility, if necessary, to span a hybrid cloud to the Amazon Web Services. At least OpenStack service providers should offer their customers the option, to not only theoretically promise no vendor lock-in, but actually allow this.

But that’s it. Amazon should not have more influence on the OpenStack community. To get the curve to the “Linux of the cloud.” Has Linux orientated at Microsoft Windows? No. And it has become successful. In my view, the problem lies also in the fact that Linux was developed from an ideology by a single person and then was driven forward by a large community. OpenStack, however, has been launched to meet 100% of a commercial purpose for the OpenStack community. For this reason, OpenStack is nothing more than a big marketing machine of all participating providers. The OpenStack community must find its own way, create innovation itself and should not be influenced by what Amazon is doing.

Amazon Web Services are NOT the biggest competitor

What I still do not understand about the Amazon Web Services vs. OpenStack discussion is, that constantly apples and oranges are compared. How can one compare a public cloud provider with a software for the development of public/private clouds? If you really want to compare Amazon Web Services and OpenStack you’ve to match each single OpenStack provider with AWS! Everything else is meaningless. Only then you can make a real statement!

However, one will then realize very quickly that the by the OpenStack community self-proclaimed competitor Amazon Web Services is not the competitor! This sounds hard, but it’s the truth. There is currently no single OpenStack service provider who rudimentarily can hold a candle to the Amazon Web Services. The Amazon Web Services are the imaginary competitor, the desired competitor in the minds of the providers.

Just compare the services of the two top OpenStack public cloud provider Rackspace and HP to the Amazon Web Services.

Amazon Web Services

Rackspace

HP

Amazon EC2 Cloud Servers Compute
Auto Scaling
Elastic Load Balancing Cloud Load Balancers Load Balancer
Amazon EMR
Amazon VPC
Amazon Route 53 Cloud DNS DNS
AWS Direct Connect
Amazon S3 Cloud Files Object Storage
Amazon Glacier Cloud Backup
Amazon EBS Cloud Block Storage Block Storage
AWS Import/Export
AWS Storage Gateway
Amazon CloudFront CDN
Amazon RDS Cloud Databases Relational Database
Amazon DynamoDB
Amazon ElastiCache
Amazon Redshift
Amazon CloudSearch
Amazon SWF
Amazon SQS Messaging
Amazon SES
Amazon SNS
Amazon FPS
Amazon Elastic Transcoder
AWS Management Console Management Console
AWS Identity and Access Management (IAM)
Amazon CloudWatch Cloud Monitoring Monitoring
AWS Elastic Beanstalk Application Platform as a Service
AWS CloudFormation
AWS Data Pipeline
AWS OpsWorks
AWS CloudHSM
AWS Marketplace
Cloud Sites
Managed Cloud
Mobile Stacks

This comparison shows that the Amazon Web Services are not the biggest competition, but the danger comes from the own camp. Where is the diversification, if the two big OpenStack public cloud provider offer up to 90% of exactly the same services? The service portfolio of both Rackspace and HP is not able to represent a competition to the Amazon Web Services, by far. On the contrary, both take market share away from each other by offering almost identical.

Caught in a gilded cage

The OpenStack providers are in a dilemma, which I regard as the gilded cage. In addition, all providers basically cannibalize each other, which shows the comparison of the services of Rackspace and HP by the portfolios are hardly different.

But why do all OpenStack provider sitting in a gilded cage. Well, they benefit from each other by everyone make new ideas and solutions available to the project, and all benefit equally from a common code base to put it together to an own offering. But that also means in reverse that no one can draw a real competitive advantage of it by all sitting in this cage using the same means. The cage includes basically something valuable and offers its possibilities with the available services. However, each provider has limited freedoms by all have the same basic supplies.

Rackspace is trying to differentiate with an extended support. Piston Cloud to completely keep out of the public cloud competition and offers only private or hosted private clouds.

I have already followed discussions on Twitter, where it came up to duel with Amazon over a hybrid OpenStack cloud. However, many not bargain on Eucalyptus, which formed an exclusive partnership with Amazon and has developed more and more services lately to close the service gap to Amazon.

Furthermore, one must not be ignored. The comparison to Linux seems to be correct in its approach. However, most Linux distributions are free of charge. OpenStack provider have to sell their services to be profitable. This also means that OpenStack providers are doomed to make as much profit as possible from their service offering to cover the running costs of the infrastructure, etc..

Differentiation over an attractive service portfolio only

OpenStack provider have to accept being in the gilded cage. But that does not mean that one therefore must be just one of many vendors. At first one should refrain from seeing infrastructure-as-a-service as a bearing business model, at least as a small vendor. Infrastructure is commodity. Furthermore, one should not continue, or even begin to imitate the Amazon Web Services, the train has left the station. Instead, attempt should be made to develop the wheel further and become – on innovation – the next Amazon Web Services.

Rather, it is about that every OpenStack provider must make the most out of the OpenStack project and not forget to be disruptive and neglect innovations. In the future, only the cloud providers will be successful who offer services, giving customer an added value. Here OpenStack can and will play a very important role, however, not occupy center stage, but serve as a means to an end.

The OpenStack providers must begin to change the marketing machine OpenStack to the innovation machine OpenStack. Then the admiration comes naturally.