Categories
Kommentar

Infrastruktur ist Commodity! Vertikale Services sind die Zukunft der Cloud.

Im Jahr 2014 erwartet der Infrastructure-as-a-Service Markt weltweit ein Gesamtumsatz von geschätzten 6 Milliarden Dollar. Ein guter Grund in diesem Cloud Segment sein Glück zu versuchen. Zahlreiche Anbieter sind in den letzten Jahren auf diesen Zug aufgesprungen und versuchen dem Platzhirsch Amazon Web Services (AWS) Marktanteile abzunehmen. Keine leichte Aufgabe, da sich die Innovationskurve der meisten Verfolger im Vergleich zu AWS eher flach verhält. Ein Grund besteht in dem versteiften Festhalten an dem Wort Infrastruktur in Infrastructure-as-a-Services. Argumente, wegen einer deutlich höheren Performance von AWS zu einem Mitbewerber zu wechseln hören sich im ersten Moment verlockend an. Aber unterm Strich zählt der Reifegrad des Portfolios und der Blick über das gesamte Angebot und nicht nur ein kleiner Bereich, in dem man sich einen technologischen Vorsprung verschafft hat.

Infrastructure-as-a-Services meinen tatsächlich Services

Auch wenn die Amazon Web Services der erste IaaS Anbieter am Markt war, nimmt das Wort „Web-Services“ eine zentrale Rolle in der Philosophie des Unternehmens ein. Gestartet mit den grundlegenden und zentralen Services Amazon EC2 (Rechenleistung, virtuelle Maschine) und Amazon S3 (Speicherplatz) wurden in sehr kurzen Zeiträumen immer weitere neue Services ausgerollt, die mit Infrastruktur nur im weitesten Sinne etwas zu tun haben. Services wie Amazon SQS, Amazon SNS, Amazon SWF oder Amazon SES helfen AWS-Kunden dabei, die Infrastruktur zu nutzen. Das Starten einer einzigen Amazon EC2 Instanz ist nämlich genauso viel Wert, wie ein virtueller Server bei einem klassischen Webhoster. Nicht mehr und nicht weniger – und ist im Endeffekt monatlich sogar noch teurer. Wer also hofft, in Zukunft weiterhin mit Infrastrukturkomponenten – virtueller Rechenleistung, Speicherplatz, Gateway usw. – auf die Party eingeladen zu werden, wird wohl draußen bleiben müssen.

Sich aus dem Preiskampf, den sich Amazon, Microsoft und Google derzeit liefern, weitestgehend herauszuhalten ist ebenfalls ratsam. Dieser erfreut zwar die Kunden, wird früher oder später aber zu einer Marktbereinigung führen. Außerdem, wenn man sich anschaut wie Jeff Bezos Amazon führt (bspw. Kindle Strategie), lässt er sich auf jede Preisschlacht ein, nur um Marktanteile zu gewinnen. Daher sollten IaaS Anbieter das Kapital lieber nutzen, um die Attraktivität des Portfolios zu erhöhen. Kunden sind bereit für Innovationen und Qualität zu bezahlen. Darüber hinaus sind Entscheider bereit für Lösungen aus der Cloud teilweise dasselbe und sogar mehr auszugeben wie für on-Premise Angebote. Die Bedeutung liegt verstärkt auf der Flexibilisierung der Unternehmens-IT, um dem Unternehmen damit mehr Agilität zu verschaffen.

Hierzu ein Tweet von meinem Freund und Analysten-Kollegen Ben Kepes aus Neuseeland, der den Nagel ironisch auf den Kopf trifft.

Vertikale Services sind die Zukunft der Cloud

Der Infrastructure-as-a-Services Markt hat bei weitem noch nicht seinen Zenit erreicht. Dennoch ist Infrastruktur zur Commodity geworden und ist nichts Innovatives mehr. Wir sind an einem Punkt in der Cloud angekommen, wo es darum geht, die Cloud Infrastrukturen zu nutzen, um darauf Services vertikal aufzubauen. Dafür sind Unternehmen und Entwickler neben virtueller Rechenleistung und Speicherplatz auf Services von dem Anbieter angewiesen, um das eigene Angebot performant, skalierbar und ausfallsicher zu betreiben. Trotz des mittlerweile umfangreichen Service-Portfolios von Anbietern wie Amazon, Microsoft und Google ist weiterhin viel Zeit, Wissen, Aufwand und somit auch Kapital notwendig, um diesen Zustand zu erreichen. Weiterhin werden von den Anbietern nur proprietäre infrastrukturnahe Services angeboten, um mit der Infrastruktur zu arbeiten. Alles Weitere muss selbst unter Zuhilfenahme dieser Services entwickelt werden.

Aus diesem Grund fehlen dem Markt Anbieter von externen Service-Portfolios, die von Unternehmen und Entwicklern genutzt werden können, um fertige Services, die auf den Infrastrukturen und Plattformen selbst entwickelt werden müssten, on-Demand einzusetzen. Solche Mehrwertdienste lassen sich für ein bestimmtes Geschäftsszenario horizontal in die vertikalen Services integrieren und bei Bedarf nutzen. Diese BBaaS (Business-Bricks-as-a-Services) fügen sich anbieterunabhängig in bestehende Infrastructure-as-a-Services und Platform-as-a-Services ein und schaffen für den Nutzer einen Mehrwert. Die einzelnen Geschäftsbausteine sind standardisiert und bereits hochskalierbar und hochverfügbar als Web-Services implementiert und lassen sich einfach und ohne großen Aufwand integrieren.

Mehr zu dem BBaaS Konzept gibt es unter: Business-Bricks-as-a-Service (BBaaS) – Geschäftsbausteine in der Cloud.

Categories
Kommentar

Cloud Rockstar 2013: Netflix ist der unangefochtene König des Cloud Computing

Ich denke es ist an der Zeit ein Unternehmen für seine Arbeit in der Cloud zu adeln. Anders als man nun vielleicht vermutet, handelt es sich nicht um einen der Anbieter. Nein! Auch wenn es die Anbieter sind, die erst die Möglichkeiten schaffen, sind es die Kunden, die letztendlich etwas daraus machen und der Öffentlichkeit die Macht der Cloud zeigen. Dabei muss man selbstverständlich die gewöhnlichen Kunden von denjenigen unterschieden, die sehr viel Engagement zeigen und sich von der Denkweise und damit auch architektonisch der Cloud angepasst haben. Um es vorweg zu nehmen, bei dem König der Cloud handelt es sich um Netflix und hier insbesondere um Adrian Cockroft, den Vater der Netflix Cloud-Architektur.

Geboren für die Cloud

Bevor sich Netflix für den Einsatz seines Systems in der Cloud entschieden hat (Migration von einer eigenen Infrastruktur), verbrachte das Unternehmen viel Zeit damit, um die Cloud zu verstehen und ein Test-System innerhalb der Cloud-Infrastruktur aufzubauen. Dabei wurde insbesondere darauf geachtet, soviel realistischen Traffic bzw. Traffic Szenarien wie möglich zu erzeugen, um damit das Test-System auf seine Stabilität hin zu prüfen.

Anfangs entwickelte Netflix dazu einen einfachen Repeater, der die echten und vollständigen Kundenanfragen auf das System innerhalb der Cloud Infrastruktur kopierte. Damit identifizierte Netflix die möglichen Engpässe seiner Systemarchitektur und optimierte im Zuge dessen die Skalierbarkeit.

Netflix selbst bezeichnet seine Software Architektur gerne auch als Rambo Architektur. Das hat den Hintergrund, dass jedes System unabhängig von den anderen Systemen einwandfrei funktionieren muss. Dazu wurde jedes System innerhalb der verteilten Architektur so entwickelt, dass es darauf vorbereitet ist, dass andere Systeme zu denen eine Abhängigkeit besteht, ausfallen können und das dieses toleriert wird.

Sollte das Bewertungssystem ausfallen, verschlechtert sich zwar die Qualität der Antworten, aber es wird dennoch eine Antwort geben. Statt personalisierten Angeboten werden dann nur bekannte Titel angezeigt. Sollte das System, dass für die Suchfunktion zuständig ist, unerträglich langsam sein, muss das Streaming der Filme trotzdem einwandfrei funktionieren.

Chaos Monkey: Der heimliche Star

Eines der ersten Systeme das Netflix auf bzw. für die Cloud entwickelt hat, nennt sich “Chaos Monkey”. Sein Job ist es, zufällig Instanzen und Services innerhalb der Architektur zu zerstören. Damit stellt Netflix sicher, dass alle Komponenten unabhängig voneinander funktionieren, selbst dann wenn Teil-Komponenten ein Problem haben.

Neben dem Chaos Monkey hat Netflix viele weitere Monitoring und Test-Tools für den Betrieb seines Systems in der Cloud entwickelt, die das Unternehmen als “The Netflix Simian Army” bezeichnet.

Netflix Simian Army: Das Vorbild

Die Simian Army von Netflix ist ein Extrembeispiel, wie eine Cloud Architektur auszusehen hat. Das Unternehmen hat viel Zeit, Anstrengungen und Kapital in die Entwicklung seiner Systemarchitektur investiert, die auf der Cloud Infrastruktur der Amazon Web Services läuft. Aber es lohnt sich und jedes Unternehmen, das die Cloud ernsthaft nutzen möchte und ein hochverfügbares Angebot präsentieren will, sollte sich Netflix unbedingt zum Vorbild nehmen.

Der Aufwand zeigt die Komplexität der Cloud

Unterm Strich ist zu sagen, dass Netflix für den Fehlerfall vorausschauend plant und sich nicht auf die Cloud verlässt. Denn irgendwas läuft auch mal in der Cloud schief, wie in jedem gewöhnlichen Rechenzentrum. Mann muss nur darauf vorbereitet sein.

Netflix zeigt sehr eindrucksvoll das es funktioniert. Wenn man jedoch bedenkt, was für einen Aufwand Netflix betreibt, um in der Cloud erfolgreich zu sein, muss man einfach sagen, dass Cloud Computing nicht einfach ist und eine Cloud Infrastruktur, egal bei welchem Anbieter, mit der entsprechenden Architektur aufgebaut werden muss. Das bedeutet im Umkehrschluss, dass die Nutzung der Cloud simpler werden muss, um auch die versprochenen Kostenvorteile zu erzielen. Denn wenn man Cloud Computing richtig nutzt, ist es zwangsläufig nicht günstiger. Neben den Einsparungen der Infrastrukturkosten die immer vorgerechnet werden, dürfen niemals die weiteren Kosten z.B. für das Personal mit den notwendigen Kenntnissen und die Kosten für die Entwicklung der skalierbaren und ausfallsicheren Applikation in der Cloud vernachlässigt werden.

Erfolgreich und sozial zugleich

Die meisten Unternehmen behalten ihren Erfolg für sich. Der Wettbewerbsvorteil wird ungerne aus der Hand gegeben. So nicht Netflix. In regelmäßigen Abstand werden Teile aus der Simian Army unter der Open-Source Lizenz veröffentlicht, mit denen jeder Cloud Nutzer die Möglichkeit erhält eine Cloud-Applikationen mit der Architektur DNA von Netflix zu entwickeln.

Cloud Rockstar 2013

Auf Grund seines Erfolgs und insbesondere seines Engagement in und für die Cloud, ist es an der Zeit, Netflix öffentlich zu adeln. Netflix hat es verstanden, die Cloud quasi in Perfektion zu nutzen und den Erfolg nicht für sich zu behalten. Stattdessen gibt das Unternehmen anderen Cloud-Nutzern die Möglichkeit, mit denselben Tools und Services eine ähnlich hochskalierbare und hochverfügbare Cloud-Applikationen aufzubauen.

Netflix wird damit von den Analysten von New Age Disruption und CloudUser.de zum “Cloud Rockstar 2013” in der Kategorie “Bester Cloud Nutzer” ernannt. Dieser unabhängige Award von New Age Disruption wird in diesem Jahr zum ersten Mal vergeben und zeichnet Anbieter als auch Anwender für ihre Innovationen und das außergewöhnliche Engagement im Cloud Computing aus.

Herzlichen Glückwunsch Netflix und Adrian Cockroft!

René Büst

Cloud Rockstar 2013 - Netflix

Weitere Informationen: Cloud Rockstar Award

Categories
Kommentar

Salesforce Customer Company Tour 13: Salesforce nutzt die Cloud als Werkzeug zur maximalen Vernetzung

Gleichzeitig mit dem neuen selbst ausgedachten Claim, eine „Customer Company“ zu sein, hat Salesforce auch den Namen seiner Kundenveranstaltung „Cloudforce“ in „Customer Company Tour 13“ (CCT13) umgetauft. Und die CCT13 hat gezeigt, der Name ist Programm, sowohl der neue Claim als auch der Name der Veranstaltung. Anstatt vorwiegend Salesforce Mitarbeiter die Arbeit machen zu lassen, durften zufriedene Kunden zu Wort kommen und die frohen Botschaften verkünden.

Salesforce braucht und will in Deutschland mehr Marktanteil

Salesforce gehört neben Amazon AWS und Google zu den Cloud Anbietern der ersten Stunde. Im Vergleich zum internationalen und europäischen Markt ist das Ansehen in Deutschland allerdings als eher gering einzustufen. Das liegt in erster Linie nicht am Salesforce Portfolio selbst, sondern zum einen am Cloud skeptischen deutschen Markt. Zum anderen daran, dass Salesforce in der Aussendarstellung immer noch als reines SaaS-CRM verstanden wird, was das Unternehmen bei weitem nicht mehr ist. Der Fokus muss auf der Vermarktung der gesamten Plattform liegen, um damit zu zeigen, dass und welche Unternehmensprozesse sich darauf abbilden lassen.

Damit hat das Unternehmen auf seiner CCT13 begonnen. Die Idee für den Claim der „Customer Company“ hat sich Salesforce übrigens von einer IBM Studie aus dem Jahr 2012 abgeschaut. Daran sieht man mal, dass auch junge disruptive Unternehmen von den alten Hasen in der Branche etwas lernen können. Um den Anspruch einer Customer Company gerecht zu werden setzt Salesforce auf insgesamt sieben Säulen: Social, Mobile, Big Data, Community, Apps, Cloud und Trust. Die ersten sechs sind bereits im Portfolio erkennbar. Vertrauen sollte allerdings selbstverständlich sein und über allem stehen.

Salesforce wird im Frühjahr 2014 übrigens ein neues Rechenzentrum in Europa, London bauen. Darüber hinaus ist ein globales Forschungs- und Entwicklungszentrum in Grenoble geplant.

Internet of Things steht weit oben auf der Prioritätenliste

Mich hat besonders der GE Use Case begeistert, der am Rande der Veranstaltung leider nur wenig Aufmerksamkeit bekam. Allerdings zeigt genau dieser das große Potential der Salesforce Plattform und in welche Richtung Salesforce steuern wird. GE nutzt Salesforce Chatter, um seine Support-Teams über aktuelle Status der Flugzeugtriebwerke zu informieren (M2M Kommunikation). Mehr Hintergrundinformationen stehen dazu noch nicht zur Verfügung. Aber dieses Video stellt den Use Case ganz gut dar.

http://www.youtube.com/watch?v=GvC1reb9Ik0

Salesforce zeigt genau dass, was ich der Zukunft der Cloud bereits bescheinigt habe. Die Cloud dient als technologische Basis für die maximale Vernetzung von allem, u.a. für das Internet of Things. Und hier ist Salesforce mit seiner Plattform und der strategischen Ausrichtung auf dem richtigen Weg, einer der großen Player in diesem Markt zu werden.

Es zeigt aber noch etwas anderes. Salesforce ist mittlerweile viel mehr als nur Sales. Vielleicht erleben wir somit bald das nächste Mammutprojekt. Der Namenswechsel von Salesforce in „ – wir dürfen gespannt sein -“.

Categories
Kommentar

SpotCloud übersehen: Der Deutsche Börse Cloud Exchange ist nicht der erste industrieweite anbieterneutrale Cloud-Marketplace

Ich hatte bereits in meinem Kommentar zum Cloud-Marketplace der Deutsche Börse darauf hingewiesen, dass es sich dabei nicht um den ersten Cloud Marktplatz seiner Art handelt und Reuven Cohen mit SpotCloud im Jahr 2010 bereits deutlich früher dran war. Nachdem ich in der Presse einmal quer gelesen habe, muss ich sagen, dass der “Deutsche Börse Cloud Exchange” etwas sein möchte was er gar nicht ist – der “erste” industrieweite und anbieterneutrale Marktplatz für Cloud-Infrastruktur Ressourcen.

Drei Jahre zu spät!

Das Marketing der Deutsche Börse scheint sich mit Lorbeeren schmücken zu wollen, die ihnen überhaupt nicht zustehen. So interessant die Idee des Deutsche Börse Cloud Exchange (DBCE) auch ist, sollte man ruhig bei der Wahrheit bleiben. Denn bei dem Marktplatz handelt es sich bei Weitem nicht um den ersten industrieweiten und zudem noch anbieterneutralen Marktplatz für Cloud-Infrastruktur Ressourcen. Diese Krone darf sich Reuven Cohen aufsetzen, der SpotCloud bereits 2010 veröffentlicht hat. In der Spitze hat SpotCloud bisher 3.200 Anbieter und 100.000 Server weltweit verwaltet.

Zudem unterstützt SpotCloud seit April 2011 ebenfalls OpenStack. Ein Punkt den auch Stefan Ried berechtigterweise am DBCE kritisiert hat.

Also liebes Marketing von der Deutsche Börse, gute Idee/ Lösung, aber bitte bei der Wahrheit bleiben. Selbst die NSA schafft es nicht mehr, etwas vor der Öffentlichkeit zu verstecken.

Categories
Events

Kostenloses GigaOM Research Analysten Webinar am 9. Juli über die Zukunft des Cloud Computing in Europa

Wer sich für die Zukunft des Cloud Computing in Europa interessiert, sollte sich am 9. Juli für das internationale GigaOM Pro Analysten Webinar anmelden. Unter der Moderation von Jo Maitland werden Jon Collins, George Anadiotis und ich über die Chancen und Herausforderungen der Cloud in Europa und einzelnen Ländern wie Deutschland oder Großbritannien sprechen und damit einen kleinen Einblick in den Cloud Computing Markt in Europa geben.

Hintergrund des Webinars

Vor circa einem Jahr hat die europäische Kommission ihre „Pro Cloud“ Strategie bekanntgegeben, um damit die stagnierende Wirtschaft durch Innovationen anzukurbeln. Die Kommissare vertreten die Meinung, dass die Cloud nicht in Europa aber mit Europa stattfinden muss. Aus diesem Grund werden die drei GigaOM Research Analysten Jo Collins (Inter Orbis), George Anadiotis (Linked Data Orchestration) und René Büst (New Age Disruption) unter der Moderation von Jo Maitland (GigaOM Research) einen Blick auf die aufstrebenden Cloud Anbieter in Europa und ihr Abschneiden zu US-amerikanischen Anbietern werfen. Dabei wird auf die Probleme eingegangen, denen sich Einkäufer von Cloud Services in Europa ausgesetzt sehen und die noch nicht betrachteten Möglichkeiten von europäischen Cloud Anbietern diskutiert. Ist Europa beispielsweise in der Lage ein lebendiges Cloud Computing Ökosystem aufzubauen? Das ist derzeit eine schwierige Frage, da US-amerikanische Cloud Anbieter in diesem Markt dominieren.

Die kostenlose Anmeldung für das Webinar “The Future of Cloud in Europe” am 9. Juli um 17:00 Uhr ist unter http://pro.gigaom.com/webinar/the-future-of-cloud-in-europe/ zu finden.

Fragen die beantwortet werden

  • Was sind die größten Treiber hinter den Möglichkeiten der Cloud in Europa und dem Einsatz?
  • Was sind die Hemmnisse für die Nutzung von Cloud Computing in Europa?
  • Existieren bestimmte Trends und Möglichkeiten innerhalb bestimmter Länder (Großbritannien, Deutschland, andere EU Staaten?)
  • Welche europäischen Cloud Computing Anbieter sind die Hoffnungsträger und warum?
  • Was sind die noch nicht erschlossenen Möglichkeiten für Cloud Computing in Europa?
  • Vorhersagen für die Zukunft des Cloud Computing in Europa.
Categories
Kommentar

Die Deutsche Börse bringt mit einem eigenen Cloud-Marketplace mehr Standardisierung und Vertrauen in die Cloud

Zu Beginn des Jahres 2014 wird die Deutsche Börse in den Bereich für Cloud-Marketplaces einsteigen und unter dem Namen „Deutsche Börse Cloud Exchange AG“ einen eigenen Broker für Infrastructure-as-a-Services anbieten. Als Basis-Technologie setzt das Unternehmen auf den deutschen Cloud-Management Anbieter Zimory, mit dem ebenfalls ein Joint Venture gegründet wird.

Unabhängiger Cloud-Marketplace für Infrastruktur-Services

Der Cloud-Marketplace soll Anfang 2014 starten und als Marktplatz für Cloud-Storage und Infrastruktur-Ressourcen dienen. Um die technische Seite zu realisieren hat die Deutsche Börse mit dem deutschen Cloud-Management Anbieter Zimory ein Joint Venture gegründet. Zimory wird somit die Verantwortung haben, dass alle Kunden reibungslos auf die von ihnen eingekauften Cloud-Ressourcen zugreifen können.

Mit dem Cloud-Marketplace konzentrieren sich beide Unternehmen sowohl auf den öffentlichen Sektor als auch auf Forschungseinrichtungen, die bei Bedarf mehr Infrastruktur-Ressourcen wie Speicherplatz und Rechenleistung benötigen oder selbst Überkapazitäten haben und diese auf dem Marktplatz anbieten möchten.

Die Deutsche Börse Cloud Exchange wird als internationaler und anbieterneutraler Cloud-Marketplace ausgerichtet und ist für die Standards wie das Produktangebot, das Zulassungsverfahren, den Anbieterwechsel und für die Garantien und Gewährleistungen der eingekauften Ressourcen verantwortlich. Kunden sollen den Anbieter frei wählen können und dabei selbst entscheiden können, in welchem Rechtsraum die Daten gespeichert werden. Dazu werden die Spezifikation und Standards sowie deren technische Bereitstellung in enger Zusammenarbeit mit den Teilnehmern des Marketplace abgestimmt.
Als potentielle Partner nennt die Deutsche Börse Cloud Exchange Anbieter aus dem klassischen IT-Bereich sowie national und internationale mittelständische Unternehmen und Großkonzerne. Dazu gehören u.a. CloudSigma, Devoteam, Equinix, Host Europe, Leibniz-Rechenzentrum, Profi AG, T-Systems und der TÜV-Rheinland.

Kommentar: Ein unabhängiger und standardisierter Marketplace sorgt für mehr Vertrauen in die Cloud

Ein Cloud-Marketplace wie ihn die Deutsche Börse anbieten wird, ist grundsätzlich nichts Neues. Der erste Marketplace seiner Art wurde als Spotcloud von Reuven Cohen auf den Markt gebracht. Auch die Amazon Web Services bieten mit ihren Spot-Instances die Möglichkeit, mit virtuellen Instanzen zu handeln. Dabei handelt es sich jedoch um einen proprietären Marktplatz. Und das ist der entscheidende Vorteil für den Deutsche Börse Cloud Exchange, er ist anbieterunabhängig. Das bescheinigt ihm zum einen ein größeres Angebot an Ressourcen, zum anderen auch mehr Vertrauen, indem die Abhängigkeit zu einem einzigen Anbieter aufgelöst wird. Einen weiteren Vertrauensvorschuss liefert zudem die Deutsche Börse selbst. Diese handelt in ihrem Kontext seit jeher mit Wertpapieren, Energie und weiteren Rohstoffen ebenfalls mit virtuellen Gütern. Warum soll sie das nicht auch mit virtuellen IT-Ressourcen machen. Die Deutsche Börse wird also als Gesicht nach Außen für die organisatorische Sicherheit und die Awareness sorgen, wohingegen Zimory für die technische Abwicklung im Hintergrund zuständig ist.

Ein weiterer wichtiger Punkt, der ein Schlüssel zum Erfolg werden kann ist das Thema Standardisierung. Seit Beginn der Cloud wurde über „Standards in der Cloud“ diskutiert und wer für DEN Standard sorgen wird. Möglicherweise haben wir mit dem Deutsche Börse Cloud Exchange eine ernsthafte Initiative aus der Industrie gefunden, die dafür sorgen wird, dass es demnächst einen einheitlichen Cloud Standard geben wird. Das hängt natürlich von der entsprechenden Beteiligung der Cloud Anbieter ab. Dennoch zeigen die ersten Partner allen voran CloudSigma, Equinix und T-Systems (setzt u.a. auch auf OpenStack) ihr Interesse in die Richtung. Es bleibt in diesem Zusammenhang zudem abzuwarten, wie sich die Open Cloud Community hierzu aufstellen wird.

Bei der ersten Version des Deutsche Börse Cloud Exchange wird es sich um einen reinen Marketplace für Cloud-Infrastruktur handeln. Ein nächster Evolutionsschritt sollte darin bestehen, ebenfalls externe Mehrwert-Services mit in den Marketplace aufzunehmen, mit denen die Infrastruktur-Ressourcen effektiv genutzt werden können, um Entwickler damit zu animieren die Ressourcen zu nutzen, um neue Web-Applikationen und Backendsoftware für mobile Apps zu entwickeln. Weiterhin sollte der Marketplace als echter Cloud-Broker aufgestellt werden.

Categories
Analysis

Survey: Your trust in the Cloud. Europe is the safe haven. End-to-end encryption creates trust.

After the revelations about PRISM I had started a small anonymous survey on the current confidence in the cloud, to see how the scandal has changed on the personal relationship to the cloud. The significance of the result is more or less a success. The participation was anything but representative. With at least 1499 visits the interest in the survey was relatively large. A participation of 53 attendees is then rather sobering. Thus, the survey is not representative, but at least shows a trend. In this context I would like to thank Open-Xchange and Marlon Wurmitzer of GigaOM for the support.

The survey

The survey consisted of nine questions and was publicly hosted on twtpoll. It exclusively asked questions about trust in the cloud and how this can possibly be strengthened. In addition, the intermediate results were publicly available at each time. The survey was distributed in German and English speaking countries on the social networks (Twitter, Facebook, Google Plus) and the business networks XING and LinkedIn because this issue affects not a specific target audience, but has an impact on all of us. This led on twtpoll to 1,442 views across the web and 57 views of mobile devices and ended with 53 respondents.

The survey should not be considered as representative for this reason, but shows a tendency.

The survey results

Despite the PRISM scandal the confidence in the cloud is still present. 42 percent continue to have a high confidence, 8 percent even a very high level of confidence. For 15 percent the confidence in the cloud is very low; 21 percent appreciate the confidence is low. Another 15 percent are neutral towards the cloud.

The confidence in the current cloud provider is balanced. 30 percent of respondents still have a high level of confidence, 19 percent even a very high level of trust in their providers. This compares to 15 percent each, which have a low or very low confidence. 21 percent are undecided.

The impact on the confidence in the cloud by PRISM leads to no surprise. Only 9 percent see no affect for them; 8 percent a little. 32 percent are neutral. However, 38 percent of the participants are strongly influenced by the PRISM revelations and 13 percent most intensive.

62 percent of the participants used services of cloud provider, which are accused of supporting PRISM. 38 percent are at other providers.

As to be expected, PRISM has also affected the reputation of the cloud provider. For 36 percent the revelations have strongly influenced the confidence, for 13 percent even very strong. However, even 32 percent are neutral. For 11 percent the revelations have only a slight influence. For 8 percent is no influence at all.

Despite of PRISM 58 percent want to continue to use cloud services. 42 percent have already played with the idea to leave the cloud due to the incidents.

A clear sign goes to the provider when it comes to the topic of openness. 43 percent (very high) and 26 percent (high) expect an unconditional openness of the cloud provider. 25 percent are undecided. For only 2 percent (low) and 4 percent (very low) it does not matter.

74 percent see in a 100 percent end-to-end encryption the ability to increase confidence in the cloud. 26 percent think it as no potential.

The question of the most secure/ trusted region revealed no surprises. With 92 percent Europe counts after the PRISM revelations as the top region in the world. Africa received 4 percent, North America and Asia-Pacific each 2 percent. For South America was not voted.

Comment

Even if the revelations about PRISM to cause indignation at the first moment and still continue to provide for uncertainty, the economic life must go on. The tendency of the survey shows that confidence in the cloud has not suffered too much. But at this point it must be said: Cling together, swing together! We all have not precipitate into the cloud ruin overnight. The crux is that the world is increasingly interconnected using cloud technologies and the cloud thus serves as a focal point of modern communications and collaboration infrastructure.

For that reason we can not go back many steps. A hardliner might naturally terminate all digital and analog communication with immediate effect. Whether that is promising is doubtful, because the dependency has become too large and the modern corporate existence is determined by the digital communication.

The sometimes high number of neutral responses to the trust may have to do with that we all has always played the thought in the subconscious, that we are observed in our communication. Due to the current revelations we have it now in black and white. The extent of surveillance, meanwhile also of the disclosure of TEMPORA by the British Secret Service, has surprised. Related to TEMPORA, hence the survey result for Europe as a trusted region is disputable. But against surveillance at strategic intersections in the internetalso the cloud providers themselves are powerless.

Bottom line the economic-(life) has to go on. But at all the revelations one can see, that we can not rely on governments, from which regulations and securities are repeatedly required. On the contrary, even these have evinced interest to read data along. And one we must always bear in mind again. How should laws and rules help, when they are broken again and again by the highest authority.

Companies and users must therefore now assume more responsibility, take the reins in their hands, and provide the broadest sense for their desired security (end-to-end encryption) itself. Numerous solutions from the open source but also from the professional sector help to achieve the objectives. Provider of cloud and IT solutions are now challenged to show more openness as they may want to do.

Graphics on the survey results

1. How is your current trust in the cloud in general?

2. How is your current trust in the cloud provider of your choice?

3. How does the PRISM uncoverings influence your trust in the cloud?

4. Is your current cloud provider one of the accused?

5. How does the PRISM uncoverings influence your trust in the cloud provider of your choice?

6. Did you already think about to leave the cloud e.g. your cloud provider due to the PRISM uncoverings?

7. How important is the unconditional openness of your provider in times of PRISM and surveillance?

8. Do you think a 100% end-to-end encryption without any access and other opportunities of third parties can strengthen the trust?

9. In your mind which world region is the safest/ trustworthiest to store data in?

Categories
Insights @en

Building a hosted private cloud with the open source cloud computing infrastructure solution openQRM

Companies have recognized the benefits of the flexibility of their IT infrastructure. However, the recent past has reinforced the concern to avoid the path to the public cloud for reasons of data protection and information security. Therefore alternatives need to be evaluated. With a private cloud one is found, if this would not end in high up-front investments in own hardware and software. The middle way is to use a hosted private cloud. This type of cloud is already offered by some providers. However, there is also the possibility to build it up and run themselves. This INSIGHTS report shows how this is possible with the open source cloud computing infrastructure solution openQRM.

Why a Hosted Private Cloud?

Companies are encouraged to create more flexible IT infrastructure to scale their resource requirements depending on the situation. Ideally, the use of a public cloud is meeting these requirements. For this no upfront investments in own hardware and software are necessary. Many companies dread the way into public cloud for reasons of data protection and information security, and look around for an alternative. This is called private cloud. The main advantage of a private cloud is to produce a flexible self-service provisioning of resources for staff and projects, such as in a public cloud, which is not possible by a pure virtualization of the data center infrastructure. However, it should be noted that investments in the IT infrastructure must be made to ensure the virtual resource requirements by a physical foundation for building a private cloud.

Therefore, an appropriate balance needs to be found that allows a flexible resource obtaining for a self-service, but at the same time must not expect any high investment in the own infrastructure components and without to waive a self-determined data protection and security level. This balance exists in hosting a private cloud at an external (web) hoster. The necessary physical servers are rented on a hoster who is responsible for their maintenance. In order to secure any physical resource requirements, appropriate arrangements should be made with the hoster to use the hardware in time. Alternatives include standby server or similar approaches.

On this external server-/storage-infrastructure the cloud infrastructure software is then installed and configured as a virtual hosted private cloud. For example, according to their needs this allows employees to start own servers for software development and freeze and remove them after the project again. For the billing of the used resources, the cloud infrastructure software is responsible, which provides such functions.

openQRM Cloud

Basically, an openQRM Cloud can be used for the construction of a public and private cloud. This completely based on openQRM’s appliance model and offers fully automated deployments that can be requested by cloud users. For this openQRM Cloud supports all the virtualization and storage technologies, which are also supported by openQRM itself. It is also possible to provide physical systems over the openQRM Cloud.

Based on the openQRM Enterprise Cloud Zones, a fully distributed openQRM Cloud infrastructure can also be build. Thus, several separate data centers may be divided into logical areas or the company topology can be hierarchically and logically constructed safely separated. Moreover openQRM Enterprise Cloud Zones integrates a central cloud and multilingual portal including a Google Maps integration, so an interactive overview of all sites and systems is created.

Structure of the reference environment

For the construction of our reference setup a physical server and multiple public IP addresses are required. There are two options for installing openQRM:

  • Recommended: Configuration of a private class C subnet (192.168.xx/255.255.255.0) in which openQRM is operated. openQRM required an additional public IP address for access from the outside.
  • Option: Install openQRM in a virtual machine. In this variant openQRM controls the physical server and receives the virtual machines from the physical host for subsequent operations of the cloud.

For the assignment of public IP addresses cloud NAT can be used in both scenarios. This openQRM Cloud function will translate the IP addresses of the private openQRM Class C network into public addresses. This requires pre-and post-routing rules on the gateway / router using iptables, configured as follows:

  • iptables -t nat -A POSTROUTING -s 192.168.0.0/24 -o br0 -j MASQUERADE
  • iptables -t nat -A POSTROUTING -s 192.168.0.0/24 -o eth0 -j MASQUERADE
  • o More information on pre-and post-routing with iptables can be found at http://www.karlrupp.net/en/computer/nat_tutorial

For the configuration of complex network environments, the IP management plugin is recommended. This enterprise plugin allows to set any network- and IP address configurations for the managed servers. In the openQRM Cloud, it also provides a mapping of networks to cloud users and groups and also supports the automated VLAN management.

In addition, two bridges are needed:

  • One of the public interface with a public IP address.
  • One for the private interface dpe for which DHCP is configured.

The data in the cloud are later stored in the local storage of the physical server. For this purpose, there are two variants:

Recommended:

  • KVM-Storage LVM Deployment (LVM Logical Volume Deployment)
  • Requires one or more dedicated LVM volume group (s) for the virtual machines. For more complex setups a central iSCSI target or a SAN is recommended.

Option:

  • KVM-Storage BF Deployment (blockfile deployment)
  • Create a directory on the Linux server as
    • /var/lib/kvm-storage/storage1
    • /var/lib/kvm-storage/storage2
    • (The storage directories can be set arbitrarily on the plugin configuration.)

  • For more complex setups, a central NAS for the configured mount points should be used.

At the end iptables must be configured according to the rules above and the desired own safety. After that the installation of openQRM follows. Packages for popular Linux distributions are available at http://packages.openqrm.com. After openQRM has been installed and initialized the configuration follows.

Basic configuration of openQRM

The first step after initialization is editing the „/usr/share/openqrm/plugins/dns/etc/openqrm-plugin-dns.conf“, by changing the default value to the own domain.

Configure domain for the private network
# please configure your domain name for the openQRM network here!
OPENQRM_SERVER_DOMAIN=”oqnet.org”

After that we activate and start the plug-ins via the web interface of the openQRM server. The following plugins are absolutely necessary for this:

DNS Plugin

  • Used for the automated management of the DNS service for the openQRM management network.

DHCPD

  • Automatically manages the IP addresses for the openQRM management network.

KVM Storage

  • Integrates the KVM virtualization technology for the local deployment.

Cloud-Plugin

  • Allows the construction of a private and public cloud computing environment with openQRM.

Further additional plugins are recommended:

Collectd

  • A monitoring system including long-term statistics and graphics.

LCMC

  • Integrates the Linux Cluster Management Console to manage the high availability of services.

High-Availability

  • Enables automatic high availability of appliances.

I-do-it (Enterprise Plugin)

  • Provides an automated documentation system (CMDB).

Local server

  • Integrates existing and locally installed server with openQRM.

Nagios 3

  • Automatically monitors systems and services.

NoVNC

  • Provides a remote web console for accessing virtual machines and physical systems.

Puppet

  • Integrates Puppet for a fully automated configuration management and application deployment in openQRM.

SSHterm

  • Allows secure login via a web shell to the openQRM server and integrates resource

Plugins which offer more comfort in the automatic installation of virtual machines as cloud templates are:

Cobbler

  • Integrates cobbler for automated deploying of Linux system in openQRM.

FAI

  • Integrates FAI for the automated provisioning of Linux systems in openQRM.

LinuxCOE

  • Integrates LinuxCOE for the automated provisioning of Linux systems in openQRM.

Opsi

  • Integrates Opsi for the automated provisioning of Windows systems in openQRM.

Clonezilla/local-storage

  • Integrates Clonezilla for the automated provisioning of Linux and Windows systems in openQRM.

Basic configuration of the host function for the virtual machines

Case 1: openQRM is installed directly on the physical system

Next, the host must be configured to provide the virtual machines. For that an appliance type KVM Storage Host is created. This works as follows:

  • Create appliance
    • Base > Appliance > Create
  • Name: e.g. openQRM
  • Select the openQRM server itself as resource
  • Type: KVM Storage Host

This gives openQRM the information that a KVM storage is to be created on this machine.

Case 2: openQRM is installed in a virtual machine running on the physical system

Using the “local server” plugin the physical system is integrated into openQRM. To this the “openQRM-local-server” integration tool is copied from the openQRM server on the system to be integrated, e.g.

scp /usr/share/openqrm/plugins/local-server/bin/openqrm-local-server [ip-address of the physical system]:/tmp/

After that, it is executed on the system to be integrated:

ssh [ip-address of the physical system]: /tmp/openqrm-local-server integrate -u openqrm -p openqrm -q [ip-address of the openQRM server] -i br0 [-s http/https]

(In this example “br0” is the bridge to the openQRM management network.)

The integration via “local server” creates in openQRM automatically:

  • a new resource
  • a new image
  • a new kernel
  • a new appliance from the sub-components above

Next, the appliance of the currently integrated physical system must be configured to provide the virtual machines. For this the appliance is set as type KVM Storage Host. That works as follows:

  • Edit the appliance
    • Base > Appliance > Edit
  • Type: Set KVM Storage Host

This gives openQRM the information that a KVM storage is to be created on this machine.

Basic configuration of the storage function

Now, the basic configuration of the storage follows. For this purpose, a storage object of a desired type is created. This works like this:

  • Create storage
    • Base > Components > Storage > Create
    Case 1, select the resource of the openQRM server
  • Case 2, select the resource of the integrated physical system
  • Name: e.g. KVMStorage001
  • Select deployment type
    • This depends on the selected type at the beginning: KVM-Storage LVM deployment or directory (KVM-Storage BF deployment)

Preparation of virtual machine images

In order to provide virtual machine (VM) later over the cloud portal as part of finished products, an image for a VM must first be prepared. This works as follows:

  • Creating a new virtual machine with a new virtual disk and install an ISO image on it.
    • Plugins > Deployment > LinuxCOE > Create Templates
    • The created images are automatically stored in an ISO pool which each virtual machine within openQRM can access.

Subsequently a base for the master template is created. This serves as a basis to provide users a product over the order process.

  • Create a new appliance
    • Base > Appliance > Create
  • Create a new resource
    • KVM-Storage virtual machine
      • Create a new VM
      • Make settings
      • Select an ISO image
      • Create
    • Select created resource
  • Create a new image
    • Add image as KVM-Storage volume
    • Select KVM-Storage
    • Select volume group on KVM-Storage
    • Add a new logical volume
    • Select an image for the appliance
    • Edit to set a password (The previously chosen password of the ISO is overridden.)
  • Select kernel
    • From the local disk
    • (LAN boot is also possible)
  • Start appliance
    • The automatic installation can now be tracked over VNC.
    • Further adaptations can be done itself.
    • Please consider
      • Misc > Local-Server > Help >Local VMs („Local-Server for local virtual machines “)

Cleaning up

The created appliance can now be stopped and deleted afterwards. The important point was to create an image that can be used as a master template for the cloud.

The created image using the appliance includes the basic operating system which was created from the ISO image.

Configuration of the openQRM Cloud

We have now finished all preparations to start configuring the openQRM cloud. We find the necessary settings at „Plugin > Cloud > Configuration > Main Config“. All parameters which are adapted here have a direct impact on the behavior of the whole cloud.

Basically an openQRM Cloud can be run with basic settings. Depending on the needs and the own specific situation, adaptations can be make. The area “description” in the right column of the table are helpful.

However, there are parameter which are need to consider regardless of the own use case. These are:

Automatic provisioning (auto_provision)

  • Determines if systems are automatically provisioned by the cloud or if an approval of a system administrator is needed.

Provisioning of physical systems (request_physical_systems)

  • This parameter defines if besides virtual machines even physical hosts can be provisioned by the cloud.

Cloning of images (default_clone_on_deploy)

  • By default the cloud rolls out copies (clones) of an image.

High-availability (show_ha_checkbox)

  • Enables to operate the openQRM cloud including the high-availability of the provided resources.

Billing of the used resources (cloud_billing_enabled)

  • openQRM has an extensive billing system to determine own prices for all resources to get a transparent overview of the running costs.

Cloud product manager (cloud_selector)

  • Enables the product manager to provide users various resources over the cloud portal.

Currency for the settlement of resources (cloud_currency)

  • Determines the local currency with which the resources are to be settled.

Exchange ratio for resources in real currency (cloud_1000_ccus)

  • Determines how many 1000 CCUS (Cloud Computing Units) correspond to a previously fixed real currency.

Resource allocation for groups (resource_pooling)

  • Determines from which host an appointed user group receive their virtual machines.

Creating products for the openQRM Cloud

To provide our users the resources over the cloud portal we have to create products first which define the configuration of a virtual machine. The settings for that we find at „Plugin > Cloud > Configuration > Products“.

The “Cloud product management” is used to create various products which users can choose later to build own virtual machines itself over the cloud portal. Products which are available for us are:

  • Number of CPUs
  • Size of local disks
  • Size of RAM
  • Kernel type
  • Number of network interfaces
  • Pre-installed applications
  • Virtualization type
  • If a virtual machine should be high-available

Over the status line by using +/- each product can be activated or deactivated to show or hide it for the user in the cloud portal.

Please note: Products which are deactivated but are still active within a virtual machine continue to be billed.

To create a new CPU product we select the “CPU” tap and define in the area “Define a new CPU product” our wanted parameter.

The first parameter defines how many CPUs (cores), here 64, our product should have. The second parameter determines the value of the product and how many costs occur per hour during its use. In this example, 10 CCUs per hour for 64 CPUs occurs.

With the arrow keys the order on how the single products are displayed in the cloud portal can be determine. The default value is above one.

Please note: In the cloud portal standard profiles in the sizes „small“, „medium“ and „big“ exist. According to the order the profiles are automatically be determined under the respective products. That means that “small” is always the first value, “medium” the second and “big” the third.

openQRM also allows to order virtual machines with pre-configured software stacks. For this openQRM uses Puppet (Plugins > Deployment > Puppet). Thus, for example, it is possible to order the popular LAMP stack.

If we have configured our product portfolio, it’s the user’s turn to order virtual machines. This is done via the cloud portal.

openQRM Cloud-Portal

To create a new virtual machine (VM) we click on the tap “New”. An input mask follows on which we can create our
VM based on the products the administrator has determined and approved in the backend.

We choose the profile “Big” and a LAMP server. Our virtual machine now consists of the following products:

  • Type: KVM-Storage VM
  • RAM: 1 GB
  • CPU: 64 cores
  • Disk: 8 GB
  • NIC: 1

In addition the virtual machine should be “high-available”. This means, if the VM fails, automatically a substitute machine with exactly the same configuration is started to work on with.

For this configuration we will have to pay 35 CCUs per hour. This is equivalent to 0.04 euros per hour or € 0.84 per day or € 26.04 per month.

If we want to order the virtual machine we select “send”.

Below the tap “Orders” we see all current and past orderings we have made with our user. The status “active” in the first column shows that the machine is already started.

Parallel to this we receive an e-mail including the ip-address, a username and a password, we can use to log into the virtual machine.

The tap “Systems” confirms both information and shows further details of the virtual machine. In addition we have the opportunity to change the systems configuration, pause the virtual machine or to restart. Furthermore the login via a web-shell is possible.

If the virtual machine is not needed any more it can be paused. Alternatively it is possible that the administrator disposes this due to an inactivity of the system or at a specific time.

Creating a virtual machine with the „Visual Cloud Designer“

Besides the “ordinary” way of building a virtual machine, the openQRM Cloud portal enables the user to do that conveniently via drag and drop. Here the „Visual Cloud Designer“ helps, which can be find behind the tap „VCD“.

Using the slider on the left below „Cloud Components” it is possible to scroll between the products. Using the mouse allows to assemble the „Cloud Appliance“ (virtual machine) in the middle with the appropriate products.

Our virtual machine „Testosteron“ we assembled in this case with KVM-Storage, Ubuntu 12.04, 64 CPUs, 1024 MB Ram, 8 GB disk, one NIC, and software for a webserver and the high-availability feature.

With one click on “Check Costs”, openQRM tells us that we will pay 0.03 EUR per hour for this configuration.

To start the ordering process for the virtual machine we click “request”. We get the message that openQRM starts rolling out the resource and we will receive further information into our mailbox.

The e-mail includes, as described above, all access data to work with the virtual machine.

In the cloud portal under “systems” we already see the started virtual machine.

Creating a virtual machine with the „Visual Infrastructure Designer“

Besides the provisioning of single virtual machines the openQRM cloud portal also offers the opportunity to provide complete infrastructures consisting of multiple virtual machines and further components, at one click.

Thus, we use the „Visual Infrastructure Designer“. This can be found in the cloud portal behind the tap “VID”.

Using the “VID” it is possible to build and deploy a complete WYSIWYG infrastructure via drag and drop. For this purpose, it is necessary to create ready profiles with pre-configured virtual machines at first, which include for example webserver, router or gateways. These can be deployed afterwards.

Categories
Insights @de

Aufbau einer Hosted Private Cloud mit der Open-Source Cloud Computing Infrastrukturlösung openQRM

Unternehmen haben die Vorteile der Flexibilisierung der eigenen IT-Infrastruktur erkannt. Dennoch hat die jüngste Vergangenheit die Bedenken bestärkt, den Weg in die Public Cloud aus Gründen des Datenschutzes und der Informationssicherheit zu meiden. Es sind daher Alternativen gefragt. Mit der Private Cloud wäre eine gefunden. Wären dazu nicht hohe Vorabinvestitionen in eigene Hard- und Software notwendig. Ein Mittelweg besteht in der Nutzung einer Hosted Private Cloud. Diese Form der Cloud wird mittlerweile von einigen Providern angeboten. Es besteht aber ebenfalls die Möglichkeit, selbst den Aufbau und den Betrieb zu übernehmen. Dieser INSIGHTS Report zeigt, wie dieses mit der Open-Source Cloud Computing Infrastrukturlösung openQRM möglich ist.

Warum eine Hosted Private Cloud?

Unternehmen sind angehalten ihre IT-Infrastruktur zu flexibilisieren, um ihren Ressourcenbedarf je nach Situation zu skalieren. Der Idealfall stellt hierbei die Nutzung einer Public Cloud dar. Dabei sind keine Vorabinvestitionen in eigene Hard- und Software notwendig. Viele Unternehmen scheuen, aus Gründen des Datenschutzes und der Informationssicherheit, jedoch den Weg in die Public Cloud und schauen sich nach einer Alternative um. Diese nennt sich Private Cloud. Der Hauptvorteil einer Private Cloud besteht dabei in der flexiblen Self-Service Bereitstellung von Ressourcen für Mitarbeiter und Projekte wie in einer Public Cloud, die durch eine reine Virtualisierung der Rechenzentrumsinfrastruktur nicht möglich ist. Jedoch ist für den Aufbau einer Private Cloud zu beachten, dass Investitionen in die eigene IT-Infrastruktur geleistet werden müssen, um den virtuellen Ressourcenbedarf durch einen physikalischen Unterbau zu gewährleisten.

Daher muss ein geeigneter Mittelweg gefunden werden, der einen flexiblen Ressourcenbezug über einen Self-Service ermöglicht, aber zugleich keine hohe Investitionskosten in eigene Infrastrukturkomponenten erwartet und ohne auf ein selbst festgelegtes Datenschutz und -sicherheitsniveau verzichten zu müssen. Dieser Mittelweg besteht im Hosting einer Private Cloud bei einem externen (Web)-Hoster. Die notwendigen physikalischen Server werden über einen Hoster angemietet, der für deren Wartung zuständig ist. Um auch den etwaigen physikalischen Ressourcenbedarf zu sichern, sollten mit dem Hoster entsprechende Absprachen getroffen werden, um die Hardware sehr zeitnah nutzen zu können. Mögliche Alternativen wären Standby-Server oder ähnliche Ansätze.

Auf dieser externen Server-/Storage-Infrastruktur wird anschließend die Cloud-Infrastruktursoftware installiert und zu einer virtuellen gehosteten Private Cloud konfiguriert. Diese erlaubt es Mitarbeitern zum Beispiel je nach Bedarf eigene Server für die Softwareentwicklung zu starten, einzufrieren und nach Beendigung des Projekts wieder zu entfernen. Für die Abrechnung der jeweilig genutzten Ressourcen sorgt die Cloud-Infrastruktursoftware, die über solche Funktionen entsprechend verfügen muss.

openQRM Cloud

Grundsätzlich kann eine openQRM Cloud für den Aufbau einer Public als auch Private Cloud genutzt werden. Diese basiert komplett auf openQRMs Appliance Modell und bietet vollständig automatisierte Deployments die von Cloud Nutzern angefragt werden können. Dazu unterstützt eine openQRM Cloud alle Virtualisierungs- und Speichertechnologien, die auch von openQRM selbst unterstützt werden. Es besteht darüber hinaus die Möglichkeit, physikalische Systeme über die openQRM Cloud bereitzustellen.

Auf Basis der openQRM Enterprise Cloud-Zones lässt sich darüber hinaus eine vollständig verteilte openQRM Cloud Infrastruktur aufbauen. Damit können mehrere voneinander getrennte Rechenzentren in logische Bereiche aufgeteilt oder zum Beispiel die Unternehmenstopologie hierarchisch und logisch sicher voneinander getrennt aufgebaut werden. Zudem integriert openQRM Enterprise Cloud-Zones ein zentrales und mehrsprachiges Cloud-Portal inkl. einer Google Maps Integration, wodurch ein interaktiver Überblick über sämtliche Standorte und Systeme entsteht.

Aufbau der Referenzumgebung

Für den Aufbau unseres Referenz-Setups werden ein physikalischer Server und mehrere öffentliche IP-Adressen benötigt. Für die Installation von openQRM bestehen zwei Möglichkeiten:

  • Empfohlen: Ein privates Class C Subnetz (192.168.x.x/255.255.255.0) konfigurieren in welchem openQRM betrieben wird. openQRM benötigt dann zusätzlich eine öffentliche IP-Adresse für den Zugang von außen.
  • Option: openQRM in einer virtuellen Maschine installieren. Bei dieser Variante steuert openQRM den physikalischen Server und bezieht die virtuellen Maschinen für den späteren Betrieb der Cloud von dem physikalischen Host.

Für die Zuordnung der öffentlichen IP Adressen kann in beiden Szenarien Cloud-NAT eingesetzt werden. Diese openQRM Cloud Funktion übersetzt die IP Adressen des privaten openQRM Class C Netzwerk in öffentliche Adressen. Dies erfordert Post- und Pre-Routing Regeln, die auf dem Gateway/Router mittels IPTables wie folgt konfiguriert werden:

Für die Konfiguration komplexer Netzwerkumgebungen ist das IP-Management Plugin zu empfehlen. Dieses Enterprise Plugin erlaubt es beliebige Netzwerk- und IP-Adress-Konfigurationen für die verwalteten Server vorzunehmen. In der openQRM Cloud bietet es zudem eine Zuordnung von Netzwerken zu Cloud Benutzergruppen und unterstützt darüber hinaus das automatisierte VLAN Management.

Weiterhin werden zwei Bridges benötigt:

  • Eine für die öffentliche Schnittstelle mit einer öffentlichen IP-Adresse.
  • Eine für die private Schnittstelle dpe für die DHCP konfiguriert ist.

Die Daten der Cloud werden später auf dem lokalen Speicher des physikalischen Servers gespeichert. Hierfür bieten sich zwei Varianten:

Empfohlen:

  • KVM-Storage LVM Deployment (LVM Logical Volume Deployment)
  • Benötigt eine oder mehrere dedizierte LVM Volume Group(s) für die virtuellen Maschinen. Für komplexere Setups empfiehlt sich ein zentrales iSCSI Target oder ein SAN zu verwenden.

Option:

  • KVM-Storage BF Deployment (Blockfile Deployment)
  • Erstellen eines Verzeichnis auf dem Linux-Server unter z.B.
    • /var/lib/kvm-storage/storage1
    • /var/lib/kvm-storage/storage2
    • (Die Storage Verzeichnisse lassen sich über die Plugin Konfiguration beliebig einstellen)

  • Für komplexere Setups empfiehlt sich ein zentrales NAS für die konfigurierten Mountpoints zu verwenden.

Am Ende muss IPTables entsprechend der oben genannten Regeln und der gewünschten eigenen Sicherheit konfiguriert werden. Im Anschluss erfolgt die Installation von openQRM. Pakete für die gängigen Linux Distributionen liegen unter http://packages.openqrm.com. Nachdem openQRM installiert und initialisiert wurde folgt dessen Konfiguration.

Basis-Konfiguration von openQRM

Der erste Schritt nach der Initialisierung ist das Editieren der “/usr/share/openqrm/plugins/dns/etc/openqrm-plugin-dns.conf”, indem der Standardwert auf die eigene Domain geändert wird.

Domain für das private Netzwerk konfigurieren:
# please configure your domain name for the openQRM network here!
OPENQRM_SERVER_DOMAIN=”oqnet.org”

Es folgt das Aktivieren und Starten der Plugins über die Weboberfläche des openQRM-Servers. Die folgenden Plugins sind dazu zwingend erforderlich:

DNS Plugin

  • Dient der automatisierten Verwaltung des DNS Service für das openQRM Management-Netzwerk.

DHCPD

  • Verwaltet automatisch die IP-Adressen für das openQRM Management-Netzwerk.

KVM Storage

  • Integriert die KVM Virtualisierungstechnologie für das lokale Deployment.

Cloud-Plugin

  • Ermöglicht den Aufbau einer Private und Public Cloud Computing Umgebung mit openQRM.

Zu den weiteren empfohlenen Plugins gehören:

Collectd

  • Ein Monitoring-System inkl. Langzeitstatistiken und Graphiken.

LCMC

  • Integriert die Linux Cluster Management Console zur Verwaltung der Hochverfügbarkeit einzelner Services.

High-Availability

  • Ermöglicht eine automatische Hochverfügbarkeit der Appliances.

I-do-it (Enterprise Plugin)

  • Bietet eine automatische Systemdokumentation (CMDB).

Local server

  • Integriert bestehende und lokal installierte Server mit openQRM.

Nagios 3

  • Überwacht automatisch Systeme und Services.

NoVNC

  • Bietet eine remote Web-Konsole für den Zugriff auf virtuelle Maschinen und physikalische Systeme.

Puppet

  • Integriert Puppet für ein vollständig automatisiertes Konfigurationsmanagement und Applikationsdeployment in openQRM.

SSHterm

  • Ermöglicht die sichere Anmeldung über eine Web-Shell an den openQRM-Server und integrierte Ressourcen.

Zu den Plugins die mehr Komfort bei der automatischen Installation von virtuellen Maschinen als Cloud Templates bieten gehören:

Cobbler

  • Integriert Cobbler für das automatisierte Bereitstellen von Linux System in openQRM.

FAI

  • Integriert FAI für das automatisierte Bereitstellen von Linux System in openQRM.

LinuxCOE

  • Integriert LinuxCOE für das automatisierte Bereitstellen von Linux System in openQRM.

Opsi

  • Integriert Opsi für das automatisierte Bereitstellen von Windows System in openQRM.

Clonezilla/local-storage

  • Integriert Clonezilla für das automatisierte Bereitstellen von Linux und Windows System in openQRM.

Basis-Konfiguration der Host-Funktion für die virtuellen Maschinen

Fall 1: openQRM ist direkt auf dem physikalischen System installiert

Als Nächstes muss der Host konfiguriert werden, um darüber später die virtuellen Maschinen bereitzustellen. Dazu wird eine Appliance vom Typ KVM Storage Host erstellt. Man geht dazu wie folgt vor:

  • Appliance erstellen
    • Base > Appliance > Create
  • Name: z.B. openQRM
  • Als Ressource den openQRM Server selbst auswählen
  • Typ: KVM Storage Host

Dadurch erhält openQRM die Information, dass auf dieser Maschine ein KVM Storage angelegt werden soll.

Fall 2: openQRM ist in einer VM installiert, die auf dem physikalischen System läuft

Mittels des „local-server“ Plugins wird das physikalische System in openQRM integriert. Dazu wird das „openqrm-local-server“ Integrations-Tool vom openQRM Server auf das zu integrierende System kopiert z.B.

scp /usr/share/openqrm/plugins/local-server/bin/openqrm-local-server [IP-Adresse des physikalischen Systems]:/tmp/

Danach wird es auf dem zu integrierenden System ausgeführt:

ssh [IP-Adresse des physikalischen Systems]: /tmp/openqrm-local-server integrate -u openqrm -p openqrm -q [IP-Adresse des openQRM Server] -i br0 [-s http/https]

(in diesem Beispiel ist „br0“ die Bridge zum openQRM Management Netzwerk)

Die Integration mittels „local-server“ erstellt in openQRM automatisch:

  • eine neue Ressource
  • ein neues Image
  • einen neuen Kernel
  • eine neue Appliance aus den obigen Subkomponenten

Als Nächstes muss die Appliance des gerade integrierten physikalischen Systems konfiguriert werden, um darüber später die virtuellen Maschinen bereitzustellen. Dazu wird die Appliance als Typ KVM Storage Host eingestellt. Man geht dazu wie folgt vor:

  • Appliance editieren
    • Base > Appliance > Edit
  • Typ: KVM Storage Host einstellen

Dadurch erhält openQRM die Information, dass auf dieser Maschine ein KVM Storage angelegt werden soll.

Basis-Konfiguration der Storage-Funktion

Nun folgt die grundsätzliche Konfiguration des Storage. Hierzu wird ein Storage Objekt von einem selbst gewünschten Typ erstellt. Dazu geht man wie folgt vor:

  • Storage erstellen
    • Base > Components > Storage > Create
    Im Fall 1, die Ressource des openQRM Servers auswählen
  • Im Fall 2, die Ressource des integrierten physikalischen Systems auswählen
  • Name: z.B. KVMStorage001
  • Deployment-Typ wählen
    • hängt vom zu Beginn gewählten Typ ab: KVM-Storage LVM Deployment oder Verzeichnis (KVM-Storage BF Deployment)

Vorbereitung eines Images für virtuelle Maschinen

Um später über das Cloud-Portal virtuelle Maschinen (VM) als Teil fertiger Produkte bereitzustellen, muss zunächst ein Image für eine VM vorbereitet werden. Das funktioniert wie folgt:

  • Erstellen einer neuen virtuellen Maschine mit einer neuen virtuellen Festplatte und auf dieser ein ISO installieren.
    • Plugins > Deployment > LinuxCOE > Create Templates
    • Die hier erstellten Images werden automatisch in einem ISO-Pool, der für alle virtuellen Maschinen innerhalb von openQRM verfügbar ist, abgelegt.

Anschließend folgt das Erstellen einer Basis für ein Mastertemplate. Dieses dient als Grundlage, um später den Anwendern ein Produkt über die Cloud anhand eines Bestellvorgangs bereitzustellen.

  • Erstellen einer neuen Appliance
    • Base > Appliance > Create
  • Erstellen einer neuen Ressource
    • KVM-Storage Virtual Machine
      • Neue VM anlegen
      • Einstellungen vornehmen
      • ISO Image auswählen
      • Erstellen
    • Erstellte Ressource auswählen
  • Neues Image erstellen
    • Image als KVM-Storage Volume hinzufügen
    • KVM-Storage auswählen
    • Volume Group auf KVM-Storage auswählen
    • Neues Logical Volume hinzufügen
    • Image für die Appliance auswählen
    • Editieren, um damit ein Passwort zu setzen. (Damit wird das zuvor gewählte Passwort des ISO Image überschrieben.)
  • Kernel auswählen
    • von der lokalen Festplatte
    • (LAN Boot wäre ebenfalls möglich)
  • Appliance starten
    • die automatische Installation kann nun über VNC verfolgt werden.
    • Weitere Anpassungen können nun selbst vorgenommen werden.
    • Und folgendes beachten
      • Misc > Local-Server > Help >Local VMs („Local-Server für Lokale Virtuelle Maschinen“)

Aufräumen

Die erstellte Appliance kann nun gestoppt und anschließend gelöscht werden. Entscheidend hier war, dass wir uns ein Image erstellt haben, das für die Cloud als Mastertemplate genutzt werden kann.

Das über die Appliance erstellte Image enthält das Basis Betriebssystem welches aus dem ISO-Image installiert wurde.

Konfiguration der openQRM Cloud

Wir haben nun alle Vorbereitungen abgeschlossen, um mit der Konfiguration der openQRM Cloud zu beginnen. Die Einstellungen dafür finden wir unter „Plugin > Cloud > Configuration > Main Config“. Sämtliche Parameter, die hier angepasst werden, haben einen direkten Einfluss auf das Verhalten der gesamten Cloud.

Grundsätzlich lässt sich eine openQRM Cloud mit den Standardparametern betreiben. Je nach Bedarf und der eigenen speziellen Situation müssen Anpassungen erfolgen. Hilfreich dazu ist der Bereich „Beschreibungen“ in der rechten Spalte der Tabelle.

Es existieren jedoch einzelne Parameter, die unabhängig von dem eigenen Anwendungsfall in Betracht gezogen werden sollten. Dazu gehören:

Automatische Provisionierung (auto_provision)

  • Legt fest, ob Systeme automatisch durch die Cloud bereitgestellt werden oder ob zunächst eine Freigabe durch den Administrator notwendig ist.

Provisionierung physikalischer Systeme (request_physical_systems)

  • Mit diesem Parameter lässt sich definieren, ob neben virtuellen Maschinen auch physikalische Host über die Cloud bereitgestellt werden sollen.

Klonen der Images (default_clone_on_deploy)

  • Die Cloud rollt standardmäßig Kopien (Klone) eines Images aus.

Hochverfügbarkeit (show_ha_checkbox)

  • Ermöglicht den Betrieb der openQRM Cloud inklusive Hochverfügbarkeit der bereitgestellten Ressourcen.

Abrechnung der genutzten Ressourcen (cloud_billing_enabled)

  • openQRM verfügt über ein umfangreiches Abrechnungssystem, mit dem für sämtliche Ressourcen eigene Preise festgelegt werden können, um einen transparenten Überblick zu den laufenden Kosten zu erhalten.

Cloud Produkt Manager (cloud_selector)

  • Aktiviert den Produkt-Manager, mit dem den Nutzern verschiedene Ressourcen über das Cloud-Portal bereitgestellt werden können.

Währung zur Abrechnung der Ressourcen (cloud_currency)

  • Legt die Landeswährung fest, mit der die Ressourcen abgerechnet werden sollen.

Umrechnungsfaktor für Ressourcen in reale Währung (cloud_1000_ccus)

  • Legt fest, wie viel 1000 CCUS (Cloud Computing Units) in einer zuvor festgelegten realen Währung entsprechen sollen.

Ressourcenzuordnung für Gruppen (resource_pooling)

  • Legt fest, von welchem Host eine bestimmte Benutzergruppe ihre virtuellen Maschinen erhalten darf.

Produkte für openQRM Cloud anlegen

Um unseren Nutzern Cloud Ressourcen über das Cloud-Portal bereitzustellen, müssen vorab Produkte ausgewählt werden, welche über die Konfiguration einer virtuellen Maschine bestimmen. Die Einstellungen dafür nehmen wir unter „Plugin > Cloud > Configuration > Products“ vor.

Unter der „Cloud Produkt Verwaltung“ lassen sich verschiedene Produkte erstellen, die später unter dem Cloud-Portal von dem Nutzer eigenständig zu vollständigen virtuellen Maschinen zusammengebaut werden können. Zu den Produkten die uns dabei zur Verfügung stehen gehören:

  • Anzahl der CPUs
  • Größe der lokalen Festplatte
  • Größe des Arbeitsspeichers
  • Der Typ des Kernel
  • Die Anzahl der der Netzwerkkarten
  • Vorinstallierte Applikationen
  • Typ der Virtualisierung
  • Ob eine virtuelle Maschine hochverfügbar sein soll

Über die Statuszeile können mit +/- die jeweiligen Produkte aktiviert bzw. deaktiviert werden und damit dem Nutzer im Cloud-Portal angezeigt oder vor ihm versteckt werden.

Bitte beachten: Produkte die deaktiviert werden, aber noch innerhalb von virtuellen Maschinen aktiv sind, werden weiterhin abgerechnet.

Um nun ein neues CPU Produkt zu erstellen wählen wir den Reiter „CPU“ und bestimmen in dem Bereich „Hinzufügen eines CPU Produkts“ unsere gewünschten Parameter.

Der erste Parameter bestimmt, wie viele CPUs (Kerne), hier 64, unser Produkt haben soll. Über den zweiten Parameter legen wir fest, welchen Wert dieses Produkt hat und wie viele Kosten entsprechend während seiner Nutzung pro Stunde entstehen. In diesem Beispiel entstehen Kosten von 10 CCUs pro Stunde für 64 CPUs.

Anhand der Pfeiltasten lässt sich die Reihenfolge bestimmen, wie die einzelnen Produkte im Cloud-Portal angezeigt werden. Der Default-Wert ist der an obiger Stelle.

Bitte beachten: Im Cloud-Portal existieren Standard-Profile in den Größen „Small“, „Medium“ und „Big“. Die Profile werden automatisch entsprechend der Reihenfolge unter den jeweiligen Produkten bestimmt. Das bedeutet Small nimmt immer den ersten Wert, Medium den Zweiten und Big den Dritten.

openQRM erlaubt es ebenfalls, die virtuellen Maschinen mit vorkonfigurierten Softwarestacks zu bestellen. Dazu greift openQRM auf Puppet (Plugins > Deployment > Puppet) zurück. Damit ist es möglich zum Beispiel den bekannten LAMP-Stack zu bestellen.

Haben wir unsere Produktpalette fertig konfiguriert, ist der Nutzer an der Reihe, sich seine virtuellen Maschinen zu bestellen. Das erfolgt über das Cloud-Portal.

openQRM Cloud-Portal

Für das Erstellen einer neuen virtuellen Maschine (VM) klicken wir im Reiter auf „Neu“. Es
erscheint die Eingabemaske, in der wir unsere VM anhand der Produkte, die der
Administrator im Admin-Backend festgelegt und freigegeben hat, erstellen können.

Wir entscheiden uns für das Profil „Gross“ und einem LAMP-Server. Unsere virtuelle Maschine besteht damit aus den folgenden Produkten:

  • TYP: KVM-Storage VM
  • RAM: 1 GB
  • CPU: 64 Kerne
  • Festplatte: 8 GB
  • Netzwerkkarte: 1

Darüber hinaus soll diese virtuelle Maschine „Hochverfügbar“ sein. Das bedeutet, wenn diese ausfallen sollte, wird automatisch eine Ersatzmaschine mit exakt derselben Konfiguration hochgefahren, mit der man weiterarbeiten kann.

Für diese Konfiguration werden uns Kosten in Höhe von 35 CCUs pro Stunde entstehen. Das entspricht 0,04Euro pro Stunde bzw. 0,84Euro pro Tag oder 26,04Euro pro Monat.

Wollen wir die virtuelle Maschine bestellen, wählen wir „absenden“.

Unter dem Reiter „Aufträge“ sehen wir alle aktuellen und vergangenen Bestellungen, die wir mit unserem Benutzer getätigt haben. Der Status „active“ in der ersten Spalte zeigt, dass die Maschine bereits hochgefahren ist.

Parallel dazu erhalten wir eine E-Mail mit der IP-Adresse, einem Benutzernamen und Passwort, über die wir uns an der virtuellen Maschine anmelden können.

Der Reiter „Systeme“ bestätigt uns beide Informationen noch einmal und zeigt weitere Informationen zu der virtuellen Maschine. Darüber hinaus haben wir die Möglichkeit, Änderungen an der Systemkonfiguration vorzunehmen, die virtuelle Maschine in den Ruhezustand zu setzen oder neu zu starten. Weiterhin ist der Login über eine Web-Shell möglich.

Die virtuelle Maschine kann, wenn sie nicht mehr benötigt wird pausiert werden. Alternativ besteht die Möglichkeit, dass der Administrator dieses zum Beispiel anhand einer Inaktivität des Systems oder zu einer bestimmten Uhrzeit veranlasst.

Virtuelle Maschine mit dem „Visual Cloud Designer“ erstellen

Neben dem „gewöhnlichen“ zusammenbauen einer virtuellen Maschine, ermöglicht das openQRM Cloud-Portal es dem Benutzer, dieses bequem per Drag-and-Drop zu erledigen. Dabei hilft der „Visual Cloud Designer“, der unter dem Reiter „VCD“ zu finden ist.

Mit dem Schieberegler unter „Cloud Components“ lässt sich zwischen den Produkten auf der linken Seite hin und her scrollen. Mit der Maus lässt sich die „Cloud Appliance“ (virtuelle Maschine) in der Mitte mit den entsprechenden Produkten bestücken.

Unsere virtuelle Maschine „Testosteron“ haben wir in diesem Fall also mit einem KVM-Storage, Ubuntu 12.04, 64 CPUs, 1024 MB Ram, 8 GB Festplatte, einer Netzwerkkarte, Software für einen Webserver und mit der Eigenschaft Hochverfügbarkeit ausgestattet.

Mit einen Klick auf „Check Costs“, sagt uns openQRM, dass wir für diese Konfiguration 0,03 EUR pro Stunde bezahlen würden.

Um den Bestellvorgang für die virtuelle Maschine zu starten klicken wir auf „Request“. Wir erhalten die Meldung, dass openQRM mit dem Ausrollen der Ressource beginnt und wir weitere Informationen im Postfach haben.

Die E-Mail enthält wie bereits oben beschrieben, sämtliche Zugangsdaten, um mit der virtuellen Maschine zu arbeiten.

Im Cloud-Portal unter „Systeme“, sehen wir dann auch bereits die gestartete virtuelle Maschine.

Virtuelle Maschine mit dem „Visual Infrastructure Designer“ erstellen

Neben der Bereitstellung einzelner virtueller Maschinen bietet das openQRM Cloud-Portal zudem die Möglichkeit, vollständige Infrastrukturen, bestehend aus mehreren virtuellen Maschinen und weiteren Komponenten, mit einem Klick bereitzustellen.

Dafür greifen wir auf den „Visual Infrastructure Designer“ zurück. Dieser ist im Cloud-Portal unter dem Reiter „VID“ zu finden.

Über den „VID“ lässt sich per Drag and Drop eine vollständige WYSIWYG Infrastruktur zusammenbauen und direkt ausrollen. Hierzu müssen anhand des „VCD“ oder auf normalem Weg jedoch zunächst fertige Profile mit vorkonfigurierten virtuellen Maschinen z.B. Webserver, Router, oder Gateways erstellt werden, die anschließend provisioniert werden können.

Categories
Analysen

Umfrage: Das Vertrauen in die Cloud. Europa ist der sichere Hafen. End-to-End Verschlüsselung schafft Vertrauen.

Nach den Enthüllungen um PRISM hatte ich eine kleine anonyme Umfrage zum aktuellen Vertrauen in die Cloud gestartet, um zu sehen, wie sich der Skandal auf das persönliche Verhältnis zur Cloud verändert hat. Die Aussagekraft des Ergebnis ist mehr oder weniger ein Erfolg. Die Beteiligung war alles andere als repräsentativ. Mit immerhin 1499 Aufrufen war das Interesse an der Umfrage relativ groß. Eine Beteiligung von 53 Teilnehmern ist dann doch eher ernüchternd. Somit ist die Umfrage nicht repräsentativ, zeigt aber zumindest eine Tendenz. In diesem Zusammenhang möchte ich mich noch bei Open-Xchange und Marlon Wurmitzer von GigaOM für die Unterstützung bedanken.

Die Umfrage

Die Umfrage umfasste neun Fragen und wurde öffentlich auf twtpoll gehostet. Sie stellte ausschließlich Fragen zum Vertrauen in die Cloud und wie dieses möglicherweise gestärkt werden kann. Zudem waren die Zwischenstände zu jedem Zeitpunkt öffentlich einsehbar. Die Umfrage wurde im deutsch- und englischsprachigen Raum über die sozialen Netzwerke (Twitter, Facebook, Google Plus) sowie den Business-Netzwerken XING und LinkedIn verbreitet, da dieses Thema keine spezielle Zielgruppe betrifft, sondern mittlerweile jeden von uns beeinflusst. Das führte auf twtpoll zu 1.442 Ansichten über das Web und 57 von mobilen Endgeräten und endete mit 53 Umfrageteilnehmer.

Die Umfrage darf aus diesem Grund nicht als repräsentativ betrachtet werden, zeigt aber eine Tendenz.

Das Umfrageergebnis

Trotz des PRISM-Skandal ist das Vertrauen in die Cloud nach wie vor vorhanden. 42 Prozent haben weiterhin ein hohes Vertrauen, 8 Prozent gar ein sehr hohes Vertrauen. Für 15 Prozent ist das Vertrauen in die Cloud sehr gering; 21 Prozent schätzen das Vertrauen als gering ein. Weitere 15 Prozent stehen der Cloud neutral gegenüber.

Das Vertrauen in den aktuellen Cloud Anbieter ist ausgeglichen. 30 Prozent der Teilnehmer haben immer noch ein hohes Vertrauen, 19 Prozent sogar ein sehr hohes Vertrauen in ihren Anbieter. Dem gegenüber stehen jeweils 15 Prozent, die ein geringes bzw. sehr geringes Vertrauen haben. 21 Prozent sind unentschieden.

Der Einfluss auf das Vertrauen in die Cloud durch PRISM führt zu keiner Überraschung. Nur 9 Prozent lassen sich davon gar nicht beeinflussen; 8 Prozent ein wenig. 32 Prozent stehen dem neutral gegenüber. Hingegen beeinflussen die PRISM Enthüllungen 38 Prozent der Teilnehmer stark und 13 Prozent sehr stark.

62 Prozent der Teilnehmer nutzt Services von einem der Cloud Anbieter, die beschuldigt werden, PRISM unterstützt zu haben. 38 Prozent sind bei anderen Anbietern.

Wie zu erwarten, hat sich PRISM auch auf die Reputation der Cloud Anbieter ausgewirkt. Für 36 Prozent haben die Enthüllungen das Vertrauen stark, für 13 Prozent sogar sehr stark beeinflusst. Allerdings stehen dem auch 32 Prozent neutral gegenüber. 11 Prozent haben die Enthüllungen nur leicht und 8 Prozent überhaupt nicht beeinflusst.

58 Prozent wollen trotz PRISM weiterhin Cloud Services nutzen. 42 Prozent haben bereits mit dem Gedanken gespielt, die Cloud auf Grund der Vorfälle zu verlassen.

Ein eindeutiges Zeichen geht an die Anbieter wenn es um das Thema Offenheit geht. 43 Prozent (sehr hoch) und 26 Prozent (hoch) erwarten eine bedingungslose Offenheit der Cloud Anbieter. 25 Prozent sind diesbezüglich unentschieden. Für nur 2 Prozent (gering) und 4 Prozent (sehr gering) spielt das keine Rolle.

74 Prozent sehen in einer 100 prozentigen End-to-End Verschlüsselung die Möglichkeit, das Vertrauen in die Cloud zu stärken. 26 Prozent sehen darin kein Potential.

Die Frage nach der sichersten/ vertrauenswürdigsten Region offenbarte keine Überraschungen. Mit 92 Prozent gilt Europa nach den PRISM-Enthüllungen als die Top Region weltweit. Afrika erhielt 4 Prozent; Nordamerika und Asia-Pacific jeweils 2 Prozent. Für Südamerika wurde nicht abgestimmt.

Kommentar

Auch wenn die Enthüllungen um PRISM im ersten Moment für Empörung und auch weiterhin noch für Verunsicherung sorgen, muss das Wirtschaftsleben weitergehen. Die Tendenz der Umfrage zeigt, dass das Vertrauen in die Cloud nicht zu stark gelitten hat. An dieser Stelle muss man aber auch sagen: Mit gehangen mit gefangen. Wir haben uns alle nicht von heute auf morgen ins “Verderben” der Cloud gestürzt. Die Krux besteht darin, dass die Welt mit Hilfe von Cloud-Technologien immer stärker vernetzt wurde und die Cloud somit als Dreh- und Angelpunkt moderner Kommunikations- und Kollaborationsinfrastrukturen dient.

Wir können aus diesem Grund nicht mehr viele Schritte zurück gehen. Als Hardliner dürfte man natürlich mit sofortiger Wirkung sämtliche digitale sowie analoge Kommunikation einstellen. Ob das erfolgsversprechend ist bleibt zu bezweifeln, da die Abhängigkeit zu groß geworden ist und das moderne unternehmerische Dasein von der digitalen Kommunikation bestimmt wird.

Die zum Teil hohe Anzahl neutraler Antworten zum Vertrauen mag u.a. damit zu tun haben, das im Unterbewusstsein schon immer der Gedanke mitgespielt hat, dass wir bei unserer Kommunikation beobachtet werden. Durch die aktuellen Enthüllungen haben wir es nun schwarz auf weiß. Das Ausmaß der Überwachungen, mittlerweile auch durch das Bekanntwerden von TEMPORA durch den britischen Geheimdienst, hat überrascht. Im Zusammenhang mit TEMPORA muss daher auch das Umfrageergebnis für Europa als vertrauenswürdige Region in Frage gestellt werden. Gegen die Überwachung an strategisch wichtigen Knotenpunkten im Internet sind aber auch die Cloud Anbieter selbst machtlos.

Unterm Strich muss das Wirtschafts-(leben) weitergehen. Man sieht an sämtlichen Enthüllungen jedoch auch, dass man sich auf die Regierungen nicht verlassen darf, von denen immer wieder Regelungen und Sicherheiten gefordert werden. Im Gegenteil, auch diese haben ihr bekundetes Interesse Daten mitzulesen. Und eines muss man sich immer wieder vor Augen halten. Was nützen Gesetze und Regeln, wenn diese immer wieder von höchster Stelle gebrochen werden.

Unternehmen und Anwender müssen daher nun mehr Verantwortung übernehmen, die Fäden in die Hand nehmen und für ihre gewünschte Sicherheit (End-to-Ende Verschlüsselung) im weitesten Sinne selbst sorgen. Zahlreiche Lösungen aus dem Open-Source aber ebenfalls aus dem professionellen Bereich helfen dabei, die Ziele zu erreichen. Anbieter von Cloud- und IT-Lösungen sind jetzt gefordert, noch mehr Offenheit zu zeigen, als ihnen vielleicht lieb sein mag.

Graphiken zu den Umfrageergebnissen

1. Wie ist im Allgemeinen Ihr Vertrauen in die Cloud?

2. Wie ist Ihr derzeitiges Vertrauen in den Cloud Anbieter Ihrer Wahl?

3. Wie haben die Enthüllungen um PRISM Ihr Vertrauen in die Cloud beeinflusst?

4. Gehört Ihr aktueller Cloud Anbieter zu den Beschuldigten?

5. Wie haben sich die Enthüllungen um PRISM auf das Vertrauen in den Cloud Anbieter Ihrer Wahl ausgewirkt?

6. Haben Sie nach den PRISM Enthüllungen bereits darüber nachgedacht die Cloud bzw. ihren Cloud Anbieter zu verlassen?

7. Welche Bedeutung hat die bedingungslose Offenheit Ihres Cloud Anbieters in Zeiten von PRISM und Überwachungen im Allgemeinen?

8. Denken Sie, dass eine 100 prozentige End-to-End Verschlüsselung, ohne die Möglichkeit des Zugriffs durch Dritte, das Vertrauen in die Cloud stärken kann?

9. Welche Region ist Ihrer Meinung nach die Sicherste/ Vertrauenswürdigste, um darin Daten zu speichern?