Categories
Kommentar

Ausfälle in der Cloud liegen in der Natur des Menschen

Wenn die Cloud fällt sind es wir Menschen, die dafür verantwortlich sind. Wie soll es auch anders sein. Schließlich programmieren und konfigurieren sich die Systeme nicht von alleine. Und auch wenn es heißt “No cloud without automation” muss man eigentlich sagen “(No cloud without automation) without human skills”. Insbesondere zeigen sich unsere menschlichen Schwächen in der Cloud dann, wenn es wieder mal zu einem Ausfall kommt. Vor allem in diesem Jahr haben wir ein paar davon gesehen.

Menschen machen Fehler

Und das ist ok. Solange aus diesen Fehlern auch gelernt wird. Was bei dem einen oder anderen Anbieter dieses Jahr nicht der Fall war. Ich will und werde hier keine Namen nennen, denn diejenigen Wissen bestimmt selbst, dass sie etwas deutlich besser machen müssen. Aber wenn ein Notstromaggregat innerhalb kürzester Zeit zweimal nicht funktioniert und ebenfalls sämtliche Notfallpläne scheitern, läuft etwas falsch!
Zwar war dieser Ausfall, von dem ich hier spreche, in erster Linie kein menschliches Versagen. Denn gegen einen Wirbelsturm und Gewitter sind wir machtlos. Aber die Kaskade von Fehlern die während des Unwetters passiert war, ist unerklärlich.

Andere Fehler die in diesem Jahr passiert sind, lassen sich dem Menschen direkt zuordnen. Zum einen waren da bspw. falsch konfigurierte Netzwerkschnittstellen die dafür gesorgt haben, dass die Netze der Anbieter mit Daten überflutet wurden und sich somit selbst Schachmatt gesetzt haben. Oder es wurden erst kürzlich bei einem Anbieter Änderungen an der Konfiguration der Load-Balancer vorgenommen, die zu einem längeren Ausfall führten.

Wie gesagt, Menschen machen Fehler. Und daher sollte man nicht immer “der großen bösen Cloud” die Schuld geben, sondern hinter die Fassade schauen und bedenken, dass dort auch nur Menschen wie Du und ich sitzen.

In diesem Sinne, auf in ein besseres 2013. 🙂

Categories
Kommentar

Zerlegt: Forrester Cloud Computing Vorhersagen 2013

Wie viele andere große Analystenhäuser hat auch Forrester in seine ganz persönliche Glaskugel geschaut und Vorhersagen für den Cloud Computing Markt getroffen, die im Jahr 2013 wirklich zutreffen sollen. Insgesamt sind es zehn Theorien, die hier nachgelesen werden können. Ich habe die für mich drei interessantesten Aussagen aufgegriffen und aus meiner Sicht beleuchtet.

Cloud und Mobile werden eins

Laut Forrester steckt heutzutage nur ein sehr kleiner Mehrwert in einer mobilen Applikation die sich nicht mit einem Back-End im Internet verbindet. Diese Back-Ends befinden sich in der Cloud, da ein gewöhnliches Rechenzentrum ansonsten einer unvorhersagbar Last ausgesetzt sind.

Diesem muss ich widersprechen. Denn diese Vorhersage ist schon längst eingetreten. Schauen wir uns mobile Apps auf iOS, Android oder Windows Phone an, wird schnell deutlich, dass sich die meisten Daten bereits nicht mehr auf dem lokalen Endgerät befinden und stattdessen live von einem Server geladen werden. Bekannte Beispiele sind Foursquare, Dropbox, Google Drive, SkyDrive, Facebook, Twitter, Google Plus, Analytics Tools, Instagram, Evernote (hybrid), usw.

Mehr zu dem Thema unter “Die mobile Cloud ist der wahre Megatrend” aus dem März 2011.

Wir werden das Thema Cloud SLA weniger betonen

Forrester hat verstanden, dass Applikationen so entwickelt werden müssen, dass sie sich selbst schützen. Anstatt die Elastizität in die Anwendung zu implementieren, sollte nun auf Best Practice Ansätze gehört werden. Ebenso verhält es sich mit der Ausfallsicherheit aus der Cloud Plattform heraus.

Man sagt dazu auch “Design for Failure”, denn “Everything fails everytime”, auch Cloud Infrastrukturen. Cloud Computing per se liefert dem Kunden keine Hochverfügbarkeit, es stellt aber die Mittel und Wege bereit, um Hochverfügbarkeit zu erreichen. Speziell im Bereich Infrastructure-as-a-Service muss man darauf achten und die Eigenschaften der horizontalen Skalierbarkeit einer Cloud Infrastruktur nutzen, um seine Applikation und die Systeme so verfügbar wie möglich auslegen. Das bedeutet nicht nur einen Server einsetzten, sondern mehrere verteilt über verschiedene Availability Zones (Rechenzentren) und Regionen (weltweite Streuung). Als Cloud-Architekt muss man sich die Skalierbarkeit der Cloud zu Nutze machen und das Design der Anwendung für verteilte Infrastrukturen auslegen. Das bedeutet ebenfalls, dass automatisch ein neuer Server hochgefahren wird, wenn die Last zunimmt und auch automatisch wieder herunterfährt wenn er nicht mehr benötigt wird.

Dennoch sollte man die Anbietern hinsichtlich der SLAs nicht aus den Augen verlieren. Der Service-Level muss stimmen und eingehalten werden. Meiner Ansicht nach sind die “Schmerzen” für die Anbieter nicht groß genug, wenn etwas passiert. “Nur” die Kosten erstatten, die während des Zeitraums des Ausfalls angefallen sind, reicht nicht aus.

Wir hören auf die Cloud mit AWS gleichzusetzen

Während Amazon AWS mit einem Marktanteil von 70% zu dem größten und Einflussreichsten Cloud Anbieter aufgestiegen ist, sieht Forrester für das kommende Jahr ein paar Konkurrenten, die vergleichbar mit Amazons angeboten sein werden. Dazu zählt Forrester z.B. Microsoft Windows Azure, Googles Cloud oder OpenStack basierte Clouds.

Die stärkste Konkurrenz zu den Amazon Web Services ist, wie Forrester richtig sagt, Microsoft Windows Azure und die Google Cloud Platform. Alle andere müssen massiv aufholen, da die meisten nur(!) Infrastruktur anbieten. Amazon hat es geschafft viele Mehrwert-Services um die AWS Infrastruktur aufzubauen, mit denen die Kunden die “dumme” Infrastruktur auch gewinnbringend nutzen können. Genau so verhält es sich mit Microsoft und Google. Andere Public Cloud Anbieter dagegen haben nur Rechenleistung und Speicherplatz, das war es dann aber auch. Manche reden derzeit zwar viel darüber, dass sie ein neuartiges IaaS haben (quasi ein IaaS der nächsten Generation), dahinter steckt aber weiterhin nur dumme Infrastruktur, mit der ein Kunde erst einmal nicht viel anfangen kann.

Ein guter Ansatz für einen IaaS der nächsten Generation ist Infrastructure-as-a-Platform. Denn aktuelle IaaS wie AWS sind sehr kompliziert zu verstehen und daher ebenfalls schwer zu nutzen.

Categories
Kommentar

"Variable Cloud-Verträge" Bitte was?

Ich bin auf der deutschen CIO.de auf ein Interview mit dem Titel “Wir brauchen variable Cloud-Verträge” gestoßen? Bitte was? Variable Cloud-Verträge? Das sind drei Wörter die so zusammen überhaupt keinen Sinn ergeben und zeigen, dass das Cloud Computing Konzept irgendwie noch nicht angekommen ist oder und das wäre sehr prekär, die Anbieter falsch beraten.

Zerlegt: “Variable Cloud-Verträge”

Nehmen wir dieses Wortgeflecht mal auseinander und bilden es auf die grundsätzlichen Prinzipien des Cloud Computing ab, kommen wir zu dem folgenden Ergebnis:

Variable

Cloud Computing ist per se variable. Sogar variabler als jede Form des Outsourcing, dass wir in der Geschichte der IT gesehen haben. Und das bezogen auf die zeitliche Nutzung als auch bzgl. der Abrechnung. Siehe nächsten Punkt.

Cloud

Kurz und knapp zusammengefasst bedeutet Cloud (Computing) der flexible (variable) Bezug von (IT)-Ressourcen über eine Datenverbindung, bevorzugt das Internet.

Flexible bzw. variable bedeutet, dass man die Ressourcen zu dem Zeitpunkt bezieht, nutzt und wieder “zurückgibt”, wann man es als Kunde möchte (on Demand) und das man nur für die Ressourcen bezahlt, die man innerhalb dieses Zeitraums auch tatsächlich verwendet hat (pay as you go).

Also höchst variable!

Verträge

Im klassischen Gedanken gibt es beim Cloud Computing keine “richtigen” Verträge, wie wir es normalerweise kennen. In der Public Cloud reicht eine Kreditkarte. Natürlich geht man in einer Form einen Vertrag ein, aber dieser ist bzw. sollte von der Anbieterseite so gestaltet sein, dass man als Kunde das Maximum an Flexibilität erhält. Also die Abrechnung z.B. pro Stunde erfolgt und kein monatlicher oder gar jährlicher Vertrag geschlossen wird. Wird die Infrastruktur des Anbieters ab einem gewissen Zeitpunkt nicht mehr genutzt ist Ende mit der Abrechnung.

Die konkrekte Aussage

Die Aussage in dem Interview liest sich wie folgt:

“Cloud Computing ist ein Trend, den man einfach nutzen muss. Wesentlich für uns ist die vertragliche Umsetzung. Was die Cloud bringt, ist ja die schnelle Nutzbarkeit von IT-Leistungen und die Verfügbarkeit losgelöst vom Unternehmen. Interessant wird es für uns aber erst dann, wenn alle relevanten Sicherheitsanforderungen erfüllt sind, wenn man von einem Anbieter zum andern wechseln kann und sich die Verträge variabel gestalten lassen. Das heißt konkret, die bezogenen Ressourcen müssen sich innerhalb von 24 Stunden sowohl nach oben als auch nach unten anpassen lassen.”

Insbesondere der letzte (fett markierte) Teil ist besorgniserregend!

“… wenn man von einem Anbieter zum andern wechseln kann und sich die Verträge variabel gestalten lassen.” Das heißt konkret, die bezogenen Ressourcen müssen sich innerhalb von 24 Stunden sowohl nach oben als auch nach unten anpassen lassen.”

Diese Aussage zeigt mir auf der einen Seite, dass der Marktüberblick fehlt. Denn es gibt ausreichend (echte) Cloud Computing Anbieter, bei denen genau diese Forderung möglich ist. Genannt seien z.B. die Amazon Web Services, Microsoft Windows Azure oder auch CloudSigma. Auf der anderen Seite bedeutet dies aber auch, dass so manche Anbieter weiterhin ein falsches Spiel spielen und Cloud Computing nach ihren eigenen Regeln definieren und die Kunden damit verwirren.

Categories
Kommentar

Cloud Computing: Offen oder Geschlossen? Vendor Lock-in ist kein Argument!

Cloud Computing spaltet sich derzeit in zwei Lager. Die Liebhaber eines geschlossenen, proprietären Systems und die Befürworter einer offenen (Open-Source) Cloud. Interessanterweise stellen verstärkt die Open-Source Jünger, allen voran das OpenStack Projekt die größten Lautsprecher dar (Rackspace: Linux der Cloud). Sei es auch nur, um mehr Aufmerksamkeit von den derzeit erfolgreichen geschlossenen Systemen (Amazon Web Services (AWS), Microsoft Windows Azure) auf sich zu lenken. Eines vorweg, pauschal lässt sich nicht sagen, welcher Ansatz der “Bessere” ist. Es hängt immer von den eigenen Anforderungen und Möglichkeiten ab. Zudem sollte man schauen, wie geschlossen die proprietären Systeme wirklich sind. Man wird zum einen merken, dass viel mehr religiöse Ansichten dahinter stecken als man denkt und das die Argumentation Vendor Lock-in bei Open-Source Clouds nicht zwangsläufig zutrifft. Denn einen Vendor Lock-in hat man immer.

Geschlossene Cloud gleich Lock-in?

Hauptargumentation aus dem Open-Source Lager gegen proprietare Cloud Angebote ist das Risiko eines Lock-in. Um diesen zu umgehen, solle man stattdessen auf Angebote setzen, die auf Open-Source basieren, um sich über eine eigene Private Cloud die Freiheit zu verschaffen, also die Infrastruktur und Daten dann ggf. in die eigene Cloud zu transferieren.

Eines sollte man jedoch nicht vergessen, ohne Open-Source funktioniert derzeit so gut wie kein Cloud Angebot. So besteht die AWS Cloud aus wahrscheinlich der größten XEN (Hypervisor) Installation weltweit. Zudem wird argumentiert, dass mann sich bei AWS in einen Lock-in begibt. Bei der DynamoDB mag dies richtig sein. Aber für alle anderen Services gibt es Lösungen wie Eucalyptus, openQRM oder sogar OpenStack selbst, die entsprechende Schnittstellen bereitstellen. Und auch Microsoft ermöglicht es, zwischen Windows Azure und einer auf Microsoft basierenden Private Cloud mit dem Microsoft Server 2012 und dem System Center 2012 Daten usw. hin und her zu schieben. Man ist hier also auch nicht zwangsläufig auf die Public Cloud angewiesen.

Wo versteckt sich der Lock-in?

Ein Vendor Lockin besteht dann, wenn ein System, Angebot oder Lösung sehr stark abhängig macht.

Ein analoges Beispiel dafür ist Ikea. Das Design der Möbel ist so markant, dass es für einen Innenarchitekten Laien (wie mich) schwierig ist, es mit einem anderen Design zu kombinieren. Also geht man dazu über, weitere Möbel bei Ikea zukaufen. Zudem verfügt Ikea über eigene Maße und proprietäre Techniken z.B. bei den Waschbecken oder auch bei den Küchen, Schrauben und sonstigen Verbindungen.

Das Risiko des Lock-ins in der Cloud befindet sich hauptsächlich bei den Daten und Prozessen, wenn diese dort ebenfalls abgebildet werden. Denn in beiden Fällen befinden sich hier die geschäftskritischen Bereiche, die so beweglich wie möglich in der Cloud liegen sollten.

Die Ressourcen wie virtuelle Maschinen sind nicht, wie möglicherweise vermutet, von dem Lock-in betroffen. Hierzu existieren bereits diverse Import/ Export Tools z.B. von VMware für AWS oder speziell V2V (Virtual to Virtual) oder V2P (Virtual to Physical) Mechanismen von openQRM. Das bedeutet, das sich virtuelle Maschinen und deren Inhalte bequem hin und her schieben lassen.

Die Daten selbst sind in der Cloud in der Regel ebenfalls nicht von einem Lock-in betroffen. Die meisten Anbieter verfügen über entsprechende Schnittstellen, über die sich die Daten bewegen und transferieren lassen. Bei den Prozessen wird es schon schwieriger. Aber, wie viele Unternehmen haben in der Vergangenheit ihre Prozesse in die Hände von SAP Systemen gelegt und damit einen Lock-in verursacht?

Ein Lock-in ist nichts Schlechtes

Ein Lock-in, wenn er denn vorliegt, muss nicht immer etwas Schlechtes sein. Im Gegenteil, er führt zu Innovationen und verringert die Komplexität. Der Anbieter nimmt einem beim Design und der Auswahl Stückweit die Entscheidung ab und sorgt für eine stetige Weiterentwicklung und Verbesserung des Systems.

Zudem sollte man schauen, wer sich einen Lock-in nicht leisten kann. Kleine und mittelständische unternehmen, die ggf. über eine kleine oder keine IT-Abteilung verfügen, nehmen das gerne in Kauf, da sie sich die Implementation einer komplexen Umgebung nicht leisten können bzw. nicht über die Expertise verfügen. Analoges Beispiel, Ikea: Man bekommt relativ günstig gute Möbel und kann alles miteinander gut kombinieren.

Außerdem, schaut man sich Open-Source Projekte wie OpenStack an, wird deutlich, dass es nicht immer einfach ist, alle Interessen unter einen Hut zu bekommen. Open-Source mag zwar offen sein. Auf Grund der vielen beteiligten Unternehmen können so manche Konflikte den Innovationsgrad jedoch verringern. Aus diesem Grund kann ein Vorteil darin bestehen, wenn nur ein Unternehmen an der Spitze des Projekts/ Angebots steht und die Koordination übernimmt. Auch wenn mehrere Teilnehmer mehr Input und Expertise liefern. Hier haben auch geschlossene Anbieter einen Vorteil, da sie alleine verantwortlich sind, und damit schneller handeln. Das kann im Umkehrschluss bedeuten, dass der Lock-in von OpenStack in den potentiellen Konflikten und dem daraus folgenden langsamen Innovationsgrad besteht.

APIs sind entscheidend

Wichtig für jedes Cloud Computing Angebot sind die APIs. Auf diese muss sowohl von Innen als auch von Außen zugegriffen werden können, um auf dieser Basis die Daten in aus der Cloud zu transferieren.

Vorteile vs. Nachteile von Open-Source

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den “richtigen” Weg zu entscheiden.

Fazit

Verantwortliche die sich für eine Cloud Infrastruktur entscheiden, wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über eine Open-Source oder proprietären Cloud Infrastruktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine Open-Source Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und eine proprietäre Cloud besser für den eigenen Innovationsgrad ist oder auch andere Möglichkeiten evaluiert werden müssen.

Categories
Kommentar

Deutsche Cloud: Ist Deutschland souverän? Lieber keine Unternehmensdaten in Deutschland speichern?

So mancher deutsche Cloud Computing Anbieter brüstet sich mit den hohen Datenschutzrichtlinien in unserem Land. Da wird der Patriot Act als Vorwand genommen, sich doch lieber für eine “Deutsche Cloud” zu entscheiden, statt für einen “bösen” US-amerikanischen Anbieter bzw. dessen deutsches Tochterunternehmen. Datenschutz “Made in Germany” halt.

Datenschutz in Deutschland: Nur Wunschdenken?

Ein Video von Frontal 21 rückt, meiner Ansicht nach, sämtliche Datenschutz-Diskussionen in ein anderes Licht. Nein, es stellt nicht das Cloud Computing in Frage, sondern Deutschland als Standort zum Speichern von Daten. Abgesehen davon, Cloud Computing ist ein globales und kein lokales Konzept (“Deutsche Cloud”…). Aber, haben die Macher des Videos ernsthaft gut recherchiert, würde Irland als Standort für Cloud Computing Anbieter in Europa völlig ausreichen. Anders ausgedrückt: Als Unternehmen sollte man davon dann tatsächlich absehen, seine Daten bei einem Anbieter in Deutschland zu speichern. Denn was ist unser Bundesdatenschutzgesetz unter Berücksichtigung dieses Videos noch wert?

Quelle: Deutschland souverän?
Weitere Informationen: Die demokratische Souveränität ist teilsuspendiert

Categories
Kommentar

Dropbox, Microsoft SkyDrive oder Google Drive: Die weiteren Services eines Cloud Storage sind entscheidend

Dropbox ist der Platzhirsch unter den Cloud Storage Services, mit – nach eigenen Angaben – 100 Millionen Nutzern ist der Speicherdienst unangefochten weltweit die Nummer eins. Was man aber nicht vergessen sollte, Dropbox ist “nur” ein Speicher und hat bisher keine weiteren nennenswerten Vorteile zu bieten. Cloud Storage bedeutet mittlerweile nämlich viel mehr als nur Cloud Storage sowie es auch sehr wichtig ist, mehr als nur reine Infrastruktur anzubieten, wenn man langfristig konkurrenzfähig bleiben möchte. Warum andere Anbieter wie Microsoft SkyDrive deutlich attraktiver sind als Dropbox und warum man Google Drive lieber nicht nutzen sollte, erläutere ich in diesem Artikel.

Dropbox ist nur ein simpler Cloud Storage

Wie ich es bereits vor Kurzem zum Thema Infrastructure-as-a-Services (IaaS) geschrieben habe, muss man als Anbieter mittlerweile mehr bieten als nur “reine” Infrastruktur wie Rechenleistung oder Speicherplatz. Nur macht genau Dropbox dies nicht. Dropbox ist einfach nur ein Speicher. Um den Cloud Storage herum hat das Unternehmen es bisher nicht geschafft ein eigenes Ökosystem von Services zu schaffen, die dem Nutzer mehr bieten als nur Daten darin abzulegen und per Link zu teilen. Möchte ich zum Beispiel eine Word-Datei über die Webseite aufrufen, um sie “nur” zu betrachten, öffnet sich das Downloadfenster. Ich bin also auf ein lokales Betriebssystem angewiesen. Dropbox ist daher zu nativ gestrickt. Das hat natürlich den Vorteil, dass für jedes System ein Client zur Verfügung steht, der allerdings auch zwangsläufig benötigt wird.

Wie sieht es aber aus, wenn ich mit mehreren Parteien an einer Datei parallel arbeiten möchte? Online via Webbrowser ist das nicht möglich. Und lokal über einen der nativen Clients? Auch nicht! Dropbox ist einfach nur ein Stück Speicher im Internet ohne weitere Intelligenz, Möglichkeiten der Zusammenarbeit und anderen Mehrwertdiensten.

Microsoft SkyDrive und Google Drive

Wo Dropbox aufhört, fangen Cloud Storage Lösungen wie Microsoft SkyDrive oder Google Drive erst richtig an. Beide Services sind vollständig in das eigene Ökosystem des jeweiligen Anbieters nahtlos integriert und bieten neben dem Speichern weitere Dienste.

Google hat durch die Veröffentlichung von Google Drive ihre Online-Textverarbeitung Google Docs aufgebohrt. Das bedeutet, dass Dokumente die auf Google Drive gespeichert sind auch online im Browser bearbeitet werden können. Und das sogar mit mehreren Leuten gleichzeitig und ortsunabhängig. Microsoft SkyDrive ist ein standalone Cloud Storage Service. Allerdings hat Microsoft mit den Office Web Apps eine abgespeckte Version von bekannten Office Produkten wie Word oder Excel integriert, mit denen Dokumente online und mit mehreren Leuten parallel bearbeitet werden können. Was vielen das bekannte lokale Microsoft Office-feeling auch im Browser ermöglicht.

Ein kleines Minus bekommt SkyDrive, da es derzeit noch keinen nativen Linux-Client von Microsoft gibt. (War ein Kritikpunkt von einem Bekannten, der als Linux-Nutzer ernsthaft über einen Wechsel nachgedacht hatte und auf Grund des fehlenden nativen Linux-Clients es dann gelassen hat.) Allerdings ist die SkyDrive API offen, was es jedem erlaubt, einen eigenen SkyDrive-Client für Linux zu schreiben.

Das alles meine ich mit “Infrastruktur bedeutet mehr als nur Infrastruktur”. Die Services, die von dem Anbieter um die “dumme” Infrastruktur herum aufgebaut werden, machen den Unterschied.

Die Preise – Dropbox muss nachlegen

Preislich ist Microsoft SkyDrive derzeit unschlagbar günstig. Zunächst bekommt man 7GB kostenlosen Speicherplatz, der für 37 EUR pro Jahr um 100GB erweitert werden kann. Hinzu kommt, das Microsoft ein seriöser und renommierter Anbieter ist, dessen Infrastruktur erprobt ist. Zum Vergleich, bei Dropbox erhält man 100GB für 99 US-Dollar pro Jahr. 100GB kosten bei Google Drive 59,88 US-Dollar pro Jahr.

Google Drive sollte lieber nicht genutzt werden

Auch wenn Google Drive technologisch ein sehr interessanter Cloud Storage ist und viel mehr bietet als ein Dropbox, ist von der Nutzung des Service aus Datenschutzgründen abzuraten.

“Meine größten Bedenken Google Drive zu nutzen sind, dass Google bereits alle meine E-Mails, Web-Analytics Daten und Suchbegriffe besitzt. Möchte ich denen wirklich noch mehr Daten geben?”, Chen S. im Dropbox Forum.

“Wie viele andere Nutzer, bin auch ich nicht erfreut darüber, dass Google über immer mehr Informationen aus meinem Leben verfügt, die ich in ihrer Cloud speichere.”, Christopher H. im Dropbox Forum.

“Google kann diese Daten in irgendeiner Form für interne Zwecke nutzen. Das kann das Verkaufen personalisierter Werbeanzeigen auf Basis meiner hochgeladenen Daten sein.”, Mark Mc. im Dropbox Forum.

Google Pressesprecher Stefan Keuchel hatte nach der Veröffentlichung von Google Drive und den ersten Kritiken bereits Stellung bezogen:

“Drives Nutzungsbedingungen sind eindeutig, was dir gehört, wird auch deins bleiben.”

Natürlich sagt Google, dass alle Daten die in Google Drive gespeichert werden das Eigentum des Nutzers bleiben. Das ist ja wohl selbstverständlich und ist keiner weiteren Stellungnahme würdig. Darum geht es bei dieser Diskussion aber auch nicht! Es geht darum, was Google mit den auf Google Drive gespeicherten Daten macht. Denn es wird nicht endgültig ausgeschlossen, dass Google diese Daten verwendet, um damit weitere Analysen und Geschäfte vorzunehmen. Wenn Google die Daten auf Google Drive dazu verwenden würde, hätte die Nutzung des Google Cloud Storage einen sehr faden Beigeschmack. Eines muss man sich natürlich vor Augen halten. Wenn ich im Internet etwas kostenlos bekomme, bin ich das Produkt. In Googles Fall werde ich mit Werbung “versorgt” und Google kann die Daten für anonyme Analysen nutzen. Allerdings bietet Google ebenfalls kostenpflichtigen Speicherplatz an. Bedeutet, der Nutzer bezahlt für die Leistung die Google erbringt. In diesem Fall wäre es für Google nicht mehr gerechtfertigt, die Daten für Werbezwecke und weiteres zu verwenden. Für die kostenlosen 5GB wäre es grenzwertig aber falsch. Aber wie will Google auseinander halten, welche Daten sich jetzt in dem kostenlosen 5GB Speicher befinden und welche in dem restlichen bezahlten.

Google hat bis heute genau zu dieser Thematik keine Stellung bezogen. Und solange es hierfür keine offizielle schriftliche Aussage von Google gibt, unterstelle ich Google, dass die Daten – auch bei dem kostenpflichtigen Speicherplatz – für eigene Zwecke analysiert und weiterverarbeitet werden. Und solange sollte Google Drive lieber nicht genutzt werden.


Bildquelle: ©Gerd Altmann / PIXELIO

Categories
Kommentar

CIOs sind genervt von falschen Cloud Services und deren Marketing (CloudWashing)

Es ist kein überraschendes Ergebnis und zeigt, dass CloudWasher zu den großen Verlieren gehören. Denn IT-Entscheider wollen sich nun einmal nicht von falschen Cloud Services in die Irre führen lassen. Dieses und mehr ergab eine Umfrage vom Cloud Anbieter ElasticHosts unter mehreren CIOs weltweit.

83 Prozent der CIOs sind genervt vom falschen Marketing

Die Umfrage ergab, dass 83 Prozent der befragten CIOs frustiert sind, sich ständig mit dem falschen Marketing der selbsternannten Cloud-Services auseinandersetzen zu müssen, die sich am Ende als ganz herkömmliche Hosting-Lösungen herausstellen. Ganz gewöhnliche Webhosting-Lösungen, die den Namen Cloud beinhalten: CloudWashing! (Interessant dazu auch: Klassische Webhoster und ihr Kampf mit Infrastructure-as-a-Service).

Zwei Drittel (67 Prozent) der Befragten gaben an, dass Ihnen bereits “Cloud”-Services mit einer festen Laufzeit angeboten wurden. 40 Prozent berichten von Angeboten, die nicht elastisch oder skalierbar waren und bei 32 Prozent verfügte das Angebot über keinen Self-Service.

Web-Hosting ist KEIN Cloud-Hosting!

Es ist mittlerweile kein Geheimnis mehr, dass die meisten Angebote, die den Namen “Cloud” oder “Cloud Computing” im Namen tragen nur namentlich neu aufgelegte Standard Hosting-Lösungen sind, die nicht über eine einzige Kerneigenschaft des Cloud Computing verfügen. Das bedeutet über keinen Self-Service, keine automatische Bereitstellung der Ressourcen, keine Elastizität oder Skalierbarkeit weder noch über ein Pay as you go Model verfügen.

Es muss etwas unternommen werden!

Die Umfrage zeigt erneut, dass es an der Zeit ist, etwas zu unternehmen und die CloudWasher für ihre Lügen öffentlich bekanntgemacht werden müssen. Denn auf der einen Seite kosten falsche Cloud Services den IT-Einkäufern viel Zeit. Hinzu kommt, dass eine “fake Cloud” irgendwann doch für ein Projekt eingesetzt wird und zu schweren Folgen für den Kunden führen kann und den echten Cloud Angeboten zudem im Weg steht.

Wie David Linthicum schön schreibt:

Truth be told, most of those presentations are given by salespeople who don’t know a cloud from a hole in the ground; they actually believe they’re selling is a cloud. Used cars, appliances, PCs, cloud services — the sales process is all the same, right?

Word!, oder?


Bildquelle: ©Thommy-Weiss / PIXELIO

Categories
Kommentar

Cloud Washing: D-Link führt seine Kunden an der Nase herum

Vor ungefähr zwei Wochen habe ich eine Pressemitteilung von D-Link mit dem Betreff “DIR-506L Router verleiht der Cloud Flügel” erhalten. Da stellt sich natürlich die Frage: Seit wann kooperiert ein Hersteller von Netzwerkhardware mit einem Energiedrink aus Österreich und was hat das alles mit Cloud Computing zu tun? Einfache Antwort: Nichts. D-Link ist hier schlicht und einfach auf den Marketingzug “Cloud” aufgesprungen und suggeriert mit so einer Aussage den Medien aber vor allem seinen Kunden, ein Cloud Produkt im Portfolio zu haben, CloudWashing also.

Das Marketing zerstört das Verständnis für Cloud Computing

In der Pressemitteilung heißt es großzügig:

D-Link, der Netzwerkexperte für das digitale Zuhause, erweitert die Cloud-Familie um einen neuen Router: Mit dem tragbaren DIR-506L lässt sich die persönliche Datenwolke bequem in die Tasche stecken.

und weiter

Besonders einfach klappt das mit den Apps für …. Egal ob iPhone, iPad oder Android-Endgerät, die kostenlose App macht den Zugriff und Umgang mit digitalen Inhalten innerhalb der Personal Cloud zu einem Kinderspiel. Anwender können Medien vom Endgerät oder Massenspeicher ganz einfach auf andere PCs, Tablets oder Smartphones streamen und haben so jederzeit uneingeschränkten Zugriff auf Musik, Fotos, Filme, Powerpoint Präsentationen, Excel-Listen oder PDF-Dateien. Das funktioniert natürlich ebenfalls in die andere Richtung: Wichtige Daten landen auch unterwegs bequem und schnell als Backup auf dem am Router angeschlossenen USB-Speicher.

Ich glaube das Kinderspiel für D-Link an dieser Stelle ist es, über ein verwirrendes Marketing seine Kunden auf den falschen Weg zu bringen und sich als Anbieter von Cloud Produkten zu positionieren, die sie definitiv nicht haben. Seit wann hat die Cloud denn z.B. einen USB-Anschluß?

Es kommt aber noch besser.

Mit D-Link in der Personal Cloud
D-Link investiert konsequent in die Entwicklung von Cloud Produkten sowie Services. … Bereits verfügbar sind die Cloud Router … mehrere Netzwerkkameras sowie der Netzwerk-Videorekorder …

Alles klar? Es ist wirklich eine Schande, wie D-Link versucht, seine Kunden an der Nase herumzuführen. Es werden mittlerweile sogar Netzwerkkameras und Netzwerk-Videorekorder cloudifiziert, nur um über den Cloud-Zug den Absatz zu erhöhen. Wohlgemerkt auf Kosten und dem Rücken der Kunden.

Was ist Cloud Computing?

Es gibt klare Beschreibungen was Cloud Computing ist. Dazu gibt es hier viel zu lesen:

83 Prozent aller Unternehmen sind genervt vom Cloud Washing

Solche Marketing-Aktionen, wie sie nicht nur D-Link betreibt, nervt übrigens über 83 Prozent der Unternehmen. Das ergab eine Umfrage von ElasticHosts. Meine Einwände sind also nicht ganz unberechtigt.

Übrigens ist auch Adron Hall von CloudAve das nebulöse Marketing von D-Link – neben ein paar Anderen – negativ aufgefallen.


Bildquelle: ©Thommy-Weiss / PIXELIO

Categories
Kommentar

BYOD und BYOA. Es gibt mehr Vorteile als Risiken.

Die Trends Bring-your-own-device (BYOD) und Bring-your-own-application (BYOA) haben dazu geführt, das Mitarbeiter ihre privaten Endgeräte und (mobilen) Anwendungen mit ins Büro bringen, mit denen sie am Produktivsten sind. Doch anstatt sich gegen den Trend zu wehren, sollten Unternehmen die Vorteile für sich nutzen.

BYOA entwickelt sich zum Trend

Einer Fortinet Umfrage zufolge zeigten sich 69 Prozent der Befragten daran interessiert eigene Anwendungen im Büro zu nutzen. 30 Prozent würden sich dabei sogar gegen Regeln hinweg setzen und trotz eines Verbots eigene Anwendungen einsetzen.

Kontrollverlust wird größer

Der Kontrollverlust in IT-Abteilungen schreitet durch BYOD und BYOA stetig voran. Um sicherzustellen, dass das Unternehmensnetzwerk vor den Endgeräten (BYOD) geschützt ist, können Sicherheitsmaßnahmen eingeführt werden, mit denen der Zugriff je nach Situation beschränkt wird. Bei BYOA sieht es jedoch ein wenig anders aus. Die Daten werden hier in der Regel z.T. auf den lokalen Gerät und in einem Cloud Service oder vollständig in der Cloud gespeichert. Es kann also durchaus vorkommen, dass Unternehmensdaten verloren gehen, sollte der Anbieter des Cloud Service Ausfallen oder gar insolvent werden.

Das bedeutet im Umkehrschluss, dass sich die Unternehmensdaten ebenfalls über mehrere mobile Endgeräte hinweg repliziert befinden. Die IT-Abteilung verliert damit den Überblick wo und in welchem Stand die Daten gespeichert sind. Das kann zu Compliance-Problemen usw. führen.

Es gibt mehr Vorteile als Risiken

Dennoch sollten Unternehmen die Vorteile genau verstehen und anschließend gegen die Risiken abwiegen, bevor eine überhastete Entscheidung gegen BYOD/ BYOA getroffen wird. Denn mobile Anwendungen sind ein wertvolles Gut, was Unternehmen für sich nutzen können. Mit diesen können Mitarbeiter einfacher miteinander zusammenarbeiten, indem sie Dokumente, Videos usw. teilen und gleichzeitig an Dokumenten arbeiten.

Externe oder selbst entwickelte Anwendungen sind zudem eine ideale Quelle, um daraus eigene neue Ideen und Ansätze zu finden, die dem eigenem Unternehmen einen Vorteil verschaffen können. Würde man den Mitarbeitern die Nutzung dieser Anwendungen flächendeckend verbieten, heißt es nicht, dass diese auch tatsächlich darauf verzichten werden. Entweder sie finden einen Weg die App zu nutzen oder man verliert möglicherweise seine besten Mitarbeiter.

Eine Möglichkeit BYOA zu unterstützen besteht darin, die Anwendungen in kontrollierten Umgebungen zu integrieren, um die IT-Infrastruktur aber auch die Nutzer selbst zu schützen. Zudem gibt es einige App-Anbieter, die selbst für Consumer-Apps hohe Sicherheitsstandards in ihren Umgebungen haben. Dazu gehört z.B. Evernote. Der Cloud-basierte Notizblock bietet die Möglichkeit die Nutzerdaten zu verschlüsseln. Damit verfügen die Daten zumindest über ein gewisses Sicherheitsniveau, wenn der Service angegriffen wird.

Entscheider und IT-Abteilungen sollten zudem von den unerwünschten Anwendungen lernen, die durch die eigenen Mitarbeiter in die Unternehmen getragen werden. Anstatt diese zu verbieten, sollte aus diesen gelernt werden, um die eigene Sicherheit zu erhöhen und den eigenen Innovationsgrad zu erhöhen.


Bildquelle: ©Tony Hegewald / PIXELIO

Categories
Kommentar

Windows 8: Cloud, Mobile, CoIT und mehr…

Windows 8 ist da und wie bereits viele andere Anbieter stellt auch Microsoft vieles ins Zentrum der Cloud, wenn auch nicht zu 100 Prozent ins Zentrum ihrer zukünftigen Strategie. Denn Microsoft geht den hybriden Weg. Das bedeutet, Windows 8/RT sind auch nutzbar, wenn keine Datenverbindung besteht. Auch wenn ich ein großer Fan des reinen Cloud Ansatzes bin, zeigt die Praxis, dass es derzeit einfach noch nicht (mobil) funktioniert. Und insbesondere dieses mobile Dilemma ist meiner Ansicht derzeit die größte Schwachstelle u.a. der Google Chromebooks.

Es geht um den Account

Wie man es von Android kennt, ist nun auch für Windows 8 ein zentraler Microsoft-Account erforderlich, um das gesamte Potential von Windows 8 auszuschöpfen. Dabei kann es sich um ein Live-, Hotmail- oder Outlook.com-Konto handeln. Über diesen Account lassen sich Einstellungen, Apps aus dem Marketplace und Daten geräteübergreifend synchronisieren. Produktiv- und Mediendaten lassen sich über SkyDrive in das System einbinden. Office 365 und Office 2013 stehen zudem als lokale und reine Cloud-Lösungen bereit.

Hier zeigt sich auch die strategische Ausrichtung der letzten Monate, indem angefangen wurde u.a. SkyDrive mit sehr attraktiven Preisen zu vermarkten und ebenfalls die SkyDrive APIs für Entwickler zu öffnen. Ein weiterer bedeutender Schritt war zudem die Fokussierung der Office Suites auf die Cloud.

Windows 8: Vielfalt für die Post-PC Ära

Windows 8 erweitert die technologische Benutzererfahrung mit einer neuen Gerätevielfalt. Microsoft bringt zusammen mit den Hardware-Partnern eine Vielfalt neuer Geräte mit den unterschiedlichsten Modellen in den Handel. Acer, Asus, Dell, HP, Lenovo, Samsung, Sony und Toshiba bieten mit Start von Windows 8 neben klassischen PCs eine große Bandbreite an neuen Windows 8 Tablets, Convertibles, Smart Devices, All-In-Ones und Laptops. Windows 8 wird neben Maus- und Tastatureingabe auch per Touch-Steuerung bedienbar und damit auch auf Tablets optimal nutzbar sein.

Bereits im Juni stellte Microsoft mit Surface eigene, speziell für Windows entwickelte Tablets vor. Seit dem 26.10.2012 ist das Surface Tablet mit Windows RT mit wahlweise 32 GB oder 64 GB Speicherkapazität in Deutschland online verfügbar. Die Touch Cover mit integrierter druckempfindlicher Tastatur für eine schnelle Eingabe sind in Deutschland in weiß, schwarz und cyan erhältlich. Das Type Cover verfügt über bewegliche Tasten für ein authentisches Schreibgefühl wie auf einem klassischen Keyboard.

Windows 8 fühlt sich gut an

Windows 8 hat bei mir einen ersten guten Eindruck hinterlassen. Das System hat sich während der Bedienung einfach gut angefühlt. Natürlich ist das neue Bedienkonzept Geschmackssache. Allerdings hat niemand großartig die Bedienung des iPhone/ iPad in Frage gestellt. Es wurde einfach als innovativ dargestellt. Und jeder der die Microsoft/ Windows “Hass-Brille” mal ablegt, wird sehen, dass das neue Bedienkonzept von Windows 8 ebenfalls innovativ ist.

Die klassische Windows Desktop-Oberfläche ist weiterhin vorhanden. Jedoch muss ich gestehen, dass mir diese nach längerem Rumspielen mit der neuen Windows Oberfläche sehr ungewohnt und unkomfortabel vorkam. Es mag daran gelegen haben, dass ich Windows 8 mit einem Tablet-Hybriden (Tablet + abnehmbarer Tastatur) ausprobiert habe. Außerdem ist die alte Desktop-Oberfläche nicht so richtig touch-tauglich.

Was weiterhin überzeugt ist die neue Plattformstrategie. Windows 8 bzw. der abgespeckte Ableger Windows RT sind auf jedem Endgerät, von Desktop-PC über Notebook und Tablet bis hin zum Smartphone vorhanden. Das macht es dem gemeinen Windows Nutzer einfacher sich in seinem “Leben auf einer einzigen Plattform” besser zurechtzufinden. Hier hat Microsoft insbesondere das Thema “Consumerization of IT (CoIT)” verstanden und umgesetzt. Dies hatte ich vor längerer Zeit bereits in dem Artikel “Microsoft schafft den Spagat zwischen Cloud Computing und Mobile Computing. Die Mobile Cloud wird Realität!” thematisiert.

Microsoft ist mit Windows 8 auf dem richtigen Weg

Microsoft hat mit Windows 8, der Cloud Integration sowie der neuen (mobilen) Plattformstrategie den Trend der CoIT verstanden und ein Produkt geliefert, mit dem der Arbeitsalltag und das Privatleben mit einem Gerät bewältigt werden kann. Bei Bedarf können auch mehrere Geräte (mindestens ein Smartphone) zum Einsatz kommen. Hier hilft die Synchronisation über den Microsoft Account bzw. Lösungen wie der Cloud Storage SkyDrive.

In einem Artikel auf bizruption.de hatte ich kurz nach der Ankündigung von “Microsoft Surface” provokativ geschrieben, dass Android Tablets und das iPad nicht für den Einsatz im Unternehmen taugen.

Andere mögen an dieser Stelle vielleicht anderer Meinung sein und Erfahrungen gemacht haben, aber Android Tablets als auch das iPad sind für den Unternehmenseinsatz nicht geeignet. Google als auch Apple fokussieren sich auf das Endkundensegment, und genau das merkt man. Es fängt bereits bei der Integration der Geräte in die bestehenden Infrastrukturen an. Eines ist klar, wenn man auf Google Apps setzt, hat man die beste Integration auf Android Tablets, die man sich vorstellen kann. Aber wer kann und möchte schon zu 100% den Google Weg gehen? Hinzu kommt, dass es zwar Office Suites für das iPad gibt und sogar Microsoft plant sein Office auf das iPad zu portieren, aber dennoch existieren Medienbrüche und Unbequemlichkeiten, die das “Büro Feeling” auf aktuellen Tablets einfach nicht wiedergeben. Wenn es darum geht Filme zu schauen, Musik zu hören oder eine E-Mail zu schreiben sieht es anders aus, aber Android Tablets oder iPad im Büroalltag?