Categories
Kommentar

Die Amazon Web Services (AWS) nutzen möglicherweise Eucalyptus für den Bau der CIA Private Cloud

Es verdichten sich immer mehr die Gerüchte, dass Amazon für die CIA eine eigene Private Cloud für die Spionage bauen soll. Die erste Frage die sich dabei stellt ist natürlich warum für einen Geheimdienst? Die zweite, warum Amazon AWS als Public Cloud Anbieter, die Serviceanbieter und kein Softwareanbieter sind. Denkt man ein wenig weiter, kommt sofort Eucalyptus ins Spiel.

Der Amazon Deal mit der CIA

Laut der Federal Computer Week, haben die CIA und die Amazon Web Services (AWS) einen 600 Millionen Dollar schweren Vertrag mit einer Laufzeit von 10 Jahren abgeschlossen. Dabei geht es darum, dass Amazon AWS für die CIA eine Private Cloud auf der Infrastruktur der Regierung bauen soll. Viel mehr Informationen gibt es derzeit nicht.

Stellt sich dennoch die Frage, warum die CIA Amazon gefragt hat. Steckt hinter den $$$ noch mehr? Eines ist klar. Amazon gehört zu den wenigen Unternehmen, die über die Kenntnisse und Mitarbeiter verfügen, um sehr erfolgreich eine Cloud Infrastruktur zu betreiben. Trotz manch vermeidbarer Ausfälle, ist die Infrastruktur als äußerst robust und smart entwickelt einzuschätzen. Allerdings hat Amazon einen Nachteil. Sie sind Serviceanbieter und kein Softwareanbieter. Das bedeutet sie haben keine Erfahrung damit, wie man Software ausrollt, Kunden mit Updates usw. versorgt. Zudem werden sie wahrscheinlich bzw. hoffentlich nicht den selben Quellcode für die Cloud der CIA verwenden.

Hier könnte nun aber eine Kooperation ins Spiel kommen, die Amazon vor längerer Zeit mit Eucalyptus eingegangen ist und damit das Problem der nicht vorhandenen Software für on-Premise Clouds und die Erfahrung mit der Wartung usw. von Software für Kunden behebt.

Die Kooperation zwischen Amazon AWS und Eucalyptus

Kurz zusammengefasst handelt es sich bei Eucalyptus um einen eigenständigen Fork der Amazon Cloud, mit dem eine eigene Cloud mit den grundlegenden Eigenschaften und Funktionen der Amazon Cloud nachgebildet werden können.

Die Amazon Web Services und der Private Cloud Infrastruktur-Software Anbieter Eucalyptus haben im März 2012 angekündigt, in Zukunft enger zusammenarbeiten, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen. Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Amazon Eucalyptus Private Cloud für die CIA

Diese Kooperation könnte nun erste Früchte für beide, Amazon als auch Eucalyptus, tragen. Durch die sehr nahe Ähnlichkeit von Eucalyptus zur Amazon Cloud, steht bereits eine fertige und direkt einsetzbare Cloud Software zur Verfügung, die Amazon kennt und sein weiteres Wissen mit einbringen kann. Services, die Eucalyptus noch nicht unterstützt, von der CIA aber benötigt werden, können successive nachgebaut werden.
Das könnte Eucalyptus wiederum bei der eigenen Weiterentwicklung helfen, indem entweder Kenntnisse aus deren Entwicklung oder gar Teile von Services in das generelle Produkt zurückfliessen.

PS:

Ich habe mit der nun scheinbar offiziellen Zusammenarbeit zwischen Amazon und der CIA so meine Probleme. Ein Stichwort heißt hier Vertrauen, was Amazon durch die Kooperation mit einem Geheimdienst für sich nicht weiter fördert.

Categories
Kommentar

VMware ist NICHT der Technologie-Enabler der Cloud

In einem vor kurzem erschienen Interview hat sich ein VMware Mitarbeiter zu der für mich sehr vagen und fragwürdigen Aussage “VMware ist der Technologie-Enabler der Cloud, und ich sehe derzeit keinen anderen.” hinreißen lassen. Ohne VMware zu nahe treten zu wollen, klingt dieser Satz für mich schon sehr stark nach Selbstüberschätzung und gleicht einem Realitätsverlust. Es steht außer Frage, dass VMware der König der Virtualisierung ist, aber zu behaupten dass im Cloud-Umfeld nichts ohne sie funktionieren würde, ist schon sehr anmaßend.

Reality distortion field

Steve Jobs hat es entwickelt, das “Reality distortion field“. Die Eigenschaft jemanden davon überzeugen zu können, was überhaupt nicht stimmt und die Fakten so zu verdrehen, dass es am Ende so aussieht, als ob es seine eigene Idee war. Zum Glück behauptet VMware nicht, dass sie das Cloud Computing erfunden hätten, das wäre dann kein Realitätsverlust, sondern Größenwahn.

Virtualisierung ist kein Cloud Computing

Es ist schon sehr anmaßend zu behaupten, man sei der Technologie-Gott der Cloud. Man überlege mal was VMware tatsächlich als Basis für die Cloud liefert. Es ist die Virtualisierung, also der Hypervisor. Natürlich, Virtualisierung ist eine der wichtigsten Grundlagen für die Cloud. Aber es gehört viel mehr dazu, um die virtuellen Ressourcen zu provisionieren und zu nutzen.

Bleiben wir beim Hypervisor, ist nicht abzustreiten, dass VMware der Marktführer ist. Hier machen sie einen guten Job. Man sollte dennoch nicht vergessen das die Amazon Web Services und Rackspace den Open-Source Hypervisor XEN einsetzen. Die HP Cloud verlässt sich genau so wie die Google Compute Engine auf KVM.

Die echten Player im Cloud Computing Markt setzen also eben nicht auf VMware. Daher kann von VMware als Technologie-Enabler der Cloud überhaupt keine Rede sein.

Darüber hinaus sollte man nicht die vielen anderen Technologie-Anbieter wie openQRM, OpenStack, CloudStack, Eucalyptus, Microsoft usw. vergessen, die Unternehmen dabei helfen Infrastrukturen für die Public als auch Private Cloud aufzubauen. VMware ist sicherlich ein Anbieter, der mittlerweile auch versucht sein Stück vom Kuchen in der Cloud abzubekommen. Aber unterm Strich sind sie auch nur einer von vielen und müssen sich wie jeder andere tagtäglich behaupten.

Ich weiß das ich mir mit diesem Artikel keine Freunde bei VMware machen werde. Aber so eine untragbare Behauptung kann ich nicht einfach so im Internet stehen lassen, tut mir leid VMware!

Categories
Kommentar

Eine eigene Private Cloud macht doch finanziell überhaupt keinen Sinn?!

Diese Frage stellte mir ein Besucher auf der CeBIT nach meinem Vortrag/ Panel “Public vs. Private Cloud” auf der Webciety 2013. Wir haben uns anschließend über die Thematik ein wenig unterhalten. Ihm ging es dabei um die Frage, warum sich manche Unternehmen trotz der hohen Investitionen für eine Private Cloud entscheiden und wie sie diesen Kapitalaufwand messen und rechtfertigen.

Private Cloud ist ein finanzieller Kraftakt

Wer sich für den Aufbau einer echten Private Cloud entscheidet, sollte sich auch bewusst machen, das dies mehr bedeutet, als bspw. nur einen Terminalserver aufzubauen. Cloud Computing, auch in der Private Cloud, bedeutet u.a. Self-Service, Skalierbarkeit, Ressourcen-Pools, Automatisierung, granulare Abrechnung und on-Demand Bereitstellung der Ressourcen. Eine Grundlage der Cloud ist dabei die Virtualisierung. Für die Virtualisierung wird Hardware benötigt, aus welcher die virtuellen Ressourcen erstellt werden. Um eine nennenswerte Skalierbarkeit und vor allem Verfügbarkeit zu gewährleisten, muss hier entsprechend in Hardware investiert werden. Weitere Kostenpunkte sind die Software, welche die Cloud-Funktionalität liefert und die für das Pooling der Ressourcen, die automatische on-Demand Bereitstellung, den Self-Service, die Abrechnung usw. zuständig ist. Darüber hinaus benötigt man das Personal mit den entsprechenden Kenntnissen, das die Cloud-Infrastruktur aufbaut, wartet und betreibt. Man wird dadurch also sein eigener Cloud Anbieter.

Wenn man sich daher überlegt, welche finanziellen Aufwände gestemmt werden müssen, um die Eigenschaften einer eigenen Cloud zu realisieren, kommt man schnell zu dem Ergebnis, dass eine Private Cloud rein wirtschaftlich betrachtet keinen Sinn ergibt. Es sei denn man achtet nicht auf die Kosten und möchte sein Unternehmen in einem sehr privaten Rahmen damit agiler machen und z.B. die Zufriedenheit seiner Mitarbeiter erhöhen, ohne sich dabei in die Abhängigkeit eines Anbieters zu begeben und auf dessen Datenschutzniveau angewiesen zu sein.

Die KPIs des Cloud ROI müssen erweitert werden

Der erfolgreiche Einsatz von Cloud Computing lässt sich nicht immer in harten Zahlen ausdrücken. Mehr dazu habe ich in dem Artikel “Der Cloud Computing ROI: Kosten sagen nicht immer viel aus!” geschrieben.

Ich rate bewusst, bei der Bewertung des Cloud Computing nicht immer nur auf die reinen Kosten zu schauen, sondern weitere Faktoren mit einzubeziehen, die ein typischer Return on Investment (ROI) nicht kennt. Dessen KPIs (Key Performance Indicator) messen nur den finanziellen Input und den daraus resultierenden Output. Bei der Private Cloud wird der Output aber ständig negativ ausfallen, da direkt kein echter Wertbeitrag zu sehen ist. Es sei denn, man definiert sich einen. Das hat nichts mit Mogeln zu tun, sondern ist eine logische Schlussfolgerung, die sich aus der Flexibilität und Agilität des Cloud Computing ergibt.

Eine dieser KPIs und für mich eine der Entscheidendsten: “Die Zufriedenheit der Mitarbeiter“. Diese sagt aus, wie glücklich meine Mitarbeiter mit der Nutzung und Bereitstellung der aktuellen IT-Infrastruktur sind. Ich behaupte diese KPI wird bei sehr vielen Unternehmen dunkelrot sein. Umsonst gibt es nicht so einen hohen Drang zur Schatten-IT.

Mit dem Aufbau einer Private Cloud lässt sich z.B. die Bereitstellung von Ressourcen stark beschleunigen. Server können damit anstatt in Tagen oder Wochen innerhalb von 5 Minuten zur Verfügung stehen. Insbesondere Entwickler fragen nach der on-Demand Bereitstellung von Ressourcen. Einfach mal direkt fragen. Leider fließt der Wert, der aussagt, dass ein Entwickler bzw. Mitarbeiter zufrieden arbeitet, niemals in den ROI ein. Das sollte er aber. Denn die Agilität, Flexibilität und Zufriedenheit sollten einen ebenso großen Stellenwert einnehmen wie die reinen Kosten.

Categories
Services @de

Open-Xchange: Die gehostete Alternative zu Google Apps und Microsoft Office 365

Open-Xchange hat heute seine erste eigene Cloud-basierte Office-Suite vorgestellt. Die erste App “OX Text” aus der Office Productivity Suite soll planmäßig Anfang April bereitstehen. Damit lassen sich künftig Microsoft Word .docx- und OpenOffice/LibreOffice .odt-Dateien direkt im Browser bearbeiten. Die gemeinsame Arbeit an einem Dokument wird über ein Token gelöst, das herumgereicht wird. Das bedeutet, dass nicht parallel an einem Dokument gearbeitet werden kann, alle Änderungen bei allen Teilnehmern aber in Echtzeit angezeigt werden.

Sehr gut gelöst: Formatierungen bleiben erhalten

Hat man ein Dokument mit Microsoft Office erstellt und will es später mit OpenOffice oder auch Google Docs weiter bearbeiten steht man vor einem nicht zu unterschätzenden Problem. Meistens ist die vollständige Formatierung der DOC-Datei hinüber, sobald man sie in einem MS Office fremden Produkt öffnet. OX Text geht hier einen prinzipiell einfachen aber dennoch innovativen Weg. Es lassen sich .docx- und .odt-Dateien im Browser lesen und editieren, ohne das diese konvertiert werden. OX Text speichert nur die Änderungen und nicht das gesamte Dokument. Dadurch bleiben Formatierungen und Layout des ursprünglichen Dokumentes vollständig erhalten.

Alle Formatierungen des ursprünglichen Dokumentes bleiben während der Bearbeitung unangetastet. Auch Elemente, die OX Text nicht kennt und bearbeiten kann, wie z.B. WordArt-Effekte, werden nicht verändert. Der OX Text Editor bietet nur die Funktionen zur Bearbeitung an, die das Layout des Ausgangsdokumentes nicht kompromittieren. Dadurch stellt OX Text sicher, dass das Layout des ursprünglichen Dokumentes erhalten bleibt.

Parallel wird der OX Document Viewer veröffentlicht. Damit können Anwender Text- und .pdf-Dateien, Tabellenkalkulationen und Präsentationen im Browser lesen, ohne dass sie die entsprechenden Dateien dafür auf ihr Endgerät herunterladen müssen. Abgerundet wird der Funktionsumfang von OX Documents durch Online-Werkzeuge zur Bearbeitung von Tabellenkalkulationen und Präsentationen, OX Spreadsheet und OX Presentation, die noch in diesem Jahr fertig werden sollen.

OX Documents = OpenOffice in der Cloud

Ich warte schon lange auf ein OpenOffice aus der Cloud. Nun ist es im Prinzip soweit. Open-Xchange selbst bezeichnet OX Documents als Web-Nachfolger von OpenOffice, da es von Mitgliedern des ehemaligen OpenOffice-Teams in Hamburg entwickelt wird und die seit einem Jahr Bestandteil der OX-Entwicklungsmannschaft sind.

Eigenständig oder in der Suite

OX Documents ist als eigenständiges Produkt oder als Erweiterung von OX App Suite erhältlich. Der von Open-Xchange im Februar veröffentlichente browser-basierte Desktop OX App Suite umfasst Apps zur Bearbeitung von E-Mails, Terminen, und Kontakten, die um Nachrichten und Informationen aus sozialen Netzwerken wie Facebook, LinkedIn, XING und Twitter ergänzt werden können. Komplettiert wird der Funktionsumfang von OX App Suite mit einer Dateiverwaltung für Bilder-, Audio-, Video- und Office-Dateien.

Für OX App Suite hat Open-Xchange eine komplett neue, web-basierte Benutzeroberfläche entwickelt. Anwender können OX App Suite sofort und mit jedem Endgerät nutzen, das einen Browser hat – ohne dass sie dazu Lizenzen kaufen oder Software installieren müssen. Bei Verlust oder Defekt eines Gerätes sind alle Dateien zentral gesichert.

Unterschiedliche Endgeräte eine Lösung

Auf Basis des “Responsive Design” passt sich OX App Suite automatisch an die unterschiedlichen Display-Größen von PC, Laptop, Tablet und Smartphone an, was auf jedem Gerät eine bestmögliche Benutzbarkeit ermöglicht. Und durch
konsequente Nutzung des “Local Storage” aktueller Browser mittels HTML5 und Javascript steht OX App Suite der Performance traditioneller Client-Server-Software in nichts nach.

Cloud und Lokal

OX App Suite und OX Documents sind Online- und Offline-fähig. Das heißt, dass angefangene E-Mails und Dokumente auch dann nicht verloren gehen, wenn die Internetverbindung – beispielsweise im Zug – abbricht. Bei der nächsten Verbindung werden die Änderungen automatisch übertragen.

Kommentar: Google Apps und Microsoft Office 365 sollten sich warm anziehen

Ich hatte auf der CeBIT die Gelegenheit ausführlich, inkl. Showcase der neuen Funktionen, mit Open-Xchange CEO Rafael Laguna zu sprechen. Daher kann ich alle oben genannten Möglichkeiten bestätigen.

Besonders überzeugt hat mich der Umgang mit der Formatierung importierter Dokumente und die Möglichkeiten des Workflows sämtlicher Dokumente. Im ersten Moment klingt diese neue Funktion sehr simple. Wenn man jedoch überlegt, dass alle Lösungen am Markt Probleme damit haben, Microsoft Office Dateien sauber zu verarbeiten, ist das keine Magie. Das hängt grundsätzlich damit zusammen, dass Microsoft Office x Funktionen und Formatierungen abbildet. Um ein Dokumente 1:1 zu laden, bearbeiten und wieder speichern zu können, müssen also exakt diese Funktionen nachprogrammiert werden. Das rentiert sich im Normalfall jedoch nicht. Open-Xchange hat sich dafür entschieden, ausgewählte Standard-Funktionen zu unterstützen und alles was nicht bekannt ist, wie z.B. WordArt oder spezielle Formatierungen durch einen Platzhalter zu ersetzen, der nicht verändert werden kann.

Was Google Docs von anderen Cloud Kollaborationslösungen abhebt, ist die Möglichkeit, mit mehreren Leuten parallel an einem Dokument zu bearbeiten. Open-Xchange hat sich hier gegen das parallele Bearbeiten und für die Token-Methode entschieden, da eine Umfrage innerhalb der Zielgruppe zu dem Ergebnis gekommen ist, dass daran kein Interesse besteht. Ich finde das ein wenig schade, da ich mit der parallelen Bearbeitung von Dokumenten in Projekten bisher sehr gute Erfahrungen gemacht habe. Das Dokument ist sehr viel schneller fertiggestellt.

Gut gelöst ist auch der Workflow mit Dokumenten. Bekommt man z.B. eine Datei per E-Mail, lässt sich diese von dort direkt öffnen, bearbeiten und nach dem Speichern wieder direkt verändert an den ursprünglichen Absender zurückschicken. Open-Xchange erlaubt dazu das Verschicken der physischen Datei als auch nur einen Link zu dieser Datei.

Lagunas Argumentation, dass proprietäre Dateiformate der falsche Weg sind, weil sie eine Zusammenarbeit erschweren und die Anwender zudem wieder an die Nutzung einer bestimmten Applikationen ketten, kann ich nur bedingt zustimmen. Richtig ist, dass proprietäre Dateiformate den Nutzer dazu zwingen, eine bestimmte Anwendung zu nutzen. Jedoch werden wir das noch eine ganze Weile benötigen. Denn aktuell sind wir noch weit davon entfernt, dass der Browser das Betriebssystem wird und wir darüber alle unsere Daten bearbeiten und speichern. Es wird immer eine hybride Form geben müssen, wodurch auch Daten auf ein lokales System heruntergeladen werden. Das geht in der Regel nur mit einem bestimmten Dateiformat, dass in irgendeiner Form proprietär ist. Sei es nun aus der Open-Source Welt oder von Anbietern wie Microsoft. Schließlich muss Open-Xchange seine Daten auch in einem Datenformat freigeben, wenn der Anwender wechseln möchte.

Open-Xchange ist eine ernsthafte Alternative

Nicht nur an der Integration zwischen E-Mail und Docs App sieht man, dass sich Open-Xchange von einer E-Mail Lösung zu einer ernsthaften Kollaborationslösung und Alternative zu Platzhirschen wie Google Apps und Microsoft Office 365 entwickeln wird. Neben dem stetig wachsenden Funktionsumfang bietet Open-Xchange zudem mittlerweile ein sehr schickes Look and Feel, was man für die tägliche Arbeit nicht unterschätzen sollte.

Open-Xchange ist für alle interessant, die Google Apps oder Microsoft Office 365 nicht trauen, lieber einen Anbieter mit einem Rechenzentrum in Deutschland haben möchten oder doch lieber alles selbst machen. Eine hohe Verbreitung hat bzw. bekommt Open-Xchange durch eine kommerzielle White-Label Lizenz an Hosting- und Telekommunikationsanbieter, die ihren Kunden OX App Suite damit als Software-as-a-Service (SaaS) anbieten können. Weiterhin richtet sich die Lösung an Systemintegratoren und VARs, die OX App Suite als Managed Service oder für Inhouse-Installationen nutzen wollen.

Welche Verfügbarkeit ist erwünscht

Um Open-Xchange einzusetzen stehen drei Varianten zur Verfügung.

Als Software-as-a-Service (SaaS) von einem Webhoster

Dabei handelt sich um die eleganteste und einfachste Möglichkeit. Die meisten großen deutschen Webhoster setzen als White-Label im Hintergrund auf Open-Xchange. Hat man dort bereits einen Tarif inkl. Webmail, stehen die Chancen gut, dass man derzeit schon eine ältere Version von Open-Xchange nutzt. Der grundsätzliche Vorteil, Open-Xchange über einen Webhoster zu nutzen ist der Umstand, sich nicht selbst um den Betrieb, die Wartung und Aktualisierung der Software und der dafür benötigten Infrastruktur zu kümmern. Außerdem stehen die Server bereits im Internet, was den überall Zugriff auf die Daten erleichtert.

Selbst bei einem Webhoster betreiben

Natürlich kann man Open-Xchange auch selbst bei einem Webhoster auf einem Server betreiben. Aber Vorsicht, um die Verfügbarkeit von Google Apps oder Microsoft Office 365 zu erhalten, reicht es bei weitem nicht aus, sich einfach nur einen virtuellen Server aufzusetzen. Da sollte man sich eher Gedanken über die Hochverfügbarkeit machen, die Open-Xchange selbst nicht mitliefert. OX ist an dieser Stelle einfach nur ein Stück Software. Für Hochverfügbarkeit sorgen dann wiederum Infrastructure-as-a-Service (IaaS) Lösungen wie openQRM oder auch OpenStack. Aber bitte nicht vergessen: IaaS bedeutet Infrastruktur = u.a. Hardware die für die entsprechende Virtualisierung. Zudem reicht ein Server bei weitem nicht, um die Verfügbarkeit und Eigenschaften einer Cloud zu erreichen.

Privat auf eigenen Servern

Auch die Installation im eigenen Rechenzentrum ist eine Variante. Dabei gilt jedoch dasselbe wie bei dem Betrieb beim Webhoster. Ein Server reicht für die Ansprüche an ein Hochverfügbarkeits- oder gar Cloud-Szenario nicht aus. Auch hier sollte man sich dann darauf konzentrieren, zunächst eine Cloud Infrastruktur auf Basis von openQRM oder OpenStack aufzubauen, auf der dann Open-Xchange betrieben wird. Vernachlässigen sollte man aber auch nicht, dass Open-Xchange eine Kollaborationsumgebung ist. Das bedeutet der überall Zugriff auf die OX Installation ist zwingend erforderlich, was auch Auswirkungen auf die Bandbreite der jeweiligen Internetanbindung, bevorzugt den Upload, hat.

Categories
Kommentar

Die Cloud Vendor Lock-in Diskussion ist überflüssig, denn eigentlich lieben wir ihn alle

Eine beliebte Cloud Computing Diskussion ist der Vendor Lock-in. Die Abhängigkeit von einem Anbieter die so groß ist, dass sich die Änderung der aktuellen Situation aufgrund zu hoher Wechselkosten als unwirtschaftlich gestaltet. Ich hatte so eine Diskussion erst kürzlich wieder während eines Panels und möchte hier mal meine grundsätzliche Einstellung zum Thema Vendor Lock-in schildern. Denn meiner Ansicht nach ist ein Lock-in zwangsläufig nichts Schlechtes. Eigentlich lieben wir ihn. Uns ist es meistens nur nicht bewusst. Darüber hinaus leben wir seit Jahrzehnten und jeder von uns sogar tagtäglich damit. Ein Lock-in ist nicht zu umgehen, er ist immer vorhanden!

Der tagtägliche Lock-in

Ein gutes Beispiel ist IKEA. Unsere Wohnung besteht bis auf die Küche aus Möbeln von IKEA. Warum? Weil es gut aussieht, perfekt zusammenpasst UND Möbel anderer Anbieter sich damit schwer kombinieren lassen. Es ist der perfekte Lock-in. Und? Wir finden es toll, weil es den Zweck, aber vor allem unsere Anforderungen erfüllt. Analog zur IT bedeutet es, dass sich Unternehmen bewusst auf einen vermeintlichen Lock-in mit SAP, Microsoft, Oracle und anderen Anbietern einlassen, weil sie ihn benötigen und weil die genannten Anbieter die Anforderungen weitestgehend erfüllen. Man überlege sich nur mal, wie viele Unternehmen sich SAP angepasst haben und nicht anders herum. Weil es zunächst möglicherweise keine Alternativen gab und weil SAP die gewünschten Funktionen für das tagtägliche Geschäft erfüllte.

Das Paradebeispiel für einen Lock-in ist das iPhone/ iPad. Und? Richtig, alle lieben ihn! Weil das iPhone den eigenen Coolnessfaktor “anhebt” und auch noch die Funktionen mitbringt die so viele benötigen, auch wenn sie es vorher nicht einmal wussten. Bis auf den Coolnessfaktor gilt dasselbe für Android. Man möge nun argumentieren, dass Android Open-Source sei und die Freiheit damit schließlich größer ist. Das stimmt auf der einen Seite. Und für die Einzelperson mag sich der Aufwand für einen Wechsel relativ in Grenzen halten. Aus der Sicht eines Unternehmens sieht es aber schon wieder ganz anders aus. Hier ist der Lock-in vergleichbar mit einem iPhone/ iPad, nur im Google Universum.

Kein Vendor Lock-in ist reines Marketing-Versprechen

Ähnlich verhält es sich in der Cloud und hier speziell bei OpenStack. Rackspace ist der Lautsprecher der OpenStack Gemeinde. Der Anbieter argumentiert, dass man von einem Public Cloud Anbieter der auf OpenStack setzt, besser in die eigene Private Cloud Infrastruktur zurückkommt. Und liefert natürlich gleich eine eigene OpenStack Private Cloud Distribution mit. Am Ende verdient Rackspace durch Beratung und weitere Dienstleistungen daran. Rackspace Argument ist richtig, aber eher auf der Marketingebene zu verstehen. Denn auch ein Anbieter wie Microsoft bietet mit seinem Windows Server 2012 die Möglichkeit von Azure zurück in die eigene Infrastruktur. Und auch von den Amazon Web Services (AWS) kann man sich befreien, wenn man eine eigene Eucalyptus Cloud besitzt. Zwar bildet Eucalyptus bei weitem noch nicht alle Services von AWS ab, aber das wird im Laufe der Zeit passieren. Ich bin darüber hinaus weiterhin davon überzeugt, dass Amazon Eucalyptus früher oder später kaufen wird.

Also, auch bei OpenStack begibt man sich in einen Lock-in. Zwar wird hier von offenen Standards und APIs gesprochen. Aber im Endeffekt bleibt man damit auch nur im OpenStack Ökosystem gefangen. Das bedeutet, dass man bequem zu einem anderen Anbieter wechseln kann der OpenStack unterstützt. Das Thema Openness wird hier aber eher als Marketingmittel genutzt. Schließlich handelt es sich bei OpenStack und allen anderen kommerziellen Open-Source Vereinigungen um keine Spaßveranstaltungen. Da geht es um knallhartes Business. OpenStack vereinfacht es am Ende nur, zwischen den verschiedenen Anbietern zu wechseln die ebenfalls auf OpenStack setzen. Da aber alle Anbieter quasi auf dieselbe Technologie aufsetzen und sich nur durch Mehrwert-Dienstleistungen abheben, hat man auch hier den OpenStack Technologie Lock-in. (Ja natürlich ist es möglich, sich unabhängig von einem Anbieter eine eigene OpenStack Cloud aufzubauen. Aber der (finanzielle) Aufwand steht in keinem Verhältnis zum späteren Nutzen.)

Ein Lock-in bietet mehr Vorteile als man denkt

Ein Lock-in bietet zudem einige Vorteile. Er schafft Innovationen, von denen man als vermeintlicher “Sklave” partizipiert. Die Anbieter rollen ständig Verbesserungen aus, von denen wir profitieren. Und, der Lock-in ist gut, solange er genau den Zweck erfüllt, der erwartet wird. Wenn die Lösung die Anforderungen erfüllt ist alles super! Als Unternehmen lässt man sich nach der Entscheidung für einen Anbieter zudem bewusst darauf ein. On-Premise hat man sich seit Jahren auf einen Lock-in eingelassen. Sicherlich ist man mit der einen oder anderen Funktion nicht ganz einverstanden, aber im Großen und Ganzen ist man glücklich, weil die Probleme gelöst und Anforderungen erfüllt werden. Und, als Unternehmen nimmt man auch in der Cloud eine nicht unbedeutende Summe finanzieller Mittel in die Hand. Diese Investitionen müssen sich erst einmal rentieren, bevor man wieder über einen Wechsel nachdenkt. Eines sollte man darüber hinaus nicht vergessen. Hat ein anderer Anbieter großes Interesse daran, ein Unternehmen von einem bestehenden Anbieter loszureißen, wird er alles mögliche in Bewegung setzen, um diesen Weg zu ermöglichen. Bevor man sich also zu viele Gedanken über einen Lock-in macht, sollte man lieber zunächst schauen, wie zukunftssicher die Services und der Cloud-Anbieter selbst sind und das in eine mögliche Exit-Strategie mit einbeziehen.

Fazit: Wir leben ständig mit einem Lock-in, der sich niemals vollständig umgehen und maximal sehr gering halten lässt. Der eine Lock-in ist etwas flexibler als der andere, aber die Entscheidung dafür bleibt. Nicht abzustreiten bleibt, wir lieben ihn, den Lock-in!

Categories
Analysis

Cloud-Desktop: The browser becomes the operating system

The variety of software-as-a-service applications and other cloud services is growing steadily. Next to a difficult overview this leads to a higher complexity. One trend are cloud marketplaces that categorize a catalog of different services and thus giving an overall portfolio. What these marketplaces currently still missing is the integration of existing services and applications. This means that working on a common database is not possible, which is known from many on-premise infrastructures, and results in data and application silos.

State of play

The problem of cloud data silos is not just in cloud marketplaces. There are also advertisements for ways of integrating e.g. a CRM SaaS solution applied with an Office suite. In practice, the implementation is achieved modest. Somehow, the systems are indeed connected. In the end one works on different systems, with separate data and must also register separately for both.

Today, the cloud lacks with the integration of disparate services to work on a common data base.

Integration is imperative

Speaking about integration we mean interfaces and data. Some time ago I had suggested that cloud computing for business can give a chance to clean up their historically grown silos. Using the cloud, for companies with isolated solutions it is now easier to replace a single system from that island solution against a cloud service to successively obtain a fully integrated (total) system of multiple cloud services. The practice at this point is not yet so far, but there are initial efforts to change this. And this is essential in order to exploit the variety of different cloud services. A crucial point is the access of the respective cloud services on a common database. This means that every application saves their data continuously in a quasi central store and also call it from there again.

The integration layer inevitably need not a central and persistent data base. One another possibility is to load the data in real time from the integrated systems. These are then processed and displayed on a single interface. Thus, for example, an arbitrary cloud storage is involved, on which the data (pictures, videos, etc.) is stored. However, this means that all cloud services that want to be part of this ecosystem need to open their APIs to the outside in order to save the data and load it back.

The browser becomes the operating system

Irrespective of how the integration is achieved in detail. The browser becomes the “one face to the customer“, the central interface, when the user accesses the Internet. I recently described Desktop-as-a-Service (DaaS). But they are only an intermediate step to the actual final state. Indeed DaaS provide full-fledged working environments including classic applications in the cloud. However, the DaaS normally runs in the browser. That means, one first starts his computer, then the browser to start another operating system again. Would an enterprise thus rely on software-as-a-service solutions and DaaS, it again incurs the data and application silos.

The aim is therefore to develop a sort of “uber-cloud”, which is accessed via single sign-on to all services in the cloud into a single interface, who want to be the part of the whole. This is not a new concept and has already been applied. But only on a very proprietary basis with services from a single company. By integrating external services, this approach has failed so far.

These “uber-cloud” can be either a public cloud service or stand by as a private solution. The private solution would have the advantage that IT departments use them as a service broker or as a service portal including application firewall for the employees and get a little control over business applications.

That scenario would mean that an employee logs in at the “uber-cloud” and sees the for him relevant business applications. Based on the application at the “uber-cloud” he is directly signed in to other applications.

The “uber-cloud” should be built like a plugin system, with that each company can put a personal productivity cloud together for their purposes. With the plug-in system different apps/ services can be integrated if the API allows it. Either the data is presented in a single interface. So the data is loaded at runtime and restored after changes or the respective services are organized into “tabs”. It is only important that the data are in a kind of centralized access. Thus, for example, everyone could use any cloud storage as this will only be docked. Where the data is determined the company decide itself.

The browser becomes the operating system. However, it still needs the proper and independent platforms to be implemented.

Categories
Comment

How future-proof is the Google cloud portfolio?

Google is known for “just” throw a new service on the market. That’s their corporate culture. It promotes creativity within the company and ensures innovation. But at the end of the day also Google must be clean up the playground. This resulted in numerous closures of famous and lesser-known services in the recent past. Latest victim is the popular Google Reader. It will be shut down at 1th of July 2013. This naturally raises the question of how vulnerable Google’s cloud services are for a portfolio adjustment. At least the finger on the close button seems to fit very loosely.

Longevity vs. popularity

Google scrubs its Google Reader as its popularity has fallen sharply in the past, Google said. That Google is apparently not quite right here, shows a recent petition against its closure. After all, 20,000+ subscribed against its closing.

Google sometimes gives me the impression that it is like a big kid. They find many things at once exciting (20 percent rule), play with it, investing time and then loses interest and pleasure, when the playmates apparently no longer want to play with it. The concentration phase is only with a few products really high. (From a entrepreneurial point of view correct.)

Companies do not like that

Google is currently making great efforts to broadly make it in the business environment. Regarding current providers such as Microsoft and IBM no easy task. Google’s trump card is that they are born in the cloud and know the rules inside out. Finally, they almost self-developed them.

Nevertheless, the question is permissible. Why should a business use Google cloud services, such as Google Apps or the Google Cloud Platform, if services that are apparently not used sufficiently well, to be suddenly closed? Even if Google has monetized above named cloud solutions now, this question retains its place. Because by the monetization of individual service suddenly gets a new KPI, the revenue!

Google may assume that enterprises will not be thrilled if they suddenly get an e-mail that the service they are using will be closed due to lower attractiveness and revenue figures in three months.

For enterprises, this type of product management is not attractive and Google must learn that enterprises need to be treated differently from private users. Even if the consumerization progresses.

Clean up the portfolio is good, but…

No question, it makes sense to clean up the portfolio steadily. It is also recommended for many other providers. However, these seem to act in the interests of their customers and offer their products and services on a long-term roadmap. However, it seems that the finger at the “service close button” at Google sits relatively loose.

I do not think companies will come together for a petition against the closure of Google services. Indeed, you always hear about “too big to fail”, but Google is not as big as all that.

Categories
Kommentar

Wie zukunftssicher ist das Google Cloud Portfolio?

Google ist bekannt dafür, “mal eben” einen neuen Service auf den Markt zu schmeißen. Dafür steht die Unternehmenskultur. Sie fördert die Kreativität innerhalb des Unternehmens und sorgt für Innovationen. Am Ende des Tages muss aber auch bei Google der Spielplatz aufgeräumt werden. Das führte in der jüngsten Vergangenheit zu unzähligen Schließungen bekannter und weniger bekannter Services. Neuestes populäres Opfer ist der Google Reader. Dieser soll nun zum 01. Juli 2013 eingestellt werden. Da stellt sich natürlich die Frage, wie anfällig Googles Cloud Services für eine Portfolio Bereinigung sind. Der Finger auf dem Schließen-Button scheint zumindest sehr locker zu sitzen.

Langfristigkeit vs. Popularität

Google stampft den Google Reader ein, da dessen Popularität, nach eigenen Angaben, in der Vergangenheit stark eingebrochen ist. Das Google hier scheinbar nicht ganz richtig liegt, zeigt eine aktuelle Petition gegen dessen Schließung. Immerhin haben sich hier in kürzester Zeit 20.000+ dagegen ausgesprochen.

Manchmal erweckt Google bei mir den Eindruck, ein großes Kind zu sein. Es findet viele Dinge auf einmal spannend (20 Prozent Regel), spielt damit, investiert Zeit und verliert dann das Interesse und die Lust, wenn die Spielkameraden scheinbar auch nicht mehr damit spielen möchten. Die Konzentrationsphase ist nur bei einigen wenigen Produkten wirklich hoch. (Unternehmerisch natürlich richtig.)

Unternehmen sehen das nicht gerne

Google unternimmt derzeit große Anstrengungen sich im Unternehmensumfeld breit zu machen. Hinsichtlich bestehender Anbieter wie Microsoft oder IBM keine leichte Aufgabe. Googles Trumpfkarte ist, dass sie in der Cloud geboren sind und die Regeln aus dem Effeff kennen. Schließlich haben sie diese quasi selbst mit entwickelt.

Dennoch sei die Frage gestattet. Warum soll ein Unternehmen auf Google Cloud Services, wie Google Apps oder die Google Cloud Platform setzen, wenn Services, die scheinbar nicht ausreichend gut genutzt werden, plötzlich geschlossen werden? Auch wenn Google die genannten Cloud Lösungen mittlerweile monetarisiert hat, diese Frage behält ihre Berechtigung. Denn durch die Monetarisierung bekommt der einzelne Service plötzlich eine neue KPI, den Umsatz!

Google darf davon ausgehen, dass Unternehmen nicht davon begeistert sein werden, wenn sie plötzlich eine E-Mail bekommen, dass der von ihnen genutzte Service auf Grund sinkender Attraktivität und Umsatzzahlen in drei Monaten geschlossen wird.

Für Unternehmen ist diese Art des Produktmanagements nicht attraktiv und Google muss lernen, dass Unternehmen anders behandelt werden müssen als Privatnutzer. Auch wenn die Consumerization weiter fortschreitet.

Das Portfolio bereinigen ist gut, aber…

Keine Frage, es ist sinnvoll sein Portfolio stetig zu säubern. Das ist auch vielen anderen Anbietern zu empfehlen. Allerdings scheinen diese im Sinne ihrer Kunden zu handeln und bieten für ihre Produkte und Services eine langfristige Roadmap an. Hingegen scheint der Finger auf dem “Service Schließen-Button” bei Google relativ locker zu sitzen.

Ich glaube kaum, dass Unternehmen zu einer Petition gegen die Schließung eines Google Services zusammenkommen werden. Zwar hört man immer wieder gerne von “Too big to fail”, aber so groß ist Google dann auch wieder nicht.

Categories
Analysen

Cloud-Desktop: Der Browser wird das Betriebssystem

Die Vielzahl unterschiedlicher Software-as-a-Service Applikationen und weiterer Cloud-Services nimmt stetig zu. Das führt neben einem schwierigen Überblick ebenfalls zu einer höheren Komplexität. Ein Trend sind Cloud Marketplaces, die einen Katalog verschiedener Services kategorisieren und damit ein Gesamtportfolio ergeben. Was diesen Marketplaces derzeit jedoch noch fehlt, ist die Integration der vorhanden Services und Applikationen. Das führt dazu, dass nicht auf einer gemeinsamen Datenbasis gearbeitet wird und wie aus vielen on-Premise Infrastrukturen bekannt, Daten- und Applikationssilos entstehen.

Stand der Dinge

Die Problematik der Cloud Datensilos besteht nicht nur in den Cloud Marketplaces. So werden auch Integrationsmöglichkeiten von z.B. einer CRM SaaS Lösung mit einer Office Suite beworben. In der Praxis ist die Umsetzung jedoch eher bescheiden gelöst. Irgendwie sind die Systeme zwar verbunden. Im Endeffekt arbeitet man aber auf unterschiedlichen Systemen, auf getrennten Daten und muss sich auch bei beiden separat anmelden.

Es fehlt der Cloud derzeit also die Integration unterschiedlicher und voneinander unabhängiger Services für die Arbeit auf einer gemeinsamen Datenbasis.

Integration ist zwingend erforderlich

Spricht man von Integration meint man Schnittstellen und Daten. Ich hatte vor längerer Zeit mal angedeutet, dass Cloud Computing für Unternehmen die Chance bedeuten kann, mit ihren historisch gewachsenen Insellösungen aufzuräumen. Unternehmen mit Insellösungen haben es durch die Cloud nun einfacher ein Einzelsystem dieser Insellösung gegen einen Cloud Service auszutauschen, um darüber sukzessive ein vollständig integriertes (Gesamt)-System von mehreren Cloud Services zu erhalten. Die Praxis ist an dieser Stelle zwar noch nicht so weit, es gibt aber erste Bestrebungen dieses zu ändern. Und das ist unumgänglich, um die Vielfalt unterschiedlicher Cloud Services zu nutzen. Ein entscheidender Punkt hierbei ist der Zugriff der jeweiligen Cloud Services auf einen gemeinsamen Datenbestand. Das bedeutet, dass jede Anwendung in einen quasi zentralen Speicher ihre Daten ständig ablegt und von dort auch wieder aufrufen muss.

Für den Integrationslayer ist zwangsläufig aber keine zentrale und persistente Datenbasis erforderlich. Eine Möglichkeit besteht auch darin, die Daten in Echtzeit aus den integrierten Systemen zu laden. Diese werden anschließend aufbereitet und auf einer einheitlichen Oberfläche dargestellt. So kann zum Beispiel auch ein beliebiger Cloud-Storage eingebunden werden, auf dem Daten (Bilder, Videos, usw.) abgelegt sind. Das bedeutet jedoch, dass alle Cloud Services, die Teil dieses Ökosystems werden wollen ihre APIs nach Außen öffnen müssen, um die Daten laden und zurückspeichern zu können.

Der Browser wird das Betriebssystem

Unabhängig davon wie die Integration im Einzelnen gelöst wird. Der Browser wird das “one face to the customer“, also zum zentralen Interface, wenn der Benutzer auf das Internet zugreift. Die von mir vor kurzem beschriebenen Desktop-as-a-Services (DaaS) sind dabei nur ein Zwischenschritt zum eigentlichen Endzustand. Zwar stellen DaaS vollwertige Arbeitsumgebungen inkl. klassischen Applikationen über die Cloud bereit. Jedoch läuft der DaaS normalerweise im Browser. Das bedeutet, man startet zunächst seinen Rechner, dann den Browser um erneut ein Betriebssystem zu starten. Würde ein Unternehmen somit auf Software-as-a-Service Lösungen als auch DaaS setzen, enstehen wieder die Daten- und Applikationssilos.

Das Ziel besteht daher in der Entwicklung einer Art “Über Cloud”, über die per Single Sign-On auf sämtliche Services in der Cloud – die Teil des Ganzen sein möchten – unter einer einheitlichen Oberfläche zugegriffen wird. Das ist wohlgemerkt kein neues Konzept und wird bereits erfolgreich umgesetzt. Jedoch nur auf einer sehr proprietären Basis mit Services von einem einzelnen Unternehmen. Sollen hier externe Services eingebunden werden, scheitert dieser Ansatz bisher.

Diese “Über Cloud” kann entweder als Public Cloud Service oder als private Lösung bereitstehen. Die private Lösung hätte den Vorteil, dass die IT-Abteilungen sie wie einen Service-Broker bzw. wie ein Serviceportal inkl. Applikationsfirewall für die Mitarbeiter nutzen können und darüber ein wenig Kontrolle über Business-Applikationen erhalten.

Das Szenario würde bedeuten, dass ein Mitarbeiter sich an der “Über Cloud” anmeldet und alle für ihn relevanten Business-Anwendungen sieht. Anhand der Anmeldung an der “Über Cloud” ist er direkt an alle anderen Anwendungen angemeldet.

Die “Über Cloud” sollte dabei wie ein Plugin-System aufgebaut werden, mit der sich jedes Unternehmen für seine Zwecke eine ganz persönliche Productivity Cloud zusammenstellen kann. Durch das Plugin-System lassen sich unterschiedliche Apps/ Services einbinden, wenn deren API dies zulässt. Entweder werden die Daten innerhalb einer gemeinsamen Oberfläche dargestellt. Die Daten also zur Laufzeit geladen und nach Veränderungen zurückgespeichert oder die jeweiligen Services in “Tabs” organisiert. Wichtig ist nur, dass die Daten in einer Art zentralen Zugriff stehen. So würde sich bspw. auch jeder beliebige Cloud Storage nutzen, da dieser nur angedockt wird. Wo die Daten liegen bestimmt damit das Unternehmen selbst.

Der Browser wird das Betriebssystem werden, jedoch müssen dafür noch die richtigen und unabhängigen Plattformen geschaffen werden.

Categories
Kommentar

DsiN-Cloud-Scout – Vorsicht: Marktforschung unter der Schirmherrschaft der deutschen Bundesregierung

Im Rahmen der CeBIT 2013 haben SAP, Microsoft, Fraunhofer und die Deutsche Telekom zusammen mit der deutschen Bundesregierung unter “Deutschland sicher im Netz e.V.” den DsiN-Cloud-Scout präsentiert. Grundsätzlich begrüße ich solche Art von Entscheidungshilfen. Vor allem wenn auch der Staat daran interessiert ist sich mit einzubringen. Jedoch handelt es sich bei diesem Cloud-Scout einfach nur um eine großangelegte Marktforschung und das auch noch legitimiert durch die deutsche Bundesregierung und mehr nicht. 14 Fragen sollen potentielle Kunden, wenn auch anonym, die wichtigsten Antworten zum Interesse am Cloud Computing herauslocken und geben am Ende nicht mehr als oberflächliche Hinweise und weiterführende links.

Der DsiN-Cloud-Scout

Auf der Seite von “Deutschland sicher im Netz” wird der Cloud-Scout wie folgt beworben:

DsiN unterstützt vor allem kleine und mittelständische Unternehmen, die IT-Sicherheitsvorteile von Cloud Computing zu nutzen und Schwachstellen zu vermeiden. Mit dem DsiN-Cloud-Scout erfahren Sie in 10-15 Minuten, in welcher Weise Sie Cloud Computing sicher für Ihr Unternehmen nutzen und dadurch sogar die Informationssicherheit in Ihrem Unternehmen verbessern können.

Die Fragen im DsiN-Cloud-Scout führen Sie schrittweise und mit einem Augenmerk auf Ihre Unternehmenssituation an das Thema Cloud und Sicherheit heran. Im abschließenden Ergebnisbericht (PDF) bekommen Sie auf Sie zugeschnittene Informationen, die mehr Klarheit in das Thema IT- und Datensicherheit bringen werden und Sie bei der richtigen Wahl von Cloud-Diensten und Cloud-Anbietern unterstützen sollen.

Der Fragebogen dient nur als erste Orientierung und ersetzt keine individuelle Sicherheitsanalyse. Bevor geschäftskritische Informationen oder Anwendungen in die „Cloud“ ausgelagert werden, empfiehlt es sich, eine Cloud-Strategie unter Einbezug einer solchen Sicherheitsanalyse festzulegen. Dazu werden zusätzlich Links zu verlässlichen Quellen zur Verfügung gestellt.

Die 14 Fragen

  • 1. Wie viele Mitarbeiter arbeiten in Ihrem Unternehmen?
  • 2. Wie schätzen Sie Ihr Cloud-Wissen ein?
  • 3. In welcher Branche ist Ihr Unternehmen tätig?
  • 4. Wie entwickelt sich Ihr Unternehmen?
  • 5. In welcher Form wünschen Sie sich anbieterneutrale Unterstützung zum Thema Cloud Computing und Sicherheit?
  • 6. Welche der Aussagen zur Verfügbarkeit passt am besten auf Ihr Unternehmen?
  • 7. Welche Erwartungen und Vorteile verbinden Sie mit Cloud Computing?
  • 8. Welche Hürden sehen Sie für Ihr Unternehmen beim Einstieg in Cloud Computing?
  • 9. Welche sind aktuell Ihre hauptsächlichen Sicherheitsbedenken bei Cloud Computing?
  • 10. Welche der genannten IT-Sicherheitsmaßnahmen fehlen in Ihrem Unternehmen?
  • 11. Welche Anwendungen könnten Sie sich vorstellen, online über die Cloud zu beziehen statt auf lokal installierten Systemen?
  • 12. In welcher Form und von wo greifen die Anwender auf Daten und Anwendungen im Unternehmen zu?
  • 13. Besitzt Ihr Unternehmen einen schnellen Internetzugang?
  • 14. Über wen würden Sie eine Cloud-Lösung beziehen?

Verspricht viel bringt nichts

Ein Blick auf die 14 Fragen lässt schnell daraus schließen, dass es sich bei dem Cloud-Scout um ein reines Mittel zur Marktforschung handelt. Was interessieren Fragen über die Größe des Unternehmens, der Branche oder der Entwicklung des Unternehmens. Schaut man sich zudem alle Multiple Choice Antworten im Detail mal genauer an, ist schon sehr gut zu erkennen, wer wo Interesse an welchen Informationen hat. Zwar sind die Ratschläge, die man am Ende bekommt, fachlich korrekt. Dennoch ist der gesamte Cloud-Scout nicht nur qualitativ sondern ebenfalls quantitativ ungenügend! Mit 14 allgemeinen Fragen ist es nicht einmal ansatzweise Möglich den Bedarf oder eine mögliche Cloud-Strategie zu erahnen. Ja, es wird auf der Seite zu Beginn darauf hingewiesen, dass es oberflächlich ist. Aber in dem individuellen Ergebnisbericht einfach nur kurz etwas anzureißen und auf externe Quellen zu verlinken, die nur noch mehr komplizierte Informationen liefern, ist wirklich schwach.

Ich habe den Cloud-Scout natürlich gemacht. Wie eine Auswertung am Ende ausschauen könnte gibt es hier zum DOWNLOAD.

Fazit – Vorsicht: Marktforschung

Zusammenfassend lässt sich sagen, dass es sich hierbei weniger um ein Informationsangebot sondern viel mehr um den schlechten und versteckten Versucht handelt, eine großangelegte Marktforschung zu betreiben. Es werden 14 sehr allgemeine Fragen gestellt, zu denen sehr allgemeine Multiple Choice Antworten angeboten werden. Am Ende liefert der Cloud-Scout wiederum sehr allgemeine Ratschläge und verweist auf weitere externe Quellen, die dem Unternehmen mehr komplexe Informationen liefern. Es wird in keinster Weise der Versuch unternommen, den Cloud-Scout Nutzer näher an das Thema Cloud Computing heranzuführen oder einen Überblick zu verschaffen.

Ich empfehle daher lieber:

Ja, die sind beide von mir! Aber sie sind wirklich unabhängig, kostenlos und man gibt keine Daten von sich selbst Preis, von denen ich am Ende in irgendeiner Form profitiere.