Categories
Kommentar

Cloud PR Desaster. Googles Unbeschwertheit zerstört Vertrauen.

Es ist üblich, dass in Unternehmen nur bestimmte “Spokesperson” auserwählt werden, die öffentlich über das Unternehmen sprechen dürfen. Tragisch wird es, wenn diese Auserwählten Aussagen treffen, die vielerseits zu Fragezeichen und Verunsicherung führen. Google ist nun schon zum zweiten Mal innerhalb kürzester Zeit in so ein Fettnäpfchen getreten. Nachdem Cloud Platform Manager Greg DeMichillie die langfristige Verfügbarkeit der Google Compute Engine merkwürdig kommentiert hatte, lies es sich Google CIO Ben Fried nicht nehmen über die Google-eigene Nutzung der Cloud zu äußern.

Wir sind die Guten – Die anderen sind böse

Im Interview mit AllThingsD erklärte Google CIO Ben Fried den Umgang von Google mit dem Thema Bring your own Device und der Nutzung externer Cloud Services. Wie jeder IT-Verantwortliche mittlerweile mitbekommen haben mag, ist Google seit geraumer Zeit dabei mit aller Gewalt seine Google Apps for Business Lösung in den Unternehmen zu vermarkten. Umso erstaunlicher ist die Aussage von Fried in Bezug auf die Nutzung von Dropbox, die Google für interne Zwecke strikt verbietet.

The important thing to understand about Dropbox,” […] “is that when your users use it in a corporate context, your corporate data is being held in someone else’s data center.

Genau, wenn ich meine Daten nicht auf den eigenen Servern speichere, sondern bei Dropbox, dann liegen sie wahrscheinlich in einem fremden Rechenzentrum. In Dropbox Fall um genauer zu sein auf Amazon S3. Das gilt aber auch für den Fall, wenn ich meine Daten auf Google Drive, Google Apps oder der Google Cloud Platform ablege. Dann liegen die Daten nämlich bei? Google, genau. Das bringt das Cloud Modell nun einmal mit sich.

Fried hat das natürlich, wie auch schon DeMichillie, alles gar nicht so gemeint und korrigierte sich anschließend per E-Mail via AllThingsD.

Fried says he meant that the real concern about Dropbox and other apps is more around security than storage. “Any third-party cloud providers that our employees use must pass our thorough security review and agree under contract to maintain certain security levels,”

Es ging Fried also um die Sicherheit von Dropbox und anderweitiger Cloud Services, als um den Speicherort.

Google ist ein großes Kind

Ich bin mir langsam nicht mehr sicher was man von Google halten soll. Eines ist aber klar, eine professionelle Unternehmenskommunikation sieht anders aus. Gleiches gilt für den Vertrauensaufbau bei den Unternehmenskunden. Google ist zweifelsohne ein innovatives Unternehmen, wenn nicht sogar das innovativste Unternehmen weltweit. Diese Unbeschwertheit eines Kindes die Google und seine Mitarbeiter benötigt, um immer wieder neue interessante Ideen und Technologien zu entwickeln, ist gleichzeitig die größte Schwachstelle. Es ist genau dieser Grad der Naivität in der Außenkommunikation, der es Google auch in Zukunft schwer machen wird, wenn sich daran nichts grundlegend verändert. Zumindest dann, wenn es darum geht im sensiblen Markt für Unternehmenskunden ein Wort mitzureden. Die großen Player, allen voran Microsoft, VMware, IBM, HP und Oracle wissen was Unternehmen hören müssen, um attraktiv zu erscheinen. Und dazu gehören keinesfalls die Aussagen eines Greg DeMichillie oder Ben Fried.

Noch ein interessantes Kommentar auf Ben Kepes Forbes’ Artikel “Google Shoots Itself In The Foot. Again“.

“[…]Do you really think that Google management really cares about cloud app business or its customer base? Somebody at Google said that they have the capacity they built for themselves and they have the engineering talent so why not sell it. So Brin and Page shoke their heads and they was the last they ever wanted to hear about it. There is nothing exciting about this business, they do not want the responsibilites that come with this client base and they really don’t care. I bet they shut it down.

Categories
Analysen

Wir leben bereits in einer Multi-Cloud getriebenen Welt

Nicht zuletzt das Disaster um Nirvanix hat gezeigt, dass man sich nicht auf einen einzelnen Cloud-Anbieter verlassen. Aber auch ungeachtet der Risikostreuung ist der Einsatz einer Multi-Cloud Strategie ein empfehlenswerter Ansatz, der bereits von vielen heute schon bewusst oder unbewusst praktiziert wird.

Hybrid oder Multi-Cloud?

Was bedeutet genau Multi-Cloud? Oder was ist der Unterschied zu einer Hybrid Cloud? Nun, eine Hybrid Cloud verbindet von ihrer Definition her eine eigene Private Cloud bzw. eine on-Premise IT-Infrastruktur mit einer Public Cloud, um die lokalen Infrastrukturen bei Bedarf mit weiteren Ressourcen zu versorgen. Bei diesen Ressourcen kann es sich um Rechenleistung, Speicherplatz aber auch Services in Form von Software handeln. Wird ein lokales E-Mail System mit einem SaaS CRM-System integriert, kann durchaus von einer Hybrid Cloud gesprochen werden. Eine Hybrid Cloud gilt also nicht nur für IaaS bzw. PaaS Szenarien.

Ein Multi-Cloud Konzept erweitert den Hybrid Cloud Gedanken um die Anzahl der zu verbindenden Clouds. Genauer gesagt kann es sich dabei um n-Clouds handeln die in irgendeiner Form miteinander integriert sind. Dabei werden bspw. Cloud-Infrastrukturen so miteinander verbunden, dass die Applikationen verschiedene Infrastrukturen oder Services parallel oder je nach Auslastung oder aktuellen Preisen nutzen. Auch das parallele oder verteilte Speichern von Daten über mehrere Clouds ist vorstellbar, um die Verfügbarkeit und Redundanz der Daten sicherzustellen. Aktuell wird sehr intensiv über Multi-Cloud im IaaS-Umfeld diskutiert. Siehe dazu auch Ben Kepes’ und Paul Miller’s Mapping Session zum Thema Multi-Cloud sowie Paul’s Sector RoadMap: Multicloud management in 2013.

Was oft vergessen wird ist, dass Multi-Cloud insbesondere im SaaS-Umfeld seine Bedeutung hat. Die Anzahl neuer SaaS-Applikationen wächst täglich und damit auch der Bedarf, diese unterschiedlichen Lösungen miteinander zu integrieren und Daten austauschen zu lassen. Aktuell bewegt sich der Cloud-Markt unkontrolliert auf viele kleine Insellösungen zu, die jede für sich zwar einen Mehrwert bieten, in der Summe jedoch zu vielen kleinen Dateninseln führen. Mit solchen Entwicklungen haben in Unternehmen schon in vor Cloud Zeiten zu kämpfen gehabt und das vergebens.

Risiken streuen

Auch wenn das Cloud-Marketing ständig die Verfügbarkeit und Sicherheit der Daten, Systeme und Applikationen verspricht, liegt die Verantwortung dies sicherzustellen in den eigenen Händen (Das bezieht sich auf eine IaaS Public Cloud). Zwar stellen die Cloud-Anbieter hierfür weitestgehend alle Mittel und Wege zur Verfügung, im IaaS-Bereich muss sich der Kunde aber selbst darum kümmern. Ausfälle wie die der Amazon Web Services oder unvorhergesehene Schließungen wie die von Nirvanix sollten zu mehr Sensibilität bei der Nutzung von Cloud-Services führen. Die Risiken müssen bewusst gestreut werden. Dabei sollten sich nicht alle Eier in einem Nest befinden, sondern strategisch über mehrere verteilt werden.

Best-of-Breed

Die Best-of-Breed Strategie ist der meist verbreitetste Ansatz in IT-Unternehmensarchitekturen. Dabei werden mehrere Branchenlösungen für verschiedene Teilbereiche innerhalb des Unternehmens eingesetzt und miteinander integriert. Die Idee hinter Best-of-Breed besteht darin, die jeweils beste Lösung zu nutzen, die eine All-in-one Lösung in der Regel nicht bieten kann. Man stellt sich also die für seinen Zweck besten Services und Applikationen zusammen.

Verfolgt man diesen Ansatz in der Cloud, befindet man sich direkt in einem Multi-Cloud Szenario, was bedeutet, dass schätzungsweise 90% aller Unternehmen die Cloud-Services nutzen, Multi-Cloud Nutzer sind. Ob die eingesetzten Cloud-Services auch miteinander integriert sind bleibt zu bezweifeln. Was auf der einen Seite empfehlenswert ist, lässt sich auf der anderen Seite in vielen Fällen auch nicht vermeiden. Zwar existieren bereits ein paar gute All-in-one Lösungen am Markt. Dennoch sind die meisten Perlen eigenständig implementiert und müssen mit anderen Lösungen kombiniert werden, z.B. E-Mail und Office/ Collaboration mit CRM und ERP. Das hat von der Risikobetrachtung, insbesondere in der Cloud, seinen Vorteil. Fällt ein Anbieter aus, ist auch nur ein Teil-Service nicht erreichbar und nicht direkt die gesamte Produktivitäts-Umgebung.

Insellösungen vermeiden: Schnittstellen und Integration

Solche Best-of-Breed Ansätze versuchen Cloud-Marktplätze zu schaffen, indem sie einzelne Cloud-Lösungen in unterschiedlichen Kategorien zusammenfassen und Unternehmen damit ein umfangreiches Portfolio verschiedener Lösungen bieten, mit der sich eine Cloud-Produktivitäts-Suite zusammenstellen lässt. Dennoch zeigen, obwohl sehr stark kontrollierte und vermeintlich integrierte Marktplätze an einer entscheidenden Stelle massive Probleme mit der Integration. Es existieren viele einzelne SaaS-Applikationen die nicht zusammenspielen. Das bedeutet, dass keine gemeinsame Datenbasis existiert und das z.B. der E-Mail Service nicht auf die Daten im CRM-Service zugreifen kann und umgekehrt. Damit entstehen wieder, wie bereits oben beschrieben, einzelne Datensilos und Insellösungen innerhalb des Marktplatzes.

Dieses Beispiel zeigt auch die größte Problematik mit einem Multi-Cloud Ansatz. Die Integration der vielen verschiedenen und normalerweise voneinander unabhängig agierenden Cloud-Services und deren Schnittstellen zueinander.

Multi-Cloud ist “The New Normal” in der Cloud

Das Thema Multi-Cloud wird derzeit insbesondere im IaaS-Umfeld stark diskutiert, um das Risiko zu streuen und die Kosten und Leistungen unterschiedlicher Cloud-Infrastrukturen optimal ausnutzen zu können. Aber ebenfalls im SaaS-Umfeld muss das Thema unbedingt eine höhere Bedeutung zugesprochen werden, um Daten- und Insellösungen in Zukunft zu vermeiden, die Integration zu vereinfachen und Unternehmen bei ihrer Adaption ihrer Best-of-Breed Strategie zu unterstützen.

Ungeachtet diesen Erwartungen ist der Multi-Cloud Einsatz bereits Realität, indem Unternehmen mehrere Cloud Lösungen von vielen unterschiedlichen Anbietern einsetzen, auch wenn diese noch nicht (vollständig) miteinander integriert sind.

Categories
Analysis IT-Infrastructure

Fog Computing: Data, Information, Application and Services needs to be delivered more efficient to the enduser

You read it correctly, this is not about CLOUD Computing but FOG Computing. After the cloud is on a good way to be adapted in the broad, new concepts follow to enhance the utilization of scalable and flexible infrastructures, platforms, applications and further services to ensure the faster delivery of data and information to the enduser. This is exactly the core function of fog computing. The fog ensures that cloud services, compute, storage, workloads, applications and big data be provided at any edge of a network (Internet) on a trully distributed way.

What is fog computing?

The fog hast he task to deliver data and workloads closer to the user who is located at the edge of a data connection. In this context it is also spoken about „edge computing“. The fog is organizationally located below the cloud and serves as an optimized transfer medium for services and data within the cloud. The term „fog computing“ was characterized by Cisco as a new paradigm , which should support distributed devices during the wireless data transfer within the Internet of Things. Conceptual fog computing builds upon existing and common technologies like Content Delivery Networks (CDN), but based on cloud technologies it should ensure the delivery of more complex services.

As more and more data must be delivered to an ever-growing number of users, concepts are necessary which enhance the idea of the cloud and empower companies and vendors to provide their content over a widely spread platform to the enduser. Fog computing should help to transport the distributed data closer to the enduser and thus decrease latency and the number of required hops and therefore better support mobile computing and streaming services. Besides the Internet of Things, the rising demand of users to access data at any time, from any place and with any device, is another reason why the idea of fog computing will become increasingly important.

What are use cases of fog computing?

One should not be too confused by this new term. Although fog computing is a new terminology. But looking behind the courtain it quickly becomes apparent that this technology is already used in modern data centers and the cloud. A look at a few use cases illustrates this.

Seamless integration with the cloud and other services

The fog should not replace the cloud. Based on fog services the cloud should be enhanced by isolating the user data which are exclusively located at the edge of a network. From there it should allow administrators to connect analytical applications, security functions and more services directly to the cloud. The infrastructure is still based entirely on the cloud concept, but extends to the edge with fog computing.

Services to set vertical on top of the cloud

Many companies and various services already using the ideas of fog computing by delivering extensive content target-oriented to their customer. This includes among others webshops or provider of media content. A good example for this is Netflix, who is able to reach its numerous globally distributed customers. With the data management in one or two central data centers, the delivery of video-on-demand service would otherwise not be efficiently enough. Fog computing thus allows providing very large amounts of streamed data by delivering the data directly performant into the vicinity of the customer.

Enhanced support for mobile devices

With the steadily growth of mobile devices and data administrators gain more control capabilities where the users are located at any time, from where they login and how they access to the information. Besides a faster velocity for the enduser this leads to a higher level of security and data privacy by data can be controlled at various edges. Moreover fog computing allows a better integration with several cloud services and thus ensures an optimized distribution across multiple data centers.

Setup a tight geographical distribution

Fog computing extends existing cloud services by spanning up an edge network which consist of many distributed endpoints. This tight geographical distributed infrastructure offers advantages for variety of use cases. This includes a faster elicitation and analysis of big data, a better support for location-based services by the entire WAN links can be better bridged as well as the capabilities to evaluate data massively scalable in real time.

Data is closer to the user

The amount of data caused by cloud services require a caching of the data or other services which take care of this subject. This services are located close to the enduser to improve latency and optimize the data access. Instead of storing the data and information centralized in a data center far away from the user the fog ensures the direct proximity of the data to the customer.

Fog computing makes sense

You can think about buzzwords whatever you want. Only if you take a look behind the courtain it’s becoming interesting. Because the more services, data and applications are deployed to the end user, the more the vendors have the task of finding ways to optimize the deployment processes. This means that information needs to be delivered closer to the user, while latency must be reduced in order to be prepared for the Internet of Things. There is no doubt that the consumerization of IT and BYOD will increasing the use and therefore the consumption of bandwidth.

More and more users rely on mobile solutions to run their business and to bring it into balance with the personal live. Increasingly rich content and data are delivered over cloud computing platforms to the edges of the Internet where at the same time are the needs of the users getting bigger and bigger. With the increasing use of data and cloud services fog computing will play a central role and help to reduce the latency and improve the quality for the user. In the future, besides ever larger amounts of data we will also see more services that rely on data and that must be provided more efficient to the user. With fog computing administrators and providers get the capabilities to provide their customers rich content faster and more efficient and especially more economical. This leads to faster access to data, better analysis opportunities for companies and equally to a better experience for the end user.

Primarily Cisco will want to characterize the word fog computing to use it for a large-scale marketing campaign. However, at the latest when the fog generates a similar buzz as the cloud, we will find more and more CDN or other vendors who offer something in this direction as fog provider.

Categories
Kommentar

AWS Activate. Startups. Marktanteile. Noch Fragen?

Startups sind die Grundlage für den Erfolg der Amazon Web Services (AWS). Mit ihnen ist der IaaS-Marktführer groß geworden. Anhand einer offiziellen Initiative baut AWS diesen Zielkundenmarkt weiter aus und wird die restlichen IaaS-Anbieter damit weiter im Regen stehen lassen. Denn von deren Seite, mit Ausnahme von Microsoft und Rackspace, passiert nichts.

AWS Activate

Es ist kein Geheimnis das AWS sich gezielt die Gunst der Startups “erkauft”. Abgesehen von dem attraktiven Service Portfolio haben Gründer, die von Accelerator unterstützt werden, AWS Credits im zweistelligen Bereich erhalten, um ihre Ideen auf der Cloud Infrastruktur zu starten.

Mit AWS Activate hat Amazon nun ein offizielles Startup-Programm gestartet, um als Business-Enabler für Entwickler und Startups zu dienen. Dieses besteht aus dem “Self-Starter Package” und dem “Portfolio Package”.

Das Self-Starter Package richtet sich an Startups, die ihr Glück auf eigene Faust versuchen und beinhaltet das bekannte kostenlose AWS-Angebot, welches jeder Neukunde in Anspruch nehmen kann. Hinzu kommen ein AWS Developer Support für einen Monat, “AWS Technical Professional” Training und ein vergünstigter Zugriff auf Lösungen von SOASTA oder Opscode. Das Portfolio Package ist für Startups die sich in einem Accelerator Programm befinden. Diese erhalten AWS Credits im Wert zwischen 1.000 Dollar und 15.000 Dollar sowie ein Monat bis ein Jahr kostenlosen AWS Business Support. Hinzu kommen “AWS Technical Professional” und “AWS Essentials” Trainings.

Noch Fragen wegen der hohen Marktanteile?

Angesichts dieser Initiative werden die Amazon Web Services auch in Zukunft alleine weiter vorne weglaufen. Mit Ausnahme von Microsoft, Google und Rackspace, positioniert sich nur AWS als Plattform für Nutzer, die dort ihre eigenen Ideen umsetzen können. Alle anderen Anbieter umarmen lieber Unternehmenskunden, die eher zögerlich auf den Cloud Zug aufspringen und bieten bei weitem nicht die Möglichkeiten einer AWS Cloud Infrastruktur. Anstatt das Portfolio auf Cloud-Services auszulegen, wird stattdessen mit Rechenleistung und Speicherplatz versucht auf Kundenfang zu gehen. Dabei hat Infrastruktur aus der Cloud mehr zu bedeuten als nur Infrastruktur.

Categories
Analysen

Nirvanix. Die Hölle auf Erden. Warum ein Multi-Cloud Ansatz zwangsläufig notwendig ist.

Der eine oder andere wird bestimmt davon gehört haben. Nirvanix hat sich selbst ins Jenseits befördert. Der Enterprise Cloud Storage Service, der unter anderem eine große Kooperation mit IBM eingegangen war, hatte am 16. September 2013 plötzlich die Schließung angekündigt und seinen bestehenden Kunden zunächst eine Frist von zwei Wochen eingeräumt, ihre Daten zu migrieren. Der Zeitraum wurde mittlerweile auf den 15. Oktober 2013 verlängert, da die Kunden mehr Zeit für die Migration benötigen. Wie ein Nirvanix Kunde berichtet, hat dieser dort 20 Petabyte an Daten gespeichert.

Das Ende von Nirvanix

Wie aus dem nichts hat der Enterprise Cloud Storage Anbieter Nirvanix am 16. September 2013 sein Ende erklärt. Bis heute ist nicht bekanntgegeben worden, wie es dazu gekommen ist. Gerüchte sagen, dass eine weitere Finanzierungsrunde fehlgeschlagen sei. Weitere Gründe liegen scheinbar am fehlerhaften Management. So hatte das Unternehmen seit 2008 bis heute fünf CEOs. Vergessen sollte man allerdings auch nicht den starken Konkurrenzkampf im Cloud Storage Umfeld. Zum einen haben in den vergangenen Jahren viele Anbieter ihr Glück versucht. Zum anderen senken die beiden Platzhirsche Amazon Web Services mit Amazon S3 und Microsoft mit Azure Storage in regelmäßigen Zyklen die Preise für ihre Services, die ebenfalls Enterprise-fähig sind. Auch hat es für Nirvanix nichts genützt von Gartner als einer der Top Cloud Storage Service Anbieter genannt zu werden.

Besonders brisant ist die Tatsache, dass Nirvanix in 2011 einen fünf Jahres Vertrag mit IBM abgeschlossen hat, um IBMs SmartCloud Enterprise Storage Services um Cloud-basierte Speicherkapazitäten zu erweitern. Wie IBM angekündigt hat, sollen auf Nirvanix gespeicherte Daten auf den IBM SoftLayer Object Storage umgezogen werden. Als IBM Kunde würde ich trotzdem vorsichtig anfragen, wie es um meine gespeicherten Daten steht.

Multi-Cloud: Die Eier müssen über mehrere Nester verteilt werden

Zunächst ein Gruß an die Venture Capital Gemeinde. Wenn es stimmt, dass Nirvanix auf Grund einer fehlgeschlagenen Finanzierungsrunde den Dienst einstellen musste, dann sehen wir, was für eine Verantwortung mittlerweile in deren Händen liegt. Mehr braucht man dazu nicht schreiben.

Wie soll man als Cloud-Nutzer mit so einem Horror-Szenario wie dem von Nirvanix umgehen? Nun, wie man sieht scheint eine gute Kundenbasis und Kooperationen mit globalen Playern kein Garant dafür zu sein, dass ein Service langfristig überlebt. Auch Google spielt derzeit seine Cloud-Strategie auf dem Rücken seiner Kunden aus und trifft keine verbindliche Zusage über das langfristige bestehen seiner Services auf der Google Cloud Platform, wie etwa der Google Compute Engine (GCE). Im Gegenteil, es ist davon auszugehen, dass die GCE nicht lange überleben wird wie andere bekannte Google Services auch.

Backup und Multi-Cloud

Auch wenn der Cloud Storage Anbieter für die Verfügbarkeit der Daten zu sorgen hat, trägt man als Kunde eine Sorgfaltspflicht und die muss darin bestehen, dass man über den Zustand seiner Daten informiert ist und – auch in der Cloud – für Redundanzen und Backups sorgt. Mittlerweile sind Funktionen in den gängigsten Cloud Storage Services integriert, um nahtlose Backups der Daten vorzunehmen und mehrfache Kopien zu erstellen.

Zwar befinden wir uns im Zeitalter der Cloud, dennoch gilt weiterhin: Datensicherung! Man sollte daher sicherstellen, dass ständig ein getestetes(!) und zuverlässiges Backup sowie ein Wiederherstellungsplan existieren. Weiterhin muss ausreichend Bandbreite zur Verfügung stehen, um schnellstmöglich die Daten verschieben zu können. Auch das sollte in regelmäßigen Abständen anhand eines Migration-Audit überprüft werden, um im Fall aller Fälle schnell handeln zu können.

20 Petabyte an Daten mal eben so zu verschieben ist keine leichte Aufgabe. Daher muss man sich über andere Ansätze Gedanken machen. Multi-Cloud ist ein Konzept was in Zukunft immer stärker an Bedeutung gewinnen wird. Dabei werden Daten und Applikationen über mehrere Cloud-Plattformen und Anbieter hinweg (parallel) verteilt. Darüber hatten bereits meine Analysten Kollegen und Freunde Paul Miller und Ben Kepes während ihrer Mapping Session auf der GigaOM Structure in San Francisco diskutiert. Paul hatte im Anschluss daran einen interessanten Sector RoadMap Report zum Thema Multicloud Management geschrieben.

Auch wenn neben Scalr, CliQr, Rightscale und Enstratius bereits einige Management Plattformen für Multi-Cloud existieren, befinden wir uns immer noch in einem sehr frühen Stadium was die Nutzung angeht. schnee von morgen webTV von Nikolai Longolius bspw. setzt primär auf die Amazon Web Services und hat als Fallback Szenario eine native Web-Applikation 1:1 für die Google App Engine entwickelt. Das ist kein Multi-Cloud Ansatz, zeigt aber dessen Bedeutung, um weniger Aufwand für eine Anbieterübergreifende Hochverfügbarkeit und Skalierbarkeit zu erreichen. Wie Pauls Sector Roadmap gut zeigt, ist es insbesondere die Kompatibilität der APIs, der eine große Bedeutung zugesprochen werden muss. Unternehmen werden sich in Zukunft nicht mehr nur auf einen Anbieter verlassen können, sondern ihre Daten und Applikationen über mehrere Anbieter verteilen, um eine Best-of-Breed-Strategie zu fahren und das Risiko gezielt zu streuen.

Das sollte auch in Erwägung gezogen werden, wenn man einfach “nur” Daten in der Cloud speichert. Das goldene Nest ist die Summe aus mehreren verteilten.

Categories
Events

Veranstaltungstipp: CSC Cloud Strategie Forum

Am 22.10.13 lädt CSC zu einem kostenlosen Cloud Strategie Forum nach München ein. Nach einem Impulsvortrag von CSCs Mark Masterson werde ich eine dynamisch gehaltene Diskussionsrunde führen und zeigen, was die Cloud für Unternehmen bereithält, welche Herausforderungen auf dem Weg zu einer eigenen Cloud Strategie gemeistert werden müssen und was keinesfalls missachtet werden sollte.

Agenda

  • Impulsvortrag von Mark Masterson, “Resident Troublemaker”.
  • Dynamische Diskussionsrunde geführt von René Büst, Cloud Analyst, Top 50 Cloud Computing Blogger weltweit.
  • Gemeinsames Abendessen mit vielen Gelegenheiten zum Networking.

Inhalte des Vortrags zur Diskussionsrunde

  • Use Case Identifikation und Potentiale von Cloud Computing.
  • Anforderungen die zu beachten sind.
  • Cloud Enterprise Architecture – Überblick
  • Cloud Governance – Überblick
  • Cloud Skills – Überblick
  • Marktüberblick IaaS

Weitere Informationen und die Anmeldung

  • Wann: 22. Oktober 2013, 16:00 Uhr
  • Wo: Mandarin Oriental Hotel, Neuturmstrasse 1, 80331 München

Die kostenlose Anmeldung ist unter CSC Cloud Strategie Forum zu finden.

Categories
Kommentar

Verizon Cloud: Rechenleistung und Speicherplatz. Langweilig. Der Nächste Bitte!

Es sind diese Momente in denen man eine Pressemitteilung ließt und denkt: “Wow das könnte spannend werden.” Es sind meistens aber auch genau diese Pressemitteilungen die man nach dem zweiten Absatz gar nicht weiterlesen möchte. Ach übrigens, Verizon hat die Enterprise Cloud neu erfunden und möchte damit gegen die Amazon Web Services antreten. Ach ja, und Verizon bietet Rechenleistung und Speicherplatz an. Das sind sehr vielversprechende Services, um im IaaS Markt erfolgreich bestehen zu können und den Markt damit auf den Kopf zu stellen. Wo doch 100% aller IaaS Anbieter exakt diese Services im Portfolio haben und sich nicht weiter voneinander differenzieren.

Die Verizon Cloud

Ein Auszug aus der Pressemitteilung:

„Verizon hat die Enterprise Cloud erfunden – jetzt erfinden wir sie neu“, sagt John Stratton, President of Verizon Enterprise Solutions. „Dies ist die Revolution für Cloud Services, auf die Unternehmen schon lange gewartet haben. Wir haben das Feedback unserer Enterprise-Kunden weltweit eingeholt und darauf basierend haben wir eine komplett neue Cloud-Plattform gebaut, um unseren Kunden genau die Funktionen zu bieten, die sie benötigen.“

Und dann dies:

“Die Verizon Cloud besteht aus zwei Hauptkomponenten: Verizon Cloud Compute und Verizon Cloud Storage. Verizon Cloud Compute ist die IaaS-Plattform, Verizon Cloud Storage ist ein objektbasierter Storage-Service.”

Verzion bietet ernsthaft Rechenleistung und Speicherplatz an. Etwas das 100% aller IaaS Anbieter auf dem Markt im Portfolio haben und verkauft dies als REVOLUTION? Nicht wirklich, oder?

ProfitBricks und CloudSigma lassen grüßen

Verizon preist weiterhin die Granularität ihrer Infrastruktur Ressourcen an:

“Bisher verfügten Services über voreingestellte Konfigurationen für Größe (z.B. klein, mittel, groß) und Leistung und nur wenig Flexibilität bei virtuellen Maschinen sowie der Netzwerkleistung und der Storage-Konfiguration. Kein anderes Cloud-Angebot bietet dieses Maß an Kontrolle.

Falsch! ProfitBricks und CloudSigma bieten von Beginn an dieses Maß an Granularität und Flexibilität. Selbst diese Eigenschaft der Verizon Cloud ist keine Revolution.

Was zwar ebenfalls keine Revolution darstellt, aber aktuelle VMware Nutzer ansprechen könnte ist die Kompatibilität zum VMware Hypervisor. Ein vielversprechender Markt, da weiterhin viele Unternehmen noch VMware Hypervisor einsetzen. Wobei auch VMware mit seinem eigenen vCloud Hybrid Service dort ein Wort mitreden wird.

Mit den falschen Waffen in den Kampf ziehen

Es ist erstaunlich, wie viele Anbieter versuchen mit neuen Angeboten gegen die Amazon Web Services zu kämpfen und anstatt einer Atombombe lediglich ein stumpfes Messer mitbringen. Zumal Verizon die Lösung von Grund auf neu entwickelt hat.

Mir stellt sich langsam die Frage, wann wir das erste Nirvanix innerhalb der IaaS-Anbieter sehen die lediglich Rechenleistung und Speicherplatz anbieten. Schließlich positionieren sich immer mehr Kandidaten.

Der nächste Bitte! (Viva la Revolution.)

Categories
Kommentar

Reaktion der Google PR Agentur auf die langfristige Verfügbarkeit der Google Compute Engine

Nach meinem Artikel, in dem ich das langfristige Bestehen der Google Compute Engine (GCE) in Frage gestellt habe, hat sich Googles PR Agentur bei mir gemeldet, um die Beweggründe zu verstehen. Ich habe in dem Artikel auf ein GigaOM Interview von Googles Cloud Platform Manager Greg DeMichillie reagiert, der keine Garantie für die langfristige Verfügbarkeit der GCE geben würde.

Hintergrund

Google Cloud Platform Manager Greg DeMichillie ging in einem Interview mit GigaOM auf die Frage der langfristigen Verfügbarkeit von Google Cloud Services ein und antwortete dabei für mich unerwartet und nicht im Sinne des Kunden.

„DeMichillie wouldn’t guarantee services like Compute Engine will be around for the long haul, but he did try to reassure developers by explaining that Google’s cloud services are really just externalized versions of what it uses internally. ”There’s no scenario in which Google suddenly decides, ‘Gee, I don’t think we need to think about storage anymore or computing anymore.“

Zwar relativiert DeMichillie am Ende, dass Google seine Cloud Services wohl nicht in einer Kamikaze-Aktion schließt. Dennoch handelt es sich um eine verwirrende Aussage, über einen Service, welcher erst seit relativ kurzer am Markt ist.

Die Antwort von Googles PR Agentur

Ich möchte vorab klarstellen, dass es kein Anruf war, um mich zu beeinflussen, sondern sich zu informieren und zu verstehen, wie es zu dem Artikel kam. Googles PR Agentur sagte, dass DeMichillie anscheinend falsch verstanden wurde und mein Artikel nur diese negative Aussage herausstellt und die positiven Themen vernachlässigt hat. Google würde derzeit massiv in Infrastruktur Ressourcen investieren und es keine Anzeichen und Gründe dafür gibt, dass gerade die Google Compute Engine eingestellt wird.

Meine Stellungnahme

Es ging und geht niemals darum Google (oder irgendeinen anderen Anbieter) in ein schlechtes Licht zu stellen. Das habe ich auch der PR Agentur gesagt. Aber am Ende des Tages muss der Nutzer beraten und gleichermaßen geschützt werden. Außerdem berate ich als Analyst und Advisor Unternehmen, die sich auf mein Urteil verlassen. Daher muss ich auf solche Aussagen, gerade wenn Sie direkt von einem Mitarbeiter eines Anbieters stammen, reagieren und diese in meine Entscheidungsmatrix mit aufnehmen. Was soll ich machen, wenn ich einem Kunden die Nutzung der GCE empfehle, da dies technisch und von den Anforderungen her passt, Google anschließend aber ankündigt den Service zu schließen? Aus diesem Grund reagiere ich auf solche Themen äußerst sensibel. Außerdem hat sich Google in den letzten Monaten und Jahren nicht mit Ruhm bekleckert wenn es darum geht, sein Service-Portfolio aufrechtzuerhalten. Das Ende des Google Reader hat bei den Nutzern mehr negative Reaktionen hervorgerufen als der aktuelle NSA-Skandal. Dabei handelt es sich wohlgemerkt um einen kostenlosen Service für Endkunden. Bei der Google Compute Engine sprechen wir allerdings von einem Angebot das überwiegend Unternehmen anspricht. Es geht für die Unternehmen also um viel Kapital das sie in die Hand nehmen, um ihre Workloads auf die GCE zu bringen. Wird der Service nun plötzlich geschlossen, ensteht je nach Unternehmen ein nicht zu beziffernder wirtschaftlicher Schaden, um die Daten und Applikation zu migrieren. Das sollte Google bei seinen Entscheidungen bedenken. Auch wenn es sich in diesem Fall nur um eine Aussage in einem Interview gehandelt hat. Vertrauen in das Cloud-Portfolio schafft sie nicht und passt zudem sehr gut zu den Erfahrungen der jüngsten Vergangenheit, wenn Google den Besen auspackt.

Categories
Kommentar

"Amazon ist nur ein Webshop!" – "Europa braucht größere Eier!"

Ich hatte in diesem Jahr die Ehre die CEO Couch des Open-Xchange Summit 2013 zu moderieren. Dabei handelt es sich um ein Format, bei der Top CEOs mit provokanten Fragen konfrontiert werden und zu einem bestimmten Thema auf den Punkt antworten. Zum meinen Gästen gehörten Hermann-Josef Lamberti (EADS), Dr. Marten Schönherr (Deutsche Telekom Laboratories), Herbert Bockers (Dimension Data) und Rafael Laguna (Open-Xchange). Das Hauptthema in diesem Jahr war Cloud Computing und wie sich deutsche und europäische Anbieter gegen die vermeintlich übermächtige Konkurrenz aus den USA behaupten sollten. Ich habe zwei Aussagen herausgegriffen die während der CEO Couch genannt wurden, die ich kritisch diskutieren möchte.

Amazon ist nur ein Webshop!

Eine Aussage hat mir Sorgenfalten bereitet. Denn zum einen hatte bereits VMware damit unterstrichen, dass sie ihren vermeintlich größten Mitbewerber scheinbar unterschätzen, zum anderen ist sie absolut falsch. Um Amazon heute immer noch als einen Webshop zu bezeichnen muss man seine Augen sehr weit schließen und in etwa 90% des Unternehmens ausblenden. Amazon ist heute mehr als ein Webshop. Amazon ist ein Technologie Unternehmen bzw. Anbieter. Rafael hat dies während seiner Keynote sehr gut dargestellt. Es gibt derzeit drei Anbieter die es geschafft haben jeweils ein eigenes geschlossenes Ökosystem von den Web-Angeboten über die Inhalte bis zu den Endgeräten aufzubauen. Dazu gehören Google, Apple und Amazon.

Neben dem Webshop Amazon.com gehören weitere Technologie-Angebote und -Services zu dem Unternehmen. Darunter die Amazon Web Services, Content Distribution für digitale Bücher, Musik und Filme (LoveFilm, Amazon Instant Video), die E-Book Reader Kindle sowie der Kindle Fire (mit einer eigenen Android Version), die Suchmaschinen A9.com, Alexa Internet und die Filmdatenbank IMDb.

Wenn man sich darüber hinaus einmal anschaut wie Jeff Bezos Amazon führt (z.B. Kindle Strategie; Verkauf zum Selbstkostenpreis; Umsatz über Inhalte), stehen bei ihm langfristiges Wachstum und Marktanteile im Vordergrund, anstatt schnelle Gewinne zu erzielen.

Wer einen guten Eindruck von Jeff Bezos’ Denkweise bekommen möchte, dem empfehle ich den Fireside Chat mit Werner Vogels auf dem 2012er AWS re: Invent. Die 40 Minuten lohnen sich.

Europa braucht größere Eier!

Die Couch war sich geschlossen einig. Obwohl Europa das Potential und die Unternehmen hat, um in der Cloud abgesehen von Datenschutzthemen auch technisch und innovativ ein Wort mitzureden, werden im Vergleich zu den USA zu kleine Brötchen gebacken oder besser ausgedrückt: “Europa braucht größere Eier.”. Das hängt zum einen mit dem Kapital zusammen, dass Investoren in den USA bereit sind zu investieren, zum anderen aber auch an der Mentalität etwas zu riskieren, zu scheitern und groß und langfristig zu denken. An dieser Stelle können europäische Unternehmer und vor allem Investoren von Jeff Bezos lernen. Es geht um den langfristigen Erfolg und nicht darum schnell Geld zu verdienen.

Das ist meiner Ansicht nach auch ein Grund, warum wir niemals ein europäisches Unternehmen sehen werden, dass z.B. den Amazon Web Services (AWS) das Wasser reichen wird. Die potentiellen Kandidaten wie T-Systems, Orange und andere große ICT-Anbieter, die über die Rechenzentren, Infrastrukturen, das Personal und notwendige Wissen verfügen, konzentrieren sich lieber auf die Zielkunden die sie seit jeher bedienen – die Unternehmenskunden. Hingegen wird die Public Cloud sowie AWS-ähnliche Services für Startups und Entwickler völlig vernachlässigt. Das ist auf der einen Seite in Ordnung, da Cloud Angebote auf Enterprise Level und Virtual Private bzw. Hosted Private Cloud Lösungen benötigt werden, um die Bedürfnisse der Unternehmenskunden zu befriedigen. Auf der anderen Seite darf man sich dann aber auch nicht wundern, dass AWS derzeit die meisten Marktanteile besitzt und als Innovationsmaschine gilt. Die bestehenden ICT-Anbieter sind nicht bereit ihre bestehenden Geschäfte zu verändern oder durch neue Modelle zu erweitern, um damit weitere für sie attraktive Zielgruppen anzusprechen.

Allerdings, wie es auch mein Freund Ben Kepes gut beschrieben hat, ist Amazon derzeit zu recht mit Abstand der Liebling und Marktführer in der Cloud. Aber es gibt noch ausreichend Platz für andere Anbieter im Markt, die Use Cases und Workloads anbieten können, die Amazon nicht bedienen kann. Oder weil sich die Kunden einfach gegen die Nutzung von AWS entscheiden, da es für sie zu kompliziert, aufwendig, zu teuer oder mit rechtlichen Themen nicht vereinbar ist.

Also Europa, legt euch größere Eier zu! Ausreichend Potential ist vorhanden. Schließlich haben Anbieter wie T-Systems, Greenqloud, UpCloud, Dimension Data, CloudSigma oder ProfitBricks konkurrenzfähige Angebote. Von Marten Schönherr habe ich erfahren, dass er mit seinem Startup dabei ist ein Chromebook ohne Chrome zu entwickeln. Mir will allerdings nicht der Gedanke aus dem Kopf gehen, dass Rafael und Open-Xchange (OX App Suite) ihre Finger da mit im Spiel haben.

Categories
Events

Auf geht's zum CloudCamp Frankfurt 2013!

Am 29. Oktober 2013 findet im Rahmen der SNW Europe das CloudCamp Frankfurt 2013 statt. Dieses Jahr haben wir uns für das Leitthema “Cloud First! – Is cloud the new normal?” entschieden und erwarten wie in 2012 wieder zahlreiche Teilnehmer. Neben ProfitBricks CMO Andreas Gauger wird ebenfalls CloudCamp Gründer und Citrix neuer Chief Cloud Advocate Reuven Cohen einen Vortrag halten.

Cloud First! – Is cloud the new normal?

Spricht man mit den Anbietern und verlässt sich auf die Zahlen der Marktforscher ist die Frage einfach zu beantworten – JA! Jedoch gilt es dies anhand von aussagekräftigen Use Cases und Fakten nachzuweisen. Weiterhin wird nicht nur der Status Quo diskutiert sondern ebenfalls kontroverse Themen angesprochen, die genau diesen derzeitigen Stand in Frage stellen und zeigen sollen, wohin wir uns in Zukunft bewegen müssen, um Cloud Computing und seine Einflüsse auf die Unternehmens-IT optimal abzubilden.

Hierzu können wir bereits einige attraktive Sprecher ankündigen.

Bestätigte Sprecher

  • Reuven Cohen, Chief Cloud Advocate Citrix, Co-Founder CloudCamp (@ruv)
  • Chris Boos, CEO arago AG (@boosc)
  • René Buest, Analyst New Age Disruption, Analyst GigaOM Research (@renebuest)
  • Mark Masterson, Troublemaker CSC Financial Services EMEA (@mastermark)
  • Hendrik Andreas Reese, TÜV Rheinland i-sec GmbH
  • Steffen Krause, Cloud & Database Evangelist Amazon Web Services (@sk_bln)
  • Andreas Gauger, ProfitBricks (@gaugi)
  • Thomas King, audriga (@thking)
  • Moderation: Roland Judas, Technical Evangelist arago AG (@rolandjudas)

Anmeldung und weitere Informationen

Die Anmeldung am CloudCamp Frankfurt 2013 ist wie immer kostenlos. Weiterhin erhält jeder Teilnehmer die Chance ebenfalls kostenlos an der “SNW Europe – Powering the Cloud” teilzunehmen.

Die Registrierung für das CloudCamp Frankfurt erfolgt unter http://cloudcamp-frankfurt-2013.eventbrite.com. Die Anmeldung für die SNW Europe wird von uns anschließend ebenfalls in die Wege geleitet.

Fakten

  • CloudCamp Frankfurt 2013
    Im Rahmen der “SNW Europe – Powering the Cloud”
  • Wann: 29. Oktober 2013, Frankfurt
  • Uhrzeit: 16:00 Uhr bis 20:00 Uhr
  • Wo: Congress Frankfurt, Ludwig-Erhard-Anlage 1, 60327 Frankfurt am Main