Categories
Analysen

Cloud und Unternehmen: Google steht sich selbst im Weg

Google hat auf seinem Event Google Cloud Platform Live einige Neuigkeiten für sein Infrastruktur- und Plattform Angebot angekündigt und gleichzeitig die Preise radikal gesenkt. Ein Blick in die Nutzungsbedingungen der Google Cloud Platform und das Verhalten zeigen allerdings, dass Google den Markt weiterhin nicht verstanden hat und sich klar und deutlich als rücksichtsloser Datensauger positioniert.

Auf dem Google Cloud Platform Live Event hat Senior Vice President Urs Hölzle beachtenswerte Zahlen über die Nutzung der Google Cloud Platform gezeigt. Demnach sollen in etwa 4,75 Millionen aktive Applikationen auf der Plattform laufen sowie 6,3 Billionen Datenabfragen und 28 Milliarden Front-End Anfragen pro Tag stattfinden. Allerdings sollte an dieser Stelle in Betracht gezogen werden, dass die Google Cloud Platform sich u.a. aus der Google Compute Engine (GCE), der Google App Engine (GAE) und weiteren einzelnen Services zusammensetzt und speziell die GAE bereits seit nun mehr sechs Jahren am Markt aktiv ist. Damit sind diese Zahlen weiterhin beachtenswert, sollten aber auch nicht überwertet werden.

Die Preise für IaaS Ressourcen fallen weiter gegen Null

Mit einer radikalen Preisreduzierung will Google sich attraktiver gegenüber den Amazon Web Services aufstellen. Die Preise für den Big Data Analytics Service BigQuery werden daher um satte 85 Prozent reduziert. Der Preis für Cloud Storage Service fällt um bis zu 65 Prozent. Die Kosten für die virtuellen Maschinen der Compute Engine werden für alle Regionen, Typen und Größen um bis zu 32 Prozent gesenkt.

Einen Tag später kündigte Amazon AWS auf seinem AWS Summit 2014 in San Francisco seine insgesamt 42te Preissenkung an. Die Preise für Amazon S3 werden demnach im Schnitt um weitere 51 Prozent gesenkt. Für das erste Terrabyte an Daten kostet 1 GB Speicherplatz bei AWS nun 0,085 US-Dollar, bei Google 0,026 US-Dollar. Die Preise für eine AWS M3 Instanz wurden um 38 Prozent gesenkt und kostet statt ehemals 0,113 US-Dollar ab dem 1. April nun 0,07 US-Dollar pro Stunde.

Auch Microsoft hat mittlerweile reagiert und seine Preise für Azure reduziert.

Crisp Research rät anderen IaaS Anbietern, sich nicht auf diesen Preiskampf einzulassen und stattdessen in Services zu investieren, die den Kunden einen echten Mehrwert bieten. Gegen die Economies of Scale von Amazon AWS, Google oder Microsoft wird es langfristig  schwer sein, profitabel mitzuhalten.

Google holt technisch auf

Neben den Preissenkungen hat Google ebenfalls technische Erneuerungen angekündigt. Dazu gehören sogenannte Managed Virtual Machines (VM) für die App Engine, die laut Google mit ein paar Codezeilen automatisch gestartet und verwaltet werden können. Diese Art der VM soll die Stabilität der Compute Engine mit den programmierbaren Kontrollmöglichkeiten durch die App Engine kombinieren.

Weiterhin wird die Compute Engine nun weitere Betriebssystemimages unterstützen. Darunter Red Hat Enterprise Linux und SUSE Linux Enterprise Server. In einer Limited Preview wird ebenfalls der Windows Server 2008 R2 bereitgestellt.

Der BigQuery Service wurde so erweitert, dass nun 100.000 Datensätze pro Sekunde abgefragt werden können, um damit die Analyse großer Datenströme zu ermöglichen. Diese und weitere Verbesserungen dienen grundsätzlich dazu, um Services und Applikationen für andere Google Angebote wie Android, Chrome usw. zu entwickeln und mit Googles anderen Services und Plattformen zu verbinden.

Google hegt und pflegt das Image der Datenkrake

Trotz der Preissenkungen und technischer Erneuerungen lohnt ein Blick in die Nutzungsbedingungen der Google Cloud Platform. Hier findet sich unter 1.2 der Lizenzvereinbarungen:

“By submitting, posting, generating, or displaying any Application and/or Customer Data on or through the Services, Customer gives Google a worldwide, non-sublicensable, non-transferable, non-exclusive, terminable, limited license to use any Application and/or Customer Data for the sole purpose of enabling Google to provide, maintain, protect, and improve the Services in accordance with the Agreement.” Quelle: https://developers.google.com/cloud/terms/

In einem Satz zusammengefasst bedeutet diese Passage nichts anderes als dass Google sich das Recht einräumt, sämtliche Applikationen und Kundendaten für bestimmte eigene Zwecke zu verwenden. Da diese Zwecke nicht weiter spezifiziert bzw. eingeschränkt sind, rät Crisp Research Unternehmen und professionellen Entwicklern von jeglicher Nutzung des Service ab, um rechtliche Probleme mit den eigenen Kunden zu vermeiden.

Google bevormundet seine Kunden

Unterm Strich ist Googles größtes Problem allerdings, dass der Suchmaschinenanbieter nicht wie ein kundenorientiertes Unternehmen handelt. Anbieter wie beispielsweise Salesforce, Microsoft oder Amazon stellen sich hierbei ganz anders auf. Ganz im Gegenteil, Google versucht ständig seine Nutzer zu bevormunden und ihnen aufzuzwingen wie und nach welchen Regeln sie zu handeln haben. Das mag bei technisch nicht versierten Privatnutzern vielleicht funktionieren. Schließlich sind die Alternativen sehr gering. Mit erfahrenen Administratoren, CIOs und Entwicklern kann man so langfristig allerdings nicht umgehen.

Ein Zeichen dafür sind die oben angesprochenen Nutzungsbedingungen der Google Cloud Platform. Aber auch Googles Umgang mit den Kunden im Rahmen von Portfoliobereinigungen der eigenen Services zeigt, dass Google noch lange nicht in der Welt der Enterprise-IT angekommen ist. Dienste kurzfristig abzuschalten, ohne eine echte Alternative anzubieten (vgl. Google RSS Reader), ist in der Welt der Unternehmens-IT nicht akzeptabel.

Im Rahmen vieler Gespräche mit CIOs und IT-Entscheidern im Mittelstand, hat sich für Crisp Research klar gezeigt, dass langfristiges Commitment und somit die Aufrechterhaltung der Services ein absolut kritischer Punkt für die Anwender ist.

Für Unternehmen hat die Google Cloud Platform derzeit keine Relevanz

Google hat, auf Grund seiner App Engine, definitiv eine große Verbreitung in der Entwickler Community. Für Workloads von Unternehmen ist die Google Cloud Platform aber derzeit keine Option und kann nicht mit Angeboten von Amazon AWS, IBM Softlayer oder Microsoft Azure mithalten.

Entwickler und Startups sind eine nicht zu unterschätzende Kundengruppe. Aber das große Geld wird bei den Unternehmenskunden verdient. Damit ist es, nicht nur für Google sondern ebenfalls für AWS, wichtig sich auf die Bedürfnisse der Unternehmen einzulassen und mit entsprechenden Services und Lösungen zu reagieren. Amazon AWS hat dies mit CloudTrail und WorkSpaces verstanden. Von Google sind bisher keine Ansätze zu erkennen. Das gilt ebenfalls für die doch sehr Google native App Engine. Andere PaaS Angebote wie Red Hat OpenShift oder IBM BlueMix sind deutlich offener gestaltet und passen besser in die Cloud Strategie von Unternehmenskunden.

Weiterhin ist es wichtig eine horizontale Variationsvielfalt zu bieten. Google als auch Amazon bieten ausschließlich Public Cloud Services, das war’s. IBM und Microsoft hingegen sind in der Lage von Public über Private bis hin zu Hybrid Cloud Szenarien anzubieten und das inklusive weiteren Dienstleistungen und Professional Services. Das bedeutet, dass beide Unternehmen in der Lage sind auf die Deployment-Anforderungen und Bedürfnisse ihrer Kunden eingehen zu können, wodurch die horizontale Angebotsbreite das Maximum im Markt bietet.

Trotz angeblich 4,75 Millionen aktiven Applikationen und täglich 6,3 Billionen Datenabfragen, sieht Crisp Research in der Google Cloud Platform derzeit noch keine Alternative für Unternehmenskunden. Nicht nur die Nutzungsbedingungen zeigen, dass Google die Bedenken rücksichtslos übersieht und versucht, seine Interessen uneingeschränkt durchzusetzen. Anbieter wie IBM, Microsoft und Amazon hingegen sind deutlich näher an den Kunden und verstehen deren Bedürfnisse.  Google geht es im Online-Werbegeschäft derzeit immer noch zu gut. Das Cloud-Business macht derzeit deutlich weniger als ein Prozent des Konzernumsatzes aus und ist noch lange nicht profitabel. Google muss sich weiterhin deutlich zu seinem Cloud-Portfolio bekennen, eine klare Roadmap aufstellen und sich ebenfalls daran halten. Nur so kann der Suchmaschinenriese  Vertrauen bei seinen Cloud-Kunden aufbauen.

Categories
Insights @de

Umfrage: Platform-as-a-Service – Zukunft der deutschen Software-Industrie

Seit über fünf Jahren existieren Platform-as-a-Services (PaaS) am Markt, die sich im Laufe der letzten Jahre zu vollständigen Ökosystemen entwickelt haben. In den USA und Skandinavien gehören PaaS bereits zu den Standardwerkzeugen von professionellen Softwareentwicklern. In Deutschland verhalten sich Geschäftsführer und Entwicklungsleiter noch deutlich zurückhaltender. Dabei erhalten nicht nur deutsche Unternehmen, sondern ebenfalls klassische ISVs (Independent Service Provider) mit einem PaaS eine echte Alternative, um damit die unternehmensinternen Entwicklungssysteme und -Prozesse abzulösen und damit auf das Cloud-Zeitalter umzusteigen.

Neue PaaS-Betriebsmodelle verändern den Markt

Neue PaaS-Betriebsmodelle wie ein Hosted PaaS helfen nicht nur dabei Software-Entwicklungsprozesse deutlich effizienter zu gestalten, sondern auch Big Data Analytics intelligent umsetzen.

Ob und wie sich diese Situation bei deutschen ISVs und Softwarehäusern derzeit verändert und entwickelt, untersucht Crisp Research derzeit im Rahmen einer empirischen Studie “Platform-as-a-Service – Zukunft der deutschen Software-Industrie”.

Für weitere Informationen steht unser Projektleiter Max Hille zur Verfügung.

Umfrage: “Platform-as-a-Service – Zukunft der deutschen Software-Industrie”

Categories
Analysen

Salesforce baut Rechenzentrum in Deutschland. Wann folgen Amazon, Microsoft Google und Co.?

Salesforce wird im Jahr 2015 einen Rechenzentrumsstandort in Deutschland eröffnen. Crisp Research hält den Schritt als den einzig logisch Richtigen um deutsche Unternehmenskunden anzuziehen. Es bleibt allerdings die Frage offen, warum die anderen großen Cloud Player wie Amazon AWS, Microsoft und Google nicht schon lange in Deutschland gelandet sind!

Salesforce expandiert nach Europa

Nach einem Umsatzwachstum von 41 Prozent für das Finanzjahr 2014 wird der CRM Anbieter Salesforce seine Aktivitäten für das Finanzjahr 2015 in Europa weiter verstärken. Hierzu sollen europaweit mehr als 500 neue Arbeitsplätze und weitere Rechenzentren entstehen. Das erste der drei Rechenzentren wird nach Unternehmensangaben im August in Großbritannien eröffnet. Zwei weitere sollen im Jahr 2015 in Deutschland und Frankreich folgen. Bereits auf der letzten Salesforce Customer Company Tour im vergangenen Juli wurde ein Rechenzentrum für dieses Frühjahr in London angekündigt.

Auch Salesforce hat zu kämpfen

Fakt ist, trotz des Umsatzwachstums von 41 Prozent in Europa und stolz verkündeter Kunden wie BMW Group, Deutsche Post DHL, Sixt, Vaillant und Carl Zeiss Vision hat Salesforce es nicht leicht. Auch das zeigen die Investitionen und Expansionen mit weiteren Rechenzentren in Europa. Salesforce muss näher an den Kunden herankommen, wenn der Kunde nicht von alleine kommt. Es ist nicht das erste Bekenntnis, dass die Public Cloud in dieser Form nicht für alle funktioniert. Bereits im November letzten Jahres kündigte Salesforce CEO Mark Benioff mit dem “Salesforce Superpod” nichts anderes als eine Dedicated Private Cloud auf der Salesforce Infrastruktur an, um Kunden die Möglichkeit zu bieten das CRM-System nicht auf der Public Cloud, sondern einem extra für sie abgetrennten Bereich zu nutzen. Man sieht also, es wird ständig und in langsamen Schritten zurückgerudert. Natürlich nur im Sinne der Kunden.

Deutschland sollte nicht unterschätzt werden

Salesforce Expansion nach Deutschland zeigt außerdem, dass der Druck enorm sein muss und Deutschland attraktiver ist als vermutet. Schließlich behandeln die meisten amerikanischen Unternehmen den deutschen Markt eher stiefmütterlich.

Der Großteil der amerikanischen Cloud Anbieter versorgt den europäischen Markt derzeit über Rechenzentren in Irland (Dublin) und den Niederlanden (Amsterdam). Das stößt bei vielen Deutschen, vornehmlich Datenschützern und mittelständischen Unternehmen, auf Unbehagen. Das Speichern von Daten außerhalb von Deutschland und ein Vertrag maximal nach europäischem Recht wird nicht gerne gesehen. Jedoch sollte und darf der Wirtschaftsstandort Deutschland nicht vernachlässigt werden. Für die US-amerikanischen Unternehmen mag Deutschland zwar ein kleines Land sein, aber die Wirtschaftskraft zu unterschätzen wäre fatal.

Die Erwartungshaltung ist riesig

Salesforce positioniert sich mit Salesforce1 mittlerweile als eine allumfassende Plattform für die Entwicklung von Social, Mobile und weiteren Cloud-basierten Applikationen und richtet sich damit gezielt an Entwickler, ISVs, Endanwender und Administratoren. Salesforce versucht damit sein Image als reiner CRM-Anbieter abzuschütteln.

Salesforce sieht sich somit nicht mehr nur im Wettbewerb mit anderen CRM-Anbietern sondern ebenfalls mit den großen Playern wie Microsoft, Amazon AWS und Google, deren Cloud-Stack auch stetig weiter ausgebaut wird und bei fast allen nahezu vollständig ist. Die Expansion mit einem eigenen Rechenzentrum in Deutschland ist für Salesforce damit ein enormer Wettbewerbsvorteil gegenüber anderen Anbietern wie Amazon AWS, Microsoft oder Google. Insbesondere im stark umkämpften Markt für Unternehmenskunden, in denen Amazon AWS und Google sich schwer tun und wo Microsoft auf Grund seiner bestehenden breiten Kundenbasis bereits eine gute Ausgangslage hat.

Crisp Research ist der Meinung, dass spätestens nach dieser Ankündigung kein Anbieter, der den deutschen Markt als ernsthaft attraktiv betrachtet, mehr daran vorbeikommt, ebenfalls ein eigenes Rechenzentrum in Deutschland zu eröffnen. Zahlen von Crisp Research zeigen eine deutliche Anforderung von mittelständischen Unternehmen an Cloud Anbieter, dass die Daten in einem deutschen Rechenzentrum gespeichert werden müssen. Etwa 75 Prozent sehen darin die Notwendigkeit, um durch physische Lokalität der Daten das deutsche Recht einfacher anwendbar zu machen.

Microsoft sorgt für ein großes Fragezeichen

Warum hat zum Beispiel Microsoft nicht schon längst ein Rechenzentrum in Deutschland gebaut? Das Unternehmen ist seit Jahrzehnten in Deutschland tätig und sollte die Kundenbasis und deren Bedenken besser kennen als jeder andere Cloud Anbieter! Crisp Research hat erste Gerüchte über Rechenzentrumsstandorte von Amazon AWS und Microsoft in Deutschland gehört. Eine offizielle Bestätigung, als auch ein Dementi blieben bis heute allerdings aus.

Der Standortvorteil eines Rechenzentrums in Deutschland ist nicht zu vernachlässigen, um aktiv damit zu beginnen, den deutschen Unternehmen ihre Bedenken zu nehmen. Die Cloud Computing Anbieter haben in der Vergangenheit viel geredet und versprochen. Aussagekräftige Taten blieben jedoch aus. Nach IBM, mit einem Cloud-Rechenzentrum in Ehningen bei Stuttgart, hat nun auch Salesforce den richtigen Schritt gemacht. Wir sind gespannt wer folgen wird.

Categories
Analysen

Pulse 2014: IBM und seine Open Cloud Story

Während seiner Hausmesse Pulse 2014 in Las Vegas hat IBM seine Unternehmensstrategie für die kommenden Jahre deutlich kommuniziert. Open-Source wird einmal mehr zur zentrale Säule und soll dem Unternehmen den Weg zu den Enterprise-Workloads und Entwicklern ebnen. Eine weitere wichtige Rolle wird Softlayer einnehmen. Crisp Research hält die Open Cloud Strategie für eine erfolgsversprechende Strategie, sieht im Bare Metal Ansatz von Softlayer die logische Ergänzung des IBM Portfolios.

OpenStack und Cloud Foundry als zentrale Bausteine der Open-Source Strategie

IBM blickt auf eine lange Open-Source Historie zurück. Bereits die Attraktivität von Linux hat IBM in der Unternehmens-IT vorangetrieben. So ist es kaum verwunderlich, dass diese Strategie ebenfalls auf die Cloud übertragen wird. Nachdem mit Todd Moore bereits eine strategisch wichtige Position innerhalb des Boards of Directors in der OpenStack Foundation (Cloud IaaS) besetzt wurde, gehört IBM ebenfalls zu den Gründern der Cloud Foundry Foundation (PaaS) zu denen auch EMC, Hewlett-Packard, Rackspace, SAP und VMware zählen.

Das Engagement an zwei der wichtigsten Open Cloud Communities zeigt die Bedeutung von Open-Source für IBM und spiegelt sich auch in den architekturellen Konzepten wieder. Dabei sieht IBM das Thema Open-Source ganz klar als Mittel zum Zweck, um auf dieser Basis eigene kommerzielle Produkte anzubieten. OpenStack dient als die Infrastrukturbasis für viele bereits bestehende Produkte und Lösungen und wird in Zukunft als grundlegende Basis unter das gesamte IBM Cloud Portfolio ausgerollt. Für IBM ist es daher essentiell wichtig einen aktiven Einfluss auf die Ausrichtung von OpenStack zu nehmen. Hierzu beteiligt sich das Unternehmen ebenfalls aktiv an der Weiterentwicklung des Open-Source Projekts.

Crisp Research beschäftigt sich derzeit intensiv mit OpenStack und wird dazu mehrere Research Paper veröffentlichen.

BlueMix: IBMs Polyglot Platform-as-a-Service

IBM setzt gezielt auf Open-Source Software wie OpenStack und Cloud Foundry, um kommerzielle Angebote am Markt zu platzieren.

Unter dem Codenamen BlueMix hat IBM offiziell den Betastatus seines eigenen Platform-as-a-Service (PaaS) angekündigt. BlueMix gilt bei IBM als zentrale Komponente seiner Cloud-Strategie und basiert auf Cloud Foundry. Nach Angaben von Todd Moore werden beide Lösungen etwa alle zwei Monate miteinander abgeglichen um BlueMix auf einen aktuellen Cloud Foundry Versionsstand zu bringen, bzw. um Cloud Foundry mit möglichen Erweiterungen aus dem BlueMix System zu verbessern.

BlueMix ist als offener Polyglot PaaS designed und unterstützt derzeit die Programmiersprachen Java, Node.js und Ruby. Neben Integration und Mobile Services sowie DevOps zur Continuous Integration bietet der BlueMix Catalogue weitere Services die für die Entwicklung eigener Applikationen auf BlueMix genutzt werden können. Darunter CloudCode, DataCache, ElasticMQ, JazzHub, MongoDB, MySQL und RabbitMQ.

Als Infrastruktur-Basis von Cloud Foundry dient OpenStack (IBM Smart Cloud Orchestrator, IBM Platform Computing).

Softlayer: IBMs Infrastructure-as-a-Service Waffe aus dem Untergrund

Softlayer war medial bisher eher ein unbeschriebenes Blatt. Erst durch die Akquisition von IBM stieg der IaaS-Anbieter aus dem Untergrund hervor indem er von IBM selbst konsequent als potentieller Amazon Web Services Killer vermarktet wird. Softlayer muss sich keinesfalls verstecken. Was die wenigsten wissen: bekannte Web- und Mobile-Angebote wie WhatsApp, Tumblr, Dropbox, EA, MachineZone, fitbit und Yelp nutzen die Softlayer Infrastruktur. Zu Unternehmenskunden gehören u.a. Samsung, Citrix und Repsol. Hinzu kommt, dass von den 40 Rechenzentren die IBM bis 2015 geöffnet haben wird, stammen immerhin 13 Stück aus der Akquisition von Softlayer.

Softlayer setzt innerhalb seiner Infrastruktur auf ein hybrides Modell. Neben virtuellen Servern können Kunden sogenannte Bare Metal Server (dedizierte physikalische Hosts) anmieten. Eine Variante die IBM während der Pulse 2014 mit vielen Vorträgen prominent vermarktet hat und mit Performance Tests gegen Rivalen wie die Amazon Web Services schießt, die bekanntlich nur eine virtuelle Infrastruktur anbieten. Nach Angaben von Softlayer werden die Bare Metal und die virtuellen Server mittels derselben API (1.600 Stück), demselben Portal und eigenem internen Managementsystem provisioniert. Zudem sei Softlayer in der Lage, Bare Metal Server zu 100 Prozent automatisiert innerhalb von zwei bis vier Stunden bereitzustellen. Softlayer selbst unterstützt OpenStack derzeit nur als Installation auf den Bare Metal Servern. Das bedeutet, dass die technologische Infrastruktur unterhalb von Softlayer bisher nicht durch OpenStack ausgetauscht wurde. Allerdings unterstützt Softlayer, nach eigenen Angaben, die komplette OpenStack API, wodurch Softlayer als Deployment- und Managementwerkzeug für OpenStack dienen kann.

Der Bare Metal Ansatz ist vor allem für die Kunden interessant, die Performance benötigen, ihre Applikationen kennen und über stabile Workloads verfügen. Um kurzfristig Lastspitzen abzufangen können diese dann auf virtuelle Server zurückgreifen, die innerhalb kürzester Zeit aus der Softlayer Cloud bereitgestellt werden. Denn eines muss an dieser Stelle klar und deutlich gesagt werden: Der Bare Metal Ansatz von IBM Softlayer hat mit einem Cloud-Model nichts zu tun.

Für eine interessante Neuigkeit sorgte IBM mit der Akquisition von Cloudant, einem Database-as-a-Service Anbieter, der in das Softlayer Portfolio integriert wird. Das spannende an diesem Zukauf ist allerdings weniger die technische Seite, sondern vielmehr die Historie von Cloudant. Im Jahr 2009 als Startup auf der Cloud-Infrastruktur der Amazon Web Services gestartet, wechselte Cloudant auf Grund von Performance-Probleme mit dem XEN Hypervisor der AWS Cloud auf die Bare Metal Infrastruktur von Softlayer. Nach Angaben von Cloudant CTO Adam Kocoloskiist es für Cloudant nicht notwendig Server innerhalb von Sekunden hochzufahren. Die Performance ist für den Service entscheidender wodurch Bare Metal der bessere Ansatz ist.

IBM bietet gute Voraussetzungen für Enterprise-Workloads

IBM richtet sich mit seiner Cloud-Strategie vorwiegend an Unternehmenskunden und Entwickler in Unternehmen. IBM setzt dabei auf einen selbst gewählten „Dynamic Cloud“ Slogan, der die off-Premise und die on-Premise Welt bedienen und verbinden soll. Ob IBM mit seinem BlueMix PaaS zu spät dran ist wird sich zeigen. Es ist zwangsläufig nicht entscheidend, als erster am Markt zu sein und das beste Produkt zu haben, sondern seine bestehenden und potentiellen Kunden davon zu überzeugen, einen Mehrwert zu bieten. Es wäre nicht das erste Mal, dass ein Anbieter dies schaffen würde. Und IBM hat hierzu definitiv die finanzielle Ausdauer, das technische Know-how und die Wahrnehmung und Verbreitung in seiner Kernzielgruppe.

Der Vertrieb wurde im Software Umfeld bereits auf eine Cloud-First Strategie (Software-as-a-Service) umgestellt, was nach Aussagen von IBM für den einen oder anderen Vertriebsmitarbeiter eine Umstellung sein wird, nicht mehr harte Lizenzen sondern Abonnements zu verkaufen. Aber die Zielrichtung ist klar und deutlich vorgegeben.

Cloud Foundry als auch OpenStack sind für IBM die grundlegende Basis für die Zukunft und die Cloud Strategie. Hierzu wird OpenStack stetig als Infrastrukturbasis unter das komplette Portfolio ausgerollt. Gleichzeitig geht Crisp Research davon aus, dass Softlayer kontinuierlich in das IBM Cloud Portfolio integriert wird und auch hier OpenStack in Zukunft die Infrastrukturbasis bildet. Noch in diesem plant IBM weltweit 40 Rechenzentren in 15 Ländern online zu haben, um darüber seine Cloud Services bereitzustellen. In 2015 soll in die aufstrebenden und durchaus lukrativen Märkte im Mittleren Osten und Afrika expandiert werden.

Bare Metal ist die Realität der Hybrid Cloud

Die Bare Metal Story von IBM Softlayer führt zu der Frage, ob der Cloud Markt und Initiativen wie das Open Compute Project die Preise für Hardware so in den Keller getrieben haben, dass es sich für die Anbieter als auch Anwender lohnt, selbst Server bei einem Nutzungsgrad von nur 30 Prozent anzuschaffen und zu betreiben. Die Nahtoderfahrung von HP zeigt wie bedrohlich die aktuelle Marktsituation für Hardwareproduzenten ist. Das musste auch bereits IBM selbst am eigenen Leib erfahren und hat sein x86 Servergeschäft an Lenovo verkauft.

Für diejenige die ihre konstanten Workloads kennen und Performance für die Applikationen benötigen, kann das Softlayer Bare Metal Modell durchaus interessant sein. Insbesondere dann, wenn nur kurzzeitige Lastspitzen abgefangen werden müssen, was in dem Fall dann per virtuelle Server von Softlayer geschehen kann, um die Infrastruktur nach oben atmen zu lassen.

Crisp Research meint, dass IBM die Enterprise Workloads seiner potentiellen Kundengruppen besser kennt als jeder andere Cloud Anbieter am Markt und Softlayer damit in der Lage ist, zielgerichtet die Bedürfnisse und Anforderungen zu erfüllen. Schlussendlich geht es darum einen ganzheitlichen Ansatz zu verfolgen, um den potentiellen Kunden eine große Vielfalt bieten zu können. Ansonsten wird man schnell zum Nischenanbieter und kann entweder nur Entwickler oder Unternehmenskunden bedienen.

Categories
Analysen

Report: OpenStack im Unternehmenseinsatz – Teil 1: Grundlagen und aktueller Einsatz

Der OpenStack Zug nimmt auch in Deutschland langsam Fahrt auf. Die Anzahl der Anfragen von CIOs, die das Open Source-basierte Cloud Management-Framework als Alternative evaluieren, ist in den vergangenen 6 Monaten deutlich gestiegen, wie interne Statistiken von Crisp Research belegen.

Für immer mehr Unternehmen stellt sich die Frage, ob OpenStack in den kommenden Jahren ein fester Bestandteil der Cloud-Integrationsstrategie wird und demnach bei der Planung und Implementierung hybrider Cloud-Infrastrukturen mit berücksichtigt werden muss.

Im Rahmen mehrerer aktueller Research-Projekte geht Crisp Research der Fragen nach, inwieweit OpenStack schon „Enterprise-ready“ ist und welche Hürden bis zur Enterprise-Grade Cloud Management Plattform noch zu nehmen sind. In diesem kostenlosen Report wird ein Überblick zur Entwicklung, den Komponenten und aktuellen Einsatzszenarien gegeben.

Der Report steht kostenlos unter “OpenStack im Unternehmenseinsatz (Teil 1)” zum Download zur Verfügung.

Categories
Analysen

Desktop-as-a-Service: Google begibt sich in die Abhängigkeit von VMware.

Im ersten Moment war es eine unerwartete Ankündigung, die auf dem zweiten Blick allerdings sehr schnell einen Sinn ergibt. VMware und Google haben in der vergangenen Woche eine Partnerschaft verkündet, um über VMwares Desktop-as-a-Service Plattform Unternehmen Windows-Applikationen, Daten und Desktops auf Google Chromebooks auszuliefern. Crisp Research hält die Partnerschaft für einen klugen Schachzug von beiden Beteiligten. Jedoch ist Google hier in einer deutlich schwächeren Partnersituation und gesteht Schwächen seines eigenen Cloud Service Portfolios für Unternehmenskunden ein.

Desktop-as-a-Service: Der Markt wird vielfältiger

Desktop-as-a-Service (DaaS) ist nach der Server- und Speicherentwicklung der nächste logische Schritt, bei dem vollständige Desktop-PCs im Rechenzentrum virtualisiert und von dort aus zentral auf Endgeräte ausgeliefert werden. Die Vorteile liegen klar auf der Hand. Vollwertige Computersysteme, die sogenannten Fat-Clients, führen zu maßgeblichen Investitionen in Hardware, Bereitstellung, Support, Betrieb und Aktualisierungen. Hinzukommen Ausgaben für die Sicherheit und Compliance.

Crisp Research beziffert die Jährlichen Gesamtausgaben von Standard Desktop-PCs auf rund 1.560 EUR. Durch die Umstellung auf Thin-Clients, die im minimalsten Fall nur über eine Netzwerkschnittstelle und ein BIOS verfügen, lassen sich die Ausgaben reduzieren und pro Desktop etwa 150-200 EUR pro Jahr einsparen.

Der Markt für DaaS wird zwischen zwei Segmenten unterschieden. Zum einen die grundlegenden Infrastrukturen. Dazu gehören Angebote von VMware, Citrix, Univention, Wyse oder Microsoft. Die sowohl als on-Premise als auch Public Cloud Angebote genutzt werden. Der Markt für DaaS Backendinfrastrukturen wird immer vielfältiger. Das jüngste prominente Mitglied sind die Amazon Web Services (AWS) mit den Amazon WorkSpaces. Nach Angaben von AWS Integrationspartnern waren die Test-Accounts für Amazon WorkSpaces innerhalb kürzester Zeit vergeben. Crisp Research geht davon aus, dass sich die Amazon Web Services als weltweit führender Anbieter von Infrastructure-as-a-Services auch in diesem Bereich signifikante Marktanteile sichern werden.

Auf der anderen Seite werden die Endgeräte benötigt, mit denen sich die virtualisierten Desktops nutzen lassen. Hierzu zählen klassischerweise die bekannten Thin-Clients. Google verfolgt mit seinen Chromebooks einen völlig neuen Ansatz. Das System startet direkt in das Chrome OS, was im Kern den Google Chrome Browser widerspiegelt. Ein Nutzer booted somit sofort in die Cloud.

Google Chromebooks – noch erhebliche Schwächen im Unternehmenseinsatz

Google Chromebooks sind auf der einen Seite revolutionär, da die lokale Komponente vollständig ausgeblendet wird und Daten und Applikationen zu 100 Prozent in der Cloud gespeichert bzw. aus der Cloud genutzt werden. Auf der anderen Seite birgt der Ansatz auch seine Schwächen, die derzeit mehr überwiegen als die vermeintlichen Vorteile die von einem Chromebook ausgehen.

Die Idee der Chromebooks ist grundsätzlich gut. Das lokale System verfügt über eine minimale Intelligenz und keine höherwertigen Softwarekomponenten, die wie bspw. ein Windows Betriebssystem, ständig mit einem Neustart auf dem aktuellen Stand gehalten werden müssen. Stattdessen ist der Browser das Betriebssystem, wodurch Google Software- und Sicherheitsupdates on-Demand vornehmen kann, ohne das der Nutzer davon etwas bemerkt.

Auch Googles Strategie sämtliche Services, wie zum Beispiel die Google Apps for Business Suite, mit den Chromebooks zu integrieren ist ein kluger Schachzug, um die User Experience der Chromebooks sowie die Public Cloud Services in die Unternehmen zu tragen und dort bekannter zu machen. Über den Google Apps eigenen Marketplace lassen sich in Zukunft zudem immer mehr Services von Drittanbietern monetarisieren. Leider ist die ganzheitliche Umsetzung bis heute nur mäßig. Bis auf Google Mail und Google Kalender ist der Rest der Google Apps for Business Suite nicht unternehmenstauglich. Insbesondere Google Docs, als Textverarbeitung Kernprodukt einer Office Suite, zeigt noch erhebliche Schwächen und steht in keiner Konkurrenz zu einem Microsoft Word. Auch wenn der Software-as-a-Service Markt stetig wächst, ist der Vorteil, der sich durch die lose und beliebige Nutzung von Cloud Services auf den Chromebooks ergibt, durch die nicht vorhandenen leistungsfähigen Enterprise Applikationen, die weiterhin benötigt werden, aufgehoben. Nutzer benötigen immer wieder Applikationen, die ausschließlich für lokale Betriebssysteme wie Windows, Mac oder Linux zur Verfügung stehen. Dieser Status wird nicht so bleiben, aber Stand heute existieren diese Nachteile.

VMware öffnet Google das Tor in die Unternehmen

Um seinen Chromebooks eine echte Business Customer Experience zu bieten ist die Partnerschaft mit VMware ein notwendiger und kluger Schachzug, um in kurzer Zeit einen Fuß in die Türen der Unternehmen zu bekommen. Anwender können damit auf ihre Windows Anwendungen, Daten und Desktops anhand der VMware Blast HTML5 Technologie über einen Web-basierten Katalog vom Chromebook aus zugreifen.

Zudem können Unternehmen mittels VMware Horizon DaaS zwischen einer Virtual Desktop Infrastructure (VDI) oder Remote Desktop Services (RDS) Verbindung wählen. Zusammen mit VMware Horizon View lassen sich die Chromebooks als on-Premise Service nutzen. In Zukunft soll die gemeinsame Lösung als DaaS-Angebot von VMware und anderen vCloud Service Anbietern in der Cloud oder in hybriden Umgebungen zur Verfügung gestellt werden.

Google – Abschied von der reinen Public-Cloud-Lehre

Die Partnerschaft zwischen VMware und Google zeigt, dass Google derzeit noch nicht in der Lage ist, den Enterprise-IT-Markt allein mit eigenen Kräften zu überzeugen. Die Anforderungen der Unternehmensanwender sind derzeit noch zu vielfältig und komplex – und verlangen daher nach hybriden und stark integrierten Lösungen.

Mit der VMware-Partnerschaft kann es Google aber vielleicht gelingen, ein trojanisches Pferd in die Unternehmen einzuschleusen und deren Nutzer von der browser-basierten User Experience seiner Cloud-Dienste abhängig zu machen. Ob das Anfixen über die Virtual Desktop Services auf den Chromebooks langfristig funktioniert bleibt abzuwarten. Sicher ist, dass Google das Enterprise Business mittlerweile ernst nimmt und nicht als reines Anhängsel seines Online Werbegeschäfts versteht. Nach Einschätzungen von Crisp Research bereitet Google derzeit noch weitere Kooperation vor, die das Standing seiner Google Apps auf Seiten großer IT-Anwender verbessern sollen.

Categories
Analysen

Die Community Cloud wird an Bedeutung gewinnen.

Wie kommen Unternehmen aus der Cloud heraus ohne ihre Komfortzone zu verlieren. Diese Fragen hören wir immer wieder. Ich bin der Meinung, dass man sich nicht zwangsläufig aus der Cloud zurückziehen muss, sondern einfach versuchen sollte, mehr Kontrolle zurückzugewinnen und die Ideen der Cloud für sich selbst zu nutzen. In diesem Zusammenhang sollte man die Community Cloud in Betracht ziehen, denn diese wird in meinen Augen immer mehr an Bedeutung gewinnen. Der Bedarf und vor allem das Verständnis hierfür muss nur geweckt werden. Tenor: “Aufbau einer eigenen Hosted Private Cloud, betrieben von einer Gemeinschaft die sich vertraut.” Das ist sowohl für Unternehmen, Organisationen, Bürogemeinschaften und regelmäßige Projektpartner interessant.

Was ist eine Community Cloud?

Innerhalb einer Community Cloud schließen sich Unternehmen einer gleichen Branche zusammen und fassen ihren eigenen Private Clouds zu einer Community Cloud zusammen, die nur exklusiv diesen Mitgliedern zugänglich ist. Community Clouds bieten sich an, wenn Unternehmen dieselben Anforderungen und Aufgaben haben und die Infrastruktur auf ähnliche Weise nutzen wollen. Der Vorteil einer Community Cloud besteht in der Reduzierung des Kapazitätsbedarfs und somit einer verbesserten Ressourcenallokation auf Grund der gemeinsamen Nutzung von Ressourcen. Dies führt zu einer allgemeinen Kostenreduzierung und verringert den allgemeinen Overhead. Abgesehen von der darunterliegenden Infrastruktur können alle Mitglieder der Community Cloud ebenfalls dieselben Services und Applikationen gemeinsam nutzen.

Ein sehr gutes Beispiel für eine Community Cloud ist das ENX Netzwerk, ein Zusammenschluss der “europäischen Automobilindustrie für den sicheren Austausch kritischer Entwicklungs-, Einkaufs-, und Produktionssteuerungsdaten.” Das ENX bietet den angeschlossenen Automobilherstellern- und Lieferanten unternehmensübergreifende Managed Security Services und einen einheitlichen Service Level des darunter liegenden Netzwerkes. Gleichzeitig ist das ENX Netzwerk für die angeschlossenen Nutzer so offen und flexibel gestaltet wie das öffentliche Internet.

Gründe für eine Community Cloud

Bereits das Ergebnis einer BITKOM Studie im Februar 2013 kam zu dem Ergebnis, dass im Jahr 2012 immerhin 34 Prozent auf eine Private Cloud setzen und 29 Prozent planen, diese Cloud-Form in Zukunft einzusetzen. Der Grund dafür liegt in der Angst vor einem Datenverlust in der Public Cloud. Das sagten zumindest 79 Prozent.

Die Neuauflage der BITKOM Studie, mit aktuellen Ergebnissen für das Jahr 2013, liefert ein paar Veränderungen. Weiterhin setzten mit 36 Prozent der befragten Unternehmen die meisten auf eine Private Cloud. Das sind zwei Prozent mehr als im Jahr 2012. Das Interesse an der Public Cloud hat mit insgesamt 15 Prozent deutlicher zugenommen.

Interessanterweise gaben allerdings auch 77 Prozent der Unternehmen an, dass die größte Hürde für den Einsatz einer Private Cloud [… die Sorge vor einem unberechtigten Zugriff auf sensible Daten …] ist. Weitere 45 Prozent haben Angst vor einem Verlust der Daten, die in der Private Cloud gespeichert sind.

Zukunftssicherheit, Vertrauen und Abhängigkeit

Während eines Vortrags bei einem Unternehmen dessen Namen ich nicht nennen darf und mit Folien die nicht öffentlich zugänglich sind, habe ich in meinen zukünftigen Cloud-Trends die Treiber für die steigende Bedeutung von Community Clouds aufgezeigt.

Ich habe dabei die drei Treiber als “höhere Zukunftssicherheit”, “größeres Vertrauen” und “weniger Abhängigkeit/ mehr Kontrolle” charakterisiert. Es sind exakt die Themen, die auch in aktuellen Diskussionen immer wieder aufkommen. Damals, im März 2013, habe ich die “höhere Zukunftssicherheit” am Beispiel der Schließung vom Google Reader festgemacht. Da die Nutzer sich nicht sicher sein können, wie lange ein Cloud Service überhaupt überlebt. Als Beispiel für “größeres Vertrauen” mussten die mittlerweile bestätigten Berichte, dass Amazon AWS eine Cloud für den CIA bauen soll, herhalten. Schließlich sollte man schon stutzig werden, wenn ein Marktführer mit einem Geheimdienst zusammenarbeitet – wie wir mittlerweile alle feststellen durften… Den Grund für “(weniger) Abhängigkeit” habe ich aus dem Zeit-Artikel “Das autarke Dorf“, der im selben Zeitraum erschienen ist und bei dem es darum geht, dass ein kleines Dorf in Brandenburg sich unabhängig von den Energiekonzernen gemacht hat und dort sogar ein eigenes Stromnetz besitzt. Cloud Computing = Utility Computing = Stromnetz…

Maximale Zentralität hin zur Semi-Dezentralität

Allein auf Grund dieser drei Treiber, plus den aktuellen Diskussionen, sehe ich ein wachsendes Potential für die Community Cloud, die derzeit noch keine große Verbreitung hat. In diesem Zusammenhang sehe ich zudem einen Wechsel von einer zurzeit stark ausgeprägten Zentralität zu einer Semi-Dezentralität.

Die meisten Unternehmen und Organisationen sehen in der Public Cloud einen großen Vorteil und wollen in ihren Genuss kommen, um Kosten zu reduzieren, ihre IT zu konsolidieren und gleichermaßen mehr Skalierbarkeit und Flexibilität erhalten. Auf der anderen Seite sind Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle wichtige Artefakte, die niemand gerne aufgeben möchte.

Die Community Cloud ist der Mittelweg, um beides zu erreichen. Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle durch den Einfluss, was in der Community Cloud passiert und die Vorteile einer Public Cloud, durch das Partizipieren von einer echten Cloud Infrastruktur.

Tipp: Hosted Community Cloud

Es stehen mittlerweile einige Lösungen bereit, die als Basis für die eigene professionelle (Community) Cloud genutzt werden können. Dabei sollte man jedoch immer ein Auge auf die grundlegende Infrastruktur richten, die das Rückgrat der gesamten Cloud bildet. In diesem Zusammenhang darf man allerdings auch nicht den Aufwand unterschätzen, den es bedeutet, eine professionelle Cloud-Umgebung aufzubauen, ordnungsgemäß zu betreiben und zu warten. Weiterhin sind die Kosten für die notwendigen physikalischen Ressourcen zu kalkulieren.

Aus diesem Grund macht es für viele kleinere und mittlere Unternehmen, aber auch Bürogemeinschaften, Co-Working Spaces oder regelmäßige Projektpartnerschaften Sinn, den Community Cloud Gedanken in Betracht zu ziehen, um in den Genuss der Public Cloud (Shared Umgebung) zu kommen aber weiterhin Einfluss auf die Zukunftssicherheit, das Vertrauen, die Abhängigkeit und Kontrolle der Umgebung zu haben und Kostenvorteile u.a. durch Ressourcenallokation zu erzielen. Hierzu sollte man sich zudem überlegen, ein Team aufzubauen, dass sich exklusiv um den Aufbau, Betrieb, die Administration und Wartung der Community Cloud kümmert. Vergleiche dazu das ENX-Netzwerk. Dafür ist kein eigenes Rechenzentrum oder eine Co-Location erforderlich. Ein IaaS-Anbieter kann dazu als ideale Basis für eine Hosted Community Cloud dienen.

Categories
Analysis

Cloud Computing Integration: A pain in the ass!

Cloud computing providers should face reality and tell their potential clients the truth! The integration within the entire cloud stack leads to the biggest complexity in the cloud. This also includes the other costs which no public cloud provider, in addition to the on-demand and pay-per-use promises, transparent has on its marketing slides. An overview.

What is the expectation of the user?

Besides the on demand use and pay per use cloud computing provider promise easy access to IT resources. That sounds fantastic on paper and normally works very well. However, the fun stops when it comes to combine existing systems or even new services in the cloud. The integration caused the greatest pain.

Discussions with users and inquiries from cloud interested companies reflect a harsh reality. Expectations, for example, are to replace existing on-premise solutions with 1:1 equivalents in the cloud. The hope is that thus the integration effort – which formerly existed on premise – can be realized much easier, since the systems of the providers “are already within a centralized infrastructure”. It is thus assumed that the familiar interface problems that bother every IT department for decades can be implemented easier. From the user perspective this is a comprehensible expectation. Finally, the vendors keep the threads within their cloud infrastructure (including SaaS offerings) in their hand and could offer a simpler integration between multiple systems within the own services.

Similar feedback is coming from the cloud system integrators. APIs and integration of multi-vendor services but also provider proprietary services in the cloud lead to the same effort as on premise.

What is the reality?

In principle, the cloud should be the Mecca for every IT manager. He can pick out the best services for his use case, test it in advance without much effort, and then integrate it. However, the full extent of the disaster is reflected by current cloud marketplaces. Cloud marketplaces are trying to catalog best-of-breed solutions by merging individual cloud solutions in different categories and thus offer companies a comprehensive range of different solutions, with which a cloud productivity suite can be assembled. Nevertheless, these marketplaces, although they are very heavily controlled and supposedly integrated, at a crucial point massive problems with the integration. There are many individual SaaS applications that do not interact with each other. This means that no common data base exists and for example the email service can not access the data in the CRM service and vice versa. This creates individual data silos and isolated applications within the marketplace.

The number of new SaaS applications is growing everyday and with this the need to integrate these different solutions with each other to exchange data. Today, the cloud market moves uncontrolled in the direction of many small isolated application, each offering an added value for themselves but, in the end, lead to many data silos. With such developments, companies have fought back in the times before the cloud – for nothing.

What to consider?

One thing (prospective) cloud users should be aware of and especially understand. The cloud is unequal to the known on-premise infrastructure. This means that even the migration of an e-mail system, one of the supposedly highly standardised applications, becomes an adventure. The reason is that many companies do not use a standard e-mail system and instead have connected proprietary add-ons or self-developed extensions, that do not exist in the cloud.

There are also other applications that belong to the IT enterprise architecture to meet very individual needs. I spoke with the strategy manager of a German DAX company with a global footprint, which is currently evaluating a cloud strategy. The company has about 10,000(!) applications globally (desktop, server, production systems, etc.). This example is extreme and does not reflect the average challenges of a company. But it shows the dimension in which one can move and which can also be broken down to much smaller application infrastructures.

Before their path into the cloud, IT decision makers should take time to think about it and use the chance to eliminate the over the years evolved special cases. A 1:1 migration without great effort and additional costs would not work and the potential savings, which the cloud provides, put into perspective. Anyone who decides to move a individually developed application to a cloud infrastructure (IaaS) and Platform (PaaS) should plan with the development of the application on the Greenfield. A 1:1 migration (maybe depending on the cloud infrastructure/ platform) will not work and is a myth.

Who needs help for the operation of its virtual infrastructure (IaaS) and development platform (PaaS), should not rely on a public cloud provider, but on a managed cloud provider or hosted private PaaS provider, who both offer additional professional services.

Cutting out the middleman doesn’t work!

Due to the self-service the public cloud has a flavor of “cutting out the middleman” since the enduser purchased directly from the vendor. For distributors who have specialized exclusively on the pure resale of hardware and software, this is true. Software-as-a-service will lead to their death if they do not change. Cloud natives (start-ups, innovative enterprises) will also use self-service. However, this does not apply to the mass in the corporate environment.

System integrators are more important than ever before. “Cutting out the middleman” in the public cloud does not work. Considering that interface problems and the lack of cloud knowledge are present. With his assumption, that Accenture already makes a $3.6 billion revenue with cloud consulting and integration, Carlo is tend to be right. The evidence and feedback from the market are clear.

In any case, system integrators and integration-as-a-service providers can look forward to a rosy future.

Categories
Analysen

Integration und Cloud Computing: Irgendetwas zwischen Versprechen, Erwartungen, Komplexität und Mehrkosten

Cloud Computing Anbieter sollten sich der Realität stellen und ihren potentiellen Kunden die Wahrheit sagen! Die Integration im gesamten Cloud Stack sorgt für die größte Komplexität in der Cloud. Das beinhaltet ebenfalls die weiteren Kosten die kein Public Cloud Anbieter neben seinen on Demand und pay per use Versprechen transparent auf seinen Marketingfolien stehen hat. Ein Überblick.

Wie ist die Erwartungshaltung der Anwender?

Cloud Computing Anbieter versprechen neben der bedarfsgerechten Nutzung (on Demand) und Abrechnung (Pay per use) einen einfachen Zugriff auf IT-Ressourcen. Das hört sich auf dem Papier fantastisch an und funktioniert in der Regel sehr gut. Der Spaß hört allerdings auf wenn es darum geht, bestehende Systeme oder gar neue Services in der Cloud zu kombinieren. Die Integration verursacht die größten Schmerzen.

Gespräche mit Anwendern und Anfragen von an der Cloud interessierten Unternehmen spiegeln eine harte Realität wieder. Die Erwartungshaltungen bestehen z.B. darin, existierende on Premise Lösungen gegen 1:1 Äquivalente in der Cloud zu ersetzen. Die Hoffnung besteht, dass sich damit der Integrationsaufwand – der früher on Premise bestand – deutlich einfacher realisieren lässt, da sich die Systeme der jeweiligen Anbieter “bereits innerhalb einer zentralisierten Infrastruktur befinden”. Es wird also davon ausgegangen, dass sich die altbekannte Schnittstellenproblematik, die jeder IT-Abteilung seit Jahrzehnten große Probleme bereitet, einfacher umsetzen lässt. Dabei handelt es sich aus Anwendersicht um eine nachvollziehbare Erwartungshaltung. Schließlich halten die Anbieter die Fäden innerhalb ihrer Cloud Infrastruktur (auch SaaS-Angebote) in der Hand und könnten eine einfachere Integration zwischen mehreren Systemen aus dem eigenen Hause bieten.

Ähnliche Rückmeldungen kommen von den Cloud Systemintegratoren. APIs und die Integration von anbieterübergreifenden Services aber ebenfalls anbieterproprietären Services sorgen in der Cloud für den selben Aufwand wie on Premise.

Wie sieht die Realität aus?

Im Prinzip sollte die Cloud das Mekka für jeden IT-Verantwortlichen sein. Er kann sich die besten Services für seinen Anwendungsfall heraussuchen, diese vorab ohne großen Aufwand testen und anschließend integrieren. Das ganze Ausmaß des Disasters spiegeln allerdings bereits aktuelle Cloud Marktplätze wieder. Cloud-Marktplätze versuchen Best-of-Breed Lösungen zu katalogisieren, indem sie einzelne Cloud-Lösungen in unterschiedliche Kategorien zusammenfassen und Unternehmen damit ein umfangreiches Portfolio verschiedener Lösungen bieten, mit der sich eine Cloud-Produktivitäts-Suite zusammenstellen lässt. Dennoch zeigen diese Marktplätze, obwohl sie sehr stark kontrolliert und vermeintlich integriert sind, an einer entscheidenden Stelle massive Probleme mit der Integration. Es existieren viele einzelne SaaS-Applikationen die nicht zusammenspielen. Das bedeutet, dass keine gemeinsame Datenbasis existiert und das z.B. der E-Mail Service nicht auf die Daten im CRM-Service zugreifen kann und umgekehrt. Damit entstehen einzelne Datensilos und Insellösungen innerhalb des Marktplatzes.

Die Anzahl neuer SaaS-Applikationen wächst täglich und damit auch der Bedarf, diese unterschiedlichen Lösungen miteinander zu integrieren und Daten austauschen zu lassen. Aktuell bewegt sich der Cloud-Markt jedoch unkontrolliert auf viele kleine Insellösungen zu, die jede für sich zwar einen Mehrwert bieten, in der Summe jedoch zu vielen kleinen Dateninseln führen. Mit solchen Entwicklungen haben Unternehmen schon in den Zeiten vor der Cloud zu kämpfen gehabt und das vergebens.

Worauf sollte man achten?

Eines sollten (angehende) Cloud Nutzer beachten und vor allem verstehen. Die Cloud ist ungleich der bekannten on Premise Infrastruktur. Das bedeutet, selbst die Migration eines E-Mail Systems, einer der vermeintlich höchststandardisierten Anwendungen, wird dabei zum Abenteuer. Das liegt daran, dass viele Unternehmen kein Standard E-Mail System nutzen und stattdessen weitere proprietäre Add-ons oder selbstentwickelte Erweiterungen angebunden haben, die so nicht in der Cloud existieren.

Hinzu kommen weitere Applikationen, die einfach zur IT-Enterprise Architektur dazu gehören und höchst individuelle Ansprüche erfüllen. Ich habe mit dem Strategie-Manager eines deutschen DAX Unternehmens gesprochen das weltweit tätig ist und eine Cloud Strategie evaluiert. Das Unternehmen verfügt Global über etwa 10.000(!) Applikationen (Desktop, Server, Produktionssysteme usw.). Dieses Beispiel ist sehr extrem und spiegelt nicht die durchschnittlichen Herausforderungen eines Unternehmens dar. Es zeigt aber die Dimension, in der man sich bewegen kann und die sich ebenfalls auf deutlich kleinere Applikations-Infrastrukturen herunterbrechen lassen.

Vor dem Weg in die Cloud sollten sich IT-Entscheider daher darüber Gedanken machen und die Chance nutzen, die alten über die Jahre hinweg entstandenen Sonderlocken abzuschneiden. Eine 1:1 Migration wird ohne großen Aufwand und Mehrkosten nicht funktionieren und die Einsparpotentiale, welche die Cloud bietet, relativieren. Wer sich für den Umzug seiner individuell entwickelten Applikationen auf eine Cloud Infrastruktur (IaaS) bzw. Platform (PaaS) entscheidet sollte einplanen, das er mit der Entwicklung dieser Applikation auf der grünen Wiese startet. Eine 1:1 Migration wird (evtl. je nach Cloud Infrastruktur/ Platform) nicht funktionieren und ist ein Mythos.

Wer Hilfe beim Betrieb seiner virtuellen Infrastruktur (IaaS) bzw. Entwicklungsplattform (PaaS) benötigt, sollte nicht auf einen Public Cloud Anbieter setzen, sondern auf einen Managed Cloud Anbieter bzw. Hosted Private PaaS Anbieter, die beide zusätzlich Professional Services bieten.

Cutting out the middleman funktioniert nicht!

Die Public Cloud hat auf Grund des Self-Service den Beigeschmack des “Cutting out the middleman”, bei dem ein Zwischenhändler nicht mehr benötigt wird, da sich der Endkunde direkt beim Hersteller bedient. Für Distributoren, die sich ausschließlich auf den reinen Wiederverkauf von Software und Hardware spezialisiert haben, trifft dies auch zu. Software-as-a-Service wird zu deren Tod führen, wenn sie sich nicht verändern. Cloud Natives (Startups, innovative Unternehmen) werden sich ebenfalls den Self-Service zu nutze machen. Allerdings gilt das nicht für die Masse im Unternehmensumfeld.

Systemintegratoren werden wichtiger als jemals zuvor. “Cutting out the middleman” in der Public Cloud funktioniert nicht. Dafür sind die Schnittstellenproblematik und das fehlende Cloud Wissen zu gegenwärtig. Carlo liegt mit seiner Vermutung, dass Accenture mit Cloud Beratung und Integration bereits 3,6 Milliarden Dollar Umsatz macht, tendenziell richtig. Die Indizien und Rückmeldungen aus dem Markt sind eindeutig.

Auf jeden Fall dürfen sich Systemintegratoren und Integration-as-a-Service Anbieter auf eine rosige Zukunft freuen.

Categories
Analysen

Die Hybrid Cloud ist die Zukunft des Cloud Computing

Auch wenn viele Anbieter die Hybrid Cloud zwiegespalten betrachten, gibt es viele gute Gründe diese in die eigene Strategie einzubeziehen. Das gilt sowohl für die Anbieter als auch für die Anwender von Cloud Computing Lösungen. Denn im Laufe der letzten Jahre hat sich sehr klar herausgestellt, dass die Kombination von on-Premise IT-Infrastrukturen mit Public Clouds zu einem deutlichen Mehrwert führen. Haben viele Cloud Anbieter zunächst verstärkt nur das Public Cloud Modell beworben und alles andere vernachlässigt, sind es nun genau diese, die auf den Geschmack von Hybrid Cloud Lösungen gekommen sind und diese bei ihren Kunden bewerben. Aus diesem Grund sind ebenfalls mächtige Private Cloud Softwarelösungen notwendig, die on-Premise für den Aufbau einer echten Cloud Computing Infrastruktur genutzt werden können, um die Mehrwerte des Cloud-Modells auch innerhalb einer selbstverwalten IT-Infrastruktur zu erhalten.

Was ist eine Hybrid Cloud

Eine Hybrid Cloud kombiniert die Vorteile einer Private Cloud mit denen einer Public Cloud. Bei Bedarf lässt sich damit eine selbstverwaltete on-Premise IT-Infrastruktur mit weiteren Ressourcen und IT-Services aus der Public Cloud von einem oder mehreren Anbietern erweitern. Ist der Bedarf gedeckt oder werden die Ressourcen nicht mehr benötigt, werden diese nach der Nutzung wieder heruntergefahren und die on-Premise Infrastruktur arbeitet völlig autark weiter.

In jedem Fall ist es dabei ausschlaggebend, dass auf der on-Premise Seite dazu eine mächtige und auf den Hybrid-Betrieb bereite Cloud-Infrastruktur zur Verfügung steht, was nur durch eine professionelle Softwarelösung realisiert werden kann.

Gründe für die Hybrid Cloud

Hybrid Clouds sind so konzipiert, dass sie auf eine schnelle Art und Weise skalieren können und damit die Bedürfnisse eines Unternehmen kurzfristig erfüllen können. Da in dieser Cloud Form unterschiedliche aufeinander abgestimmte Typen der Cloud zusammenkommen, handelt es sich dabei um die ideale Lösung für die Umsetzung großer Projekte, die ein einzelnes Unternehmen alleine in seiner On-Premise Umgebung nicht umsetzen könnte. Weiterhin führt der Einsatz einer Hybrid Cloud zu Kosteneinsparungen für ein Unternehmen, indem keine Server und weiter Hardwarekomponenten vorgehalten werden müssen.

Eine Hybrid Cloud kann jederzeit und von überall in der Welt betrieben werden. Damit verfügt sie über eine globale Reichweite und erlaubt es Unternehmen auch geographische Grenzen sehr einfach und flexibel zu überwinden. Diese Art des Infrastrukturdesigns führt zudem zu einem sehr zuverlässigen Betrieb, auch im Fehlerfall innerhalb einer Region der Hybrid Cloud.

Drei Treiber für den Einsatz einer Hybrid Cloud

Erhöhung der Flexibilität

Unternehmen können auf Hybrid Clouds zurückgreifen, um damit die Anforderungen ihrer Applikationen und Business Cases schnell und flexible umsetzen und das sehr kosteneffektiv. Zum Beispiel muss die Datenbank eines Unternehmens aus Sicherheits- und Compliance-Gründen auf physikalischen Servern im eigenen Rechenzentrum betrieben werden. Mit einem Hybrid Cloud Ansatz lässt sich die Datenbank weiterhin in einer Private Cloud oder Virtual Private Cloud betreiben, während die Web-Applikation in einer Public Cloud Umgebung läuft.

Verbesserung der Skalierbarkeit

Unternehmen, die über Ressourcen innerhalb einer eigenen Private Cloud verfügen, möchten in der Lage sein, diese bequem zu erweitern oder ein „Bursting“ vornehmen, um einen hohen Bedarf an mehr Kapazitäten oder viel mehr Rechenleistung benötigen, welche sie aktuell nicht vorhalten können, um zum Beispiel Big Data Analytics vorzunehmen. Insbesondere bei sehr volatilen Workloads, die zeitweise zu unvorhersehbaren Lastspitzen führen, muss ein Unternehmen sicherstellen, dass ständig ein Zugriff auf zusätzliche und ausreichende Rechenleistung gewährleistet ist. Da lässt sich mit einer Hybrid Cloud sehr gut realisieren.

Einsatz mehrerer verteilter Umgebungen

Eine Hybrid Cloud Umgebung erlaubt es Unternehmen, eine Public Cloud für Aufgaben wie Entwicklung, Test und Ausprobieren einzusetzen und sobald die sensitiven Applikationen fertig für den produktiven Einsatz sind, innerhalb einer eigenen Private Cloud oder Virtual Private Cloud Umgebung zu überführen und dort zu betreiben. Aus Sicherheits- und Datenschutzgründen betreiben Organisationen ihre für die Produktion unternehmenskritischen Applikationen innerhalb einer Private Cloud Umgebung. Für die Entwicklung, Qualitätssicherung, dem Test und dem „einfach mal ausprobieren“, kann eine Public Cloud ausreichen, um die Kosten und den Aufwand für den eigenen Aufbau der benötigen Umgebung gering zu halten.

Use Cases einer Hybrid Cloud

Kurzfristiger on-Demand Bezug von Rechenleistung für interne Projekte

Auch wenn eine Private Cloud die Eigenschaften der Public Cloud in das eigene Rechenzentrum holt, bestehen die Grenzen in der physikalischen Verfügbarkeit der für die Virtualisierung notwendigen Ressourcen. Das kann zu Verzögerungen in Projekten und im Entwicklungszyklus führen. Durch das Aufspannen einer Hybrid Cloud können Entwickler auch dann weiter entwickeln, wenn die interne IT-Infrastruktur an ihre Grenzen gelangt ist und keine Ressourcen mehr bereitstellen kann. Dazu bedienen sich die Mitarbeiter über die Hybrid-Cloud Funktionalität der Private Cloud Lösung einfach bei einem Anbieter aus einer Public Cloud und nutzen dessen Ressourcen zur Überbrückung. Sind wir ausreichend Ressourcen in der Private Cloud vorhanden, können die Systeme in die eigene IT-Infrastruktur zurückgeholt werden. Da sich die Hybrid-Cloud Lösung die Abrechnung der externen Ressourcen überwacht, können die Kosten auch entsprechend den jeweiligen Abteilungen und Projekten zugeordnet werden.

Datenverarbeitung von unternehmensunkritischen Daten

Datenverarbeitung von Unternehmensdaten funktioniert auch in der Cloud. Der entscheidende Punkt besteht hierbei jedoch darin, dass diese zuvor nach kritischen und unkritischen Daten klassifiziert werden müssen. Somit lassen sich unternehmensunkritischen – wie anonymisierte Fakten oder Daten für Börsenforecasts – bequem in einer Public Cloud verarbeiten. Finanzdaten oder Datenschutzkritische Informationen gehören dagegen in die Private Cloud. In manchen Fällen müssen diese jedoch erst getrennt werden. Eine Applikation, die das Hybrid Cloud Konzept nutzt, kann hier zum Beispiel entscheiden, wo sie welche Daten verarbeiten soll.

Eine weitere Möglichkeit besteht in der Trennung der Daten von der eigentlichen Applikation, was im Normalfall die Regel ist. Datenbanken oder Speicher sind in gut architektonisch durchdachten von der Anwendung entkoppelt. Das bietet ebenfalls das Potential für den Einsatz einer Private Cloud. Die Applikation kann hochskalierbar in einer Public Cloud betrieben werden. Die notwendigen Daten und Datenbanken befinden sich in einer Private Cloud.

Einen Zeitvorteil verschaffen

Viele Organisationen verfügen nicht über personell gut ausgestattete IT-Abteilungen. Weiterhin dauert die Beschaffung, Installation und Bereitstellung der entsprechenden Ressourcen viel Zeit. Dadurch können Projekte auf Grund von IT-Ressourcenmangel mitunter gar nicht oder nur verspätet durchgeführt werden. Das Hybrid-Cloud Konzept bietet hier den sehr großen Vorteil, dass Entwickler über den Bezug von Ressourcen aus einer Public Cloud bereits mit dem Projekt starten können. Selbst dann, wenn die IT-Abteilung noch nicht die Möglichkeit besitzt, die notwendigen Ressourcen selbst bereitzustellen. Sind die eigenen Ressourcen vorhanden, kann auf diese anschließend gewechselt werden.

Wünschenswerte Funktionen einer Hybrid Cloud

Eine Private Cloud mit Hybrid-Funktionalität sollte vor allem eines sein, transparent. Sie muss nahtlos bestehende Public Cloud Umgebungen integrieren, ohne dass der Endanwender direkt bemerkt, dass er eine virtuelle Maschine extern bezieht, aber dennoch bewusst darauf aufmerksam gemacht werden.
Das bedeutet, dass ein End-Nutzer die Möglichkeit erhalten muss, sich über ein Self-Service Portal eigene virtuelle Maschinen (VMs) bei Public Cloud Anbietern zu provisionieren. Die Liste an verfügbaren VMs stellt ein Administrator bereit, um die Kontrolle über die Kosten und unkontrollierten IT-Wildwuchs zu behalten. Dazu gehört ebenfalls die anschließende Nutzung der virtuellen Maschine über eine graphische Nutzung, direkt aus dem Self-Service Portal heraus. Eine weitere sehr wichtige Funktion ist das automatische Deployment von Applikationen, die es dem End-Nutzer ermöglichen, sehr bequem einen vollständigen Softwarestack beim Start der virtuellen Maschinen über die Hybrid Cloud zu installieren. Letztendlich gehört ebenfalls eine automatische Abrechnung der Kosten in jede Hybrid-Cloud Lösung, die nahtlos in die Private Cloud Software integriert ist, um einen Überblick über alle verursachten Kosten zu erhalten und den entsprechenden Kostenstellen zuweisen zu können.

Administratoren muss über Monitoring Tools zudem die Möglichkeiten gegeben werden, Statusinformationen über die gestarteten virtuellen Maschinen und dem Zustand weiterer Teile der angebundenen Public Cloud Infrastruktur, zu bekommen. Eine besondere, aber immer wieder vernachlässigte Funktion ist das Berücksichtigen von High-Availability der Hybrid-Cloud Integration. Das bedeutet, dass wenn eine virtuelle Maschine in einen Fehlerzustand gerät und nicht mehr funktionsfähig ist, dass automatisch eine neue Maschine gestartet wird, ohne das der Nutzer dies im ersten Moment bemerkt. Weiterhin haben die meisten Public Cloud Anbieter ihre Cloud-Infrastruktur in sogenannte Availability Zones aufgeteilt. Dabei handelt es sich in der Regel um einzelne Rechenzentren innerhalb einer Region, in der sich wiederum mehrere Rechenzentren befinden. Auch ein Rechenzentrum oder Teile eines Rechenzentrums können in einen Fehlerzustand geraten. Auch in diesem Fall sollte die Hybrid-Cloud Lösung dafür sorgen, dass die auf der Public Cloud Umgebung gestarteten virtuellen Maschinen in einer funktionsfähigen Availability Zone hochgefahren werden, wenn sie in der fehlerbehafteten nicht mehr ansprechbar sind.

Die Cloud-Welt ist hybrid

Eine Hybrid Cloud ermöglicht einen eindeutigen Use Case für den Einsatz einer Public Cloud. Dabei können bestimmte Bereiche der IT-Infrastruktur (Rechenleistung und Speicherplatz) in einer Public Cloud Umgebung abgebildet werden. Der Rest und unternehmenskritische Bereiche bleiben innerhalb der selbstverwalteten on-Premise IT-Infrastruktur oder Private Cloud.

Darüber hinaus liefert das Hybrid Cloud Modell einen wertvollen Ansatz für das Architektur-Design, indem Teile der lokalen Infrastruktur, die hohe Kosten verursachen, aber gleichermaßen schwierig zu skalieren sind, mit Infrastrukturen kombiniert werden, die massiv skalierbar und bei Bedarf provisioniert werden können. Die Anwendungen und Daten werden auf der für den Einzelfall besten Plattform ausgerollt und die Verarbeitung zwischen beiden integriert.

Der Einsatz hybrider Szenarien bestätigt die Tatsache, dass nicht alle IT-Ressourcen in Public Cloud Umgebungen abgebildet werden sollten und für einige sogar niemals in Frage kommen. Werden Themen wie die Compliance, Geschwindigkeitsanforderungen und Sicherheitsbeschränkungen betrachtet, ist eine lokale Infrastruktur weiterhin notwendig. Die Erfahrungen aus dem hybriden Modell helfen dabei aber zu verstehen, welche Daten lokal bleiben sollten und welche innerhalb einer Public Cloud Umgebung verarbeitet werden können.