Categories
Insights @de

Umfrage: Platform-as-a-Service – Zukunft der deutschen Software-Industrie

Seit über fünf Jahren existieren Platform-as-a-Services (PaaS) am Markt, die sich im Laufe der letzten Jahre zu vollständigen Ökosystemen entwickelt haben. In den USA und Skandinavien gehören PaaS bereits zu den Standardwerkzeugen von professionellen Softwareentwicklern. In Deutschland verhalten sich Geschäftsführer und Entwicklungsleiter noch deutlich zurückhaltender. Dabei erhalten nicht nur deutsche Unternehmen, sondern ebenfalls klassische ISVs (Independent Service Provider) mit einem PaaS eine echte Alternative, um damit die unternehmensinternen Entwicklungssysteme und -Prozesse abzulösen und damit auf das Cloud-Zeitalter umzusteigen.

Neue PaaS-Betriebsmodelle verändern den Markt

Neue PaaS-Betriebsmodelle wie ein Hosted PaaS helfen nicht nur dabei Software-Entwicklungsprozesse deutlich effizienter zu gestalten, sondern auch Big Data Analytics intelligent umsetzen.

Ob und wie sich diese Situation bei deutschen ISVs und Softwarehäusern derzeit verändert und entwickelt, untersucht Crisp Research derzeit im Rahmen einer empirischen Studie “Platform-as-a-Service – Zukunft der deutschen Software-Industrie”.

Für weitere Informationen steht unser Projektleiter Max Hille zur Verfügung.

Umfrage: “Platform-as-a-Service – Zukunft der deutschen Software-Industrie”

Categories
Analysen

Salesforce baut Rechenzentrum in Deutschland. Wann folgen Amazon, Microsoft Google und Co.?

Salesforce wird im Jahr 2015 einen Rechenzentrumsstandort in Deutschland eröffnen. Crisp Research hält den Schritt als den einzig logisch Richtigen um deutsche Unternehmenskunden anzuziehen. Es bleibt allerdings die Frage offen, warum die anderen großen Cloud Player wie Amazon AWS, Microsoft und Google nicht schon lange in Deutschland gelandet sind!

Salesforce expandiert nach Europa

Nach einem Umsatzwachstum von 41 Prozent für das Finanzjahr 2014 wird der CRM Anbieter Salesforce seine Aktivitäten für das Finanzjahr 2015 in Europa weiter verstärken. Hierzu sollen europaweit mehr als 500 neue Arbeitsplätze und weitere Rechenzentren entstehen. Das erste der drei Rechenzentren wird nach Unternehmensangaben im August in Großbritannien eröffnet. Zwei weitere sollen im Jahr 2015 in Deutschland und Frankreich folgen. Bereits auf der letzten Salesforce Customer Company Tour im vergangenen Juli wurde ein Rechenzentrum für dieses Frühjahr in London angekündigt.

Auch Salesforce hat zu kämpfen

Fakt ist, trotz des Umsatzwachstums von 41 Prozent in Europa und stolz verkündeter Kunden wie BMW Group, Deutsche Post DHL, Sixt, Vaillant und Carl Zeiss Vision hat Salesforce es nicht leicht. Auch das zeigen die Investitionen und Expansionen mit weiteren Rechenzentren in Europa. Salesforce muss näher an den Kunden herankommen, wenn der Kunde nicht von alleine kommt. Es ist nicht das erste Bekenntnis, dass die Public Cloud in dieser Form nicht für alle funktioniert. Bereits im November letzten Jahres kündigte Salesforce CEO Mark Benioff mit dem “Salesforce Superpod” nichts anderes als eine Dedicated Private Cloud auf der Salesforce Infrastruktur an, um Kunden die Möglichkeit zu bieten das CRM-System nicht auf der Public Cloud, sondern einem extra für sie abgetrennten Bereich zu nutzen. Man sieht also, es wird ständig und in langsamen Schritten zurückgerudert. Natürlich nur im Sinne der Kunden.

Deutschland sollte nicht unterschätzt werden

Salesforce Expansion nach Deutschland zeigt außerdem, dass der Druck enorm sein muss und Deutschland attraktiver ist als vermutet. Schließlich behandeln die meisten amerikanischen Unternehmen den deutschen Markt eher stiefmütterlich.

Der Großteil der amerikanischen Cloud Anbieter versorgt den europäischen Markt derzeit über Rechenzentren in Irland (Dublin) und den Niederlanden (Amsterdam). Das stößt bei vielen Deutschen, vornehmlich Datenschützern und mittelständischen Unternehmen, auf Unbehagen. Das Speichern von Daten außerhalb von Deutschland und ein Vertrag maximal nach europäischem Recht wird nicht gerne gesehen. Jedoch sollte und darf der Wirtschaftsstandort Deutschland nicht vernachlässigt werden. Für die US-amerikanischen Unternehmen mag Deutschland zwar ein kleines Land sein, aber die Wirtschaftskraft zu unterschätzen wäre fatal.

Die Erwartungshaltung ist riesig

Salesforce positioniert sich mit Salesforce1 mittlerweile als eine allumfassende Plattform für die Entwicklung von Social, Mobile und weiteren Cloud-basierten Applikationen und richtet sich damit gezielt an Entwickler, ISVs, Endanwender und Administratoren. Salesforce versucht damit sein Image als reiner CRM-Anbieter abzuschütteln.

Salesforce sieht sich somit nicht mehr nur im Wettbewerb mit anderen CRM-Anbietern sondern ebenfalls mit den großen Playern wie Microsoft, Amazon AWS und Google, deren Cloud-Stack auch stetig weiter ausgebaut wird und bei fast allen nahezu vollständig ist. Die Expansion mit einem eigenen Rechenzentrum in Deutschland ist für Salesforce damit ein enormer Wettbewerbsvorteil gegenüber anderen Anbietern wie Amazon AWS, Microsoft oder Google. Insbesondere im stark umkämpften Markt für Unternehmenskunden, in denen Amazon AWS und Google sich schwer tun und wo Microsoft auf Grund seiner bestehenden breiten Kundenbasis bereits eine gute Ausgangslage hat.

Crisp Research ist der Meinung, dass spätestens nach dieser Ankündigung kein Anbieter, der den deutschen Markt als ernsthaft attraktiv betrachtet, mehr daran vorbeikommt, ebenfalls ein eigenes Rechenzentrum in Deutschland zu eröffnen. Zahlen von Crisp Research zeigen eine deutliche Anforderung von mittelständischen Unternehmen an Cloud Anbieter, dass die Daten in einem deutschen Rechenzentrum gespeichert werden müssen. Etwa 75 Prozent sehen darin die Notwendigkeit, um durch physische Lokalität der Daten das deutsche Recht einfacher anwendbar zu machen.

Microsoft sorgt für ein großes Fragezeichen

Warum hat zum Beispiel Microsoft nicht schon längst ein Rechenzentrum in Deutschland gebaut? Das Unternehmen ist seit Jahrzehnten in Deutschland tätig und sollte die Kundenbasis und deren Bedenken besser kennen als jeder andere Cloud Anbieter! Crisp Research hat erste Gerüchte über Rechenzentrumsstandorte von Amazon AWS und Microsoft in Deutschland gehört. Eine offizielle Bestätigung, als auch ein Dementi blieben bis heute allerdings aus.

Der Standortvorteil eines Rechenzentrums in Deutschland ist nicht zu vernachlässigen, um aktiv damit zu beginnen, den deutschen Unternehmen ihre Bedenken zu nehmen. Die Cloud Computing Anbieter haben in der Vergangenheit viel geredet und versprochen. Aussagekräftige Taten blieben jedoch aus. Nach IBM, mit einem Cloud-Rechenzentrum in Ehningen bei Stuttgart, hat nun auch Salesforce den richtigen Schritt gemacht. Wir sind gespannt wer folgen wird.

Categories
Analysen

Desktop-as-a-Service: Google begibt sich in die Abhängigkeit von VMware.

Im ersten Moment war es eine unerwartete Ankündigung, die auf dem zweiten Blick allerdings sehr schnell einen Sinn ergibt. VMware und Google haben in der vergangenen Woche eine Partnerschaft verkündet, um über VMwares Desktop-as-a-Service Plattform Unternehmen Windows-Applikationen, Daten und Desktops auf Google Chromebooks auszuliefern. Crisp Research hält die Partnerschaft für einen klugen Schachzug von beiden Beteiligten. Jedoch ist Google hier in einer deutlich schwächeren Partnersituation und gesteht Schwächen seines eigenen Cloud Service Portfolios für Unternehmenskunden ein.

Desktop-as-a-Service: Der Markt wird vielfältiger

Desktop-as-a-Service (DaaS) ist nach der Server- und Speicherentwicklung der nächste logische Schritt, bei dem vollständige Desktop-PCs im Rechenzentrum virtualisiert und von dort aus zentral auf Endgeräte ausgeliefert werden. Die Vorteile liegen klar auf der Hand. Vollwertige Computersysteme, die sogenannten Fat-Clients, führen zu maßgeblichen Investitionen in Hardware, Bereitstellung, Support, Betrieb und Aktualisierungen. Hinzukommen Ausgaben für die Sicherheit und Compliance.

Crisp Research beziffert die Jährlichen Gesamtausgaben von Standard Desktop-PCs auf rund 1.560 EUR. Durch die Umstellung auf Thin-Clients, die im minimalsten Fall nur über eine Netzwerkschnittstelle und ein BIOS verfügen, lassen sich die Ausgaben reduzieren und pro Desktop etwa 150-200 EUR pro Jahr einsparen.

Der Markt für DaaS wird zwischen zwei Segmenten unterschieden. Zum einen die grundlegenden Infrastrukturen. Dazu gehören Angebote von VMware, Citrix, Univention, Wyse oder Microsoft. Die sowohl als on-Premise als auch Public Cloud Angebote genutzt werden. Der Markt für DaaS Backendinfrastrukturen wird immer vielfältiger. Das jüngste prominente Mitglied sind die Amazon Web Services (AWS) mit den Amazon WorkSpaces. Nach Angaben von AWS Integrationspartnern waren die Test-Accounts für Amazon WorkSpaces innerhalb kürzester Zeit vergeben. Crisp Research geht davon aus, dass sich die Amazon Web Services als weltweit führender Anbieter von Infrastructure-as-a-Services auch in diesem Bereich signifikante Marktanteile sichern werden.

Auf der anderen Seite werden die Endgeräte benötigt, mit denen sich die virtualisierten Desktops nutzen lassen. Hierzu zählen klassischerweise die bekannten Thin-Clients. Google verfolgt mit seinen Chromebooks einen völlig neuen Ansatz. Das System startet direkt in das Chrome OS, was im Kern den Google Chrome Browser widerspiegelt. Ein Nutzer booted somit sofort in die Cloud.

Google Chromebooks – noch erhebliche Schwächen im Unternehmenseinsatz

Google Chromebooks sind auf der einen Seite revolutionär, da die lokale Komponente vollständig ausgeblendet wird und Daten und Applikationen zu 100 Prozent in der Cloud gespeichert bzw. aus der Cloud genutzt werden. Auf der anderen Seite birgt der Ansatz auch seine Schwächen, die derzeit mehr überwiegen als die vermeintlichen Vorteile die von einem Chromebook ausgehen.

Die Idee der Chromebooks ist grundsätzlich gut. Das lokale System verfügt über eine minimale Intelligenz und keine höherwertigen Softwarekomponenten, die wie bspw. ein Windows Betriebssystem, ständig mit einem Neustart auf dem aktuellen Stand gehalten werden müssen. Stattdessen ist der Browser das Betriebssystem, wodurch Google Software- und Sicherheitsupdates on-Demand vornehmen kann, ohne das der Nutzer davon etwas bemerkt.

Auch Googles Strategie sämtliche Services, wie zum Beispiel die Google Apps for Business Suite, mit den Chromebooks zu integrieren ist ein kluger Schachzug, um die User Experience der Chromebooks sowie die Public Cloud Services in die Unternehmen zu tragen und dort bekannter zu machen. Über den Google Apps eigenen Marketplace lassen sich in Zukunft zudem immer mehr Services von Drittanbietern monetarisieren. Leider ist die ganzheitliche Umsetzung bis heute nur mäßig. Bis auf Google Mail und Google Kalender ist der Rest der Google Apps for Business Suite nicht unternehmenstauglich. Insbesondere Google Docs, als Textverarbeitung Kernprodukt einer Office Suite, zeigt noch erhebliche Schwächen und steht in keiner Konkurrenz zu einem Microsoft Word. Auch wenn der Software-as-a-Service Markt stetig wächst, ist der Vorteil, der sich durch die lose und beliebige Nutzung von Cloud Services auf den Chromebooks ergibt, durch die nicht vorhandenen leistungsfähigen Enterprise Applikationen, die weiterhin benötigt werden, aufgehoben. Nutzer benötigen immer wieder Applikationen, die ausschließlich für lokale Betriebssysteme wie Windows, Mac oder Linux zur Verfügung stehen. Dieser Status wird nicht so bleiben, aber Stand heute existieren diese Nachteile.

VMware öffnet Google das Tor in die Unternehmen

Um seinen Chromebooks eine echte Business Customer Experience zu bieten ist die Partnerschaft mit VMware ein notwendiger und kluger Schachzug, um in kurzer Zeit einen Fuß in die Türen der Unternehmen zu bekommen. Anwender können damit auf ihre Windows Anwendungen, Daten und Desktops anhand der VMware Blast HTML5 Technologie über einen Web-basierten Katalog vom Chromebook aus zugreifen.

Zudem können Unternehmen mittels VMware Horizon DaaS zwischen einer Virtual Desktop Infrastructure (VDI) oder Remote Desktop Services (RDS) Verbindung wählen. Zusammen mit VMware Horizon View lassen sich die Chromebooks als on-Premise Service nutzen. In Zukunft soll die gemeinsame Lösung als DaaS-Angebot von VMware und anderen vCloud Service Anbietern in der Cloud oder in hybriden Umgebungen zur Verfügung gestellt werden.

Google – Abschied von der reinen Public-Cloud-Lehre

Die Partnerschaft zwischen VMware und Google zeigt, dass Google derzeit noch nicht in der Lage ist, den Enterprise-IT-Markt allein mit eigenen Kräften zu überzeugen. Die Anforderungen der Unternehmensanwender sind derzeit noch zu vielfältig und komplex – und verlangen daher nach hybriden und stark integrierten Lösungen.

Mit der VMware-Partnerschaft kann es Google aber vielleicht gelingen, ein trojanisches Pferd in die Unternehmen einzuschleusen und deren Nutzer von der browser-basierten User Experience seiner Cloud-Dienste abhängig zu machen. Ob das Anfixen über die Virtual Desktop Services auf den Chromebooks langfristig funktioniert bleibt abzuwarten. Sicher ist, dass Google das Enterprise Business mittlerweile ernst nimmt und nicht als reines Anhängsel seines Online Werbegeschäfts versteht. Nach Einschätzungen von Crisp Research bereitet Google derzeit noch weitere Kooperation vor, die das Standing seiner Google Apps auf Seiten großer IT-Anwender verbessern sollen.

Categories
Analysen

Die Community Cloud wird an Bedeutung gewinnen.

Wie kommen Unternehmen aus der Cloud heraus ohne ihre Komfortzone zu verlieren. Diese Fragen hören wir immer wieder. Ich bin der Meinung, dass man sich nicht zwangsläufig aus der Cloud zurückziehen muss, sondern einfach versuchen sollte, mehr Kontrolle zurückzugewinnen und die Ideen der Cloud für sich selbst zu nutzen. In diesem Zusammenhang sollte man die Community Cloud in Betracht ziehen, denn diese wird in meinen Augen immer mehr an Bedeutung gewinnen. Der Bedarf und vor allem das Verständnis hierfür muss nur geweckt werden. Tenor: “Aufbau einer eigenen Hosted Private Cloud, betrieben von einer Gemeinschaft die sich vertraut.” Das ist sowohl für Unternehmen, Organisationen, Bürogemeinschaften und regelmäßige Projektpartner interessant.

Was ist eine Community Cloud?

Innerhalb einer Community Cloud schließen sich Unternehmen einer gleichen Branche zusammen und fassen ihren eigenen Private Clouds zu einer Community Cloud zusammen, die nur exklusiv diesen Mitgliedern zugänglich ist. Community Clouds bieten sich an, wenn Unternehmen dieselben Anforderungen und Aufgaben haben und die Infrastruktur auf ähnliche Weise nutzen wollen. Der Vorteil einer Community Cloud besteht in der Reduzierung des Kapazitätsbedarfs und somit einer verbesserten Ressourcenallokation auf Grund der gemeinsamen Nutzung von Ressourcen. Dies führt zu einer allgemeinen Kostenreduzierung und verringert den allgemeinen Overhead. Abgesehen von der darunterliegenden Infrastruktur können alle Mitglieder der Community Cloud ebenfalls dieselben Services und Applikationen gemeinsam nutzen.

Ein sehr gutes Beispiel für eine Community Cloud ist das ENX Netzwerk, ein Zusammenschluss der “europäischen Automobilindustrie für den sicheren Austausch kritischer Entwicklungs-, Einkaufs-, und Produktionssteuerungsdaten.” Das ENX bietet den angeschlossenen Automobilherstellern- und Lieferanten unternehmensübergreifende Managed Security Services und einen einheitlichen Service Level des darunter liegenden Netzwerkes. Gleichzeitig ist das ENX Netzwerk für die angeschlossenen Nutzer so offen und flexibel gestaltet wie das öffentliche Internet.

Gründe für eine Community Cloud

Bereits das Ergebnis einer BITKOM Studie im Februar 2013 kam zu dem Ergebnis, dass im Jahr 2012 immerhin 34 Prozent auf eine Private Cloud setzen und 29 Prozent planen, diese Cloud-Form in Zukunft einzusetzen. Der Grund dafür liegt in der Angst vor einem Datenverlust in der Public Cloud. Das sagten zumindest 79 Prozent.

Die Neuauflage der BITKOM Studie, mit aktuellen Ergebnissen für das Jahr 2013, liefert ein paar Veränderungen. Weiterhin setzten mit 36 Prozent der befragten Unternehmen die meisten auf eine Private Cloud. Das sind zwei Prozent mehr als im Jahr 2012. Das Interesse an der Public Cloud hat mit insgesamt 15 Prozent deutlicher zugenommen.

Interessanterweise gaben allerdings auch 77 Prozent der Unternehmen an, dass die größte Hürde für den Einsatz einer Private Cloud [… die Sorge vor einem unberechtigten Zugriff auf sensible Daten …] ist. Weitere 45 Prozent haben Angst vor einem Verlust der Daten, die in der Private Cloud gespeichert sind.

Zukunftssicherheit, Vertrauen und Abhängigkeit

Während eines Vortrags bei einem Unternehmen dessen Namen ich nicht nennen darf und mit Folien die nicht öffentlich zugänglich sind, habe ich in meinen zukünftigen Cloud-Trends die Treiber für die steigende Bedeutung von Community Clouds aufgezeigt.

Ich habe dabei die drei Treiber als “höhere Zukunftssicherheit”, “größeres Vertrauen” und “weniger Abhängigkeit/ mehr Kontrolle” charakterisiert. Es sind exakt die Themen, die auch in aktuellen Diskussionen immer wieder aufkommen. Damals, im März 2013, habe ich die “höhere Zukunftssicherheit” am Beispiel der Schließung vom Google Reader festgemacht. Da die Nutzer sich nicht sicher sein können, wie lange ein Cloud Service überhaupt überlebt. Als Beispiel für “größeres Vertrauen” mussten die mittlerweile bestätigten Berichte, dass Amazon AWS eine Cloud für den CIA bauen soll, herhalten. Schließlich sollte man schon stutzig werden, wenn ein Marktführer mit einem Geheimdienst zusammenarbeitet – wie wir mittlerweile alle feststellen durften… Den Grund für “(weniger) Abhängigkeit” habe ich aus dem Zeit-Artikel “Das autarke Dorf“, der im selben Zeitraum erschienen ist und bei dem es darum geht, dass ein kleines Dorf in Brandenburg sich unabhängig von den Energiekonzernen gemacht hat und dort sogar ein eigenes Stromnetz besitzt. Cloud Computing = Utility Computing = Stromnetz…

Maximale Zentralität hin zur Semi-Dezentralität

Allein auf Grund dieser drei Treiber, plus den aktuellen Diskussionen, sehe ich ein wachsendes Potential für die Community Cloud, die derzeit noch keine große Verbreitung hat. In diesem Zusammenhang sehe ich zudem einen Wechsel von einer zurzeit stark ausgeprägten Zentralität zu einer Semi-Dezentralität.

Die meisten Unternehmen und Organisationen sehen in der Public Cloud einen großen Vorteil und wollen in ihren Genuss kommen, um Kosten zu reduzieren, ihre IT zu konsolidieren und gleichermaßen mehr Skalierbarkeit und Flexibilität erhalten. Auf der anderen Seite sind Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle wichtige Artefakte, die niemand gerne aufgeben möchte.

Die Community Cloud ist der Mittelweg, um beides zu erreichen. Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle durch den Einfluss, was in der Community Cloud passiert und die Vorteile einer Public Cloud, durch das Partizipieren von einer echten Cloud Infrastruktur.

Tipp: Hosted Community Cloud

Es stehen mittlerweile einige Lösungen bereit, die als Basis für die eigene professionelle (Community) Cloud genutzt werden können. Dabei sollte man jedoch immer ein Auge auf die grundlegende Infrastruktur richten, die das Rückgrat der gesamten Cloud bildet. In diesem Zusammenhang darf man allerdings auch nicht den Aufwand unterschätzen, den es bedeutet, eine professionelle Cloud-Umgebung aufzubauen, ordnungsgemäß zu betreiben und zu warten. Weiterhin sind die Kosten für die notwendigen physikalischen Ressourcen zu kalkulieren.

Aus diesem Grund macht es für viele kleinere und mittlere Unternehmen, aber auch Bürogemeinschaften, Co-Working Spaces oder regelmäßige Projektpartnerschaften Sinn, den Community Cloud Gedanken in Betracht zu ziehen, um in den Genuss der Public Cloud (Shared Umgebung) zu kommen aber weiterhin Einfluss auf die Zukunftssicherheit, das Vertrauen, die Abhängigkeit und Kontrolle der Umgebung zu haben und Kostenvorteile u.a. durch Ressourcenallokation zu erzielen. Hierzu sollte man sich zudem überlegen, ein Team aufzubauen, dass sich exklusiv um den Aufbau, Betrieb, die Administration und Wartung der Community Cloud kümmert. Vergleiche dazu das ENX-Netzwerk. Dafür ist kein eigenes Rechenzentrum oder eine Co-Location erforderlich. Ein IaaS-Anbieter kann dazu als ideale Basis für eine Hosted Community Cloud dienen.

Categories
Analysen

Integration und Cloud Computing: Irgendetwas zwischen Versprechen, Erwartungen, Komplexität und Mehrkosten

Cloud Computing Anbieter sollten sich der Realität stellen und ihren potentiellen Kunden die Wahrheit sagen! Die Integration im gesamten Cloud Stack sorgt für die größte Komplexität in der Cloud. Das beinhaltet ebenfalls die weiteren Kosten die kein Public Cloud Anbieter neben seinen on Demand und pay per use Versprechen transparent auf seinen Marketingfolien stehen hat. Ein Überblick.

Wie ist die Erwartungshaltung der Anwender?

Cloud Computing Anbieter versprechen neben der bedarfsgerechten Nutzung (on Demand) und Abrechnung (Pay per use) einen einfachen Zugriff auf IT-Ressourcen. Das hört sich auf dem Papier fantastisch an und funktioniert in der Regel sehr gut. Der Spaß hört allerdings auf wenn es darum geht, bestehende Systeme oder gar neue Services in der Cloud zu kombinieren. Die Integration verursacht die größten Schmerzen.

Gespräche mit Anwendern und Anfragen von an der Cloud interessierten Unternehmen spiegeln eine harte Realität wieder. Die Erwartungshaltungen bestehen z.B. darin, existierende on Premise Lösungen gegen 1:1 Äquivalente in der Cloud zu ersetzen. Die Hoffnung besteht, dass sich damit der Integrationsaufwand – der früher on Premise bestand – deutlich einfacher realisieren lässt, da sich die Systeme der jeweiligen Anbieter “bereits innerhalb einer zentralisierten Infrastruktur befinden”. Es wird also davon ausgegangen, dass sich die altbekannte Schnittstellenproblematik, die jeder IT-Abteilung seit Jahrzehnten große Probleme bereitet, einfacher umsetzen lässt. Dabei handelt es sich aus Anwendersicht um eine nachvollziehbare Erwartungshaltung. Schließlich halten die Anbieter die Fäden innerhalb ihrer Cloud Infrastruktur (auch SaaS-Angebote) in der Hand und könnten eine einfachere Integration zwischen mehreren Systemen aus dem eigenen Hause bieten.

Ähnliche Rückmeldungen kommen von den Cloud Systemintegratoren. APIs und die Integration von anbieterübergreifenden Services aber ebenfalls anbieterproprietären Services sorgen in der Cloud für den selben Aufwand wie on Premise.

Wie sieht die Realität aus?

Im Prinzip sollte die Cloud das Mekka für jeden IT-Verantwortlichen sein. Er kann sich die besten Services für seinen Anwendungsfall heraussuchen, diese vorab ohne großen Aufwand testen und anschließend integrieren. Das ganze Ausmaß des Disasters spiegeln allerdings bereits aktuelle Cloud Marktplätze wieder. Cloud-Marktplätze versuchen Best-of-Breed Lösungen zu katalogisieren, indem sie einzelne Cloud-Lösungen in unterschiedliche Kategorien zusammenfassen und Unternehmen damit ein umfangreiches Portfolio verschiedener Lösungen bieten, mit der sich eine Cloud-Produktivitäts-Suite zusammenstellen lässt. Dennoch zeigen diese Marktplätze, obwohl sie sehr stark kontrolliert und vermeintlich integriert sind, an einer entscheidenden Stelle massive Probleme mit der Integration. Es existieren viele einzelne SaaS-Applikationen die nicht zusammenspielen. Das bedeutet, dass keine gemeinsame Datenbasis existiert und das z.B. der E-Mail Service nicht auf die Daten im CRM-Service zugreifen kann und umgekehrt. Damit entstehen einzelne Datensilos und Insellösungen innerhalb des Marktplatzes.

Die Anzahl neuer SaaS-Applikationen wächst täglich und damit auch der Bedarf, diese unterschiedlichen Lösungen miteinander zu integrieren und Daten austauschen zu lassen. Aktuell bewegt sich der Cloud-Markt jedoch unkontrolliert auf viele kleine Insellösungen zu, die jede für sich zwar einen Mehrwert bieten, in der Summe jedoch zu vielen kleinen Dateninseln führen. Mit solchen Entwicklungen haben Unternehmen schon in den Zeiten vor der Cloud zu kämpfen gehabt und das vergebens.

Worauf sollte man achten?

Eines sollten (angehende) Cloud Nutzer beachten und vor allem verstehen. Die Cloud ist ungleich der bekannten on Premise Infrastruktur. Das bedeutet, selbst die Migration eines E-Mail Systems, einer der vermeintlich höchststandardisierten Anwendungen, wird dabei zum Abenteuer. Das liegt daran, dass viele Unternehmen kein Standard E-Mail System nutzen und stattdessen weitere proprietäre Add-ons oder selbstentwickelte Erweiterungen angebunden haben, die so nicht in der Cloud existieren.

Hinzu kommen weitere Applikationen, die einfach zur IT-Enterprise Architektur dazu gehören und höchst individuelle Ansprüche erfüllen. Ich habe mit dem Strategie-Manager eines deutschen DAX Unternehmens gesprochen das weltweit tätig ist und eine Cloud Strategie evaluiert. Das Unternehmen verfügt Global über etwa 10.000(!) Applikationen (Desktop, Server, Produktionssysteme usw.). Dieses Beispiel ist sehr extrem und spiegelt nicht die durchschnittlichen Herausforderungen eines Unternehmens dar. Es zeigt aber die Dimension, in der man sich bewegen kann und die sich ebenfalls auf deutlich kleinere Applikations-Infrastrukturen herunterbrechen lassen.

Vor dem Weg in die Cloud sollten sich IT-Entscheider daher darüber Gedanken machen und die Chance nutzen, die alten über die Jahre hinweg entstandenen Sonderlocken abzuschneiden. Eine 1:1 Migration wird ohne großen Aufwand und Mehrkosten nicht funktionieren und die Einsparpotentiale, welche die Cloud bietet, relativieren. Wer sich für den Umzug seiner individuell entwickelten Applikationen auf eine Cloud Infrastruktur (IaaS) bzw. Platform (PaaS) entscheidet sollte einplanen, das er mit der Entwicklung dieser Applikation auf der grünen Wiese startet. Eine 1:1 Migration wird (evtl. je nach Cloud Infrastruktur/ Platform) nicht funktionieren und ist ein Mythos.

Wer Hilfe beim Betrieb seiner virtuellen Infrastruktur (IaaS) bzw. Entwicklungsplattform (PaaS) benötigt, sollte nicht auf einen Public Cloud Anbieter setzen, sondern auf einen Managed Cloud Anbieter bzw. Hosted Private PaaS Anbieter, die beide zusätzlich Professional Services bieten.

Cutting out the middleman funktioniert nicht!

Die Public Cloud hat auf Grund des Self-Service den Beigeschmack des “Cutting out the middleman”, bei dem ein Zwischenhändler nicht mehr benötigt wird, da sich der Endkunde direkt beim Hersteller bedient. Für Distributoren, die sich ausschließlich auf den reinen Wiederverkauf von Software und Hardware spezialisiert haben, trifft dies auch zu. Software-as-a-Service wird zu deren Tod führen, wenn sie sich nicht verändern. Cloud Natives (Startups, innovative Unternehmen) werden sich ebenfalls den Self-Service zu nutze machen. Allerdings gilt das nicht für die Masse im Unternehmensumfeld.

Systemintegratoren werden wichtiger als jemals zuvor. “Cutting out the middleman” in der Public Cloud funktioniert nicht. Dafür sind die Schnittstellenproblematik und das fehlende Cloud Wissen zu gegenwärtig. Carlo liegt mit seiner Vermutung, dass Accenture mit Cloud Beratung und Integration bereits 3,6 Milliarden Dollar Umsatz macht, tendenziell richtig. Die Indizien und Rückmeldungen aus dem Markt sind eindeutig.

Auf jeden Fall dürfen sich Systemintegratoren und Integration-as-a-Service Anbieter auf eine rosige Zukunft freuen.

Categories
Analysen

Die Hybrid Cloud ist die Zukunft des Cloud Computing

Auch wenn viele Anbieter die Hybrid Cloud zwiegespalten betrachten, gibt es viele gute Gründe diese in die eigene Strategie einzubeziehen. Das gilt sowohl für die Anbieter als auch für die Anwender von Cloud Computing Lösungen. Denn im Laufe der letzten Jahre hat sich sehr klar herausgestellt, dass die Kombination von on-Premise IT-Infrastrukturen mit Public Clouds zu einem deutlichen Mehrwert führen. Haben viele Cloud Anbieter zunächst verstärkt nur das Public Cloud Modell beworben und alles andere vernachlässigt, sind es nun genau diese, die auf den Geschmack von Hybrid Cloud Lösungen gekommen sind und diese bei ihren Kunden bewerben. Aus diesem Grund sind ebenfalls mächtige Private Cloud Softwarelösungen notwendig, die on-Premise für den Aufbau einer echten Cloud Computing Infrastruktur genutzt werden können, um die Mehrwerte des Cloud-Modells auch innerhalb einer selbstverwalten IT-Infrastruktur zu erhalten.

Was ist eine Hybrid Cloud

Eine Hybrid Cloud kombiniert die Vorteile einer Private Cloud mit denen einer Public Cloud. Bei Bedarf lässt sich damit eine selbstverwaltete on-Premise IT-Infrastruktur mit weiteren Ressourcen und IT-Services aus der Public Cloud von einem oder mehreren Anbietern erweitern. Ist der Bedarf gedeckt oder werden die Ressourcen nicht mehr benötigt, werden diese nach der Nutzung wieder heruntergefahren und die on-Premise Infrastruktur arbeitet völlig autark weiter.

In jedem Fall ist es dabei ausschlaggebend, dass auf der on-Premise Seite dazu eine mächtige und auf den Hybrid-Betrieb bereite Cloud-Infrastruktur zur Verfügung steht, was nur durch eine professionelle Softwarelösung realisiert werden kann.

Gründe für die Hybrid Cloud

Hybrid Clouds sind so konzipiert, dass sie auf eine schnelle Art und Weise skalieren können und damit die Bedürfnisse eines Unternehmen kurzfristig erfüllen können. Da in dieser Cloud Form unterschiedliche aufeinander abgestimmte Typen der Cloud zusammenkommen, handelt es sich dabei um die ideale Lösung für die Umsetzung großer Projekte, die ein einzelnes Unternehmen alleine in seiner On-Premise Umgebung nicht umsetzen könnte. Weiterhin führt der Einsatz einer Hybrid Cloud zu Kosteneinsparungen für ein Unternehmen, indem keine Server und weiter Hardwarekomponenten vorgehalten werden müssen.

Eine Hybrid Cloud kann jederzeit und von überall in der Welt betrieben werden. Damit verfügt sie über eine globale Reichweite und erlaubt es Unternehmen auch geographische Grenzen sehr einfach und flexibel zu überwinden. Diese Art des Infrastrukturdesigns führt zudem zu einem sehr zuverlässigen Betrieb, auch im Fehlerfall innerhalb einer Region der Hybrid Cloud.

Drei Treiber für den Einsatz einer Hybrid Cloud

Erhöhung der Flexibilität

Unternehmen können auf Hybrid Clouds zurückgreifen, um damit die Anforderungen ihrer Applikationen und Business Cases schnell und flexible umsetzen und das sehr kosteneffektiv. Zum Beispiel muss die Datenbank eines Unternehmens aus Sicherheits- und Compliance-Gründen auf physikalischen Servern im eigenen Rechenzentrum betrieben werden. Mit einem Hybrid Cloud Ansatz lässt sich die Datenbank weiterhin in einer Private Cloud oder Virtual Private Cloud betreiben, während die Web-Applikation in einer Public Cloud Umgebung läuft.

Verbesserung der Skalierbarkeit

Unternehmen, die über Ressourcen innerhalb einer eigenen Private Cloud verfügen, möchten in der Lage sein, diese bequem zu erweitern oder ein „Bursting“ vornehmen, um einen hohen Bedarf an mehr Kapazitäten oder viel mehr Rechenleistung benötigen, welche sie aktuell nicht vorhalten können, um zum Beispiel Big Data Analytics vorzunehmen. Insbesondere bei sehr volatilen Workloads, die zeitweise zu unvorhersehbaren Lastspitzen führen, muss ein Unternehmen sicherstellen, dass ständig ein Zugriff auf zusätzliche und ausreichende Rechenleistung gewährleistet ist. Da lässt sich mit einer Hybrid Cloud sehr gut realisieren.

Einsatz mehrerer verteilter Umgebungen

Eine Hybrid Cloud Umgebung erlaubt es Unternehmen, eine Public Cloud für Aufgaben wie Entwicklung, Test und Ausprobieren einzusetzen und sobald die sensitiven Applikationen fertig für den produktiven Einsatz sind, innerhalb einer eigenen Private Cloud oder Virtual Private Cloud Umgebung zu überführen und dort zu betreiben. Aus Sicherheits- und Datenschutzgründen betreiben Organisationen ihre für die Produktion unternehmenskritischen Applikationen innerhalb einer Private Cloud Umgebung. Für die Entwicklung, Qualitätssicherung, dem Test und dem „einfach mal ausprobieren“, kann eine Public Cloud ausreichen, um die Kosten und den Aufwand für den eigenen Aufbau der benötigen Umgebung gering zu halten.

Use Cases einer Hybrid Cloud

Kurzfristiger on-Demand Bezug von Rechenleistung für interne Projekte

Auch wenn eine Private Cloud die Eigenschaften der Public Cloud in das eigene Rechenzentrum holt, bestehen die Grenzen in der physikalischen Verfügbarkeit der für die Virtualisierung notwendigen Ressourcen. Das kann zu Verzögerungen in Projekten und im Entwicklungszyklus führen. Durch das Aufspannen einer Hybrid Cloud können Entwickler auch dann weiter entwickeln, wenn die interne IT-Infrastruktur an ihre Grenzen gelangt ist und keine Ressourcen mehr bereitstellen kann. Dazu bedienen sich die Mitarbeiter über die Hybrid-Cloud Funktionalität der Private Cloud Lösung einfach bei einem Anbieter aus einer Public Cloud und nutzen dessen Ressourcen zur Überbrückung. Sind wir ausreichend Ressourcen in der Private Cloud vorhanden, können die Systeme in die eigene IT-Infrastruktur zurückgeholt werden. Da sich die Hybrid-Cloud Lösung die Abrechnung der externen Ressourcen überwacht, können die Kosten auch entsprechend den jeweiligen Abteilungen und Projekten zugeordnet werden.

Datenverarbeitung von unternehmensunkritischen Daten

Datenverarbeitung von Unternehmensdaten funktioniert auch in der Cloud. Der entscheidende Punkt besteht hierbei jedoch darin, dass diese zuvor nach kritischen und unkritischen Daten klassifiziert werden müssen. Somit lassen sich unternehmensunkritischen – wie anonymisierte Fakten oder Daten für Börsenforecasts – bequem in einer Public Cloud verarbeiten. Finanzdaten oder Datenschutzkritische Informationen gehören dagegen in die Private Cloud. In manchen Fällen müssen diese jedoch erst getrennt werden. Eine Applikation, die das Hybrid Cloud Konzept nutzt, kann hier zum Beispiel entscheiden, wo sie welche Daten verarbeiten soll.

Eine weitere Möglichkeit besteht in der Trennung der Daten von der eigentlichen Applikation, was im Normalfall die Regel ist. Datenbanken oder Speicher sind in gut architektonisch durchdachten von der Anwendung entkoppelt. Das bietet ebenfalls das Potential für den Einsatz einer Private Cloud. Die Applikation kann hochskalierbar in einer Public Cloud betrieben werden. Die notwendigen Daten und Datenbanken befinden sich in einer Private Cloud.

Einen Zeitvorteil verschaffen

Viele Organisationen verfügen nicht über personell gut ausgestattete IT-Abteilungen. Weiterhin dauert die Beschaffung, Installation und Bereitstellung der entsprechenden Ressourcen viel Zeit. Dadurch können Projekte auf Grund von IT-Ressourcenmangel mitunter gar nicht oder nur verspätet durchgeführt werden. Das Hybrid-Cloud Konzept bietet hier den sehr großen Vorteil, dass Entwickler über den Bezug von Ressourcen aus einer Public Cloud bereits mit dem Projekt starten können. Selbst dann, wenn die IT-Abteilung noch nicht die Möglichkeit besitzt, die notwendigen Ressourcen selbst bereitzustellen. Sind die eigenen Ressourcen vorhanden, kann auf diese anschließend gewechselt werden.

Wünschenswerte Funktionen einer Hybrid Cloud

Eine Private Cloud mit Hybrid-Funktionalität sollte vor allem eines sein, transparent. Sie muss nahtlos bestehende Public Cloud Umgebungen integrieren, ohne dass der Endanwender direkt bemerkt, dass er eine virtuelle Maschine extern bezieht, aber dennoch bewusst darauf aufmerksam gemacht werden.
Das bedeutet, dass ein End-Nutzer die Möglichkeit erhalten muss, sich über ein Self-Service Portal eigene virtuelle Maschinen (VMs) bei Public Cloud Anbietern zu provisionieren. Die Liste an verfügbaren VMs stellt ein Administrator bereit, um die Kontrolle über die Kosten und unkontrollierten IT-Wildwuchs zu behalten. Dazu gehört ebenfalls die anschließende Nutzung der virtuellen Maschine über eine graphische Nutzung, direkt aus dem Self-Service Portal heraus. Eine weitere sehr wichtige Funktion ist das automatische Deployment von Applikationen, die es dem End-Nutzer ermöglichen, sehr bequem einen vollständigen Softwarestack beim Start der virtuellen Maschinen über die Hybrid Cloud zu installieren. Letztendlich gehört ebenfalls eine automatische Abrechnung der Kosten in jede Hybrid-Cloud Lösung, die nahtlos in die Private Cloud Software integriert ist, um einen Überblick über alle verursachten Kosten zu erhalten und den entsprechenden Kostenstellen zuweisen zu können.

Administratoren muss über Monitoring Tools zudem die Möglichkeiten gegeben werden, Statusinformationen über die gestarteten virtuellen Maschinen und dem Zustand weiterer Teile der angebundenen Public Cloud Infrastruktur, zu bekommen. Eine besondere, aber immer wieder vernachlässigte Funktion ist das Berücksichtigen von High-Availability der Hybrid-Cloud Integration. Das bedeutet, dass wenn eine virtuelle Maschine in einen Fehlerzustand gerät und nicht mehr funktionsfähig ist, dass automatisch eine neue Maschine gestartet wird, ohne das der Nutzer dies im ersten Moment bemerkt. Weiterhin haben die meisten Public Cloud Anbieter ihre Cloud-Infrastruktur in sogenannte Availability Zones aufgeteilt. Dabei handelt es sich in der Regel um einzelne Rechenzentren innerhalb einer Region, in der sich wiederum mehrere Rechenzentren befinden. Auch ein Rechenzentrum oder Teile eines Rechenzentrums können in einen Fehlerzustand geraten. Auch in diesem Fall sollte die Hybrid-Cloud Lösung dafür sorgen, dass die auf der Public Cloud Umgebung gestarteten virtuellen Maschinen in einer funktionsfähigen Availability Zone hochgefahren werden, wenn sie in der fehlerbehafteten nicht mehr ansprechbar sind.

Die Cloud-Welt ist hybrid

Eine Hybrid Cloud ermöglicht einen eindeutigen Use Case für den Einsatz einer Public Cloud. Dabei können bestimmte Bereiche der IT-Infrastruktur (Rechenleistung und Speicherplatz) in einer Public Cloud Umgebung abgebildet werden. Der Rest und unternehmenskritische Bereiche bleiben innerhalb der selbstverwalteten on-Premise IT-Infrastruktur oder Private Cloud.

Darüber hinaus liefert das Hybrid Cloud Modell einen wertvollen Ansatz für das Architektur-Design, indem Teile der lokalen Infrastruktur, die hohe Kosten verursachen, aber gleichermaßen schwierig zu skalieren sind, mit Infrastrukturen kombiniert werden, die massiv skalierbar und bei Bedarf provisioniert werden können. Die Anwendungen und Daten werden auf der für den Einzelfall besten Plattform ausgerollt und die Verarbeitung zwischen beiden integriert.

Der Einsatz hybrider Szenarien bestätigt die Tatsache, dass nicht alle IT-Ressourcen in Public Cloud Umgebungen abgebildet werden sollten und für einige sogar niemals in Frage kommen. Werden Themen wie die Compliance, Geschwindigkeitsanforderungen und Sicherheitsbeschränkungen betrachtet, ist eine lokale Infrastruktur weiterhin notwendig. Die Erfahrungen aus dem hybriden Modell helfen dabei aber zu verstehen, welche Daten lokal bleiben sollten und welche innerhalb einer Public Cloud Umgebung verarbeitet werden können.

Categories
Analysen

Enterprise Cloud: IBM bringt sich in Position

Letzte Woche hat IBM angekündigt mehr als 1,2 Milliarden US-Dollar in den Ausbau seines globalen Cloud Angebots zu investieren. Hierzu sollen Cloud-Services aus weltweit 40 Rechenzentren in 15 Ländern bereitgestellt werden. Deutschland wird IBM aus einem Rechenzentrum in Ehningen versorgen. Dabei wird Softlayer, das IBM in 2013 übernommen hat, eine Schlüsselrolle spielen, dessen Kapazitäten sich in diesem Zuge verdoppeln sollen.

Investitionen sind ein deutliches Zeichen

Die 1,2 Milliarden US-Dollar sind nicht die ersten Investitionen, die IBM in den vergangenen Jahren in sein Cloud Business fließen lässt. Seit 2007 wurden über 7 Milliarden US-Dollar in die Expansion des Geschäftsfeldes investiert. Darunter 2 Milliarden US-Dollar für Softlayer. Hinzu kommen mehr als 15 weitere Akquisitionen die Cloud Computing Lösungen und Know-How in das Unternehmen gebracht haben. Die letzte große Ankündigung war die Summe von 1 Milliarde US-Dollar, die IBM in sein Cognitive Computing System Watson investieren wird, um es u.a. der breiten Masse als Service zur Verfügung zu stellen.

Diese Investitionen zeigen, dass es IBM mit der Cloud tatsächlich ernst meint und sie als eine Säule für seine zukünftige Unternehmensstrategie sieht. So sieht auch die Erwartungshaltung aus. IBM geht davon aus, dass der weltweite Cloud-Markt bis zum Jahr 2020 auf mehr als 200 Milliarden US-Dollar wachsen wird. Bis zum Jahr 2015 will IBM jährlich sieben Milliarden US-Dollar weltweit mit seinen Cloud-Lösungen erwirtschaften.

Softlayer Positionierung ist von entscheidender Bedeutung

Ein Besonderes Augenmerk will IBM auf die Softlayer Cloud legen. Hierzu sollen sich die Kapazitäten im Jahr 2014 verdoppeln. Laut IBM konnten durch den Zukauf des Cloud Computing Anbieter in 2013 fast 2.400 neue Kunden gewonnen werden. Mit Softlayer sollen die wichtigsten Märkte und Finanzzentren gezielt gestärkt werden. Weiterhin soll die Softlayer Cloud in Zukunft auch von der Watson Technologie profitieren.

Die Akquisition von Softlayer war ein wichtiger Schritt für IBMs Cloud-Strategie, um sich eine bessere Cloud-DNA einzuverleiben. Die IBM SmartCloud hat bis zum heutigen Tag enttäuscht. Das ergeben nicht nur Gespräche mit potentiellen Kunden die sich zum größten Teil negativ über das Angebot und die Nutzung geäußert haben.

Spannend wird die Erweiterung der Softlayer Cloud werden. Laut der offiziellen Softlayer Webseite werden derzeit an sieben Standorten weltweit mehr als 191.500 Server betrieben.

  • Dallas: 104,500+ Server
  • Seattle: 10,000+ Server
  • Washington: 16,000+ Server
  • Houston: 25,000+ Server
  • San Jose: 12,000+ Server
  • Amsterdam: 8,000+ Server
  • Singapore: 16,000+ Server

Das sind im Vergleich zu anderen Cloud Playern wie die Amazon Web Services (über 450.000), Microsoft (etwa 1.000.000) und Google allerdings nur Peanuts. Selbst nach einer Verdopplung im Jahr 2014 auf 383,300 Server.

IBMs weltweite Cloud Rechenzentren

Ein Teil der genannten 1,2 Milliarden US-Dollar sollen im Jahr 2014 genutzt werden, um insgesamt 15 neue Rechenzentren zu eröffnen. In der Summe sollen dann 40 Rechenzentren verteilt auf 15 Länder die weltweite Basis der IBM Cloud bilden. Die neuen Cloud-Rechenzentren werden in China, Hongkong, Japan, Indien, London, Kanada, Mexiko City, Washington D.C. und Dallas entstehen. Das deutsche Cloud-Rechenzentrum steht in Ehningen bei Stuttgart das Schweizer in Winterthur.

Auf der technischen Seite besteht jedes neue Cloud-Rechenzentrum aus mindestens vier sogenannten PODS (Points of Distribution). Eine eigenständige Einheit besteht aus 4.000 Servern. Jeder POD arbeitet unabhängig von den anderen PODs, um die Services bereitzustellen und soll eine garantierte Verfügbarkeit von 99,9 Prozent aufweisen. Kunden können sich für die Nutzung eines POD mit 99,9 Prozent Verfügbarkeit entscheiden oder eine Verteilung über mehrere PODs wählen, um damit das Verfügbarkeitsverhältnis zu erhöhen.

Der Footprint im Unternehmensumfeld

IBM will sich mit seinen Investitionen klar gegen die Amazon Web Services positionieren. Man muss jedoch eines unterscheiden. Amazon AWS (AWS) ist einzig und alleine in der Public Cloud vertreten und wird dieses laut Aussage von Andy Jassy auf der letzten re:Invent auch bleiben. AWS glaubt an die Public Cloud und es besteht kein Interesse auch in (Hosted) Private Cloud Infrastrukturen zu investieren. Ein Unternehmen, das bei AWS jedoch das nötige Kleingeld mitbringt erhält dort durchaus seine eigene private Region, die von AWS verwaltet wird (ähnlich AWS GovCloud).

Beim Wettbewerb zwischen IBM und AWS geht es in erster Linie nicht um den Vorsprung in der Public, Private oder sonst einer Art von Cloud-Form. Es geht um die Vormachtstellung bei den Unternehmenskunden. AWS ist mit Startups und Entwicklern groß geworden und versucht seit geraumer Zeit auch die Attraktivität bei den Unternehmen zu erhöhen. Das haben sie mit mehreren neuen Services auf der vergangenen re:Invent gezeigt. Dabei handelt es sich allerdings um einen Markt, auf dem IBM bereits seit Jahrzehnten vertreten ist und über eine gute und breite Kundenbasis sowie wertvolle Kontakte bei den Entscheidern verfügt. Das ist ein Vorteil der, trotz AWSs derzeitigen technischen Vorsprung, nicht zu unterschätzen ist. Ein weiterer Vorteil der für IBM zum Tragen kommt ist die große Basis an Partnern im Bezug auf die technische Unterstützung und dem Vertrieb. Denn der reine Self-Service, den eine Public Cloud bietet, passt nicht zum Großteil der Unternehmenskunden. Dennoch muss IBM zusammen mit der Softlayer Cloud bei den Unternehmen erst noch technisch überzeugen und den Kunden einen konkreten Nutzen für die Wertschöpfung aufzeigen um erfolgreich zu sein.

Was sich für IBM als ein Vorteil gegenüber anderen Cloud-Anbietern wie AWS erweisen wird, ist die lokale Präsenz mit Rechenzentren in mehreren Ländern. Insbesondere der deutsche Markt wird dies zu schätzen wissen, wenn ebenfalls das Angebot stimmt. Hier bleibt es spannend zu sehen, ob andere US Cloud-Anbieter nachziehen werden und ein Rechenzentrum in Deutschland eröffnen, um den Bedenken deutscher Unternehmen entgegenzukommen.

IBMs Investitionen zeigen, dass der Anbieter die Cloud als eine zukünftige tragende Säule sieht und in diesem Bereich ein tragfähiges Geschäft aufbauen will.

Categories
Analysen

Ab in die Private Cloud. OpenStack ist keine Infrastrukturlösung für die Public Cloud!

OpenStack ist unbestritten der neue Star am Himmel für Open-Source Cloud-Infrastrukturen. Zahlreiche bekannte Größen, darunter Rackspace, RedHat, HP, Deutsche Telekom und IBM setzen auf die Software, um ihre Angebote aufzubauen. Aber ein Thema bleibt spannend. Alle reden davon, dem unangefochtenen Marktführer Amazon Web Services Marktanteile abzunehmen. Allen voran die genannten Public Cloud Anbieter, die sich für OpenStack entschieden haben. Keine Frage, im großen Cloud Computing Markt wird jeder seinen Platz finden. Aber ist OpenStack die richtige Technologie, um ein Marktführer in der Public Cloud zu werden oder reicht es am Ende “nur” für die Private Cloud (Hybrid Cloud)?

Rackspace erweitert sein Portfolio um Cloud Consulting-Services

Ich hatte bereits über das Diversifikationsproblem geschrieben und habe in diesem Zusammenhang OpenStack als den goldenen Käfig bezeichnet, da alle beteiligten Anbieter im selben Dilemma stecken und sich nicht voneinander unterscheiden. Denn stellt man alleine nur die beiden Top OpenStack Anbieter Rackspace und HP gegenüber, dann zeigt sich, dass die Portfolios in etwa zu 99 Prozent gleich sind.

Um die Gunst seiner Shareholder zu besänftigen hat Rackspace bereits erste neue Wege beschritten und seine Strategie verändert und damit selbst die Aufholjagd in der Public Cloud gestoppt. Laut Rackspace CTO John Engates fragen Kunden verstärkt um Hilfe, damit Rackspace mit seinen Kenntnissen beim Aufbau von Cloud Infrastrukturen hilft. Rackspace wird sich in Zukunft somit scheinbar etwas weniger auf das Hosting von Cloud Services konzentrieren und stattdessen mehr in Beratungsdienstleistungen von Cloud Infrastrukturen investieren. Dabei könnte es sich um einen klugen Schachzug handeln. Schließlich ist die Nachfrage nach Private Cloud Infrastrukturen ungebrochen und OpenStack wird hier eine führende Rolle einnehmen. Eine weitere Chance könnte hier mit der Hybrid Cloud bestehen, indem die Private Cloud Infrastrukturen mit Rackspaces Public Cloud verbunden werden.

Eigene Technologien sind ein Wettbewerbsvorteil

Eine weitere interessante Frage ist, ob eine Technologie, was OpenStack letztendlich nur ist, entscheidend für den Erfolg ist? Ein Blick auf führende Anbieter wie die Amazon Web Services, Microsoft Windows Azure und nun auch die Google Compute Engine sowie deren gefühlte Kronprinzen (CloudSigma, ProfitBricks) zeigen eines. Alle haben proprietäre Infrastrukturlösungen unter den IaaS-Angeboten aufgebaut. Zwar setzen soweit alle an der einen oder anderen Stelle auf eine Open-Source Lösung. Aber am Ende ist alles selbst entwickelt und integriert. Das führt zu der Schlussfolgerung, dass proprietäre Technologien ein Wettbewerbsvorteil sind, da schließlich nur ein einziger Anbieter davon profitiert. Oder war Amazon AWS doch “einfach nur der erste Anbieter am Markt” und hat deswegen diesen enormen Vorsprung?

Zahlen sprechen für OpenStack Private Clouds

Auf der offiziellen OpenStack Webseite werden Use Cases vorgestellt, wie OpenStack tatsächlich eingesetzt wird. Diese sind unterteilt in den Kategorien: On-Premise Private Cloud, Hosted Private Cloud, Hybrid Cloud und Public Cloud. Ein Blick auf die aktuelle Verteilung (Stand: 14.01.2014) für den OpenStack Einsatz kommt zum folgenden Ergebnis.

OpenStack-Deployments 01/14/2014

Demnach liegen On-Premise Private Cloud (55) Installation ganz klar an der Spitze mit einem weitem Abstand gefolgt von Hosted Private Cloud (19) und Public Cloud (17) Deployments. Es folgen die Hybrid Clouds (10) und nicht genauer spezifizierte Projekte (4).

Bei den Zahlen handelt es sich wohlgemerkt um die Deployments, die offiziell an OpenStack gemeldet wurden. Allerdings zeigen diese eine deutliche Tendenz wo die Zukunft von OpenStack liegt. In der Private Cloud. Wobei ich davon ausgehe, dass Hosted Private Cloud Deployments und Hybrid Clouds noch stärker zunehmen werden. Genauso wie OpenStack Installationen, die als Mittel zum Zweck dienen und die reine infrastrukturelle Grundlage für Web-Dienste bilden.

Categories
Events

Mit dem "CLOUD-PRO Bootcamp" echtes Cloud-Wissen für die Praxis lernen

Längst haben Unternehmen das Potenzial des Cloud Computing erkannt und beginnen das Konzept in ihre IT zu integrieren. Allerdings fehlt es laut einer BITKOM-Studie massiv an Fachkräften. Vor diesem Hintergrund haben Dietmar Wiedemann und ich das “CLOUD-PRO Bootcamp” entwickelt. Unsere Initiative stellt sich der Aufgabe, den steigenden Bedarf an Fachkräften im Cloud Computing zu befriedigen.

Fachkräfte für Cloud Computing dringend gesucht

Seit Jahren gehört die IT-Branche mit überdurchschnittlichen Wachstumsraten zu den wichtigsten Märkten in Deutschland. Das stetige Wachstum kommt aber auch in der IT-Branche ins Stocken. Grund dafür ist der Mangel an qualifizierten Fachkräften. Innerhalb von drei Jahren hat sich die Zahl unbesetzter Stellen um 23.000 mehr als verdoppelt, zeigt eine BITKOM-Studie aus dem Jahr 2012. Auf Platz drei der meist gesuchten IT-Skills steht Cloud Computing. Laut der aktuellen IBM Tech Trends Studie verfügen lediglich 10 Prozent der befragten Unternehmen über das Know-how, um zukunftsweisende Technologien wie Cloud Computing anzuwenden. Vor diesem Hintergrund fallen Beratungsunternehmen und Systemintegratoren als Know-how-Lieferanten eine wichtige Rolle zu. Doch auch die Weiterbildung interner Mitarbeiter muss im Fokus stehen, um die Potenziale des Cloud Computing durch eigenes Personal zu heben.

CLOUD-PRO Bootcamp verpackt das notwendigste Wissen kompakt in zwei Tagen

Während eines CLOUD-PRO Bootcamp hat die „Praxisrelevanz“ höchste Priorität. Anhand praktischer Übungen lernen die Teilnehmer in Zwei-Tages-Seminaren alles Notwendige zum Thema Cloud Computing und werden damit in Lage versetzt, ihre eigene Cloud Computing Strategie zu entwickeln. Sofort umsetzbare Werkzeuge, Checklisten und Methodenbausteine zu Strategieentwicklung, Einführung und Nutzung bis hin zur Klärung wirtschaftlicher, organisatorischer, rechtlicher und sicherheitsrelevanter Fragen der Cloud sind Kern des Konzepts.

Die nächste Möglichkeit zur Teilnahme besteht am 20. und 21. Januar 2014 in Frankfurt am Main, Untermainkai 29 in den Räumen der Proventa AG

Die Anmeldung und weitere Information ist hier zu finden: CLOUD-PRO Bootcamp

Categories
Events

Event-Tipp: Solutions for Finance – "Der Einzug des Cloud Computing in Banken."

Cloud Computing hat sich von einem Trend zu einer echten Alternative für Unternehmen entwickelt. Mittlerweile existieren ausreichend Informationen und Fakten, um Fragen und Behauptungen zu begegnen und gleichzeitig Chancen aufzuzeigen. Aber wie schaut es im Bankenumfeld aus? Im Rahmen einer Podiumsdiskussion des “Solutions for Finance eV” in Kooperation mit der Sonoxo GmbH am 05. Februar 2014 in Frankfurt wird dies thematisiert. Ich werde dort mit einem Impulsvortrag das Panel eröffnen und mich im Anschluss ebenfalls den Fragen stellen.

Wer diskutiert über was?

Neben Vertretern aus dem Cloud Anbietermarkt, wie den Amazon Web Services und IT-Entscheidern aus dem Bankenumfeld werde ich als Marktanalyst zum Podium gehören. Die Moderation übernimmt Thorsten Hahn vom BANKINGCLUB.

Themen

  • Können Banken am Cloud Computing Markt partizipieren?
  • Treten gerade durch die Cloud neue Mitstreiter in ein abgesichert geglaubtes Segment ein?
  • Und weitere Themen.

Das Programm

    18:30 Uhr Registrierung und Eintreffen der Teilnehmer
    19:00 Uhr Begrüßung
    19:10 Uhr Impulsvortrag (René Büst)
    19:30 Uhr Podiumsdiskussion
    21:00 Uhr Networking

Weitere Informationen und die Anmeldung

Termin
Datum: 05. Februar 2014
Uhrzeit: 18:30 Uhr

Ort
Frankfurt School of Finance & Management
Sonnemannstraße 9-11
60314 Frankfurt am Main

Interessen können sich kostenlos ÜBER DIESEN LINK registrieren.