Categories
Analysen

Cloud-Connectivity: Ruckelfrei in die Cloud

Die kontinuierliche Verlagerung von geschäftskritischen Daten, Applikationen und Prozessen auf externe Cloud Infrastrukturen sorgt dafür, dass sich für CIOs nicht nur die IT-Betriebskonzepte (Public, Private, Hybrid) sondern ebenfalls maßgeblich die Netzwerkarchitekturen und Anbindungsstrategien verändern. Hierbei ist die Auswahl des richtigen Standorts ein entscheidender Wettbewerbsvorteil, bei dem Frankfurt bereits heute, aber vor allem in der Zukunft eine tragende Rolle spielen wird.

Die digitale Transformation schlägt um sich

Der digitale Wandel macht heute in keinem Bereich unseres Lebens mehr halt. So sind schätzungsweise 95 Prozent aller Smartphone Apps mit Services verbunden,
 die sich auf Servern in globalen und weltweit verteilten Rechenzentren befinden. Gleichermaßen sind die Apps ohne eine direkte und zumeist konstante Verbindung zu diesen Services nicht funktionsfähig. Der Zugriff auf Metadaten oder anderweitige Informationen ist für den reibungslosen Betrieb unabdingbar. Zudem wird der Großteil der Produktivdaten, welche von den Apps benötigt werden, auf Systemen in den Rechenzentren gespeichert und nur eine kleine Auswahl lokal auf dem Smartphone bei Bedarf zwischengespeichert.

Bereits heute werden viele moderne Business-Applikationen über Cloud-Infrastrukturen bereitgestellt. Aus der heutigen Sichtweise eines CIOs ist eine stabile und performante Verbindung zu Systemen und Services damit unerlässlich. Dieser Trend wird sich noch weiter verstärken. Crisp Research geht davon aus, dass in den nächsten fünf Jahren rund ein Viertel aller Business-Anwendungen als Cloud-Services eingesetzt werden. Gleichzeitig werden auch hybride Szenarien, bedienen lokale unternehmenseigene IT- Infrastrukturen mit Infrastrukturen in Cloud Rechenzentren verbunden werden, immer wichtiger.

Datenaufkommen: Das neue Öl erfordert größere Pipelines

Insbesondere das stetig steigende Datenaufkommen erfordert eine zuverlässige und vor allem stabile Konnektivität, um auf die Daten und Informationen zu jeder Zeit Zugriff zu erhalten und verlässlich zu speichern. Noch wichtiger wird es, wenn geschäftskritische Prozesse und Applikationen auf eine Cloud-Infrastruktur ausgelagert werden. Der Zugriff muss jederzeit und performant – mit einer geringen Latenz – sichergestellt werden und kann für Unternehmen im Fehlerfall zu maßgeblichen finanziellen als auch Schäden am Image führen. Das stellt ein hohes Unternehmensrisiko dar. Die Qualität eines Cloud Service hängt somit maßgeblich von seiner Konnektivität und der Performance im Backend ab. Ein Cloud Service ist nur so gut, wie die Verbindung, über die er bereitgestellt wird.

Cloud-Connectivity ist die neue Währung

Damit sich Applikationen und Services performant, stabil und sicher bereitstellen lassen, sind einerseits moderne Technologien erforderlich, andererseits ist der Standort für eine optimale „Cloud-Connectivity“ maßgeblich entscheidend. „Cloud Connectivity“ lässt sich technisch mittels der Latenz, dem Durchsatz und der Verfügbarkeit definieren.

Cloud-Connectivity_Tuecken

Hierbei ist ein entscheidendes und wichtiges Merkmal die Konnektivität des Rechenzentrums, um den Kunden und deren Kunden einen stabilen und zuverlässigen Zugriff auf Cloud-Services zu jeder Zeit zu gewährleisten. Hierzu gehören eine hohe Ausfallsicherheit anhand unterschiedlicher Carrier (Netzwerkprovider) und eine redundante Infrastruktur hinsichtlich Router, Switches, Verkabelung sowie der Netzwerktopologie. In diesem Zusammenhang bilden Carrier-neutrale Anbindungen ein wichtiges Merkmal für den Kunden, damit dieser sich aus mehreren Anbietern den für sich passenden auswählen kann.

Frankfurt ist das Vorbild für die Cloud-Connectivity

In den vergangenen 20 Jahren hat sich in Frankfurt
 ein Cluster von Infrastrukturanbietern für die digitale Ökonomie gebildet, die Unternehmen dabei helfen, ihre Produkte und Dienstleistungen am Markt zu positionieren. Diese Anbieter haben Frankfurt und dessen Wirtschaft geprägt und liefern Integrationsservices für IT und Netzwerke sowie Rechenzentrumsdienste. Immer mehr Service-Anbieter haben verstanden, dass sie trotz der Globalität einer Cloud-Infrastruktur lokal vor Ort in den Ländern bei ihren Kunden sein müssen. Das ist eine wichtige Erkenntnis. Kein Anbieter, der ernsthafte Geschäfte in Deutschland machen will, wird auf einen lokalen Rechenzentrumsstandort verzichten können. Crisp Research sieht einen wichtigen Trend darin, dass viele internationale Anbieter in den kommenden zwei bis drei Jahren ihre Cloud Plattformen in Frankfurt aufbauen beziehungsweise weiter ausbauen werden.

Vor diesem Hintergrund hat Crisp Research in einem White Paper die Rolle von Frankfurt als Rechenzentrumsstandort und Connectivity Hub untersucht. Das White Paper „Die Bedeutung des Standorts Frankfurt für die Cloud Connectivity“  steht unter http://www.interxion.com/de/branchen/cloud/die-bedeutung-des-standorts-frankfurt-fur-die-cloud-connectivity/download/ zum Download bereit.

Categories
Analysen

Die Top 15 Open Source Cloud Computing Technologien 2014

Open Source Technologien blicken auf eine lange Geschichte zurück. Dabei gehören Linux, MySQL und der Apache Webserver zu den populärsten und erfolgreichsten Technologien, die von der Community hervorgebracht wurden. Im Laufe der Jahre hat sich um das Thema Open Source ein wahrer Hype entwickelt, der von Entwicklern getrieben in die Unternehmens-IT eingezogen ist. Heute sind IT-Umgebungen ohne Open Source Technologien nicht mehr vorstellbar. Vorangetrieben durch das Cloud Computing rückt Open Source wieder stärker in das Rampenlicht.

Insbesondere für die Entwicklung, den Aufbau und Betrieb von Cloud-Infrastrukturen, -Plattformen und –Applikationen sind in der jüngsten Vergangenheit viele Projekte entstanden, die einen maßgeblichen Einfluss auf den Cloud Computing Markt haben und ihren Beitrag leisten. Was sind die derzeit angesagtesten und wichtigsten Open Source Technologien im Cloud Computing Markt? Dieser Frage ist Crisp Research nachgegangen und hat die „Top 15 Open Source Cloud Computing Technologien 2014“ ihrer Bedeutung nach klassifiziert.

René Top 15 Open Source

OpenStack macht das Rennen

Offenheit und Flexibilität gehören zu den Top fünf Gründen von CIOs während ihrer Auswahl von Open Source Cloud Computing Technologien. Gleichzeitig nimmt das Thema Standardisierung einen immer größeren Stellenwert ein und dient als einer der größten Treiber von IT-Entscheidern, um sich mit Open Source Cloud Technologien zu beschäftigen. Nicht umsonst gilt beispielweise OpenStack als der kommende de-facto Standard für Cloud-Infrastruktursoftware. Crisp Research rät, moderne und nachhaltige Cloud-Umgebungen auf den Grundsätzen der Offenheit, Zuverlässigkeit und Effizienz aufzubauen. Speziell in den Bereichen Offenheit und Effizienz leistet Open Source einen signifikanten Beitrag. Damit stellen CIOs die Weichen für die Umsetzung von Multi-Cloud und hybriden Cloud-/ Infrastrukturszenarien und unterstützen die IT-Abteilung bei der Einführung und Durchsetzung einer ganzheitlichen DevOps-Strategie. DevOps spielt insbesondere bei der Adaption von Platform-as-a-Service und der Entwicklung von Applikationen für die Cloud eine entscheidende Rolle und führt zu signifikanten Geschwindigkeitsvorteilen, welche sich ebenfalls auf die Wettbewerbsstärke auswirken.

Zu den Kriterien bei der Bestimmung der Top 15 Open Source Cloud Computing Technologien gehören:

–       Innovations- und  Release-Geschwindigkeit

–       Entwicklung der Community inkl. Unterstützung der großen Anbieter

–       Adaptionsrate bei innovativen Entwicklern und Anwendern

In Beratungsprojekten sieht Crisp Research vor allem bei den führenden Anwendern den Einsatz moderner Open Source Technologien, um die eigenen IT-Umgebungen in unterschiedlichen Szenarien effizient und zukunftsorientiert zu betreiben.

Die Top 5 der Open Source Cloud Computing Technologien 2014:

  1. OpenStack

OpenStack gehört in diesem Jahr zu der wichtigsten Open Source Technologie sowohl für Unternehmen als auch Entwickler. Die Infrastruktursoftware wird bereits von mehr als 18.500 Individuen in über 140 Ländern weltweit unterstützt und erfreut sich bei immer mehr IT-Herstellern und Anbietern großer Beliebtheit. OpenStack dient für eine stetig steigende Anzahl von IT-Umgebungen als Basis für Public, Private und Managed Infrastrukturen. Insbesondere Unternehmen haben OpenStack für sich entdeckt, um eigene Private Clouds aufzubauen. IT-Anbieter wie die Deutsche Telekom (Business Marketplace) nutzen OpenStack, um ihre Cloud-Plattformen aufzubauen.  Zwar kommen nur sehr wenige Entwickler mit OpenStack noch direkt in Berührung. Dennoch ist die Lösung auch für sie von wichtiger Bedeutung, da ihnen hierüber Plattformen wie Cloud Foundry oder der Zugriff auf Container-Technologien wie Docker ermöglicht wird. In anderen Fällen greifen sie direkt auf die OpenStack APIs zu, um ihre Anwendungen infrastrukturnah zu entwickeln.

  1. Cloud Foundry

Cloud Foundry nimmt im wachsenden Platform-as-a-Service (PaaS) Markt eine führende Rolle ein. Das Projekt wurde von Pivotal, einem Spin-Off von EMC/ VMware, initiiert. Cloud Foundry wird vorwiegend von Unternehmen eingesetzt, um ihren internen Entwicklern Private PaaS-Umgebungen bereitzustellen. Von Managed Service Providern wird Cloud Foundry genutzt, um einen PaaS in einer gehosteten Umgebungen anzubieten. Das PaaS-Projekt spielt gut mit OpenStack zusammen, um darüber hochverfügbare und skalierbare PaaS-Plattformen aufzubauen.

  1. KVM

KVM (Kernel-based Virtual Machine) ist der bevorzugte Hypervisor von Open Source Infrastrukturlösungen wie OpenStack oder openQRM und genießt in der Open Source Gemeinde eine hohe Priorität. KVM steht für eine kostengünstige aber vor allem mächtige Alternative zu kommerziellen Angeboten wie VMware ESX oder Microsoft Hyper-V. KVM hat etwa einen Marktanteil von etwa 12 Prozent was daran liegt, dass Red Hat den Hypervisor als Basis für seine Virtualisierungslösungen einsetzt. Insbesondere durch die enge Verzahnung mit OpenStack als Standard-Hypervisor wird das Gewicht von KVM weiter zunehmen. Weiterhin suchen CIOs nach kostengünstigeren Möglichkeiten zur Virtualisierung ihrer Infrastruktur.

  1. Docker

Der Shooting-Star in diesem Jahr ist Docker. Die Container-Technologie, die als Nebenprodukt während der Entwicklung des Platform-as-a-Service „dotCloud“ entstanden ist, sorgt derzeit für viel Wirbel und wird von vielen Branchengrößen darunter Google, Amazon Web Services und sogar Microsoft unterstützt. Das aus gutem Grund. Docker ermöglicht es, Applikationen gebündelt in Containern zwischen Plattformen zu verschieben. Genauer, Applikationen und Workloads zwischen mehreren Linux-Servern zu bewegen. Damit wird die Portabilität verbessert. Im ersten Moment erscheint Docker als ein reines Tool für Entwickler. Aus dem Blickwinkel eines IT-Entscheiders handelt es sich allerdings klar um ein strategisches Werkzeug für die Optimierung von modernen Applikations-Deployments. Docker hilft dabei, die Portabilität einer Anwendung sicherzustellen, die Verfügbarkeit zu erhöhen und das Gesamtrisiko zu minimieren.

  1. Apache Mesos

Mesos, das im vergangenen Jahr zu einem Top-Level-Projekt in der Apache Software Foundation aufgestiegen ist, wurde an der University of California entwickelt und hilft dabei, Anwendungen isoliert voneinander zu betreiben und dabei dynamisch auf verschiedene Nodes eines Clusters zu verteilen. Mesos lässt sich zusammen mit OpenStack und Docker nutzen. Prominente Nutzer von Mesos sind Twitter und Airbnb. Einer der treibenden Faktoren hinter Mesos ist der deutsche Entwickler Florian Leibert, der auch für die Einführung der Cluster-Technologie bei Twitter mit verantwortlich war.

Open Source is eating the license-based world

Auch die ansonsten proprietären Branchenriesen allen voran IBM, HP und VMware umgarnen Open Source Technologien. HPs erste Public Cloud Variante „HP Cloud“ basierte bereits auf OpenStack. Mit der HP Helion Cloud wurde das gesamte Cloud Portfolio (Public, Privat) auf Basis von OpenStack vereinheitlicht. Weiterhin ist HP mittlerweile der größte Code Contributor für das kommende OpenStack „Juno“-Release, welches im kommenden Oktober erscheint. IBM beteiligt sich an OpenStack und nutzt Cloud Foundry als Basis für seinen PaaS „Bluemix“. Auf der VMworld in San Francisco kündigte VMware eine engere Kooperation mit OpenStack sowie Docker an. In diesem Zusammenhang wird VMware im ersten Quartal 2015 eine eigene OpenStack Distribution (VMware Integrated OpenStack (VIO)) präsentieren, mit der sich eine OpenStack-Implementierung auf Basis von VMwares vSphere aufsetzen lässt. Die Partnerschaft mit Docker wird dazu führen, dass die Docker Engine in Zukunft auf den VMware-Produkten VMware Fusion und auf Servern mit VMware vSphere und vCloud Air laufen soll.

Nicht nur aus technischen Gründen sind Open Source Lösungen wie OpenStack attraktiv. Ebenfalls aus der finanziellen Perspektive leistet OpenStack einen entscheidenden Beitrag, indem sich mit dem Open Source Framework die Kosten für den Aufbau und Betrieb einer Cloud Infrastruktur signifikant reduzieren lassen. Die Lizenzkosten für aktuelle Cloud-Management- und Virtualisierungslösungen des gesamten Cloud-TCO liegt etwa bei 30 Prozent.  Das bedeutet, dass zahlreiche Startups und große renommierte Softwarehersteller wie Microsoft und VMware mit dem Lizenzverkauf entsprechender Lösungen gute Umsätze erzielen. Mit OpenStack erhalten CIOs jetzt die Gelegenheit die Provisionierung und Verwaltung ihrer virtuellen Maschinen und Cloud Infrastrukturen mittels einer Open Source Technologie vorzunehmen. Hierzu stehen kostenlose Community Editions als auch professionelle Distributionen für den Unternehmenseinsatz inklusive Support zur Verfügung. In beiden Fällen Alternativen, um die Lizenzkosten für den Betrieb der Cloud Infrastrukturen deutlich zu senken. Mit OpenStack halten CIOs damit ein nicht zu unterschätzendes Druckmittel gegen Microsoft und VMware in der Hand.

Categories
Analysen

Ein Gorilla im Nebel: SAP sucht Zuflucht bei OpenStack und Cloud Foundry

Was hat es zu bedeuten, wenn ein 800 Pfund schwerer Gorilla in für ihn eher fremden Gefilden herumwildert? 1. Er will sein Hoheitsgebiet erweitern. 2. Er ist auf der Suche nach neuen attraktiven Partnerinnen. Ein ähnliches Verhalten legt aktuell SAP an den Tag. Wie der ERP-Primus im Rahmen der OSCON 2014 angekündigt hat, werden die Walldorfer ihr Engagement in den zwei derzeit angesagtesten Open-Source Communities (OpenStack, Cloud Foundry) intensivieren. Was dieser strategische Schritt zu bedeuten hat, welcher Einfluss damit entsteht und welche Vorteile davon für die SAP-Anwender ausgehen, erläutert dieser Analyst View.

SAP nimmt (wieder) gezielten Kurs auf Open-Source

Mit Cloud Foundry und OpenStack wird sich SAP in den derzeit zwei führenden Open-Source Cloud Computing Communities beteiligen, um damit weitere Innovationen und die allgemeine Weiterentwicklung der Cloud zu fördern, wie Björn Goerke, Executive Vice President “Products and Innovation Technology” bei SAP in einer Pressemeldung verlauten ließ. Bisher haben sich die Walldorfer bereits als normales Mitglied an dem Platform-as-a-Service (PaaS) Projekt Cloud Foundry beteiligt und in diesem Zuge im Dezember 2013 in Zusammenarbeit mit Pivotal – einem Spin-off von VMware – einen Cloud Foundry Service-Broker für SAP HANA veröffentlicht. Hiermit lassen sich die In-Memory Funktionen von SAP HANA in Cloud Foundry basierten Applikationen nutzen. Die Beteiligung wird SAP in Zukunft intensivieren und das Projekt als Foundation-Mitglied mit Platinum-Status unterstützen. Mit HP, IBM, Intel, VMware und Ericsson befindet sich SAP dort in elitärer Gesellschaft.

Im Umfeld von OpenStack will SAP auf die Community zugreifen, um von den bisherigen Entwicklungen zu profitieren, aber um ebenfalls selbst zur Erweiterung der Code-Basis beizutragen. Die Beteiligung hat insbesondere das Ziel, OpenStack-Entwicklungen für geschäftliche Szenarien vorantreiben und die eigenen Erfahrungen bei der Verwaltung von Cloud-Infrastrukturen für Unternehmen mit einfließen zu lassen. In Sachen Cloud-Infrastrukturen wird SAP von der OpenStack Community allerdings noch bedeutend mehr lernen als das Unternehmen in der Lage ist dazu beizutragen.

OpenStack wächst und gedeiht

SAPs OpenStack Engagement kommt nicht ganz unerwartet. Das Momentum der Open-Source Cloud-Infrastruktursoftware bleibt konstant auf einem hohen Niveau. Neben der stetigen Verbesserung der Technologie (aktuelles Release: Icehouse), steigt ebenfalls die Adaptionsrate bei den Unternehmenskunden kontinuierlich an. Dies zeigt sich im weltweiten Wachstum der OpenStack-Projekte. Zwar stieg die Anzahl der neuen Projekte von Q2 auf Q3/2014 nur noch um 30 Prozent an (Steigerung von Q1 auf Q2/2014: 60 Prozent), trotzdem ist die Attraktivität weiterhin ungebrochen.

Dabei sind On-Premise Private Clouds mit Abstand das bevorzugte Deployment-Modell. Im Q2/2014 zählte die OpenStack Foundation weltweit 85 Private Cloud-Installationen. Im Q3 wuchs die Anzahl bereits auf 114 an.  Die Anzahl der weltweiten OpenStack Public Clouds stieg nur noch um 7 Prozent an. Im Vergleich dazu lag das Wachstum von Q1 auf Q2/2014 bei 70 Prozent. Mit 57 Prozent zeigten Hybrid Cloud Projekte das größte Wachstum. Für die kommenden 12 Monate erwartet Crisp Research ein 25 prozentiges Wachstum OpenStack-basierter Enterprise Private Clouds.

OpenStack-Deployments_Q1-Q2-Q3

Was hat das SAP Engagement bei OpenStack und Cloud Foundry zu bedeuten?

Wenn ein großer Tanker wie eine SAP sich an jungen und dynamischen Communities aus der Open-Source Szene beteiligt, dann darf diesen Projekten durchaus eine hohe Bedeutung zugesprochen werden. Insbesondere OpenStack hat sich damit endgültig zum Schwergewicht unter den Open Source Cloud-Infrastrukturlösungen gemausert. Aber nicht nur für die Communities hat das Engagement einen hohen Stellenwert. Auch für SAP handelt es sich dabei um einen strategisch wichtigen Schritt, um sich in Zukunft unabhängiger gegenüber Infrastrukturanbietern wie VMware oder Microsoft aufzustellen.

SAP gehört zu den größten Workloads in der Unternehmens-IT und wird von dem Großteil der Anwender auch weiterhin selbst in on-Premise Infrastrukturen betrieben. Mit der steigenden Bedeutung von Cloud-Umgebungen und dem wachsenden Einfluss von Open-Source, muss vor diesem Hintergrund die Rolle von VMware und Microsoft Umgebungen hinterfragt werden, die früher bevorzugt als Infrastrukturbasis zum Einsatz gekommen sind.

Insbesondere aus finanzieller Perspektive leistet OpenStack einen entscheidenden Beitrag, indem sich mit dem Open-Source Framework die Kosten für den Aufbau und Betrieb einer Cloud Infrastruktur signifikant reduzieren lassen. Die Lizenzkosten für aktuelle Cloud-Management- und Virtualisierungslösungen des gesamten Cloud-TCO liegt etwa bei 30 Prozent.  Das bedeutet, dass zahlreiche renommierte Softwarehersteller wie Microsoft und VMware mit dem Lizenzverkauf entsprechender Lösungen einen guten Umsatz erzielt haben. Mit OpenStack erhalten IT-Entscheider jetzt die Gelegenheit, die Provisionierung und Verwaltung ihrer virtuellen Maschinen und Cloud Infrastrukturen ökonomischer vorzunehmen. Hierzu stehen kostenlose Community Editions als auch professionelle Distributionen für den Unternehmenseinsatz inklusive Support zur Verfügung. In beiden Fällen Alternativen, um die Lizenzkosten für den Betrieb der Cloud Infrastrukturen deutlich zu senken. Mit OpenStack halten IT-Entscheider damit ein nicht zu unterschätzendes Druckmittel gegen Microsoft und VMware in der Hand.

Es handelt sich somit um einen klugen Schachzug von SAP, indem den Kunden in Zukunft weitere Optionen für den Einsatz offener Cloud-Architekturen erhalten und die eigene Rolle und das Ansehen in der Open-Source Gemeinde damit gestärkt wird.

Implikationen für den SAP-Anwender

Neben den Vorteilen die sich dadurch für SAP ergeben, wirkt sich die strategische Entscheidung ebenfalls auf die Anwender aus. Abseits der Minimierung von Lizenzkosten auf Infrastrukturebene, lässt sich mit dem Einsatz von OpenStack die Plattformunabhängigkeit erhöhen und damit die Herstellerabhängigkeit (Vendor Lock-in) verringern. Die offene Architektur und Schnittstellen ermöglichen die Integration mit bestehenden Systemen und sorgen für eine bessere Interoperabilität. Gleichzeitig dürfte SAP für einen starken Einflussfaktor stehen, um die Interessen seiner Kunden in der Open-Source Community zu vertreten.

Allerdings, der zentrale Aspekt den SAP-Anwender kritisch hinterfragen müssen ist, ob SAP in der Lage ist, OpenStack so zu unterstützen, dass sie ihre Private Clouds auch für den SAP-Betrieb einsetzen können. Hierfür darf es keine proprietäre SAP-OpenStack-Version geben. Stattdessen muss SAP auf den aktuell durch die Community unterstützten Releases oder auf professionellen Distributionen betrieben werden können. Kurzum muss sich SAP ohne großen Aufwand auf bereits vorhandenen OpenStack-Infrastrukturen ausrollen lassen.

Zwar hat SAP bisher viel Erfahrung im Linux-Umfeld sammeln können. Beim Thema OpenStack sind die Walldorfer allerdings sehr spät dran. Schlussendlich ist es für die Anwender von entscheidender Bedeutung, ob SAP ein großer Contributor von OpenStack werden kann und somit einen direkten Einfluss auf die Community erhält. In diesem Zusammenhang wäre es ein wichtiger Schritt, Mitglied der OpenStack Foundation zu werden und das Engagement damit offiziell zu unterstreichen.

Abschließend stellt sich die Frage, ob ein ergrauter Silberrücken, der mit ständigen Selbstzweifeln im Cloud-Bereich zu kämpfen hat (das Business by Design Desaster, ständige Wechsel in der Cloud-Führungsriege; der Weggang von Lars Dalgaard), mit attraktiven, dynamischen und aufstrebenden Jungtieren mithalten wird.

Mit dem Engagement in der Cloud Foundry Community und einer Vielzahl von Initiativen, um die HANA Cloud Plattform für Entwickler von neuen Workloads interessant zu machen, befinden sich SAP und Goerken (als ehemaliger Entwickler und Software-Architekt) auf einem guten Weg. Ob die SAP allerdings wieder zum Magneten der jungen innovativen Softwareentwickler werden wird, das bleibt abzuwarten.

Categories
Analysen

Deutsche ISVs wollen kein Public PaaS

Wir schreiben mittlerweile das Jahr acht in Sachen Cloud Computing. Aus kleinen, anfangs belächelten Start Ups wie zum Beispiel Salesforce sind mittlerweile Milliardenkonzerne geworden, mit Marktkapitalisierungen, die zum Teil höher liegen als die von globalen Industriekonzernen. Große, etablierte Softwarehersteller wie SAP kämpfen seit Jahren mit der eigenen Transformation und haben es nur mit enormem Aufwand geschafft Teile ihres Geschäftes zukunftsfähig zu machen.

Das Gros der deutschen Softwarehäuser hat es bisher versäumt die eigene Strategie auf das kommende Cloud-Zeitalter anzupassen. Die Gründe hierfür sind vielfältig und zum Teil auch nachvollziehbar. So ist es für ein mittelständisches Softwarehaus ein enorm hoher Investitionsaufwand und damit verbundenes Risiko, bestehende Software neu zu entwickeln und den Marktgegebenheiten anzupassen. Dennoch erscheint es unter den gegebenen Marktumständen unerlässlich sich den Realitäten anzupassen.

Aus diesem Grund ist es erforderlich, sich mit den eigenen Anforderungen an einen Platform-as-a-Service (PaaS) auseinanderzusetzen und diese zu definieren.

Platform-as-a-Service im Praxiseinsatz

Deutsche Softwarehäuser haben ganz bestimmte Anforderungen, wenn es um den Einsatz von PaaS im Rahmen ihrer Entwicklungs-, Test- und Betriebsprozesse geht. Besonders relevant sind für die Independent Service Provider (ISVs) die Konditionen des Betriebs bzw. das Betriebskonzept, sprich ob die PaaS-Dienste nach dem Public-, Private- oder im Rahmen eines Hosting-Modells betrieben werden. Und hier hat sich in den vergangenen 12 Monaten viel getan.

So waren bis Mitte 2013 keine der führenden PaaS Angebote als Technologie-Stack für den Eigen- oder Hosting-Betrieb verfügbar. Bis dato war Public Cloud das einzig verfügbare Betriebsmodell. Mit dem Release der CloudFoundry-Technologie unter Open Source- Lizenz machte VMware (heute bei Pivotal) den Anfang. Mittlerweile können auch die PaaS-Technologien von Microsoft (Microsoft Azure Pack), Red Hat (OpenShift), VMware (vFabric) als Software-Paket bezogen und individuell betrieben werden. Dies bietet Unternehmen, Softwareentwicklern und Hosting-Partner vollkommen neue Möglichkeiten PaaS-Dienste kundenindividuell anzubieten und hinsichtlich bestimmter Anwendungsszenarien zu optimieren.

Welche der Technologien sich mittel- und langfristig durchsetzen wird, ist derzeit noch schwer prognostizierbar, da die meisten ISVs, Hosting Provider und Unternehmensanwender sich noch nicht final festgelegt haben. Während IBM im Rahmen seiner BlueMix-PaaS- Plattform auf CloudFoundry setzt, bieten eine Reihe an Hosting Providern ihren Kunden die Auswahl zwischen mehreren Plattformen.

Derzeit existiert im deutschsprachigen Markt allerdings erst eine Handvoll Hosting Provider, die PaaS in einem Hosting Modell anbieten. Dies hat verschiedene Gründe. So schätzen einige Akteure wohl die Marktchancen nicht als aussichtsreich ein. Anderen fehlen schlicht die Ressourcen und Skills, um die technologisch anspruchsvollen und komplexen Plattformen aufzusetzen und zu betreiben. Auch müssen Hosting Provider mehr Verständnis und Know-How in Bezug auf die Prozesse und speziellen Anforderungen der ISVs, Startups, Freelance und Unternehmensentwickler aufbauen. Denn deren Bedürfnisse unterscheiden sich deutlich von den Anforderungen an ein klassisches Hosting oder Infrastruktur- Outsourcing. Die Anzahl erfahrener Architekten, Entwickler und Projektmanager zum Thema PaaS ist in Deutschland noch sehr übersichtlich.

Bevorzugte Betriebskonzepte und Modelle

Die Aussagen der im Rahmen einer Studie von Crisp Research befragten Softwarehäuser zeichnen ein recht eindeutiges Bild. Gefragt nach dem favorisierten Betriebskonzept zur Nutzung von PaaS-Diensten im Rahmen der Entwicklungsprozesse, sprachen sich „nur“ 21 Prozent für das bisherige Public Cloud- Modell aus, während 12 Prozent sich für den internen Betrieb im Rahmen einer „Private PaaS-Plattform“ entscheiden würden. Die Mehrheit von deutlich über 60 Prozent würden PaaS-Dienste für Development & Test am ehesten im Rahmen eines Hosting-Modells beziehen.

Hinsichtlich des Applikations-Betriebs sind die befragten Softwarehäuser sogar noch etwas anspruchsvoller. Hier sind es sogar nur noch 11 Prozent der befragten Unternehmen, die den Betrieb auf einer Public Cloud Umgebung befürworten würden. Die Mehrheit (38 Prozent) sieht in einem Hosted PaaS das für sie bevorzugte Betriebsmodell, um Applikationen in der Cloud zu betreiben. Weitere 30 Prozent sehen in der dedizierten Variante („Hosted Private PaaS“) ihr favorisiertes Modell. Über ein Fünftel der befragten Softwareunternehmen würde ihre Applikationen nur auf einer Private PaaS-Umgebung betreiben.

Anforderungen an die PaaS-Provider

Betrachtet man die Aussagen zu den zentralen Anforderungen an die Anbieter von PaaS-Diensten, so wird evident, warum die bisherigen Public Cloud-Modelle für viele professionelle Softwareentwickler nicht in Frage kamen. So stehen für rund 80 Prozent der befragten deutschen Softwarehäuser die Themen hohe Sicherheitsstandards, ISO-Zertifizierung und ein deutscher Rechenzentrumsstandort ganz oben auf der Agenda. Nach einem flexiblen Bezahlmodell (60 Prozent). Interessanterweise ist die individuelle Anpassung der PaaS-Plattform für die deutschen ISVs genauso wichtig, wie die Skalierungsfähigkeit der Plattform – ein Argument, dass in vielen Debatten der letzten Jahre immer an erster Stelle angeführt wurde. Anscheinend ist hier die Erkenntnis eingetreten, dass die Skalierungsfähigkeit der Technologie- Plattform nur so weit von Nöten ist, wie sich das Wachstum auf Kunden- beziehungsweise Anwenderseite entwickelt.

Auch erscheint verwunderlich, dass sich „nur“ 20 Prozent der ISVs einen lokalen Support und technische Unterstützung „vor Ort“ wünschen. Nur jeder zehnte ISV gab im Rahmen der Befragung an, keine Unterstützung bei der Ausgestaltung der Lizenzmodelle und SLA zu benötigen. Was vielleicht auch daran liegt, dass bislang erst wenige ISVs intensive Erfahrung mit dem Thema gesammelt haben – und daher noch etwas zu optimistisch in die Zukunft schauen.

Betrieb von Software auf PaaS-Plattformen – Make or Buy

Sofern deutsche Softwarehäuser auch den Betrieb ihrer neuen Software-Lösungen auf einer Cloud- beziehungsweise PaaS- Plattform planen, sind nicht nur die reinen Infrastruktur- Leistungen vom Provider gefragt (Server, Storage und Virtualisierung). Vielmehr wünschen sich mittlerweile rund die Hälfte der ISVs und Startups auch Managed Services im Bereich des Datenbank-, OS- und Netzwerkmanagements.

Immerhin kann sich ein Drittel der befragten Softwarehäuser vorstellen, auch externe Unterstützung des Providers im Hinblick auf den Applikationsbetrieb und das Applikationsmanagement in Anspruch zu nehmen – zwei Kerndisziplinen für Softwarehäuser.
Keine Angst vor Google und Co.

Ist es das berühmte Pfeifen im Walde, oder nur eine nüchterne, pragmatische Betrachtung der Lage? Die deutsche Software- Industrie geht jedenfalls optimistisch in die Zukunft und fürchtet sich nur in geringem Maße vor den globalen Großmächten wie Google. Lediglich knapp sechs Prozent der im Rahmen dieser Studie befragten Softwareanbieter glauben, dass Software in Zukunft standardisiert und von der Stange kommt. Wenn dem so wäre, würden in der Zukunft nur noch wenige große Konzerne den Markt unter sich aufteilen.

Studienergebnisse zum kostenlosen Download

Im Rahmen seiner empirischen Studie „Platform-as-a-Service:
Zukunft der deutschen Software-Industrie?“ hat Crisp Research im Auftrag von Pironet NDH deutsche Softwarehersteller nach der Einschätzung und Bedeutung von Platform-as-a-Services für ihr zukünftiges Geschäft befragt.
Die Studie kann kostenlos unter „PaaS-Trendstudie: Cloud verursacht Erdbeben im Softwaremarkt“  heruntergeladen werden.

Categories
Analysen

Der CIO in der OpenStack Falle!

OpenStack hat sich zum wichtigsten Open-Source Projekt für Cloud-Infrastrukturlösungen entwickelt. Seit dem Jahr 2010 haben sich hunderte von Unternehmen beteiligt, um ein offenes, standardisiertes und vielseitiges Technologie-Framework zu entwickeln, welches für die Verwaltung von Rechen-, Speicher- und Netzwerkressourcen in Public, Private und Hybrid Cloud Umgebungen eingesetzt werden kann. Obgleich es sich bei OpenStack um eine Open-Source Lösung handelt, impliziert es nicht, dass die Einrichtung, der Betrieb und die Wartung einfach zu handhaben sind. OpenStack kann sich wie eine wahre Bestie verhalten. Eine Reihe von CIOs, die selbst entwickelte OpenStack-Infrastrukturen betreiben, berichten vom signifikanten Ansteigen von Kosten und der Komplexität. Um OpenStack an ihre individuellen Anforderungen anzupassen haben sie zahlreiche Feinabstimmungen vorgenommen. Dadurch haben sie OpenStack-Implementierungen entwickelt, die nicht mehr kompatibel zu aktuellen Releases sind. Das führt zu der Frage, ob eine “Build”- oder “Buy”-Strategie der richtige Ansatz ist, um OpenStack in der unternehmenseigenen IT-Umgebung einzusetzen.

OpenStack nimmt Fahrt auf

OpenStack hat sich schnell zu einer maßgeblichen Größe im Cloud-Infrastruktur-Business entwickelt. Im Jahr 2010 als kleines Open Source-Projekt gestartet, wird die Lösung mittlerweile von mehreren hundert Unternehmen und Organisationen eingesetzt. Darunter zahlreiche große Unternehmen (PayPal, Wells Fargo, Deutsche Telekom) sowie innovative Cloud Startups und Entwickler. In den Anfangszeiten wurde OpenStack von seinen Initiatoren maßgeblich dazu benutzt, um eigene, teils proprietäre Cloud-Umgebungen aufzubauen. Mehr als 850 Unternehmen unterstützen das Projekt, darunter IBM, Oracle, Red Hat, Cisco, Dell, Canonical, HP und Ericsson.

Neben der stetigen Verbesserung der Technologie steigt ebenfalls die Adaptionsrate bei den Unternehmenskunden kontinuierlich an. Dies zeigt sich im weltweiten Wachstum der OpenStack-Projekte (Steigerung von Q1 auf Q2/2014 um 60 Prozent). Hierbei sind On-Premise Private Clouds das bevorzugte Deployment-Modell. Im Q1/2014 zählte die OpenStack Foundation weltweit 55 Private Cloud-Installationen weltweit. Im Q2 sind es bereits 85. Ebenfalls wuchs die Anzahl der weltweiten OpenStack Public Clouds von 17 auf 29 an. Für die kommenden 12 Monate erwartet Crisp Research ein 25 prozentiges Wachstum OpenStack-basierter Enterprise Private Clouds.

Anmerkung: Im Rahmen einer Studie erhebt Crisp Research derzeit Daten und Fakten zum OpenStack-Einsatz in deutschsprachigen Unternehmen. Die Studienergebnisse werden im Q4/2014 veröffentlicht.

OpenStack: Make oder Buy?

OpenStack bietet Möglichkeiten, Umgebungen in Verbindung mit einer großen Vielfalt von anderen Open-Source Technologien zu betreiben und gleichzeitig kosteneffizient zu sein (keine oder nur geringe Lizenzkosten). Allerdings steigt dass Komplexitätslevel damit dramatisch an. Auch wenn CIOs dazu tendieren, OpenStack nur als Cloud-Management Schicht einzusetzen, entsteht dennoch ein hoher Komplexitätsgrad den es zu verwalten gilt. Den meisten OpenStack-Einsteigern ist nicht bewusst, dass man an „über 500 Knöpfen drehen kann“ um OpenStack-Clouds richtig zu konfigurieren.

Die Kernfrage für die meisten Unternehmen, die von OpenStack profitieren wollen ist daher: Build oder Buy!

Crisp Research_OpenStack_Diy or Buy

Während der Vorbereitung und Evaluierung der „Build oder Buy“-Entscheidung, sollten Unternehmen unbedingt berücksichtigen, über welche Erfahrungen und technische Kenntnisse sie im Hinblick auf OpenStack verfügen. IT-Entscheider sollten ihre internen Fähigkeiten kritisch hinterfragen sowie ihre Anforderungen klar definieren, um sie dann den Angeboten der sogenannten „OpenStack-Distributoren“ gegenüberzustellen. Analog zum Linux-Business bieten OpenStack-Distributoren fertig paketierte OpenStack-Varianten inklusive Support und meist auch Integrationsdienstleistungen an. Dies reduziert das Implementierungsrisiko und beschleunigt meist die Umsetzung des Projektes.

Der CIO ist gefragt

Seit geraumer Zeit sind CIOs und Cloud-Architekten dabei, die Frage zu beantworten, wie sie ihre Cloud-Umgebungen für den Unternehmenseinsatz idealerweise aufbauen sollten. Nachdem die letzten Jahren unter dem Motto „Trial and Error“ standen und der Großteil der Cloud-Infrastrukturen einen explorativen Charakter besaß, geht es nun mehr darum, großvolumige Projekte für den produktiven Betrieb umzusetzen.

Dies wirft die Frage auf, welches Cloud-Design das Richtige ist, mit dem IT-Architekten ihre Cloud-Umgebungen planen. Crisp Research rät, moderne und nachhaltige Cloud-Umgebungen auf den Grundsätzen der Offenheit, Zuverlässigkeit und Effizienz aufzubauen. Speziell in den Bereichen Offenheit und Effizienz leistet OpenStack einen signifikanten Beitrag.

Der vollständige Analyst Report „Der CIO im OpenStack Dilemma: BUY oder DIY?“ kann unter http://www.crisp-research.com/report-der-cio-im-openstack-dilemma-buy-oder-diy/  kostenlos heruntergeladen werden.

Categories
Analysen

Public PaaS in Deutschland: Warum cloudControl in die USA zieht

Docker Inc. trennt sich von seinem Platform-as-a-Service (PaaS) Sorgenkind dotCloud und verkauft dieses an cloudControl Inc. dem US-amerikanischen Ableger der cloudControl GmbH aus Berlin. 

Categories
Analysen

Docker: Multi-Cloud Deployments werden Realität

Die Zeiten in denen Software auf lokalen Maschinen programmiert und isoliert in abgeschirmten Firmennetzwerken betrieben wurde sind längst vorbei. Im Cloud-Zeitalter steigt der Wert eines Software-Dienstes mit dessen Vernetzungs- und Verbreitungsgrad. Dies hat fundamentale Auswirkungen auf die Art und Weise wie Anwendungen heute entwickelt, getestet und betrieben werden. Ausfallsicherheit und Business Continuity sind in diesem Kontext nur zwei Schlagworte, die es dabei zu berücksichtigen gilt.

Categories
Analysen

Disaster Recovery: Kein Grund mehr für Ausreden!

Das Thema Disaster Recovery spielt im deutschen Mittelstand nur eine untergeordnete Rolle. Diese fahrlässige Haltung kann sich in einem Bruchteil von Sekunden geschäftsschädigend auswirken. Dabei bieten neue Betriebsmodelle aus dem Cloud-Zeitalter keinen Grund mehr für Ausreden.

An einer Disaster Recovery Strategie führt kein Weg mehr vorbei

Der Tsunami der digitalen Transformation wird auch deutsche Unternehmen mit voller Wucht treffen. Wann die Hauptwelle einschlagen wird ist individuell zu betrachten und nicht zu 100 Prozent vorhersagbar. Eines ist allerdings sicher, die Cloud-, Social-, Mobile- und Big Data Beben sind allgegenwärtig und die ersten Ausläufer sind bereits angekommen. Insbesondere der Mittelstand wird die harte Realität zu spüren bekommen. Da er oft nicht in der Lage ist, die Verfügbarkeit seiner geschäftskritischen IT-Services und Applikationen auf einem dafür notwendigem hohem Niveau sicherzustellen.

Sicherheits- und Notfallkonzepte gelten in Unternehmen weitläufig immer noch als lästige und teure Präventionsmaßnahmen, um die geschäftskritischen digitalen Assets zu schützen und das Unternehmen in Ausnahmesituationen am Leben zu erhalten. Erst wenn das Kind in den Brunnen gefallen ist, werden alle Mittel und Wege in Bewegung gesetzt, um die entsprechenden Bergungs- und lebensrettenden Maßnahmen einzuleiten. Dann ist es jedoch meistens zu spät und der Überlebenskampf beginnt. Technische Mängel und durch menschliche Fehler verursachte Mängel an IT-Systemen führen dann zur Ratlosigkeit, wodurch die IT-Infrastruktur vielmals erst nach einem längeren Stillstand wieder im produktiven Betrieb ist. Damit kann der Geschäftsbetrieb über mehrere Tage beeinträchtigt sein und zu hohen internen Kosten als auch substantiellen Imageschäden führen. Das ist fatal und zugleich ein fahrlässiges Verhalten. Heute kann es sich kein Unternehmen mehr leisten, seine Partner, Lieferanten oder Kunden über einen längeren Zeitraum nicht auf die eigene IT-Infrastruktur zugreifen zu lassen.

Wer nun die Schuldigen alleine in den IT-Abteilungen der Unternehmen sucht, der ist auf der falschen Hierarchieebene unterwegs. Administratoren und CIOs haben das Thema auf der Agenda, stehen aber mit dem Rücken zur Wand. Zum einen sind sie handlungsunfähig, da ihnen keine Budgets zur Verfügung stehen, zum anderen halten sie den Kopf hin, wenn der Katastrophenfall eintritt. Der in der IT viel diskutierte ROI ist im Fall von Disaster Recovery Szenarien einfach nicht messbar genug und genießt auf der Entscheider-Ebene eine zu geringe Priorität. Dadurch werden nicht ausreichend Budgets für eine echte Disaster Recovery Strategie bereitgestellt. Gleichzeitig sind Notfallpläne auf Basis eines klassischen Backup-Rechenzentrum Ansatzes sehr komplex sowie kosten- und zeitintensiv.

Eine weitere Herausforderung besteht auf Architekturebene. Cloud-Modelle verändern die Art und Weise wie Applikationen entwickelt, betrieben und bereitgestellt werden. Bereits heute werden Anwendungen nicht mehr nur auf der eigenen on-Premise Infrastruktur betrieben, sondern befinden sich in einem hybriden Modell verteilt bei einem oder mehreren Cloud- oder Hosting-Anbietern. Das Multi-Cloud Konzept ist allgegenwärtiger als man vermutet. Dieser Trend wird sich in den kommenden Jahren weiter verstärken und einen direkten Einfluss auf Disaster Recovery Szenarien haben, um die Informationen und Applikationen im Katastrophenfall ohne Zeit- und Datenverlust wiederherzustellen.

Von der Hardware zum Service: Die Metamorphose des Disaster Recovery

Derzeit fließt der Großteil des IT-Budgets von Unternehmen in Speicher- und Serversysteme sowie Softwarelösungen, um darüber ebenfalls eigene Backup-Konzepte zu realisieren. Heutige Ansätze sehen in den meisten Fällen keine Maßnahmen für eine 24×7 Wiederherstellung von Daten und Systemen vor und beinhalten maximal einfache Backup- und RAID-Architekturen. Umfangreiche Disaster Recovery Szenarien sind sehr komplex. Das wird sich in den kommenden Jahren, durch hybride Applikationsarchitekturen und einer verteilten Datenhaltung, weiter verstärken.

Diese Entwicklung wird mittelfristig auch in den Unternehmen Einzug erhalten, was sich auf das Ausgabenverhältnis für Hard- und Software sowie Services und Audits auswirken wird. Crisp Research sieht vom Jahr 2014 auf das Jahr 2018 eine maßgebliche Verschiebung der Kostenblöcke für IT-Ressourcen in diesen Produktkategorien.

Disaster-Recovery_Resource_Ausgaben

Die Verschiebung der Kostenstruktur erklärt sich durch

• Neue Betriebsmodelle (bspw. Cloud Computing)
• Virtualisierung
• Standardisierung
• Converged Infrastructure

Auf Basis dieser Einflüsse lassen sich neue Betriebskonzepte aufbauen und Unternehmen einfacher und kostengünstiger auf einem Niveau bereitstellen, wie es sich sonst nur große Unternehmenskunden leisten können. Dies führt allerdings dazu, dass in den kommenden Jahren die Investitionen in Technologien (Hardware/ Software) deutlich abnehmen und diese sich auf die anderen Bereiche aufteilen werden. Dadurch erhöhen sie sich die Ausgaben für Services (Cloud- und Managed-Services) als auch im Bereich Audits/ Compliance. Insbesondere Audits werden eine höhere Bedeutung gewinnen. Das liegt zum einen an der sich ständig verändernden Gesetzlage, um die Compliance-Richtlinien zu erfüllen. Zum anderen an dem wachsenden Aufwand, die Disaster Recovery Anbieter hinsichtlich der Einhaltung gesetzlicher Vorgaben (Speicherfristen, rechtskonforme Datenhaltung usw.) zu kontrollieren.

Anforderungen des Mittelstands an moderne Disaster Recovery Lösungen

Der Bereich von Disaster Recovery Lösungen entwickelt sich kontinuierlich. Hierbei stechen drei Anforderungen heraus, die den Markt nachhaltig beeinflussen werden:

1. Kosteneffizienz
Die Ausgaben für Technologien müssen signifikant sinken, um eine Kostenreduktion zu erzielen und andere Disaster Recovery Bereiche (Services, Audits) kosteneffizient zu nutzen. In diesem Zusammenhang sollten ebenfalls die Einsparungen für die Wartung der physikalischen Ressourcen berücksichtigt werden. Die Disaster Recovery Lösung wird entweder als Service genutzt, wodurch sich die Systeme überwiegend auf der Seite der Anbieter befinden. Auf der Kundenseite stehen nur noch marginal benötigte konsolidierte Hardware-/ Software-Ressourcen.

2. Reduzierung der Komplexität
Maßnahmen für eine Disaster Recovery Strategie sind hinsichtlich der Implementierung, dem Betrieb und der Wartung der Infrastruktur aufwändig und komplex. Darüber hinaus wird die Komplexität durch neue Cloud- und Architektur-Konzepte ansteigen, um die DNA und die 24/7 Verfügbarkeit verteilter Daten und Applikationen zu berücksichtigen.

Neue Disaster Recovery Lösungen sollen die Komplexität auf der Kundenseite reduzieren, indem sich die maßgeblichen Aufgaben auf die Seite der Anbieter verlagern bzw. sich in on-Premise Appliances kapseln.

3. Standortübergreifende Disaster Recovery Szenarien
Neue Betriebsmodelle für Produktivumgebungen erfordern für mittelständische Unternehmen ein Umdenken beim Aufbau von Disaster Recovery Szenarien. Durch den Einsatz von Hybrid-/ Multi-Cloud Infrastrukturen, Cloud-Services und der Nutzung von Co-Locations, muss parallel die DNA für den Katastrophenfall angepasst werden, um geschäftskritische Applikationen und Daten ausfallsicher zu betreiben.

Nur damit lässt sich die Konsistenz aller produktiven Systeme über den gesamten Lebenszyklus hinweg erhalten und aktuelle und zukünftige Geschäftsprozesse optimal schützen.

Zwei unterschiedliche Ansätze für Disaster Recovery Lösungen

Der Markt für Disaster Recovery Angebote wächst kontinuierlich. Unternehmen können aus unterschiedlichen Ansätzen und Lösungen wählen. Zwei Anbieter, welche dieses Marktsegment mit unterschiedlichen Ansätzen für bestimmte Bedürfnisse abdecken sind die Claranet GmbH und die DTS Systeme GmbH.

Unternehmen die ihren Hauptfokus auf das Backup von Daten und Systemen legen, finden bei DTS eine Lösung. Der deutsche Systemintegrator setzt auf die Continuous Data Protector (CDP) Technologie von FalconStor. Eine festplattenbasierte Backup und Disaster Recovery Lösung, mit welcher sich die Daten der Produktivsysteme kontinuierlich sichern lassen, anstatt konkrete Backupfenster zu definieren. Im Fehlerfall lässt sich ein konsistenter Zustand der Daten wiederherstellen und ebenfalls im laufenden Betrieb auf ältere Datenstände einzelner Dateien zurückgreifen.

Wer sein Hauptaugenmerk konkret auf eine Disaster Recovery Strategie legt, der wird bei Claranet fündig. Der europäische Managed-Services Anbieter setzt auf einen Disaster Recovery-as-a-Service (DRaaS) Ansatz und hat sich hierzu für die Virtual Computing Platform von Nutanix entschieden, mit der sich nahtlos integrierte und hybride End-to-End Lösungen zwischen der Kundeninfrastruktur und dem Claranet Rechenzentrum aufbauen lassen.

Fahren Sie lieber mit Ersatzreifen an Bord

Eine Disaster Recovery Strategie ist vergleichbar mit dem Ersatzreifen an ihrem Auto. Im Regelfall benötigen Sie diesen nicht. Aber wenn Sie dann mitten auf der Autobahn liegen bleiben, im Regen…

Mit der wachsenden Bedeutung der digitalen Ökonomie und der steigenden Zunahme des Digitalisierungsgrads, kann es sich kein Unternehmen mehr leisten, auf ein Disaster Recovery zu verzichten. Die Bereitstellung von Services und Anwendungen in Echtzeit sowie die zunehmend steigenden Anforderungen, die Ausfallsicherheit und so kurze Wiederherstellungszeiten wie möglich zu garantieren, sind die maßgeblichen Treiber hinter dieser Entwicklung. Eine Disaster Recovery Strategie muss daher zwangsläufig Teil der Geschäftsstrategie sein und eine hohe Priorität auf Geschäftsführungsebene erhalten.

Moderne Disaster Recovery Lösungen führen Unternehmen in Verlegenheit, sich nicht mehr hinter Ausreden zu verstecken und somit auf ein automatisiertes Notfallmanagement zu verzichten. Mit einem klar kalkulierbaren Aufwand und geringer Komplexität können auch kleine und mittelständische Unternehmen dasselbe Disaster Recovery Niveau erhalten wie es sonst nur großen Konzernen vorbehalten ist, und das zu verträglichen Kosten.

Moderne Disaster Recovery-as-a-Service Lösungen werden in Zukunft immer mehr Unternehmen dabei unterstützen, kostengünstig und mit geringem Aufwand eine Disaster Recovery Strategie technologisch umzusetzen. Hierzu bietet der Markt mittlerweile eine Vielzahl unterschiedlicher Ansätze und Lösungen für unterschiedliche Bedürfnisse und Anforderungen.

Mehr Informationen zum Thema Disaster Recovery finden Sie im folgenden White Paper „Disaster Recovery-as-a-Service für den Mittelstand“.

Categories
Analysen

Neues White Paper von Crisp Research: Disaster-Recovery-as-a-Service für den Mittelstand

Tagtäglich bekommen Unternehmen den Einfluss des digitalen Wandels zu spüren. Ohne eine angemessene Verfügbarkeit von IT-Services und den stetigen Zugriff auf Daten und Informationen lässt sich in der heutigen Zeit kein moderner Geschäftsbetrieb mehr realisieren.

Trotz dieser Tatsache investieren nur wenige deutsche Unternehmen in ein akzeptables Risiko- und Notfallmanagement, um ihre Geschäftsprozesse auch im Ausnahmefall stabil zu betreiben oder in kurzer Zeit wieder auf Normalniveau reaktivieren zu können. Die tägliche Sicherung von Daten hat sich in den letzten Jahren in den meisten Unternehmen etabliert. Ob und wie sich die Daten im Ernstfall wiederherstellen lassen, bleibt allerdings vielfach offen.

Welche Herausforderungen und Strategien ein Unternehmen bei dem Aufbau hybrider Disaster-Recovery Infrastrukturen berücksichtigen sollten, wurde von Crisp Research im Auftrag von Claranet mit dem White Paper „Disaster-Recovery-as-a-Service für den Mittelstand“ herausgearbeitet.

Das White Paper kann kostenlos unter http://www.claranet.de/DRaaS heruntergeladen werden.

DRaaS-White-Paper

Categories
Analysen

Internet of Things: Der Einfluss auf den CIO

Im Jahr 2025 werden geschätzte 30 Milliarden untereinander vernetzter Geräte im Umlauf sein. Das Internet of Things, der durch die Technologie getriebene Trend, bietet zahlreiche Möglichkeiten für CIOs, um neue IT-gestützte Geschäftsfelder zu erschließen.

Der Aufbau eines vollständig miteinander vernetzten Systems global verteilter Rechnersysteme, Sensoren und zahlreicher Endgeräte, die alle untereinander über das Internet kommunizieren, ist in vollem Gange. Dieser Wandel wird einen direkten Einfluss darauf haben, wie sich unser Leben in Zukunft verändern wird und erst dadurch sämtliche Potentiale des digitalen Unternehmens offenbaren.

Das Internet of Things ist Teil des digitalen Unternehmens

Das Internet of Things (IoT) steht für die Vernetzung physischer Objekte, zu denen neben uns Menschen ebenfalls weitere Dinge wie Sensoren, Haushaltsgegenstände, Autos, Industrieanlagen usw. gehören. Das IoT schließt die Brücke zwischen der digitalen und analogen Welt, indem eine maximale Vernetzung und einem möglichst großen Informationsaustausch angestrebt wird.

Die großflächige Verbreitung, Annahme und Adaption des IoT wird noch einige Zeit benötigen, wird aber zu einem ähnlich großen Wandel beitragen, wie es das Cloud Computing seit einigen Jahren vorlebt. Crisp Research geht davon aus, dass im Jahr 2025 etwa 30 Milliarden untereinander vernetzter Geräte auf dem Markt sein werden. Bis zum Jahr 2016 wird für Deutschland ein Marktvolumen von 366 Millionen Euro (5 Milliarden Euro weltweit) für IoT Ausrüstung (Sensoren und Netzwerke) erwartet. Dieser Trend wird sehr schnell zu einem entscheidenden Faktor für die zukünftige Wettbewerbsfähigkeit von Unternehmen werden, die gleichzeitig mit den dafür notwendigen Technologien in den Ring steigen müssen.

Die Welt der Daten

Es existieren bereits einige Unternehmen, welche die Echtzeit-Analyse nutzen, um Trends in Daten zu identifizieren und darauf zu reagieren. Dazu gehört bspw. das bessere Verständnis der Kunden in Echtzeit, um ihnen aktuelle, auf sie zugeschnittene Angebote direkt auf ihr Smartphone oder Wearable zu schicken, die exakt zu dem aktuellen Kontext ihrer Aktivitäten passen. Weitere Anwendungsfälle finden sich in den Bereichen Transport und Logistik und wie das IoT dabei hilft die Ankunftszeit von Lieferungen zu optimieren sowie die CO2-Bilanz anhand der Nutzung von Datenmustern zu verbessern.

Ein gutes Beispiel für ein innovatives IoT Unternehmen ist digitalSTROM. Der Anbieter von Smart Home Technologien aus der Schweiz hat eine intelligente Hausvernetzung entwickelt, mit der sich anhand von Smartphone Apps mit den jeweiligen Geräten im Haus über die Stromleitung kommunizieren lässt. Basis hierfür stellen Lego-artige Bausteine dar, über die jeder angeschlossene Verbraucher angesprochen werden kann. Die Intelligenz eines jeden Endgeräts steckt dabei in einem Baustein. Als technologische Basis setzt digitalSTROM auf  die Azure Cloud Infrastruktur von Microsoft.

Die Einsatzmöglichkeiten des Internet of Things sind unbegrenzt

Die grundsätzlichen Einsatzbereiche und Möglichkeiten des Internet of Things sind nahezu unbegrenzt. Für die kommenden drei Jahre sieht Crisp Research vier wichtige Bereiche auf die das IoT einen erheblichen Einfluss nehmen wird:

  • Eine Verbesserung des Marketings durch die intensivere Überwachung des Verhaltens der Menschen, Dinge und Daten auf Basis der Analyse von Zeit und dem Ort, an dem sich die Objekte aufhalten. Hierzu gehören bspw. die ortsbezogene Werbung und die Auswertung des Kaufverhaltens über unterschiedliche Geschäfte hinweg.
  • Die Verbesserung der Reaktion auf bestimmte Situationen in Echtzeit. Hierzu gehören zum Beispiel die Steuerung von Transportwegen anhand unterschiedlicher Variablen wie das Wetter und dem Benzinverbrauch aber ebenfalls weichere Faktoren wie mögliche Gefahren.
  • Unterstützung bei der Entscheidungsfindung durch Sensor-basierte Analysen anhand von tiefergreifenden Analysen, bspw. für die ständige Überwachung von Patienten für eine bessere Behandlung.
  • Einen höheren Automatisierungsgrad und eine bessere Kontrolle zur Optimierung von Prozessen und der Ressourcennutzung (z.B. Smart Metering) sowie für Risikomanagementsysteme.

CIOs dürfen das Internet of Things keinesfalls unterschätzen

Das Internet of Things löst bestehende Datensilos auf, ermöglicht den Zugriff auf neue Datenquellen und eröffnet Unternehmen damit völlig neue Geschäftsmöglichkeiten. Neue digitale Unternehmen tauchen plötzlich aus dem Nichts auf und wirbeln die bestehende Anbieterlandschaft durcheinander, indem sie neue Märkte mit neuen Angeboten und Services erschließen.

Heutige Industrien sind seit geraumer Zeit nicht mehr so strikt vertikal organisiert wie noch vor mehreren Jahrzehnten. Heute verkaufen Online-Versandhändler ebenfalls IT-Ressourcen; Computerhersteller haben die Musikbranche revolutioniert. Das sind nur zwei Beispiele die zeigen, dass der Mitbewerb nicht mehr derjenige ist, der es zu sein scheint.

Dank Cloud Computing, drahtlose Verbindungen, mobile Lösungen als auch Big Data Analytics und Caching fallen die Kosten für IT-Lösungen beträchtlich. Hinzu kommen die immer günstiger werdenden Sensoren und Endgeräte als auch die steigende Beliebtheit, Daten von Geräten zu jeder Zeit und an jedem Ort zu sammeln.

Sollten CIOs diesen unmittelbaren Angriff auf ihre Unternehmen nicht als eine deutliche und gegenwärtige Bedrohung wahrnehmen, werden sie früher oder später mit den entsprechenden Konsequenzen konfrontiert werden. CIOs sollten sich daher mit den aktuellen und zukünftigen Möglichkeiten auseinandersetzen und damit ihrem Unternehmen mit dem besten Rat zur Seite zu stehen, um von den Chancen zu profitieren die das IoT bietet.

Worauf sollten CIOs bei der Einführung des Internet of Things in Ihrem Unternehmen achten?

CEOs und CMOs gehen verstärkt auf CIOs zu und fragen um deren Hilfe beim Sammeln, Analysieren und Auswerten von Daten. Dabei geht es entweder um das simple Speichern der Daten bis hin zur Nutzung der Daten zur Geschäftsprozessoptimierung, der Entwicklung neuer Geschäftsmodelle oder um neue Geschäftsmöglichkeiten zu evaluieren. Mit der stetig steigenden Menge, Variation und Geschwindigkeit mit welcher die Daten eintreffen, erreichen traditionelle Infrastrukturen schnell den Maximalpunkt ihrer möglichen Skalierbarkeit. Dasselbe Schicksal ereilt sämtliche Applikationen, deren Evolutionsverhalten starr gekapselt ist und diese damit nicht mit den steigenden Anforderungen von der Business-Seite dynamisch mithalten können.

Um den steigenden Anforderungen von IoT Workloads und den wachsenden Sensor- und Metadaten zu begegnen sind neue agile Plattformen und massiv skalierbare Infrastrukturen notwendig. Standardisierte Toolkits und Schnittstellen helfen bei der schnellen Einführung von leistungsfähigen IoT Anwendungsfällen und sorgen für eine stabile Kommunikation zwischen den Anwendungen, Services, Sensoren, Plattformen, Dashboards sowie der Sammlung, Analyse, Auswertung und Aufbereitung der gewonnen Daten.