Categories
Analysen

Cloud Computing und Big Data – Der ideale Use Case

Ich hatte schon einmal im März die Frage gestellt, ob Infrastructure-as-a-Service (IaaS) die ideale Lösung für die Herausforderungen von Big Data ist. Bereits damals bin ich zu dem Ergebnis gekommen, dass die Verarbeitung und Analyse großer Datenmengen – kurz: Big Data – ein idealer Use Case für das Cloud Computing ist. Unternehmen können die hohen Anforderungen, die Big Data erwartet, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Was ist Big Data

Als Big Data werden besonders große Datenmengen bezeichnet, die mit Hilfe von Standard-Datenbanken und Daten-Management-Tools nicht oder nur unzureichend verarbeitet werden können. Problematisch sind hierbei vor allem die Erfassung, die Speicherung, die Suche, Verteilung, Analyse und Visualisierung von großen Datenmengen. Das Volumen dieser Datenmengen geht in die Terabytes, Petabytes, Exabytes und Zettabytes.

Quelle: Wikipedia.de

Beispiele für Big Data

Für Unternehmen bietet die Analyse von Big Data die Möglichkeit zur Erlangung von Wettbewerbsvorteilen, Generierung von Einsparungspotentialen und zur Schaffung von neuen Geschäftsfeldern. Beispiele hierfür sind:

  • zeitnahe Auswertung von Webstatistiken und Anpassung von Online-Werbemaßnahmen
  • bessere, schnellere Marktforschung
  • Entdeckung von Unregelmäßigkeiten bei Finanztransaktionen (Fraud-Detection)
  • Einführung und Optimierung einer intelligenten Energieverbrauchssteuerung (Smart Metering)
  • Erkennen von Interdependenzen in der medizinischen Behandlung
  • Realtime-Cross- und Upselling im E-Commerce und stationären Vertrieb
  • Aufbau flexibler Billingsysteme in der Telekommunikation

Quelle: Wikipedia.de

Herausforderungen von Big Data

Klassische relationale Datenbanksysteme sowie Statistik- und Visualisierungsprogramme sind oft nicht in der Lage, derart große Datenmengen zu verarbeiten. Für Big Data kommt daher eine neue Art von Software zum Einsatz, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeitet. Hierbei gibt es folgende Herausforderungen:

  • Verarbeitung vieler Datensätze
  • Verarbeitung vieler Spalten innerhalb eines Datensatzes
  • schneller Import großer Datenmengen
  • sofortige Abfrage importierter Daten (Realtime-Processing)
  • kurze Antwortzeiten auch bei komplexen Abfragen
  • Möglichkeit zur Verarbeitung vieler gleichzeitiger Abfragen (Concurrent Queries)

Die Entwicklung von Software für die Verarbeitung von Big Data befindet sich noch in einer frühen Phase. Prominent ist der MapReduce-Ansatz, der in der Open-Source-Software (Apache Hadoop und MongoDb), sowie in einigen kommerziellen Produkten (Aster Data, Greenplum u. a.) zum Einsatz kommt.

Quelle: Wikipedia.de

Cloud Computing und Big Data: Der perfekte Use Case

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere “normale” Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Wettbewerbsfähigkeit steigern

McKinsey’s Report “Big data: The next frontier for innovation, competition, and productivity”, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Big Data Verarbeitung in der Cloud

Kosteneinsparungen für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit Big Data

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Categories
News

Use Case: Cloud Computing hilft Entertainment

Welche Einflüsse haben neue technologische Innovationen wie die Cloud auf die Kreativ-Industrie, welches Potenzial entsteht durch neue Arbeitstechniken und wie verändert sich mit der Microsoft Cloud die tägliche Arbeit in Medien und Produktionsfirmen? Antworten gab das diesjährige Forum D’Avignon, eines der wichtigsten Wirtschafts- und Kulturforen in Europa, das vom 15. bis 17. November in Avignon, Frankreich, stattfand. Die Gäste konnten sich hier über die Innovation des ScreenerOne von Bertelsmann arvato informieren. Das auf der Microsoft Cloud basierende Content Collaboration System ermöglicht es den GrundyUFA Produktionsteams von „Gute Zeiten, schlechte Zeiten“, „Verbotene Liebe“, „Alles was zählt“ und „Unter Uns“ sämtliche Inhalte orts- und zeitunabhängig zu verwalten und abzustimmen.

GrundyUFA setzt auf ScreenerONE

Seit 2011 vertraut GrundyUFA, Marktführer im Segment lang laufender Serien, bei ihren Produktionen auf das Cloud-basierte Content Collaboration System ScreenerONE. Eine Applikation, die die Bertelsmann-Tochter arvato gemeinsam mit GrundyUFA und Microsoft Partnern entwickelt hat. Auf Basis der Microsoft Cloud Windows Azure kam der ScreenerONE zunächst bei der Produktion des Daily Dramas „Verbotene Liebe“ zum Einsatz. Die erfolgreiche Evaluierungsphase einhergehend mit den positiven Veränderung im täglichen Workflow der GrundyUFA Kreativteams führten nun zu der Erweiterung der Collaboration-Plattform zu einer unternehmensweiten Lösung. Seitdem kommt der ScreenerONE auch bei den Produktionen „Gute Zeiten, schlechte Zeiten“, „Alles was zählt“ und „Unter Uns“ zum Einsatz, die täglich für ein Millionenpublikum produziert werden.

ScreenerONE – Im Praxiseinsatz bewährt

Zeit ist kostbar, vor allem bei der Produktion von Daily-Dramas. Daher konzentrierte sich die Zielsetzung von GrundyUFA in der Evaluierungsphase der Lösung auf die erfolgreiche Umsetzung ihres „24h Konzepts“: Innerhalb von 24 Stunden nach Dreh müssen alle inhaltlichen Abstimmungen erfolgt sein, unabhängig wo gedreht wird und wo die Ansprechpartner sitzen. Was wiederum die Sicherstellung einer effektiven Zusammenarbeit über verschiedene Kanäle und Devices einschließt. Als Collaboration-Plattform erlaubt der ScreenerOne dem Produktionsteam sämtliche Inhalte, von Video-Sequenzen und Storyboards, über Tonaufnahmen und Scripts bis hin zu Pressefotos einer jeden Folge zu verwalten, Metadaten einzusehen und Anmerkungen einzufügen.
Räumliche Distanzen spielen dabei für die Produktionen keine Rolle mehr. Gedrehtes Material – unabhängig ob Daily Drama oder Online Serien – wird in Echtzeitkommunikation von überall, zu jedem Zeitpunkt und Device-unabhängig, ob PC, Notebook, Smartphone oder Tablet, bewertet und abgestimmt. Die Arbeitsweise entfernt sich auf diese Weise von hierarchischen Prozessen und organisiert sich fortan collaborativ, drehfreie Zeiten werden reduziert und ein produktives Arbeiten ermöglicht.

Green Producing in der Windows Cloud

Indem der GrundyUFA Workflow in der Microsoft Cloud vollkommen datenträgerfrei ist, führt er neben der Reduktion von Kosten zu wichtigen Einsparpotenzialen für die Umwelt. So verringerte sich beispielsweise beim Mallorca-Dreh der „Verbotene Liebe“ der Transportaufwand für Film- und Datenmaterial auf der Insel und von der Balearen-Insel nach Deutschland deutlich. Dabei gelten für die Film- und Medienbranche besondere Anforderungen an die Lösungen und die Cloud-Plattform, auf der die Lösung betrieben wird. Hierzu zählt auch die Unterstützung verschiedener Dateiformate, sodass die vor Ort erstellten Clips Device-übergreifend fehlerfrei abspielbar sind. Daneben gewährt die Windows Azure Technologie eine hohe Skalierbarkeit und Verfügbarkeit, sodass GrundyUFA ihren Workflow jederzeit ihren echten Anforderungen anpassen kann. Mit sicheren Rechenzentren und einer speziellen Microsoft Play Ready Technologie sorgt Microsoft zudem für den Schutz der Medieninhalte vor illegalen Raubkopien und schützt somit das geistige Eigentum der Produktionsfirma.

Categories
Management @de

Der Weg in die Cloud startet mit dem richtigen Use Case

Der Übergang von on-Premise hinzu Cloud basierten Lösungen stellt Unternehmen vor Herausforderungen. Sollen die bestehenden Systeme 1:1 migriert oder die Chance genutzt werden, um einen Neuanfang zu starten und nur die Daten übernommen werden. Es stellt sich hier also die Frage, wie existierende Anwendungen in die Cloud migriert werden. So oder so muss sich allerdings das Architekturmodell der bestehenden Systeme und Anwendungen vollständig vom statischen zu dynamischen/ skalierbaren Modellen zzgl. Multi-Tenancy Fähigkeiten verändern, um die wahren Möglichkeiten der Cloud zu nutzen.

Eine Infrastruktur bietet die meisten Freiheiten

Die größten Herausforderungen erleben Unternehmen bei der Nutzung des Infrastructure-as-a-Service (IaaS), da ihnen hier von einem Public Cloud Anbieter „nur“ virtuelle Ressourcen bereitgestellt werden, um auf dieser Basis eine eigene virtuelle Infrastruktur aufzubauen, auf der sie ihre eigenen Systeme hinsichtlich Hochverfügbarkeit aber vor allem mit einer enormen Skalierbarkeit aufzubauen. Ein Nutzer darf sich hier zudem maximal darauf verlassen, dass der Anbieter dafür sorgt, dass die durch im bereitgestellte Infrastruktur zu einem bestimmten Service Level zur Verfügung steht. Um alle weiteren Themen, wie die Wartung der virtuellen Ressourcen und den darauf betriebenen Software, Services und Systemen muss sich der Nutzer selbst kümmern. Ebenso das Sicherstellen der Hochverfügbarkeit der eigenen Systeme und Applikationen fällt in den Aufgabenbereich des Kunden.

Eine Plattform erleichtert die Administration

Ein Stückweit mehr Verantwortung gibt der Nutzer an einen Anbieter ab, wenn er sich für einen Platform-as-a-Service (PaaS) entscheidet. Wie der Name bereits sagt, stellt ein Anbieter eine vollständige Plattform inkl. einem umfangreichen Systemstack zur Verfügung. Ein Nutzer kann sich hier gezielt auf die Entwicklung seiner Anwendung konzentrieren und muss sich nicht, anders als beim IaaS, um die darunter liegende Infrastruktur kümmern. PaaS gilt als die Serviceart mit dem größten Wachstumspotential und den vielfältigsten Möglichkeiten für die kommenden Jahre. Ein Blick auf die PaaS der ersten Stunde unterstreicht diese These. Haben die meisten Anbieter zu Beginn nur eine Programmiersprache unterstützt, kamen im Laufe der Zeit immer weitere Sprachen hinzu, wodurch ein Nutzer mittlerweile aus einer Vielfalt an Sprachen wählen kann, um seine Applikationen in die Cloud zu migrieren bzw. dort neue Ideen zu verwirklichen.

Standardisierte Applikationen

Bei der Nutzung von Applikationen auf Basis von Software-as-a-Service (SaaS) hat der Nutzer am wenigsten bis keinen Einfluss auf das Angebot. Anhand von standardisierten Applikationen wird er von dem Anbieter mit fertigen und in der Regel nicht anpassbaren Lösungen versorgt. Anders als bei IaaS und PaaS, ist ein SaaS Anbieter für den gesamten, einwandfreien Betrieb der Anwendungen verantwortlich. Der Nutzer muss sich hier also um die nicht zu unterschätzende Aufgabe kümmern, wie er seine Daten in die SaaS Applikation migriert, bzw. exportiert, wenn er das Angebot nicht mehr nutzen möchte. An dieser Stelle sollte der Anbieter entsprechende Schnittstellen zu on-Premise Systemen bzw. gängigen Formaten bereitstellen.

Der Use Case ist entscheidend

Für wen welche Art der Cloud Nutzung in Frage kommt, muss jedes Unternehmen individuell evaluieren. Es geht also grundsätzlich um die Frage, für welche Systeme und Plattformen eine Migration in die Cloud besonders sinnvoll ist und welche Serviceart geeignet ist. Über gut dokumentierte APIs sollte ein Anbieter seine Kunden dabei unterstützen, die Cloud bestmöglich für ihre Anforderungen zu nutzen.


Bildquelle: ©Erika Hartmann / PIXELIO

Categories
Management @de

Cloud Computing ist kein Allheilmittel!

Zunächst handelt es sich bei Cloud Computing nicht mehr um einen Hype! Wir befinden uns mittlerweile in der Evaluations- und Adaptionsphase und gerade deswegen ist weiterhin viel Aufklärungsarbeit notwendig, um die Potentiale aufzuzeigen.

Bei den Potentialen handelt es sich bspw. um Kosten – Wandel von fixen zu variablen Kosten, eine bessere Ressourcenallokation, Flexibilität, Agilität, Ortsunabhängigkeit – dadurch flexibleres Recruiting von Leuten auf der ganzen Welt, Bsp. 37Signals). Wichtig ist, dass sich Unternehmen darüber jedoch im klaren sind, dass Cloud Computing Anbieter einem nicht die Arbeit vollständig abnehmen und das der Weg in die Cloud gut durchdacht und geplant werden muss. Das Unternehmen muss sich zunächst selber kennen und analysieren und schauen wo es Potentiale für Cloud Computing sieht.

Der Glaubenskrieg

Wir haben in der Cloud im Prinzip dieselbe Situation wie wir sie schon in der Vergangenheit gesehen haben. In jedem Bereich gibt es einen Glaubenskrieg, welche Technologie oder welcher Ansatz der Bessere ist. So kennen wir den Krieg zwischen Microsoft und Linux oder aktuell zwischen dem iPhone und Android. In der Cloud haben wir den Krieg der unterschiedlichen Deploymentmodels wie der Private/ Public/ Virtual Private und Hybrid Cloud. Aber anders wie bspw. beim Kampf zwischen Apple und Android, wo hier zwischen der coolen Marke Apple mit seinem verschlossenen iOS System und dem offenen Ansatz von Android argumentiert wird, geht es beim Cloud Computing argumentativ in erster linie um die Themen Datenschutz, Datensicherheit und Compliance.

Es geht um den Use Case

Fakt ist allerdings, dass alles vom gegenwärtigen Use Case abhängt. Denn es gibt nicht die gute oder schlechte Cloud. Betrachten wir einmal die unterschiedlichen Cloud Deployment Ansätze:

Private Cloud
Ich bin kein Gegner der Private Cloud. Ich finde die Adopation der Konzepte und Methoden des Cloud Computing für das eigene Rechenzentrum durchaus interessant. Es besteht dadurch die Möglichkeit, die interne IT deutlich flexibler zu gestalten und seinen internen Kunden und Projekten die Ressourcen on Demand bereitzustellen, wodurch sich die Resourcenallokation verbessert und die Abrechnung ebenfalls genauer wird.

Dennoch sollte ein Unternehmen sich überlegen, ob es tatsächlich Sinn macht eine Private Cloud im eigenen Rechenzentrum aufzubauen. Warum? Mit der Private Cloud hat man die Probleme des klassischen Rechenzentrum Betriebs plus die Komplexität der Private Cloud. Hinzu kommen die Kosten für die Hardware/ Software/ Lizenzen sowie die Fortbildung des Personals. Cloud Computing dient nun einmal dazu, sich auf die eigenen Kernkompetenzen zu konzentrieren. Das schafft man mit einer Private Cloud jedoch nicht!

Public Cloud
Die Public Cloud hilft z.B. Entwicklern mit einer coolen Idee, kostengünstig an dafür benötigte Ressourcen zu gelangen. Die für das Projekt benötigte Infrastruktur wächst mit den Anforderungen der Entwickler und der eigentlichen Software. Dann sind natürlich Webapplikationen dafür bestens geeignet. In den vergangenen Monaten und Jahren sind auf Basis der Public Clouds viele tolle und neue Anwendungen und Geschäftsmodelle entstanden. Aber auch Graphikdesigner sollten sich überlegen, ob sie sich für das Rendern ihrer Videos lieber einen Apple Xserver holen oder doch lieber eine performante Instanz in der Cloud starten. Und auch für andere Bereiche in denen der Datenschutz eine nicht so hohe Bedeutung hat (je nach land in dem der Provider sitzt) sind ausreichend Potentiale vorhanden.

Virtual Private Cloud
Die Virtual Private Cloud verbindet das Beste aus den Welten der Public Cloud und der Private Cloud. Hier sehe ich in Zukunft mehr Produktivsysteme als z.B. in der Public Cloud. Sie ist besonders für Unternehmen interessant, denen verhandelbare SLAs und ein höherer Service wichtig sind. Die Anbieter von Virtual Private Clouds bieten darüber hinaus eine bessere Unterstützung bei der Verwaltung der virtuellen Infrastruktur, was unter anderem auch daran liegt, dass innerhalb einer Public Cloud ein sehr hohes Maß an Standardisierung herrscht. In einer Virtual Private Cloud erhält man dagegen die Möglichkeit für mehr Customization.

Hybrid Cloud
Wird mittelfristig das gängigste Cloud Deploymentmodel werden. Unternehmen stocken darüber bei Bedarf ihre Ressourcen auf, wenn diese benötigt werden und geben Sie im Anschluss wieder zurück. Damit werden Services (nicht nur IaaS sondern auch SaaS und PaaS) in die eigene Unternehmens IT adoptiert. Für die Adaption ist natürlich keine eigene Private Cloud erforderlich, aber ein Cloud Managementsystem, das für die Verwaltung und das Monitoring der einzelnen Services wichtig ist.

Beim Cloud Computing geht es um Selbstverantwortung

Unabhängig davon welches Cloud Deploymentmodel am Ende genutzt wird, ist die Eigenverantwortung ein wichtiges Thema! Ein Nutzer darf nicht die gesamte Verantwortung auf die Seite des Anbieters schieben, wenn es darum geht, die Cloud zu nutzen. Natürlich ist der Anbieter für die Infrastruktur verantwortlich, aber das Unternehmen was die Cloud nutzen möchte muss zunächst seine Hausaufgaben machen. Man sollte als Kunden mit dem Anbieter zusammenarbeiten und ggf. den ersten Schritt machen. Sollte er keine Reaktion zeigen, ist er definitiv der falsche Anbieter für mich. Im Falle der Virtual Private Cloud sollte ich als Kunde Einfluss auf das Design meiner virtuellen Infrastruktur nehmen können und mit dem Anbieter zusammen eine Strategie erarbeiten. Denn das ist genau die Kernkompentenz des Anbieters!

Darüber hinaus sollte jedes Unternehmen über ein Risikomanagementsystem verfügen, dass auf Gefahrenpotentiale aufmerksam macht. Wenn ich bspw. als ein produzierendes Unternehmen tätig bin, habe ich auch mehr als nur einen Lieferanten, für den Fall das mein primärer Lieferant ausfällt.

Der Weg in die Cloud

Es gibt nicht exakt DEN weg in die Cloud, aber es gibt logische Dinge die man berücksichtigen sollte.

Haben Sie eine Strategie und denken Sie über Ihre Governance nach. Ein Problem der Cloud besteht darin, dass sie zum ausprobieren verlockt. Und plötzlich ist man drin und nutzt möglicherweise ungewollt mehrere Services, die nicht in die IT-Strategie passen. Darüber hinaus sollten man sich überlegen, was man mit und in der Cloud machen möchte und was man davon erwartet. Als nächstes gilt es eigene Kriterien aufzustellen die aufzeigen, was man vom Cloud Computing Anbieter erwartet. Im Anschluss müssen die Bereich im Unternehmen identifiziert werden, die in die Cloud gehen können, gefolgt von der Suche nach den für das Unternehmen benötigten Services. Das bedeutet, dass das Unternehmen gründlich analysiert werden muss. Weiterhin ist eine offene Kommunikation zur und innerhalb der IT-Abteilung sehr wichtig!

Design for Failure!

Wenn Sie die Cloud nutzen wollen, sollten Sie eines beachten: Design for Failure!. Die Nutzung von IaaS meint in erster Linie, dass der Provider “nur” Ressourcen zur Verfügung stellt, mit denen ich mir ein eigenes virtuelles, skalierbares Rechenzentrum aufbauen kann. Ich merke immer wieder, dass dieses Verständnis fehlt. Bei einer Virtual Private Cloud sieht das etwas anders aus, da hier der Service mehr im Vordergrund steht. Bei einer Virtual Private Cloud sollte man daher mit dem Anbieter zusammen ein Design entwickeln. Unabhängig von Public Cloud oder Virtual Private Cloud ist es allerdings wichtig sich mit der Cloud die man nutzt detailliert auszukennen hat.

Bzgl. des Design for Failure sollte man daher grundsätzlich darauf achten, keinen Single Point of Failure zu schaffen. Und vor allem immer davon ausgehen, dass zu jedem Zeitpunkt etwas schiefgehen kann. Das Ziel muss daher darin bestehen, das die Anwendung zu jederzeit funktioniert, auch dann wenn die darunter liegende Hardware bzw. Infrastruktur ein Problem hat.

Multivendor Cloud Strategie

In Bezug auf das Design for Failure Prinzip sollte man sich ebenfalls Gedanken über eine Multivendor Cloud Strategie machen. Dies gilt nicht nur für IaaS sondern ebenfalls für SaaS und PaaS und bedeutet, dass man sich nicht nur auf einen Anbieter konzentriert, sondern seine Services/ Instanzen über mehrere Anbieter hinweg verteilt. Man kann sich dafür zunächst einen primären Anbieter suchen und parallel dazu bei weiteren Anbietern Vorbereitungen treffen. Falls es bei dem primären Anbieter zu einem Problem kommt, kann dann automatisiert umgeswitched werden. Neben der dadurch noch höheren Ausfallsicherheit beugt man damit ebenfalls einem Vendor Lock-in vor und macht sich Gedanken über das grundsätzliche und portable Design der virtuellen Infrastruktur.

Fazit

Cloud Computing hat für jedes Unternehmen Potentiale. Unabhängig von einer Private/ Public/ Virtual Private oder Hybrid Cloud oder IaaS, SaaS, PaaS. Es gilt letztendlich die passende Lösung für sein Unternehmen zu finden und zu schauen wo Cloud Computing helfen kann. Das heißt zunächst das Unternehmen zu analysieren, zu kennen und zu verstehen und die Bedürfnisse und Anforderungen zu definieren. Im Anschluß muss eine Cloud Strategie entwickelt und danach selbstverantwortlich gehandelt werden. Denn Cloud Computing ist nun einmal kein Allheilmittel!

Categories
Management @de

Cloud Computing – Sinn und Nutzen? Am Ende zählt der Use Case!

Hat Cloud Computing wirklich seine Daseinsberechtigung? Geht es nach den Pessimisten: Nein, denn es ist nur alter Wein in neuen Schläuchen! Geht es nach dem Marketing: Ja, neue Buzzwords lassen sich immer gut verkaufen! In der Regel schauen beide Seiten jedoch niemals hinter die Kulissen und betrachten nicht den tatsächlichen Mehrwert bzw. den Nutzen oder auch nicht-Nutzen.

An die Pessimisten: Cloud Computing ist kein alter Wein neuen Schläuchen. Gewiss, einige Technologien und Ideen die das Gesamtkonzept Cloud Computing ergeben, existieren bereits seit den 1960er. Aber genau das Wort “Gesamtkonzept” ist hier der entscheidene Faktor. Erst die Kombination vieler Technologien, wie SOA, Virtualisierung, ASP, Web Services und Grid Computing plus das Multi-Tendancy Konzept ermöglichen erst das Paradigma, das wir Cloud Computing nennen. Hinzu kommt das Geschäftsmodell (on Demand, Pay per use, Building Blocks, usw.) bzw. die Geschäftsmodelle, die erst auf Grund des Cloud Computing entstehen konnten. Betrachten wir die letzten Monate und Jahre, konnten neue Unternehmen und Geschäftsmodelle nur dadurch entstehen, da sie auf Grund des Cloud Computing unkompliziert, flexibel und kostengünstig auf die dafür benötigten IT-Ressourcen zugreifen konnten. Der Unterschied zum klassischen Outsourcing oder auch den Managed Services ist ebenfalls sehr deutlich. Beim Outsourcing existiert kein skalierbarer, flexibler und abrechnungsgenauer Bezug von Ressourcen. Statt Cloud Computing hätte es genauso gut Dynamic Computing Services oder on Demand Computing Services genannt werden können. Aber Cloud Computing ist auf Grund des Ressourcenbezugs über das Internet nun einmal die beste Beschreibung.

An das Marketing: Bitte bei der Wahrheit bleiben! Ca. 70% der klassischen Webhoster sind bereits auf den Cloud Computing Zug aufgesprungen. Die einen mehr, die anderen weniger Cloud. Sehr beliebt ist, einfach ein bestehendes Produkt zu „vercloudifizieren“. Heißt: Gleiches Produkt mit einem neuen Namen, z.B. Cloud Server. Das es sich dann nur um einen virtuellen Server handelt, der auch noch für eine monatliche Grundgebühr zu beziehen ist und über keine (automatisierte) Skalierbarkeit verfügt, wird außer acht gelassen. Positiv überraschen die etablierten IT-Konzerne. Das Konzept Cloud Computing wird, insbesondere in Deutschland und Europa, zwar teilweise neu interpretiert. Das ist auf Grund der Zielgruppe (etablierte Unternehmen) und dem Einsatzgebiet (kritische Produktivumgebungen) aber durchaus verständlich. So befinden sich hier vermehrt (sichere) Virtual Private Clouds im Portfolio. In den USA herrschen derzeit noch die Public Clouds.

Der Glaubenskrieg

Hier beginnt auch schon der Kampf um die “beste” Cloud. Fakt ist: Es gibt keine gute oder schlechte Cloud und schon gar nicht die beste Cloud. Aber es gibt individuelle Bedürfnisse und Anforderungen. Neben den Public, Private und Hybrid Clouds, werden die Beschreibungen immer granularer. So existieren mittlerweile unterschiedliche Cloud Level, zu denen auch die Public und Hybrid Cloud gehören. Diese Cloud Level machen sich aber besonders im Umfeld der Private Cloud bemerkbar. Es gibt daher nicht mehr nur die Private Cloud im eigenen Rechenzentrum, sondern nun auch die sogenannte Dedicated Private Cloud oder auch Virtual Private Cloud. Führen die Public Clouds auf Grund ihres unkomplizierten Zugriffs zu Innovationen und neuen Geschäftsmodellen, haben die “X Private Clouds” die Aufgabe, die Heimat von Produktivsystemen zu werden und Unternehmen darüber den flexiblen on Demand Bezug von Ressourcen auf einer Pay per use Basis in einem privatem und not shared Umfeld zu ermöglichen. Unternehmen erhalten damit die Gelegenheit, eine eigene Private Cloud, inkl. allen Methoden und Konzepten des Public Cloud Computing (bis auf die Kreditkarte), aufzubauen, ohne einen Cent in eigene Rechenzentrumskapazitäten zu investieren. Damit umgehen sie der Komplexitäts- und Kostenfalle der eigentlichen Private Cloud, erhalten aber dennoch Ressourcen wenn sie benötigt werden. Wie ich jedoch eingangs erwähnte gibt es keine gute oder schlechte Cloud. Die eigene Private Cloud kann im Einzelfall durchaus Sinn ergeben, um den eigenen Bezug der IT-Ressourcen zu flexibilisieren.

Der Einzelfall entscheidet

Grundsätzlich muss immer der Einzelfall betrachtet werden, wo Cloud Computing Sinn macht und wo nicht, bzw. welche Art von Cloud Computing hilfreich ist. Beim Cloud Computing sprechen wir von X-as-a-Service, genauer Software-as-a-Service (SaaS), Platform-as-a-Service (PaaS) und Infrastructure-as-a-Service (IaaS).

SaaS erzielt in nahezu 99% aller Fälle den gewünschten Nutzen und hilft Unternehmen dabei, Anwendungen zu nutzen wenn sie benötigt werden, ohne dabei langfristig in teure Softwarelizenzen und Infrastruktur zu investieren und je nach Mitarbeitersituation immer ausreichend Anwendungen zur Verfügung zu haben. Darüber hinaus entfallen die Installation und Wartung der Software, da der Zugriff über den Standard Webrowser stattfindet und der Anbieter für den aktuellen Stand und der Funktionsfähigkeit der Software zuständig ist.
Entscheidend ist letztendlich die Analyse der eigenen Situation und der Anforderungen sowie die Evaluation der geeigneten Software sowie deren möglicherweise notwendigen Integration mit den restlichen Systemen.

PaaS spielt besonders im Entwicklerumfeld seine Stärken aus. Die Bereitstellung von skalierbarer Rechenleistung ist ein teures Vergnügen. Ebenso die Wartung der dafür benötigten Infrastruktur in Form von Hardware, Netzwerkkomponenten, aber auch Betriebssysteme und die restlichen Softwarestacks. Speziell die Bereitstellung vollständig vorkonfigurierter und gewarteter Softwarestacks helfen einem Entwickler bei der schnellen Umsetzung seiner Ideen. Ein kleiner Nachteil besteht in der Regel durch die Entscheidung für eine einzige Programmiersprache, wodurch die Portabilität der Anwendung leidet. Dabei handelt es sich jedoch um ein je nach Situation durchaus zu vernachlässigendes Problem.
Vor allem für das “mal eben ausprobieren” einer Idee eignet sich PaaS besonders gut. Aber ebenfalls der langfristige produktive Einsatz und das Hosting der Anwendung auf einer skalierbaren und gewarteten Infrastruktur sind sehr attraktiv, wenn vorab die benötigten Anforderungen und das Programmiermodell geklärt worden sind.

IaaS bietet je nach Einsatzgebiet in vielen Bereichen Vorteile. Kann aber durchaus auch zur Kostenfalle werden. Soll bspw. eine Webseite auf einer Instanz aus der Cloud 7/24/365 betrieben werden, wird schnell deutlich, dass die Kosten dafür einfach nicht tragbar sind. Für diesen Zweck reicht ein gewöhnlicher virtueller Server (was eine Instanz aus der Cloud letztendlich auch nur ist) von einem traditionellen Webhoster mit einer monatlichen Grundgebühr völlig aus. Damit ist die Kosten- als auch die technische Seite gut abgedeckt. Anders verhält es sich bei einer Webseite die einer nicht unmittelbar vorhersagbaren Dynamik oder saisonalen Einflüssen unterlegen ist. Hier hilft der Einsatz einer Cloud Infrastruktur, wenn sie dann richtig genutzt wird und die Methoden und Konzepte des Cloud Computing, wie z.B. Skalierbarkeit und Hochverfügbarkeit durch den Einsatz von Skripten oder anderweitiger Tools, berücksichtig wird. IaaS ist daher, je nach Bereich, kostentechnisch nicht für den Langzeitbetrieb geeignet, sondern vielmehr für den periodischen Ausgleich von Anfragen und dadurch entstehende Lasten. Auch bzgl. der Nutzung einer Public Cloud oder einer Virtual Private Cloud gibt es unterschiedliche Einsatzszenarien. Eine Public Cloud ist bspw. ideal für kleine Unternehmen und Startups, die eine Web- oder Mobile Anwendung mit Backend anbieten möchten oder Entwickler die schnell eine Idee umsetzen wollen und dafür entsprechende Ressourcen benötigen. Eine Virtual Private Cloud hingegen bietet etablierten Unternehmen die Möglichkeit ihre Produktivumgebungen skalierbarer und flexibler auszulagern und zu betreiben. So wären z.B. mögliche Use Cases die Migration des ERP Systems oder die Virtualisierung der Desktops und die damit verbundene Umstellung von Fat auf Thin Clients.

Fazit

Es gibt keine gute oder schlechte Cloud! Und schon gar nicht die beste Cloud. Wie seit jeher in der IT notwendig, muss immer die eigene Situation betrachtet werden und die Entscheidung individuell getroffen werden. Der einzige sinnvolle Rat zu Beginn kann daher nur lauten: Augen auf und genau überlegen in welche Richtung die Reise gehen soll, welches die Ziele sind und was damit erreicht werden soll. Ein erster unabhängiger Marktüberblick inkl. Angebotsanalyse wird dabei helfen Klarheit zu schaffen und mögliche Produkte und Services für die eigene bedarfsgerechte Nutzung zu identifizieren.