Categories
Analysen

Vorteile und Nachteile von Open-Source Cloud Computing Lösungen

Open-Source Cloud Frameworks haben in den vergangenen Monaten einen riesen Hype erlebt. Die vermeintlich großen Player wie Rackspace, HP, VMware und Citrix sorgen für die finanzielle Unterstützung von Lösungen wie OpenStack oder CloudStack und lassen unaufhörlich ihre Marketingkampagnen laufen. Dabei verfolgen alle genannten nur ein Ziel: Den Cloud Computing Krösus Amazon Web Services vom Thron zu stoßen. Allerdings müssen sich die Open-Source Anbieter die Frage gefallen lassen, ob ihre Technologien bereits für den Einsatz im Unternehmen taugen.

Vor- und Nachteile von Open-Source Clouds

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den “richtigen” Weg zu entscheiden.

Fazit

Entscheider die sich für eine Cloud Infrastruktur entscheiden wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über den Aufbau einer Open-Source oder proprietären Cloud Infrastuktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine eigene Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und andere Möglichkeiten evaluiert werden müssen.

Sollte die Entscheidung zu Gunsten einer Open-Source Cloud Lösung fallen, macht es durchaus Sinn eine kommerzielle Open-Source Software in Betracht zu ziehen, hinter der ein Unternehmen steht, das für die Kontinuität des Projekts und eine klare Richtung sorgt und darüber hinaus professionellen Support bietet. Damit kann das Risiko einer Open-Source Cloud Lösung deutlich minimiert werden.


Bildquelle: https://new.edu

Categories
Kommentar

Der Feind ist mitten unter uns: Das ETSI will den vermeintlich sicheren Cloud Hafen Europa zerstören

Europa verliert seinen Status als vermeintlich sicherer Hafen für Cloud Services. Die Zeiten, in denen Berater, Rechtsanwälte und Datenschützer den Finger vor den Bösen USA heben können sind vorbei. Der Feind ist Mitten unter uns und heißt ETSI (European Telecommunications Standards Institute).

Europa und Datenschutz… Kinder das waren noch Zeiten!

Werden wir wahrscheinlich unseren Kindern und Enkeln erzählen. Lange galt Europa als das Vorbild, wenn es um den Datenschutz ging. Die erste Frage die sich ein Cloud Anbieter von Beratern, Analysten und Kunden gefallen lassen musste war, ob er denn auch ein Rechenzentrum in Europa betreibe. Denn hier kommen die “bösen” USA schließlich nicht an die Daten ran. Aus und vorbei. Geht es nach der ETSI, sind wir alle bald weltweit gleich gestellt, sei es in den USA, Asien, Afrika und ja, sogar in EUROPA!

Wie das ZDF bzw. ORF-Journalist Erich Moechel schreiben, will das ETSI “eine geheime Hintertür für die Cloud”. Dabei soll es darum gehen, den Sicherheitsbehörden das Abhören und Überwachen von Kommunikationsdaten in der Cloud zu erleichtern. Das soll neben Angeboten wie Facebook, Twitter usw. ebenfalls Unternehmensangebote wie die Amazon Web Services, Microsoft Windows Azure und andere Anbieter betreffen. Dazu habe sich das ETSI eine Backdoor überlegt, um unkompliziert den unautorisierten Zugriff zu ermöglichen.

SSL wird ausgehebelt

Bei der ETSI Idee handelt es sich, wie sonst oft diskutiert, allerdings nicht um rechtliche Themen wie bspw. dem “Patriot Act”. Hier geht es um reine Technik. Das ETSI will eine Schnittstelle definieren, mit der europäische Sicherheitsbehörden Zugriff auf die Cloud Services der Anbieter erhalten. Die ETSI-Arbeitsgruppe “TC Lawful Interception” stellt sich die Umsetzung so vor, dass die Internet-Anbieter sämtlichen Verkehr standardmäßig umleiten. Nutzt ein Anwender eine verschlüsselte HTTPS-Verbindung (was mittlerweile Standard ist), soll der Datenverkehr auf spezielle Server in das Rechenzentrum des Internet-Anbieter umgeleitet werden. Hier sollen die Sicherheitsbehörden dann den Zugriff auf die Daten erhalten. Um das zu realisieren, müssen die entsprechenden SSL-Zertifikate ausgehebelt werden. Der ETSI geht es nach eigenen Angaben nur um die Erfassung der Datenkommunikation und nicht um die Kontrolle der Inhalte. Der britische Sicherheitsspezialisten und Leiter des Computer Laboratory der Universität Cambridge Ross Anderson hingegen schreibt nach einer Analyse des ETSI-Entwurfs allerdings: “Wenn man die Infrastruktur baut, auf die sich das ETSI geeinigt hat, kann diese für Überwachungsaktivitäten genutzt werden.”

Willkommen Private Cloud

Wird die Idee Realität ist das Vertrauen in die Public Cloud zerstört und Public Cloud Services – die für das Cloud Computing in Reinform stehen – wären demnach tod! Interessant ist, dass die Marktforscher von Gartner für 2012 ein großes Wachstum in der Public Cloud sehen. Zudem sollen die Ausgaben für Enterprise Public Cloud Services bis 2016 die 207 Milliarden US-Dollar erreichen.

Ziehen wir diese neue Entwicklung heran, wird Gartner seine Prognosen wohl herunterschrauben müssen. Die Bedenken von CIOs, Public Cloud Services zu nutzen, sind derzeit eh schon höher als gedacht. Der Hauptgrund sind die Befürchtungen vor Datenlecks in der Public Cloud. Deutsche Unternehmen werden die Gedanken der ETSI ebenfalls nicht gerne hören. Eine Umfrage von IDC ergab vor kurzem, das ein Drittel der befragten deutschen Unternehmen in 2013 zwischen 26% – 50% ihres IT-Budget in die Private Cloud investieren wollen. Allerdings interessieren sich 90% der Unternehmen nicht(!) für die Public Cloud.


Bildquelle: http://mully1.wordpress.com

Categories
News

openQRM 5.0 erscheint mit überarbeiteter Benutzeroberfläche und neuem Dual-Lizenzmodell

Wie bereits Anfang Juni hier auf CloudUser angekündigt, hat die openQRM Enterprise GmbH mit openQRM 5.0 die nächste Generation ihrer Infrastructure-as-a-Service- (IaaS) und Cloud Computing Management Lösung veröffentlicht. Zudem wird ein neues duales Lizenzmodell präsentiert, das es Unternehmen ermöglicht, professionellen Support aus erster Hand zu erhalten und damit ihre Investitionen in eine Open-Source Datacenter-Management-Plattform langfristig zu sichern.

openQRM 5.0 erscheint mit überarbeiteter Benutzeroberfläche und neuem Dual-Lizenzmodell

Komplett neue Benutzeroberfläche

openQRM 5.0 wurde weitgehend umgeschrieben, wobei nicht nur äußerliche Änderungen an dem IaaS- und Cloud-Builder vorgenommen wurden. Neben der Umstellung der graphischen Benutzeroberfläche auf das Model-View-Controller-Konzept wurden zudem alle openQRM-Plugins neu geschrieben und mit weiteren Funktionen ausgestattet. Als weitere Erneuerung steht nun ein komplett neues Cloud-Portal zur Verfügung, sowie Postgres als weitere Backend-Datenbank neben MySQL.

openQRM 5.0 wurde darüber hinaus so erweitert, dass alle weltweit möglichen Sprachen unterstützt werden können. Als Standardsprachen unterstützt openQRM 5.0 ab sofort Englisch und Deutsch, das Cloud-Portal zusätzlich noch Spanisch, Niederländisch, Französisch und Italienisch.

Um den Administrator zu zeigen, welche Aktionen das System aktuell im Hintergrund durchführt, hat openQRM 5.0 eine Statusanzeige für „Active Events“ erhalten, die der Admin jederzeit einsehen kann.

Neben der webbasierten Benutzeroberfläche bietet openQRM 5.0 dem Nutzer nun auch einen vollwertigen Kommandozeilen-Client, mit dem die Management-Plattform innerhalb einer Terminal-Sitzung kontrolliert oder mit weiteren Anwendungen integriert werden kann.

Alle weiteren Erneuerungen befinden sich im Change-Log zu openQRM 5.0 unter http://www.openqrm-enterprise.com/de/ueber-openqrm/changlog-50.html.

Dual-Lizenzmodell für professionellen Support

Mit openQRM 5.0 ändert sich aufgrund verstärkter Nachfrage der Kunden das Lizenzmodell. Neben der bereits vorhandenen Open-Source-Version (GPL 2.0) können Unternehmen zusätzlich eine Enterprise-Version erwerben. Diese bietet neben erweiterten, unternehmensrelevanten Funktionen, ebenfalls professionellen Support durch die openQRM Enterprise GmbH.

In den letzten Jahren vermehrten sich die Anfragen von Kunden nach professionellem Support und Enterprise-Lizenzen, aber vor allem nach weiteren Feature-Wünschen. Darüber hinaus ist die Anzahl der Support-Anfragen angestiegen. Aus diesem Grund hat sich die openQRM Enterprise GmbH dafür entschieden das Lizenzmodell zu ändern, um diesen Anfragen weiterhin professionell gerecht zu werden. Professionelle Anwender erhalten mit der neuen Enterprise-Version somit ein kommerziell lizensiertes Produkt, inklusive der damit einhergehenden Investitions- und Updatesicherheit, Produktgewährleistung und professionellem Support. Kunden mit bestehenden Serviceverträgen (SLA) werden automatisch von der neuen Version profitieren und erhalten alle nötigen Lizenzen für openQRM Enterprise 5.0.

Die Community-Version von openQRM 5.0 wird von der Änderungen ebenfalls profitieren. Die freie Version von openQRM 5.0 erscheint wie bislang auch unter der GPLv2-Lizenz und wird weiterhin stetig verbessert werden. Zudem will die openQRM Enterprise GmbH die Qualität der Dokumentation, HowTos und Videos – auf welche die Community kostenlos Zugriff erhalten wird – fortlaufend steigern.

Weitere Informationen zur Community- und Enterprise-Version von openQRM 5.0 und deren Unterschiede sind auf http://openqrm-enterprise.com/products-service/version-comparison.html zu finden.

Categories
News

Netflix veröffentlicht seinen Chaos Monkey

Netflix hat den Quellcode für seinen Chaos Monkey veröffentlicht. Das schreiben Cory Bennett und Ariel Tseitlin auf dem Netflix-Blog. Unternehmen die ernsthaft Systemarchitekturen in der Cloud der Amazon Web Services (AWS) betreiben wollen und sich auf Ausfälle von AWS vorbereiten möchten, sollten auf den Chaos Monkey zurückgreifen, um das eigene System zu stabilisieren.

Der Chaos Monkey

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht Instanzen (virtuelle Maschinen) pro Guppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Weitere Informationen zum Chaos Monkey und der Simian Army gibt es unter “Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur“.

Chaos Monkey Quellen

Categories
Services @de

Die Revolution beginnt: instantnavi – Mobile Navigation direkt aus der Cloud

Es handelt sich um eine Revolution und zeigt die steigende Bedeutung der Cloud auch im Consumer-Umfeld. instantnavi, ein Sub-Projekt der sozialen Mitfahrzentrale flinc, macht lokale Apps für die Navigation auf Smartphones überflüssig und überträgt die Routendaten direkt aus der Cloud auf den mobilen Webbrowser.

Die Revolution beginnt: instantnavi - Mobile Navigation direkt aus der Cloud

instantnavi: Die Revolution der mobilen Navigation hat begonnen

Zwar benötigt Googles mobile Navigation App “Google Navigation” ebenfalls eine Datenverbindung, um die Routeninformationen live aus dem Web zu übertragen, jedoch ist dafür eine native lokale App mit einer Größe von immerhin 33,84 MB (Google Maps) notwendig.

instantnavi hingegen kann geräteunabhängig in jedem HTML-5 fähigen Webbrowser genutzt werden. Die Konfiguration erfolgt ebenfalls im Browser am PC/ Mac. Dazu meldet man sich zunächst per OAuth entweder mit seinem Twitter, Facebook Account oder per E-Mail an. Anschließend kann man neben der Zieladresse weitere Informationen (Symbole) die später auf dem Display angezeigt werden hinzufügen. Dazu gehören bspw. die aktuelle Geschwindigkeit, die Ankunftszeit oder die noch zu fahrenden Kilometer. Nun wählt man nur noch eine Farbe für die Symbole aus und gibt der Route einen Namen.

InstantNavi erzeugt anschließend einen Link in der Form http://instantnavi.com/to/[Bezeichnung] plus zusätzlichem QR-Code, der diesen Link enthält. Hinter diesen Link sind sämtliche Informationen und Konfigurationen gespeichert, die für Navigation benötigt werden. Sehr schick, die angelegten Routen lassen sich in Dosen abspeichern, um später ggf. Änderungen daran vornehmen zu können.

Dieser Link muss nun nur noch auf dem mobilen Webbrowser geöffnet, das GPS eingeschaltet werden und los geht’s.

Die Konfiguration muss derzeit noch über den Browser am Computer oder Tablet erfolgen, da die mobilen Displays für die Anordnung der Symbole zu klein sind. Hierfür sollen in Zukunft mobile Apps entwickelt werden, mit denen die Konfiguration vorgenommen werden kann.

OpenStreetMap dient als Datenbasis

Als Datenbasis greift instantnavi auf die Karten des OpenStreetMap Projekts zurück. Auf dem Rückweg vom Barcamp Bodensee 2012 habe ich die HTML-5 App (damals noch in einer geschlossenen Alpha) parallel zum “klassischen” Navi laufen lassen. Der erste Eindruck überzeugt. Nach kurzer Zeit wurde mein aktueller Standort erkannt und der Navigationspfeil bewegte sich mit uns. Die Karte wird derzeit nur im 2D-Modus dargestellt und ist ständig nach Norden ausgerichtet, was nicht weiter stört, nur ein wenig ungewohnt für denjenigen sein kann, der sonst den 3D-Modus nutzt. Was noch fehlt ist die Sprachausgabe, aber das System befindet sich in einem frühen Status und Silvia hat mir bereits von vielen weiteren Ideen erzählt, die in die App einfließen werden. Die erstellte Route kann übrigens ebenfalls über Facebook und Twitter geteilt oder in eine Webseite oder Blog als Graphik/ Link eingebunden werden.

Die instantnavi Navigation selbst wird kostenlos bleiben. Die bereits oben angesprochene mobile App – für die Konfiguration – soll ein paar Cent kosten. Die Monetarisierung kann bspw. über Zusammenarbeit mit Restaurants, Geschäfte oder Events erfolgen, indem die Route zu der Location via Link/ Barcode auf der Webseite eingebunden wird.

Aus der Studentenbude zum professionellen Sub-Projekt

Das Projekt entstammt urspünglich einer Master Thesis von Silvia Hundegger und ihrem Kommilitonen/ Kollegen Christian Bäuerlein an der UNI Darmstadt. Beide arbeiten aktuell für die soziale Mitfahrzentrale flinc. Das soziale Netzwerk hat die Idee der beiden als ein unabhängiges Co-Projekt mit dem Ziel „eingekauft“, bald selbst ein eigenes Navigationsystem im Portfolio zu haben, um es in flinc zu integrieren. Dazu erhalten Silvia und Christian von flinc entsprechend Arbeitszeit und Ressourcen wie Entwickler, Designer usw. zur Verfügung gestellt, um InstantNavi zu realisieren. Seit Ende Juni befindet sich instantnavi im Live-Betrieb.

Categories
Kommentar

Hört endlich mit eurem CloudWashing auf! Ihr habt eh verloren!

Ich war einer der ersten der den Terminus CloudWashing öffentlicht verwendet hat. Da es mich einfach wahnsinnig nervt, wie die klassischen Webhoster usw. die Unwissenheit der Anwender nutzen, um sie zu betrügen!

Das ist Cloud Computing

Ich hatte hier bereits 2010 beschrieben, worauf man bei einem echten Cloud Service achten sollte.

  • On Demand:
    Ich beziehe die Ressourcen zu dem Zeitpunkt, wenn ich Sie auch tatsächlich benötige. Anschließend “gebe ich sie wieder zurück”.
  • Pay as you Go:
    Ich bezahle nur für die Ressourcen, die ich auch tatsächlich nutze, wenn ich sie nutze. Dabei wird entweder z.B. pro Benutzer, pro Gigabyte oder pro Minute/ Stunde abgerechnet.
  • Keine Grundgebühr:
    Bei einem Cloud Computing Angebot zahle ich keine monatliche/ jährliche Grundgebühr!
  • Hohe Verfügbarkeit:
    Wenn ich die Ressourcen benötige, kann ich sie zu diesem Zeitpunkt auch nutzen.
  • Hohe Skalierbarkeit:
    Die Ressourcen lassen sich automatisiert meinen Bedürfnissen anpassen. Das bedeutet, dass sie entweder mit meinen Ansprüchen wachsen, wenn ich mehr Leistung benötige oder sich verkleinern, wenn die Anforderungen wieder abnehmen.
  • Hohe Zuverlässigkeit:
    Die von mir genutzten Ressourcen sind zu dem Zeitpunkt wenn ich sie nutze tatsächlich verfügbar, worauf ich mich verlassen kann.
  • Blackbox:
    Ich muss mich nicht darum kümmern, wie es im Inneren des Cloud Angebots aussieht. Ich nutze einfach den Service über eine offene, gut dokumentierte Schnittstelle.
  • Automatisierung:
    Nachdem ich eine Grundeinrichtung bzgl. meiner Bedürfnisse vorgenommen habe, sind von mir keine weiteren manuellen Eingriffe während der Nutzung des Angebots notwendig. Ich muss z.B. die Leistung der Server oder die Größe des Speicherplatzes nicht manuell anpassen. Dafür werden mir Möglichkeiten zur Automation bereitgestellt.
  • Zugriff über das Internet:
    Darüber kann diskutiert werden. Allerdings ist der Kostenvorteil den man durch Cloud Computing erhält obsolet, wenn eine teure exklusive Mietleitung benötigt wird, um bspw. die Ressourcen eines Anbieters zu nutzen.
  • Keine zusätzlichen Installationen:
    Bei einem SaaS Angebot erfolgt die vollständige Nutzung über den Webbrowser ohne dabei eine weitere Softwarekomponenten wie z.B. Java (Umgebung) installieren zu müssen.

Das ist CloudWashing

Twinstrata hat den Spieß umgedreht und beschrieben, was acht sichere Zeichen dafür sind, dass der Anbieter CloudWashing betreibt.

    8. Das Produkt wird auf vier Paletten in einem Mack Truck geliefert.
    7. Die Rechnung für die Kühlung verdoppelt sich und freie Flächen verschwinden.
    6. Auf der Verpackung befindet sich ein “Cloud” Aufkleber.
    5. Statt es gewünschten Pay-as-you-go Modells erhält man einen “36 monatigen Ratenzahlungsplan”.
    4. Die on-Demand Erweiterung erfolgt 90 Tage nach dem Kontakt mit einem Vertriebsmitarbeiter.
    3. Die Telefonnummer für On-Demand-Erweiterung ist ständig besetzt.
    2. Deine Berufsbezeichnung lautet nun “Cloud Administrator”, aber Du machst das gleiche wie zuvor.

    und zu guter letzt:

    1. Nach zwei Jahren ruft der Vertriebsmitarbeiter an um zu sagen: “Upgrade time!”

Hört auf mit dem CloudWashing! Ihr habt eh verloren!


Bildquellen: http://community.service-now.com, http://blogspot.com

Categories
Kommentar

Dein Cloud Services Setup

Inspiriert von Karsten Sauers Blogparade zum Thema Social Media Setup, möchte ich mit diesem Artikel nun eine Eigene mit dem Fokus auf die Nutzung von Cloud Services starten. Dabei interessiert mich, welche Services wofür genutzt werden und wie intensiv das passiert, also ob es darum geht den Service erst einmal zu evaluieren oder ob es sich um den produktiven Einsatz handelt. Dabei steht zum einen die private Nutzung aber bevorzugt der Einsatz im Unternehmensumfeld im Vordergrund.

Fragen über Fragen

Wie ich eingangs erwähnt habe, interessiert mich insbesondere die geschäftliche Nutzung, also wie ihr bei der Arbeit Cloud Services einsetzt, um bestimmte Herausforderungen zu bewältigen. Aber natürlich ist auch die private Nutzung interessant, da sich insbesondere durch die Cloud die Arbeitswelt und das private Umfeld mehr und mehr verschmelzen. Ich würde gerne Wissen: Was sind eure bevorzugten Services (privat, geschäftlich)? Welche Probleme löst ihr damit? Welche Vorteile habt ihr dadurch? Welche Probleme habt ihr durch die Nutzung bekommen? Schreibt einfach eure Success Story oder die Lessons Learned.

Wie Karsten es im Bereich Social Media gemacht hat, möchte ich gerne euer Cloud Services Setup portraitieren. Wenn ihr Interesse habt, dann schickt mir einfach eine E-Mail mit Antworten zu den unten genannten Fragen an cloud-setup@clouduser.org. Ich werde die Infos dann umgehend auf CloudUser veröffentlichen.

  • Wer bist Du?
  • Was machst Du?
  • Wie sieht Dein Cloud Services Setup (privat, beruflich) aus?
  • Wie lautet Deine Sucess Story oder die Lessons Learned?

Bildquelle: http://wunderground.com

Categories
Analysen

Microsoft attackiert die Amazon Web Services über die Private Cloud

Microsoft portiert seine Cloud Lösungen Windows Azure Web Sites, Virtual Machines und das Service Management Portal auf den Windows Server und ermöglicht es damit Hosting Anbieter ihren Kunden hochverfügbare Webseiten und Infrastructure-as-a-Service Lösungen auf Basis von Microsoft Cloud Technologien anzubieten. Anders als die Google Compute Engine, lassen sich die neuen Microsoft Cloud Lösungen prinzipiell auch in einer Private Cloud aufbauen. Die Cloud Implementierung, die sich bei etablierten Unternehmen tendenziell als die Bevorzugte herausstellt.

Microsoft Hosting Services

Die Microsoft Hosting Services setzten sich im Kern aus der “Windows Server Hosting Platform”, “Infrastructure-as-a-Service”, “Windows Azure” und den “Business Productivity Hosting Solutions” zusammen. Dabei bietet die Hosting Plattform ein Framework, Web Server, Datenbanken und weitere Tools, mit denen Web Seiten auf Windows gehostet werden können. Mit dem “Dynamic Data Center Toolkit” können Web-Hoster on-Demand virtuelle Server, Cluster, Netzwerkinfrastrukturen und Speicherplatz bereitstellen. Über Windows Azure stehen Möglichkeiten zur Verfügung, neue Anwendungen auszurollen sowie neue Cloud Services zu erstellen. Die “Business Productivity Hosting Solutions” ermöglichen das Anbieten von Business Anwendungen auf Basis von Microsoft Exchange 2010 und SharePoint 2010.

Granularer wird zwischen “Web Sites”, “Virtual Machines”, dem “Service Management Portal” und einer “API” unterschieden.

Web Sites

Mit “Web Sites” können hochverfügbare und skalierbare Webseiten-Infrastrukturen aufgebaut werden, mit denen man über 10.000 Seiten in einer einzigen Web Farm verwalten kann. Zudem werden unterschiedliche Frameworks und Sprachen wie ASP.NET, ASP, PHP und Node.js mit einer vollständigen Git Integration unterstützt.

Virtual Machines

Zusammen mit bekannten Microsoft Technologien wie System Center und Windows Server lassen sich Infrastructure-as-a-Service Angebote aufbauen, mit denen virtuelle Machinen mit Windows Server und Linux bereitgestellt werden.

Service Management Portal und API

Anhand einer Metro-basierten Oberfläche und einem Self-Service Portal lassen sich “Web Sites” und “Virtual Machines” verwalten. Mit einer REST-basierten API lässt sich das Portal anpassen und erweitern, um damit bspw. andere Portal anzubinden.

Amazon ist ein reiner Service Anbieter

Auch wenn sich das neue Microsoft Angebot in erster Linie an Hosting-Anbieter richtet, sollte man nicht vergessen, wie einfach es ist, die Lösungen für die Private Cloud verfügbar zu machen.

Die Amazon Web Services verstehen es zwar hochwertige Public Cloud IaaS auszuliefern. Wenn es um die on-Premise Anforderungen von Unternehmen geht, hat Microsoft hier allerdings die Nase vorn. Wo AWS in der Cloud geboren ist und langsam damit anfangen muss, etablierte Kunden von der Basis abzuholen, um das große Geschäft zu machen, kommt Microsoft aus dem on-Premise Bereich und ist hier mit Abstand Marktführer.

Zudem weiß Microsoft, was es bedeutet, Software anzubieten, diese zu warten, Updates auszuliefern usw. Amazon ist ein reiner Service Anbieter und ist in kurzer Zeit nicht in der Lage diese Expertise und vor allem die notwendigen Vertriebskanäle aufzubauen.

Private Cloud wird bevorzugt

Und genau darin besteht auch Microsofts großer Vorteil. Das Unternehmen befindet sich bereits dort, wo die meisten Unternehmen gerne bleiben möchte, in den eigenen vier Wänden ihres Rechenzentrums, in der Private Cloud. Laut einer KPMG-Studie haben fast 60% (400 Befragte) der IT-Entscheider gute Erfahrung mit Private Cloud Lösungen gemacht. 21% wollen in Zukunft hier gezielter investieren. Dabei fließen bereits 19% des IT-Budgets in die Private Cloud, bevorzugt in Infrastructure-as-a-Services.

Für das Jahr 2013 wollen ein Drittel der befragten Unternehmen 26% – 50% ihres IT-Budget in die Private Cloud stecken. Darüber hinaus interessieren sich ca. 90% der Unternehmen nicht(!) für die Public Cloud, wobei 6% diese nutzen und 7% darüber nachdenken.

Amazons einziger Private Cloud Anker heißt Eucalyptus

Man kann sich nun die Frage stellen, ob AWS überhaupt daran interessiert ist, mit Microsoft in der Private Cloud in den Wettbewerb zu ziehen. Egal wird es ihnen allerdings nicht sein, das haben Maßnahmen zu Beginn des Jahres gezeigt.

Genauer geht es um den Deal der Amazon Web Services mit Eucalyptus Inc., die einen Fork der Amazon Web Services für die Private Cloud anbieten. Die Kooperation ist so aufgebaut, das Entwickler aus beiden Unternehmen Lösungen schaffen werden, um Private Cloud Lösungen auf Basis von Eucalyptus mit der Amazon Infrastruktur nahtlos zu verbinden. Zudem sollen die Kunden für die Nutzung von AWS als auch Eucalyptus dieselben Management Tools verwenden können. Darüber hinaus soll die Kompatibilität beider APIs verbessert werden.

Eucalyptus ist derzeit also der einzige Weg für die Amazon Web Services in die Rechenzentren der Unternehmen, wo Microsoft bereits wartet.

Categories
Management @de

Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur

Die letzten Ausfälle bei den Amazon Web Services (AWS) hier und hier haben gezeigt, dass bei manchen Kunden wie bspw. Instagram, die Systemarchitektur nicht auf das Cloud Computing ausgelegt ist. Und auch wenn AWS so etwas nicht (mehr) passieren darf, sollte man selbst darauf achtgeben, präventiv auf den möglichen Ernstfall vorbereitet zu sein. Eine Möglichkeit ist der von Netflix entwickelte Chaos Monkey und weitere Tools, die ich in diesem Artikel vorstellen möchte.

Üben, Lernen, Testen

Bevor sich Netflix für den Einsatz seines Systems auf den Amazon Web Services entschieden hat (Migration von einer eigenen Infrastruktur), verbrachte das Unternehmen viel Zeit damit, um die AWS Plattform zu verstehen und ein Test-System innerhalb der Infrastruktur aufzubauen. Dabei wurde insbesondere darauf geachtet, soviel realistischen Traffic bzw. Traffic Szenarien wie möglich zu erzeugen, um damit das Test-System auf seine Stabilität hin zu prüfen.

Anfangs entwickelte Netflix dazu einen einfachen Repeater, der die echten und vollständigen Kundenanfragen auf das System innerhalb der AWS Infrastruktur kopierte. Damit identifizierte Netflix die möglichen Engpässe seiner Systemarchitektur und optimierte im Zuge dessen die Skalierbarkeit.

Netflix Rambo Architektur

Netflix selbst bezeichnet seine Software Architektur gerne auch als Rambo Architektur. Das hat den Hintergrund, dass jedes System unabhängig von den anderen Systemen einwandfrei funktionieren muss. Dazu wurde jedes System innerhalb der verteilten Architektur so entwickelt, dass es darauf vorbereitet ist, dass andere Systeme zu denen eine Abhängigkeit besteht, ausfallen können und das dieses toleriert wird.

Sollte das Bewertungssystem ausfallen, verschlechtert sich zwar die Qualität der Antworten, aber es wird dennoch eine Antwort geben. Statt personalisierten Angeboten werden dann nur bekannte Titel angezeigt. Sollte das System, dass für die Suchfunktion zuständig ist, unerträglich langsam sein, muss das Streaming der Filme trotzdem einwandfrei funktionieren.

Der Chaos Monkey

Eines der ersten Systeme die Netflix auf bzw. für AWS entwickelt hat, nennt sich Chaos Monkey. Sein Job ist es zufällig Instanzen und Services innerhalb der Architektur zu zerstören. Damit stellt Netflix sicher, dass alle Komponenten unabhängig voneinander funktionieren, selbst dann wenn Teil-Komponenten ein Problem haben.

Neben dem Chaos Monkey hat Netflix viele weitere Monitoring und Test-Tools für den Betrieb seines Systems auf den Amazon Web Services entwickelt, die das Unternehmen als The Netflix Simian Army bezeichnet.

Latency Monkey

Der Latency Monkey induziert künstliche Verzögerungen im Netflix eigenem REST-Client-Server Communication-Layer, um einen Leistungsabfall zu simulieren und rechtzeitig Maßnahmen zu ergreifen bzw. im Vorwege angemessen zu reagieren. Indem sehr große Verzögerungen erzeugt werden, kann damit zudem der Ausfall eines Nodes oder eines vollständigen Service simuliert werden, ohne diese Instanzen tatsächlich zu zerstören. Damit wird die Fehlertoleranz eines neuen Service überprüft, indem der Ausfall seiner Abhängigkeiten simuliert wird. Der Ausfall dieser Abhängigkeiten wirkt sich dabei jedoch nicht auf den Rest des Systems aus.

Conformity Monkey

Der Conformity Monkey findet Instanzen, die nicht den Best-Practices Anforderungen entsprechen und fährt diese herunter. Wenn z.B. Instanzen gefunden werden, die nicht zu einer Auto-Scaling Group gehören, weiß der Conformity Monkey, dass dieses zu Problemen führen wird. Diese werden also heruntergefahren, um dem Service-Owner die Gelegenheit zu geben, neue Instanzen mit den erwarteten Eigenschaften hochzufahren.

Doctor Monkey

Der Doctor Monkey überprüft die Health Checks, die sich auf jeder Instanz befinden und überwacht zudem weitere Eigenschaften, wie bspw. die CPU-Auslastung, um mögliche Fehlerquellen innerhalb der Instanzen selbst zu erkennen. Werden fehlerbehaftete Instanzen entdeckt, werden diese zunächst automatisch vom Service entfernt. Anschließend erhält der Service-Owner die Gelegenheit die Ursache für den Fehler zu finden und beendet diese Möglicherweise um stattdessen neue Instanzen zu starten.

Janitor Monkey

Der Janitor Monkey sorgt dafür, dass die Netflix Cloud Umgebung effizient betrieben wird und sich kein Müll oder überschüssige Instanzen anhäufen. Dazu sucht er nach ungenutzten Ressourcen und sorgt dafür, dass diese verschwinden.

Security Monkey

Der Security Monkey ist eine Erweiterung des Conformity Monkey. Er findet Sicherheitslücken oder Schwachstellen wie falsch konfigurierte AWS Security Groups und beendet die beanstandeten Instanzen. Er stellt zudem sicher, dass alle SSL-und DRM-Zertifikate gültig sind.

10-18 Monkey

Der 10-18 Monkey (steht auch für Lokalisierung-Internationalisierung bzw. l10n-i18n) erkennt Konfigurations- und Laufzeit Probleme innerhalb von Instanzen, die Kunden in verschiedenen geografischen Regionen, mit unterschiedlichen Sprachen und Zeichensätze bedienen.

Chaos Gorilla

Der Chaos Gorilla ist vergleichbar mit dem Chaos Monkey, simuliert allerdings einen vollständigen Ausfall einer Amazon Availability Zone. Damit wird sichergestellt, dass die Funktionalität des Systems automatisch in andere Availability Zones verschoben wird, ohne das ein manueller Eingriff von Netflix erforderlich ist und das der Nutzer davon etwas bemerkt.

Fazit

Die Simian Army von Netflix ist ein Extrembeispiel wie eine Cloud Architektur auszusehen hat. Das Unternehmen hat viel Zeit, Anstrengungen und Kapital in die Entwicklung seiner Systemarchitektur investiert, die auf der Cloud Infrastruktur der Amazon Web Services läuft. Aber es lohnt sich und jedes Unternehmen, das die Cloud ernsthaft nutzen möchte und ein hochverfügbares Angebot präsentieren will, sollte sich Netflix unbedingt zum Vorbild nehmen.

Categories
Analysen

Google Cloud Platform vs. Amazon Web Services – Ein erster Vergleich

Nachdem Google sein Cloud Portfolio mit der Compute Engine erweitert hat, fangen erste Medien an darin den Killer der Amazon Web Services zu sehen. Ein Grund mal die Cloud Services von Google und Amazon gegenüberzustellen. Wer sich für einen direkten Vergleich von Microsoft Windows Azure mit den Amazon Web Services interessiert, sollte hier weiterlesen.

Der Vergleich: Google Cloud vs. Amazon Cloud

Die folgende Tabelle stellt das Cloud Services Portfolio 1:1 gegenüber und schafft Klarheit, wer in welchem Bereich was anbietet, wie der Name des jeweiligen Service lautet und unter welcher URL weitere Informationen zu diesem zu finden sind.

Funktion

Amazon Web Services

Google Cloud Platform

Rechenleistung

Virtuelle Maschinen Elastic Compute Cloud Full Virtual Machines (Google Compute Engine)
High Performance Computing Cluster Compute Instances
MapReduce Elastic Map Reduce Google App Engine
Dynamische Skalierung Auto Scaling Google Compute Engine

Speicher

Unstrukturierter Speicher Simple Storage Service Google Cloud Storage
Flexible Entities SimpleDB
Block Level Storage Elastic Block Store Persistent disk (Google Compute Engine)

Datenbanken

RDBMS Relational Database Service Google Cloud SQL, BigQuery
NoSQL DynamoDB “Google F1”

Caching

CDN CloudFront
In-Memory ElastiCache

Netzwerk

Load Balancer Elastic Load Balancer
Hybrid Cloud Virtual Private Cloud
Peering Direct Connect
DNS Route 53 Public DNS

Messaging

Async Messaging Simple Queue Service
Push Notifications Simple Notification Service
Bulk Email Simple Email Service

Monitoring

Ressourcen Monitoring CloudWatch

Sicherheit

Identitätsmanagement Identity Access Management

Deployment

Ressourcenerstellung CloudFormation
Web Application Container Elastic Beanstalk Google App Engine

Wie man sieht, ist das Google Cloud Portfolio im Vergleich zum Service Angebot der Amazon Web Services noch sehr dünn. Falls ich etwas bei Google übersehen habe, macht mich darauf bitte aufmerksam. Ich werde das dann umgehend nachtragen.