Categories
Analysen

Enterprise Cloud Computing: T-Systems startet "Enterprise Marketplace"

Mit dem Business Marketplace konnte die Deutsche Telekom nach eigenen Angaben bereits 10.000 mittelständische Unternehmen erreichen. Nun soll ein ähnlicher Erfolg auch im Großkundenumfeld erzielt werden. Dazu steht jetzt der Enterprise Marketplace bereit, über den sich Software, Hardware oder Paket-Lösungen nach Bedarf buchen und ebenfalls unternehmensspezifische Eigenentwicklungen den eigenen Mitarbeitern bereitstellen lassen.

SaaS, IaaS und fertige Pakete

Der Enterprise Marketplace richtet sich speziell an die Bedürfnisse von Großunternehmen und bietet neben Software-as-a-Service-Lösungen (SaaS) ebenfalls vorkonfigurierte Images (Appliances) und konfigurierbare Gesamtpakete an, die sich in die bestehenden Systemlandschaften integrieren lassen sollen. Alle Services inklusive der integrierten Eigenentwicklungen befinden sich in einer Hosted Private Cloud und werden über das Netz der Telekom bereitgestellt.

Standardlösungen und Eigenentwicklung

Der Enterprise Marketplace bietet weitestgehend standardisierte Services. Die Nutzung dieser Services beinhaltet neue Releases, Updates und Patches. Die Abrechnung erfolgt monatlich und je nach Nutzung des jeweiligen Angebots. T-Systems stellt ebenfalls fertige Appliances wie bspw. einen vorkonfigurierten Apache Application Server bereit der nach Bedarf mit eigener Software erweitert und verwaltet werden kann. Weiterhin sollen Kunden in Zukunft selbst wählen können, welches T-Systems Rechenzentrum sie nutzen möchten.

Innerhalb des Enterprise Marketplace können ebenfalls unterschiedliche Angebote aus dem Marktplatz miteinander kombiniert werden, z.B. ein Webserver mit Datenbank und Content-Management-System. Weiterhin lassen sich eigene Lösungen wie Monitoring-Tools integrieren. Diese eigenen Lösungen lassen sich ebenfalls den restlichen Marktplatzteilnehmern zur Verfügung stellen. Wer und wie viele Teilnehmer Zugriff auf diese Lösung im Enterprise Marketplace erhalten entscheidet das Unternehmen alleine.

Zudem kann die Performance der jeweiligen Appliance des Enterprise Marketplace individuell angepasst werden. Der Nutzer erhält hierzu Einfluss auf die Anzahl der CPUs sowie die Größe des RAM und Speicherplatz und die Anbindungsbandbreite. In einer weiteren Ausbaustufe erfolgen ebenfalls Managed Services die Patches, Updates und Release-Wechsel beinhalten.

Marktplatz mit Lösungen von externen Anbietern

Ein individuelles Dashboard sorgt für die Übersicht aller eingesetzten bzw. freigegeben Applikationen innerhalb des Enterprise Marketplace. Zu den aktuellen Lösungen auf dem Marktplatz zählen unter anderem Web Server (z.B. Apache und Microsoft IIS), Application Server (z.B. Tomcat und JBoss), SQL-Datenbanken, Microsoft Enterprise Search sowie OpenSource-Pakete (z.B. LAMP Stack oder Joomla). Weiterhin kooperiert T-Systems mit einer Reihe von SaaS-Lösungen von Software-Partnern, die speziell für den Betrieb auf der T-Systems Infrastruktur geprüft wurden. Dazu gehören u.a. die Steuersoftware TAXOR, die Enterprise Social Media Lösung tibbr, die Business Process Management Suite T-Systems Process Cloud sowie das Nachhaltigkeitsmanagement WeSustain.

Cloud Computing auf Enterprise Level

T-Systems ist mit dem Enterprise Marketplace bereits dort angekommen, wohin sich andere Anbieter wie Amazon, Microsoft, Google, HP und Rackspace erst auf den Weg gemacht haben – bei den lukrativen Unternehmenskunden. Wo sich der Business Marketplace in erster Linie lediglich als Marktplatz für SaaS-Lösungen präsentiert, geht T-Systems mit dem Enterprise Marketplace deutlich weiter und bietet neben SaaS-Anwendungen ebenfalls Infrastruktur-Ressourcen und vollständige Lösungsansätze für Unternehmen inkl. die Integration von Eigenentwicklungen sowie Managed-Services.

Im Vergleich zu den aktuellen Cloud Playern am Markt verfügt T-Systems über keine Public Cloud und konzentriert sich stattdessen auf das Bereitstellen seiner Angebote über eine (Hosted/ Virtual) Private Cloud. Das kann sich mittelfristig rentieren. Aktuelle Marktzahlen von IDC versprechen ein Wachstum für die Public Cloud von 2013 mit 47,3 Billionen Dollar auf 107 Billionen Dollar im Jahr 2017. Die Beliebtheit der Private Cloud wird laut IDC zu Gunsten der Virtual Private Cloud (Hosted Private Cloud) abschwächen, sobald Public Cloud Anbieter damit beginnen, entsprechende Lösungen anzubieten, um den Bedenken der Kunden entgegenzukommen.

Ähnliche Beobachtungen haben wir während unserer GigaOM Studie “The state of Europe’s homegrown cloud market” gemacht. Cloud-Kunden fordern vermehrt Managed-Services. Zwar wollen sie von den Eigenschaften der Public Cloud – flexible Nutzung der Ressourcen, Pay per use – profitieren, dieses aber gleichzeitig in einem sehr sicheren Umfeld inkl. der Unterstützung bei der Integration von Anwendungen und Systemen durch den Anbieter. All dies können die Public Cloud Player in dieser Form derzeit noch nicht bieten, da sie sich vornehmlich auf ihre Self-Service Angebote konzentrieren. Das ist in Ordnung, da sie damit bestimmte Use Cases effektiv bedienen und bisher beachtliche Marktanteile in einem bestimmten Zielkundensegment erreicht haben. Wollen Sie allerdings an die großen Fische im Enterprise Segment gelangen, werden sie ihre Strategie an das T-Systems Portfolio ausrichten müssen, um die individuellen Bedürfnisse der Kunden bedienen zu können.

Eine Anmerkung zu dem Auswahlprozess von Partnern für den Enterprise Marketplace: Gespräche mit Partnern, die auf dem Business Marketplace ihre Lösungen anbieten, bestätigen einen knallharten Auswahlprozess, der für den Partner zu einer echten “Qual” werden kann. Spezifische Anpassungen speziell an die Sicherheitsinfrastruktur von T-Systems sind keine Einzelfälle und zeugen von einer hohen Qualitätssicherung durch T-Systems.

Categories
Kommentar

Die Google Compute Engine scheint keine langfristige Lösung zu sein

In einem Interview mit GigaOM hat Googles Cloud Platform Manager Greg DeMichillie eine seltsame Aussage über die Zukunft von der Google Compute Engine gemacht, welche erneut zu einer Diskussion führen muss, wie zukunftssicher dass Google Cloud Service Portfolio tatsächlich ist und wie sehr man sich auf den Suchmaschinenanbieter in seinen nicht Kernbereichen verlassen sollte.

Google ist zu agil für seine Kunden

Nachdem Google angekündigt hatte, den Google Reader einzustellen, hatte ich bereits die Zukunftssicherheit des Google Cloud Portfolio in Frage gestellt. Insbesondere wegen dem Hintergrund, dass Google immer mehr Services monetarisiert, diese mit dem Umsatz dadurch eine weitere KPI erhalten und damit noch schneller von einer Schließung bedroht sein können. Google Cloud Platform Manager Greg DeMichillie ging in einem Interview mit GigaOM genau auf diese Frage ein und antwortete unerwartet und nicht im Sinne des Kunden.

„DeMichillie wouldn’t guarantee services like Compute Engine will be around for the long haul, but he did try to reassure developers by explaining that Google’s cloud services are really just externalized versions of what it uses internally. ”There’s no scenario in which Google suddenly decides, ‘Gee, I don’t think we need to think about storage anymore or computing anymore.“

Zwar relativiert DeMichillie am Ende, dass Google seine Cloud Services wohl nicht in einer Kamikaze-Aktion schließt. Dennoch handelt es sich um eine verwirrende Aussage, über einen Service, welcher erst seit relativ kurzer am Markt ist.

Das sind Dinge die ein Kunde nicht hören sollte

Die entscheidende Frage ist, warum sich ein potentieller Kunde überhaupt noch langfristig für die Google Compute Engine entscheiden sollte? Auf Grund dieser Aussage muss man von einer langfristigen Planung mit der Nutzung der Google Compute Engine abraten und sich stattdessen lieber auf Cloud Computing Anbieter konzentrieren, die ihr Kerngeschäft tatsächlich im Infrastructure-as-a-Service Bereich haben und nicht so gutmütig sind ihre Überkapazitäten zu verkaufen, sondern ein ernsthaftes Cloud Computing Geschäft betreiben.

Ich möchte nicht den Teufel an die Wand malen. Aber Neuigkeiten wie die plötzliche Schließung von Nirvanix – einem Enterprise Cloud Storage Anbieter – schlagen große Wellen und verunsichern die Nutzer. Das sollte auch Google langsam verstehen, wenn sie ein ernsthafter Anbieter von Cloud Computing Ressourcen werden wollen!

Categories
Analysen

Ein Blick auf Europas eigenen Cloud Computing Markt

Europas Cloud-Markt wird weitestgehend von den Amazon Web Services, Microsoft Windows Azure und Rackspace beherrscht. Also dieselben Anbieter, die auch den Rest der Welt dominieren. Jeder dieser Anbieter hat Niederlassungen in Europa und alle versuchen die speziellen Bedenken der Europäer zu genügen. Nichtsdestotrotz entwickeln eine steigende Anzahl lokaler Anbieter ihre eigenen Cloud Computing Lösungen für den europäischen Markt. Für GigaOM Research haben Paul Miller und ich die Gründe und Bedeutungen für diese lokalen Anbieter genauer betrachtet und gefragt, ob Europas stetig wachsende Sorge mit der Dominanz US-amerikanischer Anbieter in der Cloud ein tatsächlicher Treiber für einen Wandel sein kann. Das Ziel ist es, herauszufinden, ob es einen einheitlichen europäischen Cloud-Markt gibt den diese Unternehmen bedienen müssen oder ob verschiedene Märkte zu adressieren sind.

Wesentliche Inhalte aus dem Report

  • Europäische Bedenken mit der Dominanz US-amerikanischer Cloud Anbieter
  • Gründe für die Entwicklung von Cloud Lösungen innerhalb Europas
  • Der Nutzen einer transnationalen Cloud Infrastruktur
  • Der Nutzen von lokalen oder regionalen Cloud Infrastrukturen
  • Eine Auswahl von nativen Cloud Anbietern aus Europa

Europäische Cloud Anbieter in diesem Report

  • ProfitBricks
  • T-Systems
  • DomainFactory
  • City Cloud
  • Colt
  • CloudSigma
  • GreenQloud

Der Report

Der vollständige Report kann unter “The state of Europe’s homegrown cloud market” gelesen werden.

Categories
Events

Event-Tipp: Open-Xchange Summit 2013 in Hamburg – mit mir auf der CEO Couch

Am 26 September 2013 findet in Hamburg der diesjährige Open-Xchange Summit statt. In diesem Jahr erwarten die Organisatoren über 300 Führungskräfte und Entscheider aus dem SaaS- und Cloud-Markt. Dabei geht es unter anderem darum, Antworten zu finden, um vertrauenswürdige und offene Cloud Services anzubieten. In diesem Zusammenhang werde ich die “CEO Couch” moderieren.

Auf zur Cap San Diego

Der Open-Xchange Summit 2013 setzt sich aus Vorträgen, Networking und weiteren Aktivitäten zusammen und soll einen exklusiven Einblick in geschäftliche und technische Themen bieten, die von Open-Xchange, seinen Partnern sowie global tätigen Service Providern und Cloud Infrastruktur Anbietern geliefert werden. Dabei geht es um zukünftige Bereitsstellungsmodelle sowie um die Integration und Skalierbarkeit von Open-Xchange mit bestehenden Infrastrukturen.

Angemessen an dem Standort Hamburg, haben sich die Organisatoren als Event-Location für die Cap San Diego, das größte, fahrtüchtige Museumsfrachtschiff der Welt, entschieden.

The CEO Couch

Da ich bekannt dafür sei, “… keine Angst davor zu haben mir Feinde zu machen…” – so lautete die Anfrage 😉 – werde ich in diesem Jahr die CEO Couch unter dem Motto “Humble Growth in the Cloud: Going Beyond Cloud Angst in the Enterprise” moderieren. Die Teilnehmer der CEO-Runde sind zwar noch geheim, ich kann aber sagen, dass es sich dabei um sehr interessante CxOs aus dem deutschen und europäischen Service Provider Markt handelt.

Kostenlose Registrierung

Die Teilnahme am Open-Xchange Summit 2013 in Hamburg ist kostenlos. Die Agenda und Registrierung sind unter http://summit.open-xchange.com zu finden.

Categories
Analysen

Gründe für eine Entscheidung gegen die Amazon Web Services

Keine Frage, die Amazon Web Services sind bei der Anbieterauswahl in der Cloud immer eine große Option. Allerdings erlebe ich häufiger Situationen, in denen Unternehmen bewusst eine Entscheidung gegen die Nutzung treffen und stattdessen einen anderen Anbieter bevorzugen. Anbei die zwei häufigsten Gründe.

Rechtssicherheit und Datenschutz

Der Speicherort der Daten, insbesondere der Kundendaten, ist der naheliegendste und häufigste Grund für eine Entscheidung gegen die Amazon Web Services. Die Daten sollen weiterhin im eigenen Land gespeichert werden und sich nach dem Umstieg in die Cloud nicht in einem Rechenzentrum eines anderen Landes in der EU befinden. In diesem Fall ist das AWS Rechenzentrum in Irland keine Option.

Fehlende Einfachheit, Wissen und Time to Market

Sehr oft ist es aber auch die fehlende Einfachheit der Nutzung. Das bedeutet, dass ein Unternehmen seine bestehende Anwendung oder Webseite nicht für die Amazon Infrastruktur (neu) entwickeln möchte. Gründe hierfür sind die fehlende Zeit und das Wissen um dies umzusetzen, was gleichzeitig zu einen längeren Time to Market führen würde. Beides lässt sich auf die Komplexität zurückführen, um auf den Amazon Web Services Skalierbarkeit und Verfügbarkeit zu erreichen. Es sind nun einmal nicht nur ein paar API-Aufrufe. Stattdessen muss die vollständige Architektur auf die AWS Cloud ausgerichtet werden. In Amazons Fall liegt es insbesondere an der horizontalen Skalierung (scale-out) die dies erforderlich macht. Die Unternehmen würden lieber die vertikale Skalierung (scale-up) bevorzugen, um das bestehende System 1:1 migrieren zu können und nicht von vorne zu beginnen, sondern direkt in der Cloud Erfolge zu erzielen.

Categories
Events

CloudCamp Frankfurt 2013: Der Call for Papers ist eröffnet

Am 29. Oktober 2013 findet im Rahmen der SNW Europe das CloudCamp Frankfurt 2013 statt. Unter dem Leitthema “Cloud First! – Is cloud the new normal?” erwarten wir wieder zahlreiche Teilnehmer. Nachdem wir bereits ein paar sehr attraktive Sprecher, u.a. den Mitbegründer des CloudCamp Reuven Cohen, gewinnen konnten, eröffnen wir nun auch unseren diesjährigen Call for Papers.

CfP: Bis zum 10. Oktober 2013

Wer einen Vortrag (Lightning Talk, 6 Minuten) zum Thema “Cloud First! – Is cloud the new normal?” einreichen möchte, hat bis zum 10. Oktober 2013 die Gelegenheit. Dazu bitte das Formular, siehe unten, nutzen.

Voraussetzungen

  • Lightning Talk, 6 Minuten
  • Keine Werbung
  • Keine Produktpräsentation
  • Erfahrungen und Visionen
  • Sprache: Englisch

Bestätigte Sprecher

  • Reuven Cohen, Chief Cloud Advocate Citrix, Co-Founder CloudCamp (@ruv)
  • Chris Boos, CEO arago AG (@boosc)
  • René Buest, Analyst New Age Disruption, Analyst GigaOM Research (@renebuest)
  • Mark Masterson, Troublemaker CSC Financial Services EMEA (@mastermark)
  • Hendrik Andreas Reese, TÜV Rheinland i-sec GmbH
  • Moderation: Roland Judas, Technical Evangelist arago AG (@rolandjudas)

Weitere Informationen zum CloudCamp Frankfurt 2013 gibt es unter http://cloudcamp.org/Frankfurt und http://cloudcamp-frankfurt.de.

Wer nicht sprechen, aber als Teilnehmer dabei sein möchte kann sich kostenlos unter http://cloudcamp-frankfurt-2013.eventbrite.com anmelden. Hinweis: CloudCamp Teilnehmer können ebenfalls kostenlos an der SNW Europe teilnehmen.

“Cloud First! – Is cloud the new normal?”

Categories
Events

Aufzeichnung des Webinar: In sechs Schritten zur eigenen Cloud Computing Strategie

Am 02. September 2013 habe ich zusammen mit Dietmar Wiedemann unter der gemeinsamen Marke “Cloud-Pro.de” ein kostenloses Webinar veranstaltet, bei dem wir die sechs essentiellen Schritte einer Cloud-Strategie erläutert haben. Die Aufzeichnung des Webinar haben wir nun ebenfalls online zur Verfügung gestellt.

Die Inhalte des Webinar

  • Warum ist Cloud Computing für den Unternehmenserfolg aus IT-Sicht essenziell?
  • Welche Potenziale birgt Cloud Computing für Unternehmen?
  • Wie treffen Unternehmen die Entscheidung für die Cloud?
  • Welche Use Cases eignen sich besonders für Cloud Computing?
  • Welche Schritte sind für die Strategieentwicklung notwendig?
  • Welche Anbieter bieten welche Services?
  • Wie sichert eine durchdachte Cloud-Governance die Vorteile und minimiert die Risiken des Cloud Computing?

Die Aufzeichnung des Webinar

In sechs Schritten zur eigenen Cloud Computing Strategie from New Age Disruption on Vimeo.

Categories
Analysen

AWS OpsWorks + AWS VPC: Amazon AWS erhöht das Tempo in der Hybrid Cloud

Nachdem die Amazon Web Services (AWS) im vergangenen Jahr das deutsche Unternehmen Peritor und dessen Lösung Scalarium akquiriert und in AWS OpsWorks umbenannt haben, folgt die weitere Einbindung in die AWS Cloud Infrastruktur. Der nächste Schritt ist die Integration mit der Virtual Private Cloud, was angesichts der aktuellen Marktentwicklung ein weiterer Seitenhieb in Richtung der Verfolger ist.

AWS OpsWorks + AWS Virtual Private Cloud

Bei AWS OpsWorks handelt es sich um eine DevOps Lösung mit der Anwendungen bereitgestellt, angepasst und verwaltet werden können. Kurzum lässt sich damit der gesamte Lebenszyklus einer Applikation steuern. Dazu gehören Funktionen wie ein Nutzer-basiertes SSH-Management, CloudWatch Metriken für die aktuelle Last und den Speicherverbrauch sowie automatische RAID Volume konfigurationen und weitere Möglichkeiten zum Applikations-Deployment. Weiterhin lässt sich OpsWorks mit Chef erweitern, indem individuelle Chef Rezepte genutzt werden.

Die neue Virtual Private Cloud (VPC) Unterstützung ermöglicht nun diese OpsWorks Funktionen innerhalb eines isolierten privaten Netzwerks. Dadurch lassen sich z.B. auch Anwendungen aus einer eigenen IT-Infrastruktur in eine VPC in der Amazon Cloud übertragen, indem eine sichere Verbindung zwischen dem eigenen Rechenzentrum und der Amazon Cloud hergestellt wird. Damit verhalten sich Amazon EC2-Instanzen innerhalb einer VPC so, als ob Sie sich in dem vorhandenen Unternehmensnetzwerk befinden würden.

OpsWorks und VPC sind erst der Anfang

Glaubt man dem Ergebnis der Rackspace 2013 Hybrid Cloud Umfrage, dann haben 60 Prozent der IT-Entscheider die Hybrid Cloud als Hauptziel vor Augen. Dabei wollen bzw. haben ebenfalls 60 Prozent ihre Applikationen und Workloads aus der Public Cloud abgezogen. 41 Prozent haben angegeben die Public Cloud teilweise verlassen zu wollen. 19 Prozent wollen die Public Cloud sogar vollständig verlassen. Die Gründe für den Einsatz einer Hybrid Cloud anstatt einer Public Cloud sind eine höhere Sicherheit (52 Prozent), mehr Kontrolle (42 Prozent) sowie eine bessere Performance und höhere Zuverlässigkeit (37 Prozent). Zu den Top Vorteilen, von denen Hybrid Cloud Nutzer berichten, gehören mehr Kontrolle (59 Prozent), eine höhere Sicherheit (54 Prozent), eine höhere Zuverlässigkeit (48 Prozent), Kostenvorteile (46 Prozent) und eine bessere Performance (44 Prozent).

Diesen Trend hat AWS bereits im März 2012 erkannt und erste strategische Schritte eingeleitet. Denn die Integration von OpsWorks mit VPC ist im Grunde genommen nur ein Nebenschauplatz. Den eigentlichen Trumpf hat AWS mit der Kooperation von Eucalyptus in der Hand, die im vergangenen Jahr unterzeichnet wurde. Hierbei geht es darum, die Kompatibilität mit den AWS APIs zu verbessern, indem AWS Eucalyptus mit weiteren Informationen versorgt. Weiterhin sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Die Kunden sollen zudem die Möglichkeit bekommen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Erste Erfolge der Kooperation konnte Eucalyptus mit Version 3.3 bereits präsentieren.

Spannend bleibt wie die Zukunft von Eucalyptus aussieht. Irgendwann wird das Open-Source Unternehmen gekauft oder verkauft. Die Frage ist wer den ersten Schritt macht. Mein Tipp ist weiterhin, dass AWS eine Akquisition von Eucalyptus anstreben muss. Aus strategisch und technologischer Sicht führt daran eigentlich kein Weg vorbei.

Angesichts dieser Tatsache dürfen sich Rackspace und alle anderen, die mittlerweile auf den Hybrid Cloud Zug aufgesprungen sind, keine all zu großen Hoffnungen machen. Auch hier hat Amazon frühzeitig die Weichen gestellt und ist ebenfalls für dieses Szenario vorbereitet.

Categories
Services @de

openQRM 5.1 ist verfügbar: OpenStack und Eucalyptus haben einen ernsthaften Konkurrenten

openQRM Projektmanager Matt Rechenburg hatte mir Ende Juli schon einige neue Features von openQRM 5.1 verraten. Jetzt ist das endgültige Release mit weiteren Funktionen veröffentlicht worden. Das Gesamtbild sieht wirklich vielversprechend aus. Zwar lässt die Überschrift im ersten Moment vermuten openQRM wäre etwas vollkommen Neues, was nun versucht OpenStack oder Eucalyptus den Rang abzulaufen. Das ist bei weitem nicht so. openQRM existiert bereits seit 2004 und hat im Laufe der Jahre eine große Funktionsvielfalt aufgebaut. Das Open-Source Projekt aus Köln geht in der Masse leider etwas unter, weil die Marketing-Maschinen hinter OpenStack und Eucalypts auf Hochtouren laufen und deren Lautsprecher um ein Vielfaches größer sind. Dabei muss sich openQRM vor beiden nicht verstecken. Im Gegenteil, mit der Version 5.1 hat das Team um Rechenburg noch einmal kräftig an Funktionen zugelegt und insbesondere die Benutzerfreundlichkeit erhöht.

Die neuen Funktionen in openQRM 5.1

Auch openQRM-Enterprise sieht in dem Hybrid Cloud Modell eine wichtige Bedeutung für die Zukunft der Cloud. Aus diesem Grund wurde openQRM 5.1 mit einem Plugin für die Unterstützung der Amazon Web Services (AWS), Eucalyptus Cloud und Ubuntu Enterprise Cloud (UEC) erweitert, um mit diesen drei Cloud Infrastrukturen eine Hybrid Cloud aufzuspannen. Damit bindet openQRM sowohl AWS als auch Eucalyptus und UEC als weitere Ressourcen-Anbieter für Rechenleistung und Speicherplatz ein und ist damit in der Lage Public Cloud Infrastrukturen als auch lokale virtuelle Maschinen zu verwalten. Damit erhalten Administratoren die Möglichkeit anhand von openQRM ihren Endnutzern über ein Cloud-Portal z.B. Amazon AMIs transparent bereitzustellen und über Nagios den Zustand der virtuellen Maschinen zu überwachen.

Eine weitere neue Funktionalität ist die sehr enge Integration von Puppet, mit der Endnutzer lokale virtuelle Maschinen ebenso wie Public Cloud Infrastrukturen mit personalisierten, verwalteten Software-Stacks bestellen können. Die wohl beste technische Erneuerung ist das Berücksichtigen des High-Availability Konzepts der Amazon Web Services. Fällt eine Amazon EC2-Instanz in einen Fehlerzustand, wird automatisch eine neue gestartet. openQRM 5.1 ist dabei sogar in der Lage, den Ausfall einer gesamten Amazon Availability Zone (AZ) zu kompensieren. Sollte eine AZ nicht mehr erreichbar sein, wird die entsprechende EC2-Instanz in einer anderen Availability Zone derselben Region gestartet.

openQRM-Enterprise baut die Open-Source Lösung openQRM konsequent um Cloud-übergreifende Verwaltungslösungen aus, um seinen Kunden damit zu ermöglichen, flexibel über die Grenzen ihrer eigenen IT-Kapazitäten hinweg zu wachsen, so CEO Matt Rechenburg.

Neben technischen Erweiterungen wurde ebenfalls viel Wert auf die Benutzerfreundlichkeit gelegt. Die Benutzeroberfläche für den Administrator wurde in openQRM 5.1 vollständig überarbeitet. Damit wird für eine bessere Übersichtlichkeit und Benutzerführung gesorgt. Auch das Dashboard, als zentrale Anlaufstelle hat davon stark profitiert, indem alle Informationen, wie der Status des Rechenzentrums, auf einen Blick angezeigt werden.

Für die openQRM Enterprise Edition wurden ebenfalls neue Funktionen vorgestellt. Dazu gehört ein neues Plugin für die rollenbasierte Zugriffsrechteverwaltung, die eine feingranulare Einstellung von Berechtigungen für Administratoren innerhalb des gesamten openQRM-Systems erlaubt. Damit lassen sich komplette Unternehmenstopologien auf openQRM-Rollen abbilden, um Administratoren, die im Unternehmen nur für die Virtualisierung zuständig sind, auf die Verwaltung und Bereitstellung virtueller Maschinen einzuschränken.

Weitere Erneuerungen in openQRM 5.1 sind eine verbesserte Unterstützung der Virtualisierungstechnologie KVM, indem nun ebenfalls GlusterFS für KVM-Volumes genutzt werden kann. Zudem werden VMware Technologien ab sofort besser unterstützt. Das bedeutet, dass sich nun auch bestehende VMware ESX Systeme verwalten, sowie lokale oder über das Netzwerk startbare VMware ESX Maschinen installieren und verwalten lassen.

openQRM macht einen großen Schritt nach vorne

Zwar existiert openQRM bereits deutlich länger am Markt als OpenStack oder Eucalyptus. Dennoch ist der Bekanntheitsgrad beider Projekte größer. Das liegt vorwiegend an den großangelegten Marketing-Aktivitäten sowohl von der OpenStack Community als auch von Eucalyptus. Technologisch und Funktional muss sich openQRM aber keinesfalls verstecken. Im Gegenteil, openQRMs Funktionsumfang ist um ein Vielfaches mächtiger als der von OpenStack oder Eucalyptus. Wo sich die beiden ausschließlich auf das Thema Cloud konzentrieren, liefert openQRM zudem eine vollständige Data Center Management Lösung inklusive.

Auf Grund der langen Historie hat openQRM in den vergangenen Jahren viele neue und wichtige Funktionen erhalten. Allerdings ist dadurch ebenfalls ein wenig der Überblick verloren gegangen, was die Lösung überhaupt im Stande ist zu leisten. Wer jedoch verstanden hat, dass sich openQRM aus den ineinander integrierten Bausteinen “Data Center Management”, “Cloud-Backend” und “Cloud-Portal” zusammensetzt, wird erkennen, dass ihm die Open-Source Lösung, insbesondere beim Aufbau von Private Clouds, einen Vorsprung gegenüber OpenStack und Eucalyptus ermöglicht. Speziell der Bereich Data Center Management darf für den Aufbau einer Cloud nicht vernachlässigt werden, um den Überblick und die Kontrolle über seine Infrastruktur zu behalten.

Mit der Version 5.0 wurde bereits damit begonnen die Strukturen zu schärfen und die einzelnen Funktionen zu Workflows zusammenzufassen. Dieses wurde durch das Release 5.1 noch einmal besser herausgearbeitet. Die neue Optik und Aufteilung des openQRM-Backends wurde vollständig überarbeitet, wirkt aufgeräumter und dadurch übersichtlicher in der Handhabung und wird alle Kunden positiv überraschen.

Die Erweiterung um die Hybrid-Cloud Funktionalität ist ein wichtiger Schritt für die Zukunft von openQRM. Das Ergebnis der Rackspace 2013 Hybrid Cloud Umfrage hat gezeigt, dass 60 Prozent der IT-Entscheider die Hybrid Cloud als Hauptziel vor Augen haben. Dabei wollen bzw. haben ebenfalls 60 Prozent ihre Applikationen und Workloads aus der Public Cloud abgezogen. 41 Prozent haben angegeben die Public Cloud teilweise verlassen zu wollen. 19 Prozent wollen die Public Cloud sogar vollständig verlassen. Die Gründe für den Einsatz einer Hybrid Cloud anstatt einer Public Cloud sind eine höhere Sicherheit (52 Prozent), mehr Kontrolle (42 Prozent) sowie eine bessere Performance und höhere Zuverlässigkeit (37 Prozent). Zu den Top Vorteilen, von denen Hybrid Cloud Nutzer berichten, gehören mehr Kontrolle (59 Prozent), eine höhere Sicherheit (54 Prozent), eine höhere Zuverlässigkeit (48 Prozent), Kostenvorteile (46 Prozent) und eine bessere Performance (44 Prozent).

openQRM orientiert sich dabei nicht überraschend am aktuellen Public Cloud Marktführer Amazon Web Services. Damit lässt sich die Cloud-Infrastruktursoftware ebenfalls in Kombination mit Eucalyptus und anderen Amazon kompatiblen Cloud-Infrastrukturen nutzen, um eine massiv skalierbare Hybrid-Cloud Infrastruktur aufzubauen. Dabei setzt openQRM auf sein bewährtes Plugin-Konzept und bildet Amazon EC2, S3 und Eucalyptus genau so ab. Amazon und Eucalyptus werden, neben eigenen Ressourcen aus einer privaten openQRM Cloud, damit zu einem weiteren Ressourcen Provider, um schnell und unkompliziert mehr Rechenleistung zu erhalten.

Zu den absoluten Killerfeatures gehören meiner Ansicht nach das automatische Applications Deployment mittels Puppet, mit dem End-Nutzer sich bequem und automatisiert EC2 Instanzen mit einem vollständigen Softwarestack selbst bereitstellen können, sowie die Berücksichtigung der Amazon Availability Zone übergreifenden High-Availability Funktionalität, die von vielen Cloud-Nutzern aus Unwissenheit immer wieder vernachlässigt wird. Aber auch die verbesserte Integration von VMware Technologien wie ESX Systemen sollte nicht unbeachtet bleiben. Schließlich ist VMware noch die führende Virtualisierungstechnologie am Markt. Damit erhöht openQRM ebenfalls seine Attraktivität, um als Open-Source Lösung zur Steuerung und Kontrolle von VMware Umgebungen eingesetzt zu werden.

Technologisch und Funktional ist openQRM auf einem sehr guten Weg in die Zukunft. Es muss allerdings mehr in die Öffentlichkeitsarbeit und das Marketing investiert werden.

Categories
Analysen

Amazon EBS: Wann beseitigen die Amazon Web Services ihren Single Point of Failure?

Innerhalb kürzester Zeit standen die Amazon Web Services in der Region US-EAST-1 in North Virginia wieder still. Zum einen am 19. August 2013, wobei anscheinend ebenfalls Amazon.com mit in die Tiefe gezogen wurde und zuletzt am 25. August 2013. Ursachen sollen wieder Unwetter gewesen sein. Dabei hat es dann natürlich auch wieder die üblichen Verdächtigen, allen voran Instagram und Reddit, erwischt. Instagram scheint vehement auf seine Cloud-Architektur zu vertrauen, die ihnen regelmäßig um die Ohren fliegt, wenn in North Virginia der Blitz einschlägt. Allerdings muss auch Amazon AWS scheinbar langsam etwas an seiner Infrastruktur verändern, denn so darf es nicht weitergehen.

US-EAST-1: Alt, günstig und brüchig

Die Amazon Region US-East-1 ist die älteste und meist genutzte Region in Amazons Cloud Computing Infrastruktur. Das hängt zu einem damit zusammen, das die Kosten im Vergleich zu anderen Regionen hier deutlich günstiger sind, wobei die Region Oregon mittlerweile preislich angepasst wurde. Zum anderen befinden sich hier auf Grund des Alters auch viele ältere Kunden mit vermutlich nicht für die Cloud optimierten Systemarchitekturen.

Alle Eier in einem Nest

Den Fehler, den die meisten Nutzer begehen ist, dass sie sich nur auf eine Region, in diesem Fall US-East-1, verlassen. Fällt diese aus, ist auch der eigene Service natürlich nicht mehr erreichbar. Das gilt für alle weltweiten Amazon Regionen. Um diese Situation zu umgehen, sollte ein Multi-Regionen Konzept gewählt werden, indem die Anwendung skalierbar und hochverfügbar über mehrere Regionen verteilt wird.

Amazon EBS: Single Point of Failure

Ich habe bereits im vergangenen Jahr die These aufgestellt, dass die Amazon Web Services über einen Single Point of Failure verfügen. Im Folgenden sind die Statusmeldungen vom 25. August 2013 zu sehen, die meine These unterstreichen. Das erste Mal bin ich durch einen Blogeintrag vom Amazon AWS Kunden awe.sm darauf aufmerksam geworden, die von ihren Erfahrungen in der Amazon Cloud berichten. Die fett markierten Stellen sind von entscheidender Bedeutung.

EC2 (N. Virginia)
[RESOLVED] Degraded performance for some EBS Volumes
1:22 PM PDT We are investigating degraded performance for some volumes in a single AZ in the US-EAST-1 Region
1:29 PM PDT We are investigating degraded performance for some EBS volumes and elevated EBS-related API and EBS-backed instance launch errors in a single AZ in the US-EAST-1 Region.
2:21 PM PDT We have identified and fixed the root cause of the performance issue. EBS backed instance launches are now operating normally. Most previously impacted volumes are now operating normally and we will continue to work on instances and volumes that are still experiencing degraded performance.
3:23 PM PDT From approximately 12:51 PM PDT to 1:42 PM PDT network packet loss caused elevated EBS-related API error rates in a single AZ, a small number of EBS volumes in that AZ to experience degraded performance, and a small number of EC2 instances to become unreachable due to packet loss in a single AZ in the US-EAST-1 Region. The root cause was a “grey” partial failure with a networking device that caused a portion of the AZ to experience packet loss. The network issue was resolved and most volumes, instances, and API calls returned to normal. The networking device was removed from service and we are performing a forensic investigation to understand how it failed. We are continuing to work on a small number of instances and volumes that require additional maintenance before they return to normal performance.
5:58 PM PDT Normal performance has been restored for the last stragglers of EC2 instances and EBS volumes that required additional maintenance.

ELB (N. Virginia)
[RESOLVED] Connectivity Issues
1:40 PM PDT We are investigating connectivity issues for load balancers in a single availability zone in the US-EAST-1 Region.
2:45 PM PDT We have identified and fixed the root cause of the connectivity issue affecting load balancers in a single availability zone. The connectivity impact has been mitigated for load balancers with back-end instances in multiple availability zones. We continue to work on load balancers that are still seeing connectivity issues.
6:08 PM PDT At 12:51 PM PDT, a small number of load balancers in a single availability zone in the US-EAST-1 Region experienced connectivity issues. The root cause of the issue was resolved and is described in the EC2 post. All affected load balancers have now been recovered and the service is operating normally.

RDS (N. Virginia)
[RESOLVED] RDS connectivity issues in a single availability zone
1:39 PM PDT We are currently investigating connectivity issues to a small number of RDS database instances in a single availability zone in the US-EAST-1 Region
2:07 PM PDT We continue to work to restore connectivity and reduce latencies to a small number of RDS database instances that are impacted in a single availability zone in the US-EAST-1 Region
2:43 PM PDT We have identified and resolved the root cause of the connectivity and latency issues in the single availability zone in the US-EAST-1 region. We are continuing to recover the small number of instances still impacted.
3:31 PM PDT The majority of RDS instances in the single availability zone in the US-EAST-1 Region that were impacted by the prior connectivity and latency issues have recovered. We are continuing to recover a small number of remaining instances experiencing connectivity issues.
6:01 PM PDT At 12:51 PM PDT, a small number of RDS instances in a single availability zone within the US-EAST-1 Region experienced connectivity and latency issues. The root cause of the issue was resolved and is described in the EC2 post. By 2:19 PM PDT, most RDS instances had recovered. All instances are now recovered and the service is operating normally.

Amazon EBS bildet die Basis vieler anderer Services

Die fett markierten Stellen sind aus diesem Grund von entscheidender Bedeutung, da alle diese Services gleichzeitig von einem einzigen Service abhängig sind: Amazon EBS. Zu dieser Erkenntnis ist awe.sm während seiner Analyse gekommen. Wie awe.sm festgestellt hat, ist EBS so gut wie immer das Hauptproblem größerer Ausfälle bei Amazon. So auch in dem obigen Ausfall. Mehr zum Amazon Elastic Block Store.

Zu den Services die von Amazon EBS abhängig sind gehören u.a. der Elastic Load Balancer (ELB), die Relational Database Service (RDS) oder Elastic Beanstalk.

Q: What is the hardware configuration for Amazon RDS Standard storage?
Amazon RDS uses EBS volumes for database and log storage. Depending on the size of storage requested, Amazon RDS automatically stripes across multiple EBS volumes to enhance IOPS performance.

Quelle: http://aws.amazon.com/rds/faqs/

EBS Backed
EC2: If you select an EBS backed AMI
ELB: You must select an EBS backed AMI for EC2 host
RDS
Elastic Beanstalk
Elastic MapReduce

Quelle: Which AWS features are EBS backed?

Load balancing across availability zones is excellent advice in principle, but still succumbs to the problem above in the instance of EBS unavailability: ELB instances are also backed by Amazon’s EBS infrastructure.

Quelle: Kommentar – How to work around Amazon EC2 outages

Wie man sieht hängen nicht wenige Services von Amazon EBS ab. Das bedeutet im Umkehrschluss, fällt EBS aus, sind diese Services ebenfalls nicht mehr verfügbar. Besonders tragisch verhält es sich mit dem Amazon Elastic Load Balancer (ELB), der dafür zuständig ist, im Fehlerfall oder bei großer Last den Datenverkehr zu leiten. Fällt also Amazon EBS aus und soll der Datenverkehr daraufhin in eine andere Region übertragen werden, funktioniert das nicht, da der Load Balancer ebenfalls von EBS abhängig ist.

Ich kann mich irren. Schaut man sich jedoch die vergangenen Ausfälle an, sprechen die Indizien dafür, dass Amazon EBS die zentrale Fehlerquelle innerhalb der Amazon Cloud ist.

Es darf daher die Frage erlaubt sein, ob einem Leader ständig dieselbe Komponente seiner Infrastruktur um die Ohren fliegen darf, die im Prinzip sogar als Single Point of Failure zu betrachten ist? Und ob ein Infrastructure-as-a-Service (IaaS) Anbieter, der die meisten Ausfälle von allen Anbietern am Markt zu verzeichnen hat, unter diesem Gesichtspunkt als Leader zu bezeichnen ist. Auch wenn ich immer wieder propagiere, dass man als Nutzer eines Public IaaS selbst für die Skalierbarkeit und Hochverfügbarkeit sorgen muss, hat der Anbieter selbst dennoch die Pflicht dafür zu sorgen, dass die Infrastruktur zuverlässig funktioniert.