Categories
News

Dropbox führt eine neue Foto-Upload Funktion ein und nimmt den Kampf um die Vorherrschaft im Cloud-Storage Bereich an

Dropbox führt eine neue Foto-Upload Funktion für Android-Smartphones ein und verschärft damit den Konkurrenzkampf mit Google, Apple und weiterer Unternehmen im wachsenden Markt für Online-Storage-Lösungen.

Mit einem einzigen Klick erlaubt die neue Funktion dem Benutzer drahtlos seine hochauflösenden Bilder direkt vom Smartphone in den Dropbox Speicher hochzuladen. Von dort aus kann auf die Dateien von jedem Computer oder mobilen Gerät zugegriffen werden.

Dropbox bietet an dieser Stelle dem Anwender jedoch nur Speicherplatz. Der Dienst stellt bspw. keine Fotobearbeitung oder Album Funktionen, wie Googles Picasa zur Verfügung.

Dropbox möchte damit einen Schritt in eine Art Ökosystem gehen, das um die Dropbox Plattform herum aufgebaut werden soll. So möchte das Unternehmen bspw. unabhängige Entwickler ermutigen eigene Programme zum Retuschieren von Fotos zu schreiben.

Die erste Version der App ist nur für Android-Handys verfügbar, eine Apple iOS-Version soll in Kürze veröffentlicht werden. Benutzer erhalten nach ihrem ersten Upload 500 Megabyte Speicher und können bis zu 3 Gigabyte zusätzlichen freien Speicherplatz erhalten.


Bildquelle: http://www.geeky-gadgets.com

Categories
News

Zynga verlässt die Amazon Web Services und geht zurück in die Private Cloud

Mit Spielen wie CastleVille, Mafia Wars und Farmville wurde Zynga bekannt und hat einen wesentlichen Beitrag für die Online-Games Branche geleistet. Die Spiele wurden zunächst auf den Servern der Amazon Web Services (Amazon EC2) betrieben, da im Jahr 2009 die Zugriffe stiegen und mehr Speicher und Geschwindigkeit benötigt wurden. Die jüngsten Entwicklungen haben jedoch gezeigt, dass Zynga auch eine Private Cloud nutzen kann.

Die Statistiken zeigten, dass Zynga maximal ein Drittel der EC2 Server benötigt, die sie aktuell nutzen. Das mag im ersten Moment überraschend klingen. Aber während der diverser Tests stellte sich heraus, dass Zynga maximal eine virtuelle Maschine (VM) pro Server, wie es auf EC2 der Fall ist, benötigt. Der Vorteil der Private Cloud besteht darin, dass Zynga ihre zCloud Server auf die eigenen Bedürfnisse modifizieren und so für den Einsatz optimieren kann.

Dazu gehören die Optimierung der “Gaming Roles” und deren Zugriff auf die Datenbank und die Software-Infrastruktur sowie die Maximierung der Webserver und der verbesserten Ausführung der Spiellogik im Cloud-Framework. Diese neuen Entwicklungen und Veränderungen wurden während der letzten CloudConnect in Santa Clara, Kalifornien vorgestellt.

Das zCloud Konzept war das Ergebnis von mehr als sechs Monaten Software Design und Entwicklung von Zyngas Ingenieuren. Für Zynga war es ein logischer Schritt auf eine eigene Cloud-Infrastruktur zu setzen. Der Anfang auf der Amazon Cloud gab ihnen zunächst die Möglichkeit die rasant wachsende Nachfrage schnell zu befriedigen. Nach dem Start von Farmville wurden innerhalb von 5 Monaten 25 Millionen Spieler erreicht. Das wäre am Anfang mit einer eigenen Infrastruktur nicht zu schaffen gewesen.

Castle Ville war das erste Spiel das alleine auf der zCloud ausgerollt wurde. Mit dem Start wurden innerhalb von sechs Tagen ca. 5 Millionen Nutzer erreicht. Die zCloud arbeitet mit energieeffizienten Servern, die ähnlich dem Open Compute Project von Facebook sind. Die zCloud wurde entwickelt, um die Anforderungen auf das Cloud-Gaming-fokussierter Anwendungen zu erfüllen, wie bspw. der Bedarf an Speicher, CPU, I / O sowie weiterer Spielelemente und Anwendungen.

Zynga hat sich darüber hinaus auf die Entwicklung performanter Speichersysteme konzentriert, damit die Webserver auch starken Internetverkehr durch die Firewalls und Loadbalancer effizient transportieren können. Zudem wurden strategische Standorte in der Nähe von Facebook Rechenzentren gewählt.

Zynga sieht sich im Vergleich zu Amazon nun als ein hochpreisiger Sportwagen, wohingegen Amazon sich in der Klasse der viertürigen Limousinen befindet.

Der Weg von Zynga könnte zu einem Vorbild für andere Unternehmen werden, die mehr Kontrolle über ihre Cloud-Plattform gewinnen wollen.

Categories
News

HP bringt neues Cloud-Modell für den deutschen Markt

HP bringt zur CeBIT ein neues Cloud-Angebot mit dem Namen HP cCell Services auf den deutschen Markt, bei dem die Kunden wählen können, von welchem Betriebsort sie die Cloud-Dienste beziehen: aus dem eigenen Rechenzentrum, von einem regionalen IT-Partner oder von HP.

Zielgruppe des neuen Angebots sind sowohl Unternehmen und Verwaltungen als auch HP-Partner. Die Nutzer können mit HP cCell Services den Standort und den Modus des Cloud-Betriebs an ihre technischen, geschäftlichen und regulatorischen Anforderungen anpassen.

HP cCell Services sind gebrauchsfertige IT-Dienste, die über standardisierte Cloud-Zellen (cCells) bereitgestellt werden. Die dezentral betriebenen cCell-Dienste lassen sich über eine zentrale Makler-Plattform zusammenschalten, sodass sie über mehrere Cloud-Zellen hinweg genutzt oder über gemeinsame Marktplätze bereitgestellt werden können. Kunden bezahlen für die Nutzung der HP cCell Services verbrauchsabhängige monatliche Gebühren. Abgesehen von einer einmaligen Installationspauschale fallen keine Investitionen und keine Fixkosten an.

Ein Cloud-Modell für regionale Kunden und Partner

Cloud Computing bietet große Chancen für Unternehmen und Verwaltungen, weil es Fixkosten reduziert, die Flexibilität erhöht und neue kollaborative Formen der Wertschöpfung ermöglicht. Der deutsche Markt stellt diesbezüglich allerdings besondere Bedingungen. So kaufen beispielsweise Mittelständler ihre IT-Leistungen meist bei regional ansässigen System- und Softwarehäusern ein. Die IT-Versorgung der öffentlichen Hand erfolgt durch hunderte von öffentlichen, halböffentlichen und privaten IT-Dienstleistern auf kommunaler, Landes- und Bundesebene. Zudem ist die Outsourcing-Quote in Deutschland mit 13 Prozent im internationalen Vergleich niedrig (1). Nur 5 Prozent der deutschen Mittelständler nutzen externe Cloud-Angebote (2).

Die HP cCell Services kombinieren die Vorteile des dezentralen Betriebs mit den Vorteilen zentraler, gemeinsam genutzter Cloud-Dienste. Endkunden beispielsweise kommen auch dann in den Genuss von Cloud-Merkmalen wie variable Kosten, Flexibilität und Schnelligkeit, wenn sie ihre Daten und Infrastruktur aus technischen, geschäftlichen oder regulatorischen Gründen nicht an einen Dienstleister auslagern können – gleichzeitig erhalten sie Zugang zu einem reichhaltigen Angebot an IT-Diensten, die von HP oder HP-Partnern bereitgestellt werden. Software- und Systemhäuser wiederum können ihr eigenes Cloud-Angebot mit Diensten aus dem Standard-cCells-Angebot von HP und anderen HP-Partnern anreichern.

Makler-Plattform verknüpft Cloud-Dienste

Aufgebaut sind die cCells aus HP-eigenen Technologien und Diensten wie HP CloudSystem, HP Utility Services und die HP Aggregation Platform for SaaS. Sie können optional exklusiv für einen Kunden betrieben werden oder Ressourcen mit anderen Kunden gemeinsam nutzen.

Die Verwaltung und Aggregation der Cloud-Dienste erfolgt über eine von HP zentral betriebene Makler-Plattform (HP cCell Broker). Die von einer Cloud-Zelle bereitgestellten Infrastruktur- und Applikations-Dienste lassen sich damit auch von anderen Cloud-Zellen nutzen – etwa um Kapazitätsengpässe zu überwinden oder um, im Falle eines HP-Partners, das eigene Angebot um weitere Dienste anzureichern. Verbrauchsmessung, Verbrauchsabrechnung, Bestellung und Rechteverwaltung werden ebenfalls über die Makler-Plattform abgewickelt.

Die cCell-Dienste sind über einen Service-Katalog in verschiedenen Leistungsklassen zu einem definierten Preis pro Monat bestellbar. Der Kunde oder HP-Partner kann die Dienste nach einem definierten Zeitraum wieder abbestellen oder deren Volumen und Ausstattung verringern. Bestellungen oder Änderungen der cCell-Services werden in der Regel innerhalb von wenigen Stunden umgesetzt.

Als erster HP cCell Service ist ab Anfang März Rechenleistung auf der Grundlage virtueller Windows- und Linux-Server inklusive Speicher und Backup verfügbar. Weitere Applikations- und Infrastruktur-Dienste von HP und von HP-Partnern werden im ersten Halbjahr 2012 folgen. Über ein spezielles Cloud-Partnerprogramm (HP Preferred Cloud Partner Program) qualifiziert und unterstützt HP regionale Anbieter, die auf der Grundlage des cCells-Modells eigene Cloud-Angebote aufbauen wollen.


Quellen

(1) PAC Market Figures, Western Europe, North America
(2) techconsult, HP Cloud Index, www.it-cloud-index.de

Categories
News

Microsoft baut sein Rechenzentrum in Dublin aus und investiert 130 Millionen US-Dollar

Die erhöhte Nachfrage in Europa für Cloud-Services wie Office 365, Windows Live und Windows Azure zwingt Microsoft 130 Million US-Dollar in ein neues Rechenzentrum zu investieren.

130 Millionen US-Dollar investiert Microsoft in den Ausbau seines Rechenzentrums in Dublin und stockt damit die bisher geplanten Investitionen von 500 Millionen US-Dollar weiter auf. Der Ausbau erfolgt aufgrund der erhöhten Nachfrage nach cloudbasierten Lösungen von Microsoft. Das Unternehmen bietet seinen Kunden eine hochskalierbare, kosteneffiziente Cloud-Infrastruktur auch für zukünftiges Wachstum bei Cloud Computing. Bereits im Juli 2009 wurde das Rechenzentrum in Dublin gegründet und adressiert vor allem Kunden aus dem europäischen Raum.

„Cloud Computing ist nicht nur eine Frage der technischen Machbarkeit. Datenschutz und Compliance spielen hier eine ebenso wichtige Rolle. Mit unserem in Dublin angesiedelten Rechenzentrum erfüllen wir die europäischen Datenschutzregeln und bieten Kunden ein Höchstmaß an Datensicherheit. Das spiegelt sich auch in der hohen Nachfrage unserer Online Services wider“, sagt Ralph Haupter, Vorsitzender der Geschäftsführung Microsoft Deutschland.

Das Engagement von Microsoft für Cloud Computing geht weit über die Investitionen in Rechenzentren und die damit verbundenen Dienstleistungen hinaus. So investierte das Unternehmen erst kürzlich 5,3 Millionen Euro in ein europäisches Cloud & Interoperability Center in Brüssel, um Innovationen und das Wirtschaftswachstum in ganz Europa voranzutreiben.

„Die Investitionen in das Rechenzentrum in Dublin verdeutlichen, wie wir uns in Zukunft aufstellen und ausrichten“, kommentiert Ralph Haupter. „Da Kunden Microsoft Cloud Services wie Office 365, Windows Live, Xbox Live, Bing und die Windows Azure Plattform sehr stark annehmen, investieren wir in unsere regionale Cloud-Infrastruktur, um die Kundenanforderungen zu erfüllen.“

Allgemein prognostizieren die Experten Cloud Computing und der IT-Branche sehr gute Wachstumsaussichten. Aktuelle Zahlen des Centre for Economics and Business Research belegen, dass in den nächsten fünf Jahren durch die Cloud 763 Milliarden Euro in die europäische Wirtschaft fließen könnten. Einer Studie von Experton zufolge wird der Umsatz der IT-Branche mit Cloud Computing in Deutschland von 1,9 Mrd. 2012 auf 8,2 Mrd. in 2015 steigen, d.h. ein Umsatzwachstum von 48% und das nur in Deutschland.

Categories
News

Ich moderiere auf der CeBIT Webciety 2012 das Panel "Herausforderungen von Cloud Services"

Am 09.03 werde ich auf der CeBIT Webciety 2012 während des Diskussionspanels zum Thema “Herausforderungen von Cloud Services” die Moderation übernehmen.

Hintergrund des Panels:

Was sind die großen Herausforderungen bei der Einbindung von Cloud Services? Was müssen Unternehmen beachten und wie ist damit umzugehen? Eine Expertenrunde diskutiert die aktuellen Brennpunkte und Entwicklungen im Bereich der Cloud Services.

Zu den Panel Mitgliedern gehören:

  • Dittrich Raik
  • T-Systems

  • Thomas Witt
  • Infopark

  • Holger Dyroff
  • ownCloud

  • Marcel Donges
  • C2 – Cquadrat

  • Florian Müller
  • Microsoft

Das Panel findet am 09.03.2012 von 10:10 – 11:00 Uhr in Halle 6 statt.

Weitere Infos unter http://www.cebit.de/veranstaltung/herausforderungen-von-cloud-services/PAN/46540

Categories
Management @de

Weltweite Cloud Computing Scorecard veröffentlicht – Deutschland auf Platz 3

Die Business Software Alliance (BSA), ein globale Fürsprecher der Software-Industrie gegenüber Regierungen und Kunden auf dem internationalen Markt hat die erste weltweite Cloud Computing Scorecard veröffentlicht. Deutschland belegt darin einen guten dritten Platz. “Weltmeister” ist Japan gefolgt von Australien.

Die erste weltweite Cloud Scorecard analysiert die rechtlichen und ordnungspolitischen Rahmenbedingungen sowie die Breitband-Infrastruktur von 24 Ländern, die zusammen 80 Prozent des weltweiten ITK-Markts ausmachen. Die Analyse ist in sieben Kategorien zusammengefasst, die von zentraler Bedeutung für das Wachstum und den Betrieb von Cloud Computing sind.

Analyse-Bereiche der Studie

Die Studie umfasst eine detaillierte Land-für-Land-Analyse der Gesetze, Vorschriften, Rechtsprechungen, Politik der Regierung und Standards. Die darin betrachteten Einschätzungen enthalten eine Bewertung der Umsetzung und Durchsetzung der bestehenden Gesetze in jedem Land sowie eine Bewertung der Übereinstimmung mit den einschlägigen Verträgen und gegebenenfalls globalen Vereinbarungen. Die Scorecard-Analyse basiert auf einer Kombination der veröffentlichten Informationen, Statistiken und Bewertungen durch unabhängige Experten der Galexia Consulting. Weitere Details bezüglich Quellen, einschließlich Links, sind in den einzelnen Berichten zu den Ländern vorhanden.

Thema Gewichtung Wert
Datenschutz 10% 10
Sicherheit 10% 10
Internetkriminalität 10% 10
Geistiges Eigentum 20% 20
Standards 10% 10
Förderung des freien Handels 10% 10
IKT-Bereitschaft, Breitbandausbau 30% 30

Die Punktzahl des jeweiligen Lands wurde unter Verwendung eines 66-Punkt Scoring-Gitter und Analysen berechnet. Die Punkte stammen aus einem gewichteten System, das jedem Abschnitt/ Frage eine unterschiedliche Gewichtung zuordnet. Eine Reihe von grundlegenden untersuchenden Fragen wurden aus dem Scoring-System ausgeschlossen. Jede Gruppe von Fragen wurde gewichtet, um ihre Bedeutung für das Cloud Computing zu reflektieren. Dabei wurde jede einzelne Frage ebenfalls gewichtet, um ihre Bedeutung innerhalb der Gruppe zu reflektieren. Um bei der Nutzung der Studie und dem Scoring zu helfen, basieren die Bewertungen auf einer Reihe von Fragen, die so aufgebaut sind, dass eine “Ja”-Antwort gute Rahmenbedinungen für das Cloud Computing in diesem Land wiederspiegelt.

Die Gewichtungen befinden sich in der obigen Tabelle. Die Ergebnisse können in der Studie nachgelesen werden.

Die berücksichtigten Länder der Studie

Die Scorecard soll eine Plattform für Diskussionen zwischen politischen Entscheidungsträgern und Anbietern von Cloud-Angeboten bieten und dabei einen Blick auf die Entwicklung einer international harmonisierten Regelung von Gesetzen und Verordnungen, die relevant für das Cloud Computing sind, bieten. Es ist ein Tool, mit dem Politiker eine konstruktive Selbst-Evaluation führen können und die nächsten Schritte ergreifen sollen, um damit dazu beitragen, das Wachstum des globalen Cloud Computing zu fördern.

Deutschland landet mit 79.0 Punkten in der Studie nach Japan (83.3) und Australien (79.2) weltweit auf Platz 3. Zu den weiteren Ländern gehören die USA, Frankreich, Italien, Großbritannien, Korea, Spanien, Singapur, Polen, Kanada, Malaysia, Mexiko, Argentinien, Russland, Turkei, Südafrika, Indien, Indonesien, China, Thailand, Vietnam und Brasilien.

Zusammenfassung der Bewertung für Deutschland

Laut der Studie verfügt Deutschland über umfassende Gesetzgebungen zur Bekämpfung des Cybercrime und ist bzgl. des Schutz des geistigen Eigentums immer auf dem aktuellen Stand. Die Kombination dieser Gesetze bietet einen angemessenen Schutz für Cloud Computing Services in Deutschland. Beide Gesetze sollen laut der Studie bald überprüft werden.

Es gibt jedoch eine anhaltende Unsicherheit darüber, ob Web-Hosting Anbieter und Internetzugangsanbieter für Urheberrechtsverletzungen auf ihren System haften müssen.

Deutschland verfügt ebenfalls über moderne E-Commerce Gesetze und ist dabei die elektronische Signatur einzuführen. Wie die meisten europäischen Länder verfügt Deutschland über umfassende Rechtsvorschriften zum Datenschutz, hat aber erschwerende Zulassungsanforderungen, die als Kosten Barriere für die Nutzung von Cloud Computing dienen können. Darüber hinaus hat Deutschland 17 Datenschutzbehörden, was zu Unsicherheiten bei der Anwendung von Gesetzen führt.

Deutschland hat ein starkes Engagement für internationale Standards und Interoperabilität, was ist mit den jüngsten politischen Änderungen verbessert wurde.

Im Jahr 2009 wurde in Deutschland die Breitbandstrategie der Bundesregierung veröffentlicht, welche die Internetzugangsanbieter verpflichtet, bis 2015 in 75% der Haushalte die Download-Geschwindigkeiten auf 50 Mbps zu erhöhen.

Rangliste

Platz Land Punkte
1. Japan 83.3
2. Australien 79.2
3. Deutschland 79.0
4. USA 78.6
5. Frankreich 78.4
6. Italien 76.6
7. Großbritannien 76.6
8. Korea 76.0
9. Spanien 73.9
10. Singapur 72.2
11. Polen 70.7
12. Kanada 70.4
13. Malaysia 59.2
14. Mexiko 56.4
15. Argentinien 55.1
16. Russland 52.3
17. Turkei 52.1
18. Südafrika 50.4
19. Indien 50.0
20. Indonesien 49.7
21. China 47.5
22. Thailand 42.6
23. Vietnam 39.5
24. Brasilien 35.1

Interessant in diesem Zusammenhang ist, dass die Amazon Web Services gerade verstärkt in Brasilien investieren! Es bleibt abzuwarten, ob sich dieses Engagement positiv auswirken wird.


Quelle: BSA Global Cloud Computing Scorecard

Categories
Services @de

Das AWS Flow Framework

Als Teil des AWS SDK stellt Amazon ebenfalls das AWS Flow-Framework bereit, mit dem Amazon SWF-basierte Anwendungen entwickelt werden können. Dieses Framework bietet diverse Modelle welche die Aufgabekoordinierung hinter Amazon SWF abstrahieren. Das AWS Flow Framework soll dabei helfen Aufgaben zu erstellen und zu orchestrieren sowie die gegenseitigen Abhängigkeiten darstellen. So wird bspw. ein neuer Activity Task mit einer Methode gestartet und Fehler von Nodes können per Exceptions abgefangen werden.

Das AWS Flow Framework übersetzt einen Methodenaufruf automatisch in eine Entscheidung, um den entsprechenden Activity Task zu planen und weist Amazon SWF an, den Task einem Node zuzuordnen. Das Ergebnis des Tasks gibt das Framework ebenfalls als Rückgabewert der Methode zurück. Um die gegenseitige Abhängigkeit von Aufgaben darzustellen, kann einfach der Rückgabewert einer Methode als Parameter für eine andere Methode übergeben werden. Aufrufe solcher Methoden blockieren nicht und das Framework führt diese automatisch aus, wenn alle benötigten Eingabeparameter vorhanden sind. Das Framework erhält dazu Node- und Entscheidungstasks von Amazon SWF, ruft die entsprechenden Methoden im Programm auf und formuliert Entscheidungen, um diese zurück an Amazon SWF zu senden.

Das AWS Flow Framework ist, als Teil des AWS SDK für Java, derzeit nur für Java verfügbar.

Categories
Grundlagen

Was ist iPaaS?

Eine der größten Herausforderungen bei der Nutzung von Cloud Services ist die saubere und sorgfältige Integration. Um die Anforderungen an sicheren und zuverlässigen Cloud-Integrations-Lösungen zu erfüllen, haben bereits einige Anbieter damit begonnen sogenannte Integration Platform-as-a-Services (iPaaS) anzubieten.

Bei iPaaS handelt es sich also um cloud-basierte Integrationslösungen, denen derzeit eine immer größere Bedeutung zugesprochen werden. Ein Grund warum iPaaS wohl eine Zukunft besitzt ist neben dem sehr interessanten technologischen Nutzen und den Möglichkeiten das Research Paper “Gartner Reference Model for Integration PaaS“. Diese wachsende Aufmerksamkeit ist ein gutes Zeichen für iPaaS Anbieter, aber es herrscht weiterhin noch Unklarheit darüber, was iPaaS tatsächlich ist oder wo der Nutzen liegt.

In einfachen Worten ausgedrückt ist iPaaS eine Plattform zum Erstellen und Bereitstellen von Integrationen innerhalb der Cloud und zwischen Clouds und Unternehmen. Mit iPaaS können Anwender “Integration Flows” entwickeln, mit denen Anwendungen, die sich in der Cloud oder On-Premise befinden, untereinander verbunden werden und anschließend ausgerollt werden können ohne die dafür benötigte Hardware oder Middleware dafür installieren und verwalten zu müssen.

Eine schematische Darstellung von iPaaS via Mulesoft

In einer weitergehenden Definition und Spezifität von iPaaS erläutert Gartner eine Reihe von wichtigen Funktionen in seinem Referenzmodell. Dazu gehören Tools und Technologien, welche die Ausführung der “Integration Flows” unterstützen, die Entwicklung und das Life Cycle Management von Integrationen, die Verwaltung und Überwachung der “Application Flows”, Governance und essentielle Cloud Funktionen wie Mandantenfähigkeit, Elastizität und Self-Provisioning.

Gartner sieht iPaaS ebenfalls als potenzielle Plattform für den Kauf, Verkauf und Austausch von “Integration Flows” (out-of-the-box und custom-built) zwischen Anwendern, Dienstleistern und Integrationsanbietern.

Da sich das iPaaS Modell noch in einem frühen Stadium befindet, weist Gartner darauf hin, dass die iPaaS Angebote die sich derzeit auf dem Markt befinden möglicherweise nicht alle Funktionen des Referenzmodells aufweisen. Jedoch identifiziert Gartner drei Kategorien von iPaaS Anbietern, von denen jeder einen anderen Bereich der Integration betont:

  • E-Commerce und B2B-Integration
  • Cloud-Integration
  • Enterprise Service Bus (ESB) und Service Oriented Architecture (SOA) Infrastrukturen
Categories
News

Die Amazon Web Services veröffentlichen den "Amazon Simple Workflow" – Cloud-Based Workflow Management

Die Amazon Web Services erweitern ihre Cloud Angebote um den “Amazon Simple Workflow”. Dabei handelt es sich um einen Service für die Steuerung der Ablauforganisation.

Wie Jeff Barr auf dem offiziellen AWS Blog schreibt, ermöglicht der Amazon Simple Workflow Service (SWF) das Erstellen und Ausführen von verteilten und fehlertoleranten Anwendungen die sich über mehrere Cloud-basierte-, On-Premise- oder hybriden Systemen erstrecken. Der Amazon Simple Workflow kümmert sich dabei um die Koordination des Flusses von synchronen oder asynchronen Aufgaben.

Der Service kann für viele Arten von mehrstufigen Operationen inkl. der traditionellen Geschäftsprozesse (z.B. die Verarbeitung einer Bestellung oder das Hinzufügen eines neuen Mitarbeiters) eingesetzt werden. Dazu gehören ebenfalls das Einrichten einer komplexen Multi-Tier-Anwendung oder auch Umgang mit dem Entscheidungsprozess für ein Multi-Player Online-Spiel.

Der Amazon Simple Workflow stellt dazu die Infrastruktur bereit, mit der ein Workflow (wie bspw. der Oben) implementiert werden kann. Zu den Funktionen von SWF gehören u.a.:

  • Speichern von Metadaten zu einem Workflow und seiner Bestandteile.
  • Speichern von Aufgaben für Nodes und Warteschlange bis ein Node sie benötigt.
  • Weist einem Node Aufgaben zu.
  • Routed die Informationen zwischen den betroffenen Nodes und dem Workflow.
  • Verfolgt den Fortschritt der einzelnen Aufgaben eines Nodes, mit konfigurierbaren Timeouts.
  • Speichert den Workflow-Status permanent.

Preise

Der Amazon Simple Workflow wird wie alle AWS Dienste auf Basis von Pay-as-you-go abgerechnet. Es wird also nur dann berechnet, wenn der Service genutzt und die Leistung erbracht wird. Zunächst können alle AWS Kunden kostenlos starten. Es können 1.000 Workflows und 10.000 Aufgaben pro Monat erstellt werden, wobei diese für maximal 30.000 Workflow-Tage (kostenlos) laufen dürfen. (Ein aktiver Workflow pro Tag entspricht einem Workflow-Tag)

Die weiteren Kosten betragen:

  • Kosten für die Ausführung pro Workflow: 0,0001 US-Dollar und weitere 0,000005 US-Dollar pro Tag, wenn dieser für mehr als 24 Stunden aktiv bleibt.
  • Kosten für Tasks, Signals und Markers: 0,000025 US-Dollar für jeden ausgeführten Task, Timer, Signal und Marker.
  • Kosten für die Bandbreite: 0,10 US-Dollar für das erste Gigabyte an eingehenden Daten. Für das erste Gigabyte an ausgehenden Daten entstehen keine Kosten. Im Anschluss werden die üblichen AWS Gebühren erhoben.
Categories
Management @de

Private Cloud Computing

Matthias Rechenburg ist Projektmanager von openQRM und CEO der openQRM Enterprise. Im Interview spricht er über das Thema Private Cloud Computing und wie damit die Effizienz des Rechenzentrums verbessert werden kann.

CloudUser: Eine Private und eine Public Cloud haben prinzipiell dieselbe DNA. Was sind die Eigenschaften, die den Unterschied ausmachen?

Matthias Rechenburg: Die Grenzen zwischen Private und Public Clouds sind fließend. In einer Private Cloud werden die verfügbaren Cloud-Ressourcen (z.B. virtualisierte Hosts) “in-house” betrieben. Das heißt, ein in der eigenen Firma beschäftigter Systemadministrator oder die IT-Abteilung kümmert sich um die Verwaltung und Administration der Cloud. Ein Pool firmeneigener Server wird mithilfe einer Private Cloud den Mitarbeitern flexibel und dynamisch zur Verfügung gestellt.

Im Gegensatz dazu werden in Public Clouds “öffentliche” Ressourcen angeboten, die von “externen” Systemadministratoren des Public Cloud Anbieters zur Verfügung gestellt werden. Hierbei muss man speziell den Aspekt der Datensicherheit beachten, da firmeneigene Daten auf “extern” verwalteten Systemen gespeichert werden.

Eine Vermischung von Private und Public Clouds findet statt, wenn eigene und öffentliche Ressourcen verwendet werden. Man spricht dann von Hybrid Cloud Computing.

CloudUser: Böse Zungen behaupten, dass die Kostenvorteile, die man durch eine Public Cloud erhält, mit einer Private Cloud obsolet sind. “Es handelt sich dabei doch nur um Virtualisierung!” Wie stehst Du dazu?

Matthias Rechenburg: Die Private Cloud verbindet Virtualisierung mit kompletter Automation. Die Automation macht die Dynamik in der Cloud erst möglich. Eine Private Cloud ermöglicht es dem Betreiber, seine vorhandenen Ressourcen (Server Systeme) effizienter zu nutzen und die Zeit, die es benötigt, um ein neues System betriebsfertig bereitzustellen, erheblich zu reduzieren. Auch werden dank dem Cloud Abrechungssystem Ressourcen wieder freigestellt und können für andere Zwecke weitergenutzt werden. Das spart die Anschaffung neuer Server Systeme durch bessere Ausnutzung der vorhandenen Ressourcen.

Des Weiteren geht es beim Private Cloud Computing um den Betrieb von eigenen Systemen. Das heißt, der Cloud Betreiber muss sich nicht nur um die Virtualisierung kümmern, sondern um den kompletten Betrieb des Data-Centers. Hierbei lässt sich mithilfe von Standardisierung, die von der Cloud vorgegeben wird, und Automatisierung eine erhebliche Kostenersparnis erzielen. Z.B. bieten einige Cloud Systeme auch die Integration mit Out-of-Band Management, die automatisch Server, die momentan nicht benötigt werden, ausschalten und bei Bedarf wieder “wecken”.

Die möglichen Kostenersparnisse mittels Private Cloud Computing verteilen sich also auf unterschiedliche Aspekte :

  • bessere Ausnutzung vorhandener Hardware
  • effizientere Administration durch Standardisierung
  • Zeiteinsparung durch Automation
  • weniger Stromverbrauch durch intelligentes und automatisiertes Out-of-Band Management

CloudUser: Nachdem in den vergangenen Jahren zahlreiche Anläufe unternommen wurden, um eine Definition für Cloud Computing zu finden, wird sich nun auf den Unterschied zwischen einer Public Cloud und einer Private Cloud gestürzt. Wie würde die Definition einer Private Cloud von Dir lauten?

Matthias Rechenburg: Eine Private Cloud ist eine Abstraktion von “eigenen” Data-Center Ressourcen mittels eines “ Service”.

CloudUser: Mittlerweile setzen eine Vielzahl von Unternehmen auf Virtualisierung, um ihre Server zu konsolidieren und damit Platz einzusparen und Kosten zu reduzieren. In welchen Fällen sollte man weiterhin eine klassische Virtualisierung verwenden und wann zu einer Private Cloud wechseln?

Matthias Rechenburg: Mit Virtualisierung und klassischer Administration stößt man schnell auf Grenzen der Administrierbarkeit. Die Konsolidierung mithilfe von Virtualisierung hat normalerweise zur Folge, dass man nun viel mehr Systeme verwalten muss als zuvor. Der Systemadministrator ist bei der Verwaltung und dem Betrieb großer Rechenzentren immer noch das “Bottleneck”. Hier bietet Private Cloud Computing eine Lösung.

Eine Private Cloud passt z.B. perfekt in ein jedes QA- und Entwickler Team. Mittels effektiver Ressourcenplanung und optimierter Nutzung der vorhandenen Systeme lässt sich die Effizienz beider Teams erheblich steigern. Ein QA Mitarbeiter kann sich so zu jeder Zeit ein “frisches” Test-System bestellen und direkt nutzen, ohne auf Arbeiten des Systemadministrators warten zu müssen.

CloudUser: Welches ist Deiner Meinung nach der richtige Weg zur Nutzung einer Public Cloud? Sollte man mit einer Private Cloud beginnen, dann eine hybride Cloud betreiben und dann erst komplett in eine Public Cloud wechseln? Oder lieber konkrete Projekte direkt in eine Public Cloud verlagern?

Matthias Rechenburg: Ob man Private-, Public-, oder Hybrid-Cloud Computing verwendet, hängt immer stark davon ab, was man überhaupt bewerkstelligen möchte. Bessere Effizienz der eigenen Ressourcen bietet uns die Private Cloud. Lastverteilung und die Verwendung von extern verwalteten Ressourcen bietet uns die Public Cloud. Speziell für alle Anwendungen und Services, die hohe Lastspitzen (“peaks”) in der Ressourcen Nutzung aufweisen (z.B. Shopsysteme zum Weihnachtsgeschäft), sind speziell die Public Clouds eine gute Möglichkeiten diese Lastspitzen abzufangen ohne weiter eigene Ressourcen anschaffen zu müssen.

Nicht nur auf Grund der vollen Flexibilität, aber vor allem um den sogenannten “Vendor-lockin” in der Cloud zu vermeiden, ist Hybrid Cloud Computing ein sehr wichtiger Aspekt. Hybrid Cloud Computing bietet die Möglichkeit, jederzeit Dienste zwischen einer Private in einer Public Cloud zu migrieren aber auch verschiedene Public Cloud Anbieter nutzen zu können. Das heißt, man ist nicht mehr an einen speziellen Public Cloud Anbieter gebunden.

CloudUser: Wie stehst Du generell zu dem Einsatz von hybriden Clouds?

Matthias Rechenburg: Meiner Meinung nach ist der Aspekt des Hybrid Cloud Computing sehr wichtig. Nicht nur um einen “Vendor-lockin” zu vermeiden, aber auch um die volle Flexibilität für den Endbenutzer zu gewähren. Hybrid Cloud ermöglicht es, Dienste in der Privaten Cloud zu entwickeln und sie in der Public Cloud zu betreiben.

CloudUser: Das Thema Schnittstellen, vor allem offene Schnittstellen, wird im Cloud Computing heiß diskutiert. Speziell beim Einsatz einer Private Cloud ist das ein wichtiges Thema, wenn es darum geht, Services von einer Public Cloud zu adaptieren, um damit eine Hybrid Cloud aufzubauen. Wie siehst Du dort derzeit die vorhandenen Systeme und Angebote am Markt?

Matthias Rechenburg: Zitat John Willis : “Every Cloud needs an API” (jede Cloud benötigt eine Programmier-Schnittstelle)

Die Schnittstellen von Clouds (APIs) werden hauptsächlich dafür genutzt, dem Cloud Betreiber eine Möglichkeit zu geben die Cloud Mechanismen in seine vorhandenen Geschäftsprozesse zu integrieren. Der Quasi-Standard wird von den Amazon Web Services, dem momentan größten Public Cloud Anbieter, vorgegeben, an denen sich eine Vielzahl von weiteren Cloud Projekten orientiert.

Eine gute API macht jedoch noch lange keine Hybrid Cloud!

CloudUser: Ein Unternehmen entscheidet sich dazu, eine Private Cloud aufzubauen. Sollten Sie sich für eine Open Source Variante entscheiden und auf den Support der Community setzen oder für eine proprietäre Variante (Closed Source), bei der ein Unternehmen 24×7 professionellen Support anbietet?

Matthias Rechenburg: Das hängt natürlich davon ab, ob das Unternehmen über eigene Systemadminstratoren und/ oder einer IT-Abteilung mit dem notwendigen Know-How verfügt, um eine Private Cloud selbst zu installieren. Open-Source hat auf jeden Fall immer den Vorteil der Unabhängigkeit meist gepaart mit der Option eines professionellen Support.

CloudUser: Wie kann Cloud Computing generell die Effizienz eines Rechenzentrums erhöhen?

Matthias Rechenburg: Generell sollte man sich die Frage stellen, ob man überhaupt ein eigenes Rechenzentrum betreiben möchte. Die derzeitigen Public Cloud Dienste bieten eine Vielzahl von Möglichkeiten ohne eigene Server auszukommen. Betreibt man eigene Rechenzentren, bietet eine Private Cloud die Verbesserung der Effizienz der eigenen Systeme durch Standardisierung und Automation. Ist ein Unternehmen Lastspitzen ausgesetzt, sollte es in jedem Fall eine Public Cloud in Betracht ziehen. Durch die Integration von intelligenten Data-Center Management Systemen lassen sich zudem noch erhebliche Stromkosten einsparen ohne an Hochverfügbarkeit zu verlieren.

CloudUser: Wie können sich Unternehmen vor dem gefürchteten Vendor-Lockin schützen?

Matthias Rechenburg: Meiner Meinung nach liegen die Beständigkeit und größtmögliche Flexibilität in freier open-source Software und offener, gut dokumentierter API’s.