Categories
Management @de

Netflix erwartet künftig SSDs als Speichertechnologie für Cloud Infrastrukturen!

Netflix Cloud Architekt Adrian Cockcroft erwartet künftig schnellere I/O Mechanismen in der Cloud. Netflix gehört zu den größten Kunden der Amazon Web Services und Cockcroft wünscht sich zunehmend den Einsatz von SSDs (Solid-State-Drives) als Speichertechnologie für die Amazon Cloud. Ein Problem besteht hier jedoch – für die Amazon Web Services – SSDs lassen sich noch nicht stark genug skalieren.

In einem Interview mit ZDNet UK erläuterte Cockcroft erneut die Bedeutung von schnellen I/O Mechanismen innerhalb der Cloud. “Ich habe bereits vor einiger Zeit nach SSDs in der Cloud gefragt.”, so Cockcroft.

Er findet es zwar klasse, dass Amazons Dynamo DB auf SSD basiert, dennoch erwartet er eine noch höhere Skalierbarkeit. Netflix nutzt Cassandra als Speicherarchitektur, um damit das Streaming der Mediadaten zu realisieren. Der Einsatz von SSD würde Netflix dabei noch besser unterstützen.

Die Problematik besteht laut Cockcroft jedoch darin, dass SSDs für Amazon vorab nicht stark genug skalieren, bevor sie damit einen Service anbieten. Daher haben die Amazon Web Services zwar Instanzen für CPU, Speicher und die Netzwerkkapazitäten, aber das I/O ist auf die Leistung der Festplatte beschränkt.


Bildquelle: http://alblue.bandlem.com

Categories
News

Amazon Web Services mit kurzzeitigem Ausfall

Wie auf Twitter gut zu verfolgen, war die US-EAST-1 Region der Amazon Web Services heute kurzfristig nicht erreichbar.

Auch der US-amerikanische Plattform Anbieter Cedexis konnte dieses über das eigene Monitoring System verfolgen.

Nach 15 Minuten war die Region wieder erreichbar, wie auch Cedexis informierte.

Der Grund des Ausfalls bestand in einem Problem mit der Internetverbindung, wie Amazon auf seiner Statusseite berichtet.

Demnach waren Amazon EC2 sowie die Amazon Virtual Private Cloud jeweils in North Virginia sowie AWS Elastic Beanstalk betroffen.

An diesem Ausfall sieht man leider, dass alle Services zwar sorgenfrei laufen können, aber die Internetverbindung die Achillesferse des Cloud Computing ist. Für die Cloud Anbieter als auch für die Nutzer.

Categories
News

AWS präsentiert neue Identity Access und Management Funktionen

In einem Blogpost nennt Jeff Barr neue Funktionen für das AWS Passwort Management und zur Überwachung der Kontoaktivitäten und Nutzungsberichte.

Mit diesen neuen Funktionen können Identity Access and Management (IAM) Nutzer nun Zugriff auf die Kontoaktivitäten und Nutzungsberichte auf der AWS Webseite erhalten. Des Weiteren können Regeln für Passwörter definiert werden, durch die IAM Nutzer in die Lage versetzt werden, starke Passwörter zu verwenden. Zu guter Letzt besteht nun die Möglichkeit, IAM Nutzern die Gelegenheit zu geben, ihre eigenen Passwörter zu ändern.

Zugriff auf Kontoaktivitäten und Nutzungsberichte

Mit dieser neuen Funktion können voneinander getrennte und unterschiedliche IAM Benutzer für geschäftliche und technische Zwecke erstellt werden. So können Business-Anwender Zugriff auf die Kontoaktivitäten und Nutzungsberichte der AWS Webseite erhalten, um damit die Abrechnungs-und Nutzungsdaten einzusehen, ohne einen Zugriff auf anderen AWS-Ressourcen wie EC2-Instanzen oder Dateien in S3 zu haben.

Kennwortrichtlinien

Es können nun kontoübergreifende Richtlinien in der IAM-Konsole festgelegt werden, die starke Passwörter von den Nutzern verlangen und eine Passwortänderung erzwingt. Neben der Passwortlänge kann ebenfalls festgelegt werden, wie das Passwort aufgebaut werden soll und welche Zeichen es enthalten muss, also bswp. eine Kombination von großen und kleinen Buchstaben, Zahlen und Symbolen.

Ändern von Kennwörtern

Über eine neue Benutzeroberfläche in der IAM Konsole können IAM Benutzer nun auch ihr Passwort selbst ändern. Ein Nutzer erreicht diese neue Funktion, indem er rechts oben unter My Account die “Security Credentials” wählt.

Categories
Analysen

Die Amazon Web Services und der Vendor Lock-in

Die Amazon Web Services (AWS) legen ein beachtliches Tempo vor. In regelmäßigen Abständen veröffentlicht das Unternehmen aus Seattle immer mehr Cloud Services, was Amazon innerhalb kürzester Zeit zum Cloud-Primus hat werden lassen. Der letzte Streich, der Amazon Simple Workflow liegt gerade knapp 2 Wochen zurück.

Auf dem ersten Blick ist die Leistung von Amazon wirklich sehr beachtlich. Zudem können die meisten Mitbewerber das vorgelegte Tempo kaum mithalten. Der zweite Blick trübt jedoch die Euphorie um die angebotenen Services. Denn viele Unternehmen nutzen AWS, um ihre ersten Schritte zu gehen und dabei auf eine flexible und öffentliche Cloud Infrastruktur zurückzugreifen. Aber je mehr Angebote wie bspw. Workflow Services oder speziell für die Cloud entwickelte Datenbanken veröffentlicht werden, desto größer wird ebenfalls das Bedenken einem Cloud Vendor Lock-in zum Opfer zu fallen.

Auf Grund der kostengünstigen und einfach zu nutzenden Infrastruktur für Rechenleistung und Speicherplatz, haben sich anfangs viele Kunden für den Einsatz von AWS entschieden. Diese Einfachheit ist weiterhin unumstritten und ermöglicht es insbesondere kleinen Unternehmen und Startups schnell auf die Ressourcen zurückzugreifen, die zu einem bestimmten Zeitpunkt benötigt werden, ohne große vorab Investitionen zu tätigen. Hinzu kommt das bequeme Mitwachsen der Infrastruktur, wenn unerwartet große Anfragen entstehen und die tatsächliche Abrechnung (pay as you go) der Ressourcen. Unternehmen können ihre Workloads also deutlich bequemer und flexibler in der Amazon Cloud verarbeiten lassen als im eigenen Rechenzentrum.

Jedoch führt die Einführung neuer Dienste wie Amazon DynamoDB und Simple Workflow Services (SWF) dazu, dass genau diese Workloads deutlich stärker an die AWS-Infrastruktur gebunden werden. So stellt es für Entwickler bspw. eine größere Herausforderung dar, ihre Daten von der DynamoDB zu einer nicht Amazon Datenbank zu migrieren. Im Falle von SWF, mit der Entwickler workflow-fähige Anwendungen erstellen können, wird die Lücke zwischen der on-Premise Infrastruktur und den Amazon Ressourcen immer kleiner und hebt die Grenze zwischen Kundenseite und AWS-Infrastruktur zunehmend auf.

Es scheint so, als wolle Amazon den Microsoft-Weg gehen, eben nur in der Cloud. Microsoft führte nach Betriebssystemen und Office Produkten immer weitere Funktionen ein und stimmte diese perfekt aufeinander ab. Hinzu kommen bereits vorhandene oder im Laufe der Zeit eingeführte Funktionen, die auch von anderen Herstellern angeboten wurden, aber eine untergeordnete Rolle spielten. So waren die Kunden nicht bereit für eine Funktion zu bezahlen, die in der Software bereits enthalten war, selbst wenn die vom Drittanbieter angebotene in den meisten Fällen deutlich besser war.

Eine weitere nicht zu unterschätzende Problematik ist die Abwanderung von Daten – nicht Diebstahl! Mit Amazon SWF können Anwendungs- und Serviceübergreifende Anwendungen entwickelt werden die einen flüssigen und integrierten Übergang zwischen Anwendungen auf der Kundenseite und der AWS Infrastruktur herstellen. Mit den Simple Workflow Services werden die Daten quasi aus dem eigenen Rechenzentrum in die Amazon Cloud übertragen und sind dort eng in die Workflow Prozesse und die Infrastruktur verankert.

Ähnlich verhält es sich bei der Nutzung von Amazon DynamoDB, aber auch Amazon SimpleDB. Kommt eine dieser Datenbank zum Einsatz ist ein Wechseln zu einem anderen Cloud Anbieter nicht möglich. So kann u.a. die Entwicklung einer Anwendung im Zusammenhang mit einer dieser Datenbanken nicht offline stattfinden, da Amazon DynamoDB bzw. Amazon SimpleDB nur in der Amazon Cloud laufen. Auch der AWS Storage Gateway ist aus der Lock-in Sicht eher kritisch zu betrachten, der er die Daten aus dem eigenen Rechenzentrum heraus auf Amazon S3 speichert.

Amazon ist aus gutem Grund der weltweit führende Cloud Computing Anbieter. Aber Erfolg und Macht führen in der Regel dazu, beides auch zu festigen und stetig auszubauen. Daher sollte sich jeder überlegen, in wie weit und vor allem wie integriert er welchen Service nutzen will und sich zudem nach Alternativen umschauen und eine Multi-Vendor Strategie fahren.

Denn unter diesen Gesichtspunkten stellt sich Frage, ob Zynga wirklich nur aus Performancegründen den Weg in die eigene Cloud gewählt hat.


Bildquelle: http://www.flyingomelette.com

Categories
Tutorials @de

How-To: Amazon EC2 Linux Micro Instanz um eine Swap Partition erweitern um deren Leistung zu erhöhen

Amazon EC2 Micro Instanzen stehen nur 613 MB Arbeitsspeicher zur Verfügung. Das reicht in den meisten Fällen nicht, um große Datenmengen performant zu verarbeiten. Hinzu kommt, dass die Linux Micro Instanzen standardmäßig keine Swap Partition haben.

Mit den folgenden Schritten wird einer Linux basierten Amazon EC2 Micro Instanz eine Swap Partition hinzugefügt, wodurch deren Leistung erhöht werden kann.

Zunächst melden wir uns als Root an und geben folgenden Befehl ein, um die Werte für die gewünschte Blockgröße anzugeben.

dd if=/dev/zero of=/swapfile bs=1M count=1024

Anschließend richten wir das Swapfile ein.

mkswap /swapfile

Nun aktivieren das Swapfile.

swapon /swapfile

Um das Swapfile während des Bootvorgangs zu aktivieren, tragen wir folgendes in die /etc/fstab ein.

/swapfile swap swap defaults 0 0

Bildquelle: http://tux.crystalxp.net

Categories
News

Zynga verlässt die Amazon Web Services und geht zurück in die Private Cloud

Mit Spielen wie CastleVille, Mafia Wars und Farmville wurde Zynga bekannt und hat einen wesentlichen Beitrag für die Online-Games Branche geleistet. Die Spiele wurden zunächst auf den Servern der Amazon Web Services (Amazon EC2) betrieben, da im Jahr 2009 die Zugriffe stiegen und mehr Speicher und Geschwindigkeit benötigt wurden. Die jüngsten Entwicklungen haben jedoch gezeigt, dass Zynga auch eine Private Cloud nutzen kann.

Die Statistiken zeigten, dass Zynga maximal ein Drittel der EC2 Server benötigt, die sie aktuell nutzen. Das mag im ersten Moment überraschend klingen. Aber während der diverser Tests stellte sich heraus, dass Zynga maximal eine virtuelle Maschine (VM) pro Server, wie es auf EC2 der Fall ist, benötigt. Der Vorteil der Private Cloud besteht darin, dass Zynga ihre zCloud Server auf die eigenen Bedürfnisse modifizieren und so für den Einsatz optimieren kann.

Dazu gehören die Optimierung der “Gaming Roles” und deren Zugriff auf die Datenbank und die Software-Infrastruktur sowie die Maximierung der Webserver und der verbesserten Ausführung der Spiellogik im Cloud-Framework. Diese neuen Entwicklungen und Veränderungen wurden während der letzten CloudConnect in Santa Clara, Kalifornien vorgestellt.

Das zCloud Konzept war das Ergebnis von mehr als sechs Monaten Software Design und Entwicklung von Zyngas Ingenieuren. Für Zynga war es ein logischer Schritt auf eine eigene Cloud-Infrastruktur zu setzen. Der Anfang auf der Amazon Cloud gab ihnen zunächst die Möglichkeit die rasant wachsende Nachfrage schnell zu befriedigen. Nach dem Start von Farmville wurden innerhalb von 5 Monaten 25 Millionen Spieler erreicht. Das wäre am Anfang mit einer eigenen Infrastruktur nicht zu schaffen gewesen.

Castle Ville war das erste Spiel das alleine auf der zCloud ausgerollt wurde. Mit dem Start wurden innerhalb von sechs Tagen ca. 5 Millionen Nutzer erreicht. Die zCloud arbeitet mit energieeffizienten Servern, die ähnlich dem Open Compute Project von Facebook sind. Die zCloud wurde entwickelt, um die Anforderungen auf das Cloud-Gaming-fokussierter Anwendungen zu erfüllen, wie bspw. der Bedarf an Speicher, CPU, I / O sowie weiterer Spielelemente und Anwendungen.

Zynga hat sich darüber hinaus auf die Entwicklung performanter Speichersysteme konzentriert, damit die Webserver auch starken Internetverkehr durch die Firewalls und Loadbalancer effizient transportieren können. Zudem wurden strategische Standorte in der Nähe von Facebook Rechenzentren gewählt.

Zynga sieht sich im Vergleich zu Amazon nun als ein hochpreisiger Sportwagen, wohingegen Amazon sich in der Klasse der viertürigen Limousinen befindet.

Der Weg von Zynga könnte zu einem Vorbild für andere Unternehmen werden, die mehr Kontrolle über ihre Cloud-Plattform gewinnen wollen.

Categories
Services @de

Das AWS Flow Framework

Als Teil des AWS SDK stellt Amazon ebenfalls das AWS Flow-Framework bereit, mit dem Amazon SWF-basierte Anwendungen entwickelt werden können. Dieses Framework bietet diverse Modelle welche die Aufgabekoordinierung hinter Amazon SWF abstrahieren. Das AWS Flow Framework soll dabei helfen Aufgaben zu erstellen und zu orchestrieren sowie die gegenseitigen Abhängigkeiten darstellen. So wird bspw. ein neuer Activity Task mit einer Methode gestartet und Fehler von Nodes können per Exceptions abgefangen werden.

Das AWS Flow Framework übersetzt einen Methodenaufruf automatisch in eine Entscheidung, um den entsprechenden Activity Task zu planen und weist Amazon SWF an, den Task einem Node zuzuordnen. Das Ergebnis des Tasks gibt das Framework ebenfalls als Rückgabewert der Methode zurück. Um die gegenseitige Abhängigkeit von Aufgaben darzustellen, kann einfach der Rückgabewert einer Methode als Parameter für eine andere Methode übergeben werden. Aufrufe solcher Methoden blockieren nicht und das Framework führt diese automatisch aus, wenn alle benötigten Eingabeparameter vorhanden sind. Das Framework erhält dazu Node- und Entscheidungstasks von Amazon SWF, ruft die entsprechenden Methoden im Programm auf und formuliert Entscheidungen, um diese zurück an Amazon SWF zu senden.

Das AWS Flow Framework ist, als Teil des AWS SDK für Java, derzeit nur für Java verfügbar.

Categories
News

AnyCloud der Game-Changer im Cloud Computing?

Der Platform-as-a-Service Anbieter und Gartner Cool Vendor 2011 CloudBees startet seinen neuen Dienst “AnyCloud” und will damit die Cloud Welt auf den Kopf stellen.

Dabei handelt es sich um einen Hybrid PaaS mit der Java Entwickler ihre Anwendungen auf den Public Clouds der Anbieter als auch auf den eigenen Private Clouds ausrollen können.

Laut CloudBees werden Java-Entwickler oft als gut etablierte Unternehmen wahrgenommen, die über traditionelle on Premise Stacks verfügen. AnyCloud richtet sich daher eher an kleinere Unternehmen und Startups, die deutlich agiler agieren (können).

Mit AnyCloud erhalten Entwickler die Flexibilität ihre Anwendungen über mehrere Rechenzentren hinweg zu verteilen und zu verwalten. Dazu gehören die Amazon Web Services (AWS), andere Infrastructure-as-a-Service (IaaS) Anbieter sowie Managed Services Anbieter und eigene Private Cloud Lösungen eines Unternehmens.

Categories
Analysen

Amazon Web Services vs. Microsoft Windows Azure – Ein direkter Vergleich

Viele Unternehmen befinden sich derzeit in der Evaluation von Public Cloud Services wie IaaS. Die ersten Gedanken streifen dann die beiden großen und vermeintlich bekanntesten Anbieter in der Szene – die Amazon Web Services und Microsoft Windows Azure.

Beide verfügen mittlerweile über ein sehr umfangreiches und stetig wachsendes Angebot an Cloud Services. Möchte man beide Portfolios jedoch miteinander vergleichen steigen die Herausforderungen mit der Anzahl der Services.

Amazon Cloud vs. Windows Azure

Die folgende Tabelle stellt das Cloud Service Portfolio 1:1 gegenüber und schafft Klarheit, wer in welchem Bereich was anbietet, wie der Name des jeweiligen Service lautet und unter welcher URL weitere Informationen zu diesem zu finden sind.

Funktion

Amazon Web Services

Microsoft Windows Azure

Rechenleistung

Virtuelle Maschinen Elastic Compute Cloud Role Instances
High Performance Computing Cluster Compute Instances HPC Scheduler
MapReduce Elastic Map Reduce Hadoop on Azure
Dynamische Skalierung Auto Scaling Auto Scaling Application Block

Speicher

Unstrukturierter Speicher Simple Storage Service Azure Blob
Flexible Entities SimpleDB Azure Tables
Block Level Storage Elastic Block Store Azure Drive
Archivierung Amazon Glacier
Stroage Gateway AWS Storage Gateway

Datenbanken

RDBMS Relational Database Service SQL Azure
NoSQL DynamoDB Azure Tables

Caching

CDN CloudFront CDN
In-Memory ElastiCache Cache

Netzwerk

Load Balancer Elastic Load Balancer Fabric Controller / Traffic Manager
Hybrid Cloud Virtual Private Cloud Azure Connect
Peering Direct Connect
DNS Route 53

Messaging & Anwendungen

Async Messaging Simple Queue Service Azure Queues
Push Notifications Simple Notification Service Service Bus
Bulk Email Simple Email Service
Workflows Amazon Simple Workflow Service
Suche Amazon CloudSearch

Monitoring

Ressourcen Monitoring CloudWatch System Center

Sicherheit

Identitätsmanagement Identity Access Management Azure Active Directory

Deployment

Ressourcenerstellung CloudFormation
Web Application Container Elastic Beanstalk Web Role
Categories
News

Cloudscaling veröffentlicht einen AWS-Clone auf Basis von OpenStack als Private Cloud Plattform für Unternehmen

Auf Basis von OpenStack hat der US-amerikanische Cloud-Anbieter Cloudscaling eine Plattform veröffentlicht, mit der Unternehmen sich eine eigene Private Cloud aufbauen können.

Hierbei ist Cloudscaling nicht der erste Anbieter der den OpenStack Weg geht. Bereits im vergangenen November hatte Rackspace ein ähnliches Angebot veröffentlicht.

Die neue Plattform – Cloudscaling OCS – integriert das Open Cloud OS, welches vollständig auf OpenStack basiert und Verwaltungs-und Sicherheitsfunktionen umfasst. Darüber hinaus stehen dem Kunden neben kompletten Hardware Blueprints ebenfalls detaillierte Hardware-Konfigurationen für Rechen-, Speicher und Netzwerk-Umgebungen zur Verfügung.

Nach eigenen Angaben hat sich Cloudscaling mit dem neuen Angebot das Ziel gesetzt, eine AWS ähnliche Cloud bereizustellen, mit der sich Kunden eine Private Cloud nach den eigenen Wünschen und Bedürfnissen aufbauen können.