Categories
Tutorials @de

Eucalyptus: Arbeiten mit Walrus

Bei Walrus handelt es sich um den Speicherdienst von Eucalyptus, dessen Schnittstelle zu den Simple Storage Services (S3) von Amazon kompatibel ist. Mittels Walrus können Daten persistent in Buckets und Objekten gespeichert und verwaltet werden.

Für die Verwaltung der Eucalytpus Virtual Machine Images innerhalb von Walrus – also dem Speichern, Registrieren und Löschen – können die offiziellen Amazon Tools genutzt werden. Es existieren aber auch Tools von Drittanbietern die in diesem Artikel vorgestellt werden.

S3 curl

S3 Curl kommuniziert mit Walrus, indem Sicherheitsparameter als Curl Header hinzugefügt werden. Mit S3 Curl stehen Funktionen zum Erstellen, Löschen und Auflisten der Buckets, sowie dem Hoch- und Herunterladen von Objekten und der Verwaltung von Zugriffsrechten zu Verfügung.

Für die Nutzung von S3 Curl wird das “perl-Digest-HMAC package” benötigt. Weiterhin muss in der s3curl.pl der Hostname des “Endpoints” z.B. wie folgt angepasst werden.

my @endpoints = ( 's3.amazonaws.com' );

nach

my @endpoints = ( 'your-host' );

Bei “your-host” handelt es sich um die IP-Adresse bzw. dem Hostnamen auf dem Walrus ausgeführt wird. Für die Authentifizierung ist es notwendig, dass es sich bei “your-host” um den selben Host handelt, der von eucarc für $S3_URL in den Umgebungsvariablen gesetzt wurde.

Beim Anpassen der s3curl.pl darf nur der Hostname, aber nicht die Portnummer oder ein Pfad angegeben werden. Es sollte also nur abc.de und nicht abc.de:8773/services/Walrus verwendet werden!

Bevor die nachfolgenden Befehle ausgeführt werden, sollte sichergestellt sein das “eucarc” eingebunden ist.

~/.euca/eucarc

Dann kann es losgehen. Zunächst wird der Access Key sowie der Secret Key des Amazon Accounts benötigt. An dieser Stelle wäre es vorteilhaft, diese Daten in die “.s3curl” Konfigurationsdatei zu schreiben.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY

Zum Erstellen eines Buckets nutzen wir den nachfolgenden Befehl. Dabei entspricht “bucketName” dem Namen des Buckets der erstellt werden soll.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --put /dev/null -- -s -v $S3_URL/bucketName

Ein Objekt wird mit dem folgenden Befehl erstellt/hochgeladen (put), wobei “objectName” dem Namen des Objekts entspricht, das erstellt werden soll.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --put -- -s -v $S3_URL/bucketName/objectName

Für die Abfrage der MD5 Checksumme, sowie die Größe und das Datum der letzten Änderung an einem Objekt, nutzen wir diesen Befehl.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --head -- -s -v $S3_URL/bucketName/objectName > object.head

cat object.head

Hiermit laden (get) wir ein Objekt.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --get -- -s -v $S3_URL/bucketName/objectName > object

Ein Objekt kann wie folgt gelöscht werden.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --del -- -s -v $S3_URL/bucketName/objectName

Einen Bucket löschen wir mit diesem Befehl. An dieser Stelle ist zu beachten, dass Buckets vollständig leer sein müssen, bevor sie gelöscht werden können.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --del -- -s -v $S3_URL/bucketName

Die Zugriffssrechte für einen Bucket erhalten wie folgt.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --get -- -s -v $S3_URL/bucketName?acl | xmlindent > bucket.acl

Der Inhalt eines Buckets wird mit diesem Befehl angezeigt.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --get -- -s -v $S3_URL/bucketName | xmlindent > bucket.list

Eine Liste aller Buckets von einem Benutzer kann so angezeigt werden.

s3curl.pl --id $EC2_ACCESS_KEY --key $EC2_SECRET_KEY --get -- -s -v $S3_URL | xmlindent > bucketlisting

S3cmd

Mit S3cmd können Daten in Amazon S3 hoch- und heruntergeladen sowie verwaltet werden. Es eignet sich darüber hinaus gut für Skripte und automatisierte Backups die von cron gesteuert werden.

Installation

Zunächst wird python und python-openssl benötigt.

Nach dem Herunterladen und Entpacken von S3cmd muss der Patch unter dem Dateinamen s3cmd-0.9.8.3.patch abgespeichert werden.

Das S3cmd Verzeichnis muss in s3cmd-0.9.8.3 umbenannt und der Patch mittels patch -p1 < s3cmd-0.9.8.3.patch hinzugefügt werden.

Konfiguration

Nun muss eine Konfigurationsdatei mit dem Namen s3cfg.walrus für Walrus erstellt werden, für die folgende Beispielkonfiguration genutzt werden kann.

[default]
access_key = ACCESSKEY
acl_public = False
bucket_location = US
debug_syncmatch = False
default_mime_type = binary/octet-stream
delete_removed = False
dry_run = False
encrypt = False
force = False
gpg_command = /usr/bin/gpg
gpg_decrypt = %(gpg_command)s -d --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s
gpg_encrypt = %(gpg_command)s -c --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s
gpg_passphrase =
guess_mime_type = False
host_base = localhost:8773
host_bucket = localhost:8773
service_path = /services/Walrus
human_readable_sizes = False
preserve_attrs = True
proxy_host =
proxy_port = 0
recv_chunk = 4096
secret_key = SECRET
send_chunk = 4096
use_https = False
verbosity = WARNING

Als Beispielkonfiguration für Amazon S3 kann die folgende verwendet werden.

[default]
access_key = ACCESSKEY
acl_public = False
bucket_location = US
debug_syncmatch = False
default_mime_type = binary/octet-stream
delete_removed = False
dry_run = False
encrypt = False
force = False
gpg_command = /usr/bin/gpg
gpg_decrypt = %(gpg_command)s -d --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s
gpg_encrypt = %(gpg_command)s -c --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s
gpg_passphrase =
guess_mime_type = False
human_readable_sizes = False
preserve_attrs = True
proxy_host =
proxy_port = 0
recv_chunk = 4096
secret_key = SECRET
send_chunk = 4096
simpledb_host = sdb.amazonaws.com
use_https = False
verbosity = WARNING

Nutzung von S3cmd

Erstellen eines Bucket.

s3cmd -c s3cfg.walrus mb s3://testbucket

Löschen eines Bucket.

s3cmd -c s3cfg.walrus rb s3://testbucket

Auflisten aller Buckets.

s3cmd -c s3cfg.walrus ls

Den Inhalt eines Buckets anzeigen.

3cmd -c s3cfg.walrus ls s3://testbucket

Ein Objekt hochalden (put).

s3cmd -c s3cfg.walrus put s3://testbucket

Ein Objekt laden (get).

s3cmd -c s3cfg.walrus get s3://testbucket/

Löschen eines Objekts.

s3cmd -c s3cfg.walrus del s3://testbucket/

Quelle

Categories
Grundlagen

Ubuntu Enterprise Cloud Terminologie

Bei dem Einsatz der Ubuntu Enterprise Cloud (UEC) wird eine eigene Terminologie verwendet, die für das Verständnis und dem Umgang doch wichtig ist. Dieses Glossar fasst alle notwendigen Begriffe und ihre Bedeutung zusammen.

Cloud
Ein Verbund von physikalischen Maschinen, die mit Hilfe von virtuellen Maschinen Rechnerressourcen dynamisch bereitstellen und “wieder einsammeln”.

Cloud Controller (CLC)
Komponente von Eucalyptus die eine Weboberfläche (HTTPS Server auf Port 8443) bereitstellt und die Amazon EC2 API implementiert. Es sollte maximal einen Cloud Controller für eine UEC Installation geben. Der CLC wird durch das Ubuntu Package eucalyptus-cloud zur Verfügung gestellt.

Cluster
Ein Verbund von Nodes, die einem Cluster Controller zugeordnet sind. Dabei kann es mehr als einen Cluster in einer UEC Installation geben. Cluster bestehen in einigen Fällen aus physikalisch räumlich voneinander getrennten Nodes.

Cluster Controller (CC)
Eine Eucalyptus Komponente die für die Verwaltung der Node Ressourcen zuständig ist. Der CC wird durch das Ubuntu Package eucalyptus-cc zur Verfügung gestellt.

EBS
Elastic Block Storage

EC2 – Elastic Compute Cloud
Amazons Public Cloud Computing Angebot auf Basis von virtuellen Servern, bei dem die Abrechnung pro Stunde bzw. pro Gigabyte erfolgt.

EKI
Eucalyptus Kernel Image

EMI
Eucalyptus Machine Image

ERI
Eucalyptus Ramdisk Image

Eucalyptus
Elastic Utility Computing Architecture for Linking Your Programs To Useful Systems.
Bei Eucalyptus handelt es sich um ein Open Source Projekt, welches ursprüglich an der University of California in Santa Barbara entwickelt wurde und mittlerweile durch Eucalyptus Systems unterstützt wird.

Front-end
Ein oder mehrere physikalische Server, auf denen die Eucalytpus Komponenten (cloud, walrus, storage controller, cluster controller) ausgeführt werden.

Node
Bei einem Node handelt es sich um eine phyiskalische Maschine, die in der Lage ist virtuelle Maschinen und einen Node Controller auszuführen. Innerhalb von Ubuntu bedeutet dies, dass eine CPU die VT Erweiterung unterstützt und den KVM Hypervisor ausführen kann.

Node Controller (NC)
Eine Eucalyptus Komponente die auf den Nodes ausgeführt wird, welche die virtuellen Maschinen beherbergen die wiederum der Cloud zugeordnet sind. Der NC wird durch das Ubuntu Package eucalyptus-nc zur Verfügung gestellt.

S3 – Simple Storage Service
Amazons Public Cloud Computing Angebot für das Speichern der EC2- und anderer Daten, bei dem die Abrechnung pro Gigabyte erfolgt.

Storage Controller (SC)
Eine Eucalyptus Komponente die zur Verwaltung des dynamic block storage services (EBS) dient. Jeder Cluster innerhalb einer Eucalyptus Installation kann seinen eigenen Storage Controller besitzen. Der SC wird durch das Ubuntu Package eucalyptus-sc zur Verfügung gestellt.

UEC
Ubuntu Enterprise Cloud
Ubuntu’s Cloud Computing Lösung auf der Basis von Eucalyptus.

VM
Virtual Machine

VT
Virtualization Technology
Moderne CPUs unterstützen diese Funktion, um die Arbeit (das Hosting) mit den virtuellen Maschinen zu beschleunigen.

Walrus
Eine Eucalyptus Komponente welche die Amazon S3 API implementiert und dafür benötigt wird, die Images der virtuellen Maschinen, sowie die Daten der Benutzer in S3 Buckets mittels put/get zu speichern.

Categories
Analysen

Cloud Computing Nutzen: Content bereitstellen

Unternehmen stehen vor der Herausforderung Inhalte wie Bilder, Videos oder sonstige Downloads auf Ihren Webseiten den Kunden hochperformant und zuverlässig bereitzustellen. Eine Möglichkeit dieses zu realisieren ist das Erhöhen des Durchsatzes sowie die Verringerung der Latenz innerhalb des Netzwerks.

Mittels eines Content Delivery Network (CDN), in welchem die Inhalte auf sogenannten Edge-Servern gespeichert werden und die sich in einem Rechenzentrum dass sich möglichst nah am Benutzern befinden, können Teile der oben genannten Anforderungen erfüllt werden. Zusätzlich können Algorithmen verwendet werden, welche die Inhalte zum Zeitpunkt der Anfrage auf die Server in der Nähe des Benutzers kopieren, wodurch die Leistung weiter erhöht wird.

Soll ein Content Delivery Network eines Anbieters eingesetzt werden, muss zunächst die Zuverlässigkeit und die Größe/Reichweite des Netzwerks bestimmt werden. Weiterhin ist die Kompatibilität und Integrationsmöglichkeit mit den eigenen zu veröffentlichen Ressourcen zu klären.

Neben den technischen Anforderungen sind ebenfalls die vertraglichen Rahmenbedingungen zu prüfen. Mit welchen Kosten muss gerechnet werden. Existieren Mindestgebühren die monatlich gezahlt werden müssen? Entstehen Kosten für die erstmalige Einrichtung und werde ich mich für einen längeren Zeitraum vertraglich binden müssen? Wie ist der Zeithorizont vom Vertragsbeginn bis erstmalig die Inhalte eingestellt werden können? Passt sich der Anbieter/ das System meinen Anforderungen an, wenn diese sich ändern – erfolgt also eine bedarfsabhängige Abrechnung?

Categories
Literatur

Buch – Cloud Computing: Assessing Azure, Amazon EC2, Google App Engine…

Titel: Cloud Computing: Assessing Azure, Amazon EC2, Google App Engine and Hadoop for IT Decision Making and Developer Career Growth

Autor: Paul Fisher, Rajiv Pant, Jeremy Edberg

Beschreibung:
“This book is an industry-leading primer on cloud computing: its background, the purpose it serves, how the cloud can be best utilized, which platforms offer which features, and how to get started. Cloud computing is one of today’s most interesting technologies, but remains a bit mercurial and mysterious. It can mean a lot of different things to different people. By tracing several real-world scenarios—from the requirement gathering through the design, coding, and deployment phases—this book will give you a clear understanding of what it takes to build and deploy a successful, scalable application that leverages cloud computing platforms and tools.

Furthermore, this book emphasizes the critical differences between legacy IT approaches, and explains the methodologies and features available through a cloud-based model. Frameworks and tools such as Amazon EC2, Azure, Google App Engine, Hadoop, CouchDB, Memcache, and JavaSpaces are introduced, illustrating how each technology is best utilized within the context of cloud computing.

In the end, this book clears the air and empowers you—whether you’re an IT decision maker or a career progression–minded developer—with the information and knowledge necessary to fully consider the implications of migrating to, developing, and/or using cloud-driven applications.

What you’ll learn

  • How to take the vagueness out of cloud computing
  • The core concepts and considerations of cloud computing
  • When and when not to go to the cloud
  • How to weigh the varying factors that go into ROI-based decisions of going into the cloud
  • How to use various cloud computing platforms such as Amazon, Azure, and Google App Engine
  • How to use cloud-based techniques and strategies

Who is this book for?
This book is intended for anyone interested in the shift currently occurring in the IT industry, in which IT resources and CPU utilization are becoming standard commodities. This book covers both general theoretical concepts and hands-on, real-world examples—targeting this book to both businesspeople and developers alike.”

Bestellmöglichkeit: Amazon

Cover:

Categories
Videos

Video: WordPress Daten bei Rackspace speichern lassen

Dieses Video zeigt, wie WordPress Daten automatisch bei Rackspace gespeichert werden können.

via YouTube

Categories
Analysen

Cloud Computing – Eine Reflexion

Die grundlegenden Ideen und Konzepte des Cloud Computing reichen bis in die 1960er zurück. Schon damals wurde die Idee entwickelt Rechenleistung und Anwendungen als Utility der Öffentlichkeit gegen eine Nutzungsgebühr bereitzustellen. Dass der Durchbruch erst heute bevorsteht, hängt mit den technischen Voraussetzungen zusammen, die zur damaligen Zeit einfach noch nicht gegeben waren.

Cloud Computing symbolisiert den service- und anwendungsorientierten Trend der heutigen Informationstechnologie, bei dem verteilte und hoch skalierbare Infrastrukturen über das Internet adaptiert werden können und Anwendungen und Dienste an jedem Ort und zu jeder Zeit verfügbar sind.

Unternehmen können durch den Einsatz von Cloud Computing ihre IT-Gesamtausgaben deutlich reduzieren und die Qualität, Sicherheit aber vor allem ihre Arbeitsabläufe messbar steigern. Cloud Computing Anbieter können Skaleneffekte nutzen, indem sie ihre Kosten über eine große Anzahl von Kunden verteilen und haben damit die Möglichkeit die Investitionen in den Betrieb und die Sicherheit (Daten- und Zugangssicherheit) ihrer Rechenzentren im Vergleich zu herkömmlichen Rechenzentrums Betreibern zu erhöhen.

Ob sich der Ansatz der Public Cloud durchsetzen wird, hängt von dem Bewusstsein jedes einzelnen zum Thema Datensicherheit(!) ab. Es werden sich mit hoher Sicherheit hauptsächlich hybride Varianten aus Private Cloud und Public Cloud durchsetzen. Unternehmen werden für unternehmenskritische Daten ihre eigenen ’kleinen’ Rechenzentren (Private Cloud) betreiben und weitergehende Dienste und Anwendungen aus einer Public Cloud beziehen. Für Startups kann zu Beginn der Nutzen einer Public Cloud von besonderem Interesse sein. Die Kosten sind leicht zu kalkulieren und die IT-Infrastruktur wächst dynamisch mit dem Unternehmen.

Vor dem Hintergrund, dass die meisten Anbieter von Cloud Computing Diensten ihre eigenen Standards innerhalb der Infrastrukturen einsetzen, sind für die Zukunft noch Fragen offen, die geklärt werden müssen. Wie komme ich aus der Cloud wieder zurück? und Wie wechsel ich von der Cloud eines Anbieters in die Cloud eines anderen Anbieters? Das zeigt, dass offene Standards signifikant für die Akzeptanz und Weiterentwicklung des Cloud Computing sind.

Zu guter Letzt müssen auch die Internetprovider und Telekommunikationsanbieter sich verpflichtet fühlen ihren Teil zum Erfolg des Cloud Computing beizutragen. Sind die aktuellen Angebote für Unternehmen sehr attraktiv, haben private Anwender fast keine Möglichkeit Dienste, wie z.B. Cloud Storage (Speicherplatz im Internet) in Anspruch zu nehmen. Die Uploadraten herkömmlicher Internetanschlüsse sind für diese Art von Dienst einfach zu langsam und können und werden dadurch auch nicht genutzt werden. Bessern die Anbieter in diesem Sektor ihre Angebote im Hinblick auf die Technik und den Preis nicht nach, besteht die Möglichkeit, dass wir im Privatbereich dieselbe Problematik erleben werden wie in den 1960er.

Categories
Services @de

Zenoss – Open Source IT Management

Zenoss ist eine Open Source IT-Management Suite, mit der die Konfiguration, der aktuelle Zustand, sowie die Performance des Netzwerks, der Server und Applikationen von einer zentralen Stelle aus verwaltet werden können.

Categories
Services @de

Microsoft Intune

Mit Windows Intune stellt Microsoft einen Cloud Service vor, mit dem Unternehmen ihre Computer von einer zentralen webbasierten Konsole aus verwalten und schützen können. Damit kann die Administration aller Rechner von jedem Ort aus erfolgen und Updates sowie Service Packs zentralisiert überwacht und gesteuert werden. Mittels der Malware Protection lassen sich die PCs zusätzlich schützen.

Weiterhin kann ein Administrator mittels einer Remote Konsole den Benutzern aus der Ferne helfen und Hardware und Software inventarisieren.

Ideale Einsatzbereiche für Microsoft Intune sind die Verwaltung und Konfiguration der Systeme von Road Warrior und Consultants, die ständig unterwegs sind und ihre Arbeitsplätze an wechselnende Orten und unteschiedlichen Kunden haben. Ebenso ist die Verwaltung großer IT-Landschaften mit verschiedenen PC Konfigurationen ein Einsatzgebiet von Microsoft Intune.

Funktionen

Updateverwaltung
Zentrale Verwaltung und Bereitstellung der Microsoft Updates und Service Packs für alle inventarisierten PCs.

Schutz vor Malware
Zentraler Schutz der gesamten PC-Umgebung auf Basis der Microsoft Malware Protection Engine, Microsoft Forefront® Endpoint Protection und Microsoft Security Essentials.

Proaktive Überwachung
Automatische Benachrichtigung bzgl. Updates und Bedrohungen für proaktive Aktivitäten, um Probleme bereits im Vorfeld zu identifizieren und zu lösen, bevor die Benutzer bzw. das Business davon direkt betroffen sind.

Remote Unterstützung
Unterstützung der Benutzer von jedem Ort zu jeder Zeit via remote Unterstützung, egal wo sich der Benutzer bzw. der Administrator gerade befindet.

Inventarisierung
Zentrale Inventarisierung der gesamten Hard- und Software Umgebung zur Verwaltung aller Lizenzen und Endgeräte für einen genauen Überblick und der Sicherstellung der Compliance.

Verwaltung der Sicherheitsrichtlinien
Zentrale Verwaltung der Einstellungen bzgl. Updates, Firewalls und des Malware Schutzes innerhalb des gesamten Unternehmensnetzwerks.

Quelle

Categories
News

Blitznews: Amazon VPC nun auch in Europa verfügbar

Seit heute haben nun auch die europäischen Nutzer der Amazon Web Services die Möglichkeit, ihre bereits vorhandenen Infrastrukturen – einschließlich der eigenen Sicherheitsrichtlinien, Firewalls, Intrusion Detection Systeme, etc – mittels der Amazon Virtual Private Cloud zu verbinden.

Dadurch wird nicht nur die Netzwerklatenz zwischen der Amazon Cloud und der sich in Europa befindenen Infrastruktur verringert, auch die europäischen Richtlinien bzgl. der Datenspeicherung innerhalb der EU werden damit verbessert.

Quelle: Amazon Web Services

Categories
Management @de

Globales und deutsches Interesse an Cloud Computing (Studie)

Mit Hilfe von Google Insights for Search habe ich eine kleine Auswertung (Stand 01.05.2010) bzgl. des globalen sowie deutschen Interesses zum Thema Cloud Computing vorgenommen. Die Auswertung basiert auf der Suche (ab 2004 bis heute) nach dem Begriff Cloud Computing und weiteren Begriffen, die diesen Bereich erweitern.

Grundsätzlich ist in beiden Auswertungen deutlich zu erkennen, dass die ersten Suchanfragen Ende 2006 (weltweit) bzw. Mitte 2007 (Deutschland) stattfanden und das Interesse bis heute stetig gewachsen ist.

Globales Interesse

Die Auswertung der globalen Suchanfragen zeigt deutlich, das speziell der asiatische Raum – mit Abstand Indien – an dem Thema Cloud Computing stark interessiert ist, was wohl unter anderem auf das Dienstleistungs- und Outsourcingangebot indischer Firmen zurückzuführen ist. Erstaunlich hierbei ist, das sich die USA nur auf dem 6. Platz befinden, da die Idee des Cloud Computing schließlich in den USA “geboren” wurde.

Zeitlicher Verlauf

Regionales Interesse

Deutsches Interesse

In Deutschland ist die Verteilung der Suchanfragen bezogen auf den Südwesten der Repulbik relativ ausgeglichen. Spitzenreiter sind hier die Bayern gefolgt von Baden-Württemberg und Hessen. Die hohen Suchanfragen aus dem süddeutschen Raum sind auf den dort stark vertretenden IT-Sektor zurückzuführen. Der Osten der Republik ist dagegen – bis auf Berlin – leider weiterhin weitestgehend wolkenlos.

Zeitlicher Verlauf

Regionales Interesse