Categories
Services @de

Wie Skalierbar ist der cPanel Hosting Service?

Obwohl jedes System über seine physikalischen Grenzen verfügt, was die Skalierbarkeit erschwert, haben die meisten Web Hosting Anbieter den Anspruch unbegrenzte Ressourcen bereitzustellen.

Nur eine Minderheit der Webhoster verwendet dazu allerdings Hochverfügbarkeits-Cluster für ihre Infrastruktur. Die meisten dagegen setzten auf gewöhnliche Stand-Alone Server, wodurch sie über keine Möglichkeit der Skalierbarkeit verfügen. Müssen die Server aufgerüstet werden, zieht das weitere größere Änderungen an den System nach sich. Anbieter die sich auf das Clustering konzentrieren sind deutlich skalierbarer. Sie haben die Möglichkeit bei Bedarf weitere Server ihrere Umgebung hinzuzufügen oder diese wieder zu entfernen, wenn sie nicht mehr benötigt werden.

Dieser Artikel stellt mit Cloud.bg einen Cloud Hosting Service vor, der auf Basis von hoch verfügbaren sowie hoch skalierbaren Linux basierten Web Servern bereitgestellt wird.

Cloud.bg ist derzeit der einzige Shared Cloud Hosting Service, welcher die Webhosting Automationssoftware CPanel innerhalb einer Cloud Computing Umgebung verwendet und basiert auf der Cloud Automation Platform Fuscan Linux Cloud, die ebenfalls schon im cPanel Form “Genuine High Availability, Load-Balanced System for cPanel/WHM” bekanntgegeben wurde.

Verfügt das System über eine hohe Skalierbarkeit?

Das Cloud.bg System verbindet über eine InfiniBand Hochgeschwindigkeitskommunikation diverse Nodes mit einem Shared Storage Area Network. Die gesamte Installation basiert auf der Standard Red Hat Cluster Suite, mit der offiziell 128 Nodes parallel in einem Verbund zusammengeschlossen und betrieben werden können, wobei in der Theorie davon gesprochen wird, dass der Cluster auf bis zu 512 Nodes im Parallelbetrieb skaliert werden kann.

Auf dem gesamten Cluster nutzt Cloud.bg cPanel/WHM und kann damit als “Shared Cloud Hosting” Lösung betrachtet werden. Die Webseiten eines jeden Kunden werden bzgl. der Redundanz über ein Storage Area Network (SAN) repliziert, wobei sich die Ressourcen von mehreren Nodes geteilt werden. Wird ein Server dem System hinzugefügt, entfernt, konfiguriert oder rekonfiguriert, ist sichergestellt, dass alle Dienste kontinuierlich weiterlaufen, ohne die Notwendigkeit ein Betriebssystem zu installieren oder Konfigurationen an den Diensten eines Nodes vorzunehmen.

Weiterhin unterstützt Cloud.bg IP Loadbalancing für cPanel/WHM basierte Webseiten, dabei erkennen die Loadbalancer automatische, wenn eine neue IP Adresse in cPanel hinzugefügt wurde. Der gesamte Loadbalancing Prozess wird als Dienst in der Infrastruktur betrieben, der das Loadbalancing für alle Dienste auf den Webseiten (IP Adressen) der Kunden konfiguriert. Im Fehlerfall eines Servers im System, entfernt der Load-Balancer diesen Server automatisch aus dem Verbund der Nodes. Das gesamte Cloud.bg System verfügt des Weiteren mit einem transparenten Service Failover auf der Softwareebene als auch auf der Hardwareebene mit einem Strom- und Clusterverbund über ein Redundanz-System.

Angebot

Shared Cloud Hosting

Mit der sCloud (Shared Cloud) bietet Cloud.bg einen Premium Hosting Service mit folgenden Leistungen an:

  • 100 GB repliziertes SAN Storage
  • 1000 GB monatlicher Inklusiv-Traffic
  • Cloud Analytics
  • cPanel/WHM Oberfläche
  • Jedes weitere Gigabyte (1GB) SAN Storage kostet €0.20 ($0.24).
  • Jedes weitere Gigabyte (1GB) Datentransfer kostet €0.03 ($0.036).

Reseller Cloud Hosting

Ein weiteres Angebot von Cloud.bg ist das Reseller Cloud Hosting. Damit haben Reseller die Möglichkeit, mit dem cPanel Web Hosting Manager ihre Accounts innerhalb der Cloud zu verwalten. Das Angebot mit dem namen Rcloud bietet 100 GB SAN Storage, sowie 2000 GB monatlichen Inklusiv-Traffic und erlaubt Resellern das Hosting von 200 Webseiten, die Nutzung eigener Name Server sowie den Zugriff auf die Fantastico Software Bibliotheken.

Categories
Services @de

ScaleUp Technologies

ScaleUp ist das IT-Kraftwerk, welches Unternehmen genau die benötigten Server-Ressourcen zur Verfügung stellt: So einfach, wie Strom aus der Steckdose. Hochverfügbar, skalierbar und sicher. ScaleUp ermöglicht es Kunden, komplette Server-Infrastrukturen am Bildschirm zu entwerfen, in Betrieb zu nehmen und in Echtzeit zu skalieren.

ScaleUp bietet mehr als herkömmliche virtuelle Server und Storagekapazitäten. Virtuell können nahezu alle Komponenten eines echten Rechenzentrums in der Cloud abgebildet und bereitgestellt werden. Dazu gehen die Technologien weit über die seit einigen Jahren gängigen Virtualisierungskonzepte hinaus. ScaleUp ermöglicht traditionellen Enterprise-Rechenzentren eine direkte Migration in das On Demand-Modell – ohne Veränderungen an vorhandenen Anwendungen und bewährten Infrastruktur-Layouts.

3Tera AppLogic Partner

Auf den Servern im Rechenzentrum setzt ScaleUp AppLogic als Grid (Cloud)-Betriebssystem ein. Das Betriebssystem verbindet alle Server zu einem einzigen Grid und ermöglicht die automatische Verteilung von Workloads über die gesamte Plattform hinweg, wodurch eine optimale Auslastung der Serverressourcen erreicht wird.

internet4YOU

ScaleUp Technologies ist ein Spin-Off der internet4YOU GmbH & Co. KG, ein in Deutschland ansässiger Internet Service Provider für dedizierte Server- und Hosting-Lösungen. Strategischer Fokus von internet4YOU ist die Realisierung und der Betrieb individueller IT-Infrastrukturen für Unternehmen. Mit vier redundanten Rechenzentren werden selbst höchste Anforderungen an die Verfügbarkeit von IT-Systemen erfüllt. Mit einem Team hochqualifizierter IT-Experten liefert internet4YOU seit mehr als 10 Jahren erstklassige Lösungen.

.

Produkte


ScaleUp wird in verschiedenen Varianten angeboten, aus denen gewählt werden kann.

Virtual Dedicated Server (VDS)

Ein VDS ist die virtuelle “Ressourcen effiziente” Alternative zu einem real existierenden Server. Dieser beinhaltet einige besondere Ausstattungsmerkmale, auf die bei Dedicated Server-Angeboten verzichten werden muss.

  • Ein VDS wird mit der exakten Anzahl von Prozessoren, RAM und Storage konfiguriert, welche die Anforderungen auch tatsächlich entsprechen – es besteht keine Notwendigkeit, vorgegebene Konfigurationen zu verwenden.
  • Ein VDS kann sofort hochgefahren und nach Auftragserteilung innerhalb von Minuten benutzt werden.
    Sollten sich die Anforderungen ändern, können die zugewiesenen Ressourcen jederzeit ganz einfach durch Verändern der Leistungsparameter angepasst werden.
  • Vollständige Hardware-Redundanz ist ohne zusätzliche Kosten enthalten. Sollte der Hardware Node, auf der Ihr VDS läuft, ausfallen, wird eine Replikation der Instanz automatisch auf einer anderen Maschine gebootet. Keine Probleme oder Ausfallzeiten mehr.

Virtual Application Server (VAS)

Viele der heutigen Anwendungen bestehen aus einem Paket von Diensten im Hintergrund, die idealerweise jeweils auf einem eigenen Dedicated Server laufen sollten. Beispielsweise beinhaltet eine typische Website-Anwendung eine Firewall, den Webserver selbst und einen Datenbank-Server. Deshalb bietet ScaleUp nicht nur einzelne virtuelle Server, sondern einfach zu bedienende und vollständig vorbereitete virtuelle Applikationsinfrastrukturen, mit der Möglichkeit komplette virtuelle Datenzentren zu betreiben.

  • VAS sind sofort nutzbare Anwendungen wie Webserver, Blogs, Wikis und mehr.
  • Sogar komplexe Anwendungen werden on Demand bereitgestellt und können nach Auftragserteilung innerhalb von Minuten benutzt werden.
  • VAS passen sich stets den Quality of Service-Anforderungen an. Dies wird durch eine flexible Ressourceneinstellung jeder einzelnen Anwendung ermöglicht. ScaleUp bietet eine manuelle, zeitgesteuerte und automatische Skalierungsfunktionen, die dabei unterstützt, Benutzern eine gleichbleibende Servicequalität zu liefern.

Cloud Storage

Seit dem 30. Juni 2010 bietet ScaleUp eine deutsche Cloud Storage Lösung, die im Rechenzentrum in Berlin gehostet wird, an. Dieses neue Angebot ermöglicht die Vorteile niedriger Kosten und hoher Flexibilität mit dem sicheren Gefühl, dass die Daten in Deutschland gehostet werden und der Kunde mit einem deutschen Anbieter zusammenarbeitet.

Die wesentlichen Punkte des Cloud Storage im Überblick:

  • EU-konform: Daten verbleiben in ScaleUp’s Cloud Data Center in Berlin
  • Kompatibel mit der bekannten S3 storage API
  • Flexibel & kosteneffizient – Nur 0,10 € / GB pro Monat (exkl. MwSt.)
  • ScaleUp Manager für Privatsphäre und Sicherheit verfügbar für “Compliance”-Beratung

Professional Services

Selbst individuelle und komplexe Anwendungen sind bei ScaleUp in guten Händen.

  • Um die Vorteile von ScaleUp nutzen zu können, bedarf es in den meisten Fällen keinerlei Änderungen der bestehenden Anwendungen.
  • Das Team von IT-Experten bietet eine umfassende Beratung und begleitet den gesamten Migrationsprozess zu einem virtuellen Pendant der vorhandenen und bewährten Infrastruktur.

.

Weitere Informationen


Categories
Services @de

ScaleUp Technologies kündigt sichere Cloud Storage Lösung mit deutschem Serverstandort an.

In Deutschland betriebene Storage Lösung für nur 0,10 € / GB pro Monat – Günstiger als Amazon S3

(Berlin, Deutschland – 30. Juni 2010) ScaleUp geht mit einer in Deutschland betriebenen sicheren Cloud Storage Lösung an den Markt. Die Lösung ähnelt dem S3 von Amazon und wird im ScaleUp Cloud Rechenzentrum in Berlin gehostet. Dieses neue Angebotsspektrum ermöglicht es den Kunden von ScaleUp von den niedrigen Kosten und der Flexibilität des Cloud Storage zu profitieren, das sogar mit dem bekannten S3 API kompatibel ist, ohne dass jedoch die Daten Deutschland je verlassen. Zugleich genießen die Kunden den Komfort eines Providers mit deutschem Standort.

Als erster Cloud Computing Provider, der in Deutschland an den Markt geht, versteht ScaleUp Technologies das Bedürfnis deutscher Kunden nach Privatsphäre und Sicherheit besser als die meisten im Ausland ansässigen Anbieter. Im Verlauf des vergangenen Jahres hat das Unternehmen während des Aufbaus seines Cloud-Dienstleistungsangebotes daran gearbeitet, eine vollständige Einhaltung des Bundesdatenschutzgesetzes bzw. BDSG zu gewährleisten.

In dem Bestreben eine neue Vertrauensbasis beim Thema Cloud Computing und Cloud Storage zu schaffen, wird ScaleUp mit Sicherheitsexperten zusammenarbeiten, um die Einhaltung aller Vorgaben zum Thema Privatsphäre und Sicherheit zu gewährleisten. Laut Scott Sanchez, Fachmann zum Thema Privatsphäre und Sicherheit im Cloud Computing, müssen “Unternehmen, denen Sicherheit, Privatsphäre und Compliance wichtig sind, einen Provider finden, der nicht nur Behauptungen anstellt oder schlicht sagt “Vertrauen Sie uns”, sondern der wirklich die erforderliche Transparenz bietet, die nicht nur die Prüfer zufrieden stellt, sondern auch Sie selbst nachts ruhig schlafen lässt”. Herr Sanchez geht noch weiter und erklärt: “Letztlich liegt die Verantwortung für eine sichere und rechtskonforme Datenspeicherung in den Händen der Datenbesitzer und nicht in denen der Cloud Provider. Allerdings werden jene Provider langfristig am Erfolgreichsten sein, die mit ihren Kunden beim Thema Sicherheit und Compliance Hand in Hand arbeiten – und damit die Cloud Plattform unter der selben Prämisse und mit gemeinsamen Zielsetzungen aufbauen und betreiben.”

ScaleUp hat über mehrere Monate hinweg Speichertechnologien von Providern überprüft, bevor die Entscheidung auf Scality fiel, dem Entwickler von hoch skalierbarer Objektspeichersoftware für Email- und Cloud Storage Anwendungen.

“Das Technik- und Expertenteam von Scality gab uns das gute Gefühl, dass wir mit ihnen den Sicherheitsanforderungen für unser Speicherangebot gerecht werden können”, sagt Christoph Streit, CTO & Mitbegründer von ScaleUp. „Und diese Partnerschaft erlaubt uns zudem die ScaleUp Storage Lösung für nur 0,10 € pro GB pro Monat ** anzubieten – günstiger sogar als Amazon S3 mit einem vergleichbaren Service.“

Für weitere Informationen besuchen Sie bitte http://lp.scaleupcloud.com/secure-cloud-storage-de.

** exkl. 19% MwSt.

Über ScaleUp

ScaleUp Technologies ist ein Cloud Computing Provider, der äußerst flexible öffentliche, private und hybride Cloud Infrastrukturen für expandierende Unternehmen anbietet. ScaleUp hat seinen Standort in Deutschland – mit Augenmerk auf die Bedürfnisse deutscher und europäischer Kunden – und bietet eine globale Infrastruktur, die mittels eines globalen Cloud Netzwerks skaliert wird. www.scaleupcloud.com

Über Scality

Scality hat eine hoch skalierbare Speicherungsplattform entwickelt, die eine deutlich einfachere Anwendungsimplementierung zu einem Bruchteil der Kosten konventioneller Speicherungen ermöglicht. Als Software-Lösung kann Scality sowohl für Email-Lösungen von Kabel- oder Telekommunikationsanbieter eingesetzt werden oder auch als System, das Cloud Storage Dienstleistungen für Hostinganbieter oder andere speicherintensive Dienstleistungen ermöglicht und ausbaut. Die Produkte von Scality werden direkt an Internetanbieter, Kabel-, Festnetz- und Mobilfunkbetreiber sowie Hostingfirmen verkauft und über Mehrwert-Vertriebswege abgesetzt. Weitere Informationen finden Sie unter www.scality.com

Categories
Grundlagen Services @de

Der Amazon EC2 Instanzspeicher

Jede Instanz verfügt über eine festen Speicherplatz, auf dem Daten gespeichert werden können. Dieser wird im EC2 Kontext als Instanzspeicher bezeichnet und ist nicht als permanente Speicherlösung gedacht.

Wird eine Instanz neu gestartet, bleiben die Daten auf dem Instanzspeicher bestehen. Wird die Instanz higegen beendet, gestoppt oder ein Fehler tritt auf, dann sind die Daten verloren.

Für den Einsatz einer dauerhaften Speicherlösung empfiehlt Amazon daher Amazon Elastic Block Store.

Sollte Amazon EBS nicht eingesetzt werden, sollten wichtige Daten auf Amazon S3 gesichert werden.

Speicherort

Wo sich der Speicher auf den jeweiligen Instanz Typen befindet, kann der folgenden Tabelle entnommen werden.

Ort
Beschreibung
/dev/sda1 Auf allen Linux/Unix Instanz Typen als root (/) formatiert und gemounted. Auf allen Windows Instanz Typen als C: formatiert und gemounted.
/dev/sda2 oder xvdb (Windows) Auf allen m1.small und c1.medium Instanzen als /mnt formatiert und gemounted. Auf allen small Windows Instanzen formatiert und gemounted.
/dev/sda3 Auf allen m1.small und c1.medium Instanzen für Linux/Unix Instanz Typen als /swap formatiert und gemounted. Für Windows Instanzen nicht verfügbar.
/dev/sdb oderr xvdb (Windows) Auf allen m1.large, m1.xlarge, c1.xlarge, m2.xlarge, m2.2xlarge, und m2.4xlarge Instanzen für Linux/Unix Instanz Typen als /mnt formatiert und gemounted. Für alle m1.large, m1.xlarge, c1.xlarge, m2.xlarge, und m2.2xlarge Windows Instanzen formatiert und gemounted.
/dev/sdc oder xvdc (Windows) Verfügbar auf m1.large, m1.xlarge und c1.xlarge Linux/Unix Instanzen. Auf m1.large, m1.xlarge, c1.xlarge und m2.4xlarge Windows Instanzen formatiert und gemounted.
/dev/sdd or xvdd (Windows) Verfügbar auf m1.xlarge und c1.xlarge Linux/UNIX Instanzen. Auf m1.xlarge und c1.xlarge Windows Instanzen formatiert und gemounted.
/dev/sde or xvde (Windows) Verfügbar auf m1.xlarge und c1.xlarge Linux/Unix Instanzen. Auf m1.xlarge und c1.xlarge Windows Instanzen formatiert und gemounted.

Quelle

Categories
Grundlagen Services @de

Amazon Machine Images (AMI)

Eine Amazon EC2 Instanz kann auf Basis eines Amazon Machine Image (AMI) welches sich in Amazon EBS befindet oder eines AMI welches in Amazon S3 gespeichert ist gestartet werden. Dabei verwenden Instanzen, bei denen die AMIs in Amazon EBS gespeichert sind, EBS Volumes als Root Device (von wo gebooted wird). Dagegen nutzen Instanzen, deren AMIs in Amazon S3 abgelegt sind einen Instanzspeicher als das Root Device.

Die folgende Tabelle beschreibt die Unterschiede zwischen AMIs die in Amazon EBS abgelegt sind und AMIs die sich in Amazon S3 (Instanzspeicher) befinden.

Eigenschaften
Amazon EBS
Amazon S3 (Instanzspeicher)
Bootzeit Gewöhnlich weniger als 1 Minute. In der Regel weniger als 5 Minuten.
Größenbeschränkung 1 Terrabyte (TB) 10 Gigabyte (GB)
Speicherort Amazon EBS volume Instanzspeicher
Datenpersistenz Die Daten bleiben vorhanden, wenn die Instanz ausfällt und können gespeichert werden, wenn die Instanz beendet wird. Die Daten bleiben nur für die Lebensdauer der Instanz erhalten.
Erweiterung Der Instanz-Typ, Kernel, die RAM Disk und die Benuterdaten können geändert werden, während die Instanz gestoppt (angehalten) ist. Die Attribute einer Instanz sind für ihre Lebensdauer festgesetzt und können währenddessen nicht geändert werden.
Kosten Instanz Nutzung, Amazon EBS Volume Nutzung und Amazon EBS Snapshot Kosten zum Speichern der AMI. Instanz Nutzung und Amazon S3 Kosten zum Speichern der AMI.
AMI Erstellung / Bundling Verwendet einen einzigen Befehl / Anweisung Erfordert die Installation und die Nutzung der AMI Tools
Stoppen / Anhalten Kann in den Zustand “angehalten” überführt werden, wenn eine Instanz nicht ausgeführt wird, aber in Amazon EBS gespeichert ist. Kann nicht gestoppt werden, Instanzen werden ausgeführt oder nicht.

Öffentliche AMIs können direkt über Amazon oder die Amazon EC2 Community bezogen werden. Öffentliche AMIs dienen als Basis und können dazu benutzt werden, um eigene maßgeschneidert AMIs zu erstellen.

Private AMIs sind AMIs die einem selbst gehören. Auf diese kann daher nur selbst bzw. von Leuten zugegriffen werden, denen man den Zugriff erlaubt hat.

Shared AMIs werden von Entwicklern erstellt und anderen Entwicklern für die Nutzung zur Verfügung gestellt.

Paid AMIs können von Entwicklern oder Unternehmen wie z.B. RedHat gekauft werden. Es existieren ebenfalls AMIs die an spezielle Serviceverträge gekoppelt sind.

Quelle

Categories
Grundlagen Services @de

Der Amazon EC2 Workflow

Die folgende Graphik verdeutlicht den grundsätzlichen Ablauf zum Verwenden von Amazon EC2.

  • 1. Zunächst wird ein AMI (Amazon Machine Image) von Grund auf neu, oder auf Basis eines bereits vorhandenen AMIs erstellt. Dieser Vorgang ist optional, da Instanzen aus bereits vorhandenen AMIs gestartet werden können, ohne diese vorab zu verändern.
  • 2. Für ein AMI das einen lokalen Instanzspeicher für sein Root Device verwendet, muss der Prozess zum bundlen und registrieren des AMIs erfolgen. Für ein AMI hingegen, dass ein Amazon EBS Volume verwendet, reicht es aus, den create Image Befehl auf einer bereits gestarteten Instanz auszuführen. Amazon EC2 gibt anschließend eine AMI ID zurück, wodurch auf Basis des AMI so viele Instanzen wie gewünscht gestartet werden können.
  • 3. Starten einer oder mehrerer Instanzen eines AMI.
  • 4. Verwalten und verwenden der Instanzen als wären es gewöhnliche Server.

Quelle

Categories
Grundlagen Services @de

Das Konzept der Amazon Virtual Private Cloud

Bei der Amazon Virtual Private Cloud (VPC) handelt es sich um eine sichere und lückelose Integrationsmöglichkeit zwischen der bereits vorhandenen IT Infrastruktur eines Unternehmens und der Amazon Cloud und dient zum Aufbau einer Hybrid Cloud. Mit Amazon VPC können Unternehmen ihre existierende Infrastruktur mit speziell isolierten AWS Ressourcen mittel eines Virtual Private Network (VPN) verbinden, um damit die Verwaltungsmögklichkeiten wie die Bereiche Sicherheit, Firewall und Intrusion Dection für die AWS Ressourcen zu erweitern.

Um die Amazon Virtual Private Cloud zu nutzen, muss zunächst der IP-Adressraum für die VPC festgelegt werden. Die IP-Adressen innerhalb dieses Adressraums sind privat und bilden ein Netzwerk das mittels paketbasierten Routing von anderen Netzwerken inkl. dem Internet vollständig isoliert ist.

Als nächstes müssen Subnetze erstellt werden, welche Segmente eines VPC IP-Adressraums sind. Damit können die Amazon EC2 Instanzen innerhalb des VPC separiert und sicher betrieben werden. Existiert mehr als ein Subnetz in einem VPC, werden diese mittels eines logischen Routers sternförmig (Stern-Topologie) miteinander verbunden.

Um sich mit der VPC zu verbinden, wird eine VPN Verbindung benötigt, die als VPN Tunnel zwischen der VPC und dem Rechenzentrum, dem Heimnetzwerk oder jeder anderen Co-Location dient. Dazu muss das eigene bestehende Netzwerk so konfiguriert werden, dass jeglicher VPC Datenverkehr zu dem Gateway geroutet wird, welches das Ende der VPN Verbindung darstellt.

Mit einer aktiven VPN Verbindung können anschließend Amazon EC2 Instanzen in einem VPC subnetz starten. Mit den entsprechenden Sicherheitsrichtlinen ist diese Instanz dann ebenfalls im eigenen Netzwerk sichtbar und kann von dort aus wie eine “lokale” Instanz genutzt werden.

VPC basierter Datenverkehr der für das Internet bestimmt ist, wird zunächst automatisch über das VPN in das eigene Netzwerk gerouted. Dort kann dieser von bereits vorhandenen Sicherheitssystemen, wie Firewalls, Intrusion Detection Systemen untersucht werden, bevor die Daten in das Internet weitergeleitet werden. Das ist dann besonders sinnvoll, wenn spezielle Hardware- und Softwaresysteme eingesetzt werden, um bestimmte Sicherheitsrichtlinien zu erfüllen.

Quelle

Categories
Services @de

Die Amazon S3 Konsole

Mit der Amazon S3 Konsole hat Amazon seine AWS Management Console erweitert. Wie schon von den bisherigen Konsolen, wie z.B. der für EC2 bekannt, handelt es sich um eine Weboberfläche, mit der sämtliche Amazon S3 Ressourcen verwaltet werden können. Dazu gehören das Erstellen neuer Buckets sowie das Hochladen von Objekten.

Um die Amazon S3 Konsole zu nutzen, reicht es aus sich mit seinem AWS Benutzeraccount und dem dazugehörigen Passwort anzumelden. Die Access Key ID und der Secrect Access Key werden nicht benötigt, diese werden automatisch durch AWS im Hintergrund geladen.

Damit integriert die AWS Management Console mit Amazon S3, Amazon EC2, Amazon CloudFront, Amazon Elastic MapReduce und Amazon RDS nun fünf Services an einer zentralen Stelle.

Mit der Amazon S3 Konsole können weiterhin Ordner angelegt, sowie Objekte der Öffentlichkeit zugänglich gemacht werden. Ordner und Objekte die mit S3 Tools von einem Drittanbieter erstellt wurden, können mit der Konsole ebenfalls bearbeitet werden.

Die Amazon S3 Konsole ist unter http://console.aws.amazon.com/s3 zu finden.

Categories
Services @de

Installation von Haizea

Dieser Artikel beschreibt die Installation von Haizea auf einem Unix System. Die Installation erfolgt in vier Schritten, welche im Folgenden erklärt werden.

Abhängigkeiten

Für die Installation von Heizea müssen folgende Software-Abhängigkeiten erfüllt werden.

Categories
Services @de

Haizea – Open Source Lease-Management

Was ist Haizea?


Bei Haizea handelt es sich um eine Open Source Lease-Management Architektur auf Basis von virtuellen Maschinen. Genauer gesagt ist Haizea eine Software mit der, in Kombination mit dem OpenNebula Virtual Infrastructure Manager, Xen, KVM oder VMWare Cluster verwaltet werden können. Haizea erlaubt zudem das Deployment unterschiedlicher “Miet”-Arten (lease) von instanziierten virtuellen Maschinen. Weiterhin verfügt Haizea über einen Simulationsmodus, in dem mit Scheduling-Algorithmen experimentiert werden kann, die speziell auf das Deployment von virtuellen Maschinen ausgerichtet sind, bzw. das Leasing abstrahieren.

Haizea ist ein Ressourcen Manager / Ressourcen Scheduler

Haizea ist eine Softwarekomponente, die eine Reihe von Computern – typischerweise einen Cluster – verwalten kann. Dabei ermöglicht sie Benutzern die exklusive Nutzung von Ressourcen, wobei die Anfrage an die Ressourcen unterschiedlich formuliert sein kann. Anfragen wären z.B. “Ich benötige genau zu diesem Zeitpunkt 10 Nodes mit je 1 Gigabyte Arbeitsspeicher.” oder “Ich benötige morgen in der Zeit von 14.00 Uhr bis 16.00 Uhr 4 Nodes mit je 2 CPUs und 2 Gigabyte Arbeitsspeicher.”

Haizea verwendet den Leasing-Ansatz

Die grundlegende Ressource Bereitstellung in Haizea wurde von dem bekannten Prinzip des Leasings abstrahiert. Ein Leasingverhältnis ist eine Form von Vertrag, bei dem sich eine Vertragspartei dazu verpflichtet, eine Reihe von Ressourcen (z.B. ein Auto), einer anderen Partei zur Verfügung zu stellen.

Dieser Ansatz wurde von Haizea adaptiert. Das bedeutet, wenn ein Benutzer Rechenressourcen bei Heizea anfordert, werden ihm diese im Sinne des Leasings bereitgestellt.

Haizea nutzt virtuelle Maschinen

Der Haizea Ansatz sieht die Nutzung von virtuellen Maschinen (VM) als das Optimum an, um Ressourcen auf Basis des Leasing-Prinzips zu bereitzustellen. Dazu sind Haizea’s Scheduling-Algorithmen zur Verwaltung von virtuellen Maschinen ausgerichtet.

Haizea ist Open Source

Haizea wurde unter der Apache License 2.0 veröffentlicht.

Wozu dient Haizea?


Haizea kann auf zwei Arten verwendet werden. Zum einen als Standalone-Komponente, zum anderen als Scheduling-Backend für einen Virtual Infrastructure Manager wie z.B. OpenNebula.

Haizea zusammen mit OpenNebula verwenden

Haizea kann als Plugin für OpenNebula’s Scheduling-Daemon verwendet werden. Mit OpenNebula können Ressourcen aus einem Pool von physikalischen Ressourcen dynamisch verteilt und neu zugeteilt werden. OpenNebula und Haizea ergänzen einander, indem OpenNebula für die Verarbeitung und Bereitstellung der Virtualisierung (Verwaltung von virtuellen Maschinen auf Basis von Xen, KVM und VMWare innerhalb eines Clusters) zuständig ist und Haizea das Scheduling übernimmt.

Haizea als Standalone-Komponente

In erster Linuie ist Haizea eine Ressourcen Management Komponente für virtuelle Maschinen, mit der Leasing-Anfragen entgegengenommen und Entscheidungen bzgl. des Scheduling getroffen werden können. Allerdings ist Haizea nicht in der Lage, diese getroffenen Entscheidungen zu delegieren.

Haizea ist z.B. in der Lage zu bestimmen, wann das Leasing einer bestimmten Anzahl von virtuellen Maschinen beginnt und wieder endet. Allerdings fehlt die Möglichkeit einem Virtual Machine Manager anzuweisen, diese Aktionen durchzuführen.

Haizea kann solche Anweisungen für sich selbst simulieren und ist daher im Standalone-Betrieb für die Scheduling-Forschung (Leasing, VMs) und die Simulation einer lang anhaltenden Arbeitslast (über Wochen und Monate) geeignet.

Funktionen von Haizea


Haizea unterstützt die folgenden Leasing-Arten:

  • Best-Effort Leasing: Die Leasing-Anfrage wird in einer Queue abgelegt bis Ressourcen verfügbar sind.
  • Advance Reservation Leasing: Das Leasing muss zu einem bestimmten Zeitpunkt beginnen.
  • Immediate Leasing: Das Leasing muss sofort oder überhaupt nicht beginnen.

Das Leasing erfordert eine einzelne virtuelle Maschine oder eine Gruppe von virtuellen Maschinen, die parallel ausgeführt werden.

Haizeas Scheduling Algorithmen verfügen über folgende Eigenschaften:

  • Explizite Zeitplanung zur Bereitstellung von virtuellen Maschinen, ohne den manuellen Eingriff eines Benutzers. Soll z.B. ein Leasing um 14:00 Uhr starten, erstellt Haizea einen Zeitplan für den Transfer der erforderlichen virtuellen Maschinen Images zu dem physikalischen Node auf welchem die virtuellen Maschinen ausgeführt werden sollen.
  • Verwenden der Suspend/Resume Funktion der virtuellen Maschinen, um höher priorisierten Leasing-Anfragen ihre Ressourcen zuteilen zu können. Weiterhin wird die Cold Migration von virtuellen Maschinen verwendet. Dabei wird eine angehaltene (“eingefrorene”) virtuelle Maschine auf einen anderen Host migriert und dort anschließend wieder gestartet. Die Zeitplanung für eine Live-Migration ist derzeit in Arbeit.
  • Für Best-Effort Leasing-Anfragen wird eine First-Come First-Serve Queue inkl. Backfilling (aggressiv, konservativ, oder mit einer beliebigen Anzahl von Reservierungen) verwendet.

Quelle