Categories
Services @de

Vorstellung: Witsbits – Private Cloud Management as a Service

Denken Unternehmen an Cloud Computing, werden Sie immer wieder mit den Themen Sicherheit & Datenschutz konfrontiert. Die Angst und das Risiko sind vielen zu hoch, einen Datenverlust zu erleiden oder das Unbefugte Zugriff erhalten. Der Weg in die Public Cloud wird daher immer stärker abgewogen. Das schwedische Unternehmen Witsbits geht mit einem ganz anderen Konzept an den Markt, was ich als “Private Cloud Management as a Service” bezeichnen würde, quasi die schwedische Lösung dem Cloud Computing zu begegnen.

Die Idee ist relativ einfach. Mit Hilfe eines bootbaren USB-Sticks oder einer CD-ROM, auf dem sich ein Witsbits Cloud-Key befindet, bereitet der Administrator die physikalischen Server vor, auf denen später die virtuellen Maschinen (auf Basis von KVM) betrieben werden sollen. Anhand des Cloud Keys verbinden sich die Server automatisch mit der Witsbits Management Platform, von wo aus die Private Cloud im eigenen Rechenzentrum/ Serverraum über eine zentrale und Web-basierte Oberfläche verwaltet werden kann.

Zielgruppe dieser Lösung sind kleine und mittelständische Unternehmen. Wobei ich den Ansatz ebenfalls ideal für Systemhäuser halte, die ihren Kunden entweder eine Private Cloud (Flexibilisierung der vorhandenen lokalen Ressourcen) anbieten möchten bzw. für die Fernadministration der Server zuständig sind.

Für die Einrichtung ist keine Installation notwendig, wodurch die Inbetriebnahme relativ schnell vorgenommen werden kann. Derzeit werden zwei Abrechnungsvarianten unterschieden: Free und Premium. Die Variante “Free”, verursacht, wie der Name bereits verrät, keine Kosten. Allerdings ist die Nutzung hier auf 8 GB vRAM (The maximum total amount of Virtual Machine primary memory (RAM) under management at any given time.) beschränkt. Die Variante “Premium” kostet 3 Dollar pro 1 GB vRAM pro Monat, wobei hier keine Obergrenze für den vRAM besteht.

Categories
Management @de

Anwendungsbereiche des Cloud Computing (Redux)

Auf Grund seiner Charakteristiken lässt sich Cloud Computing insbesondere für Szenarien einsetzen, in denen Systeme periodischen oder nicht vorhersagbaren Einflüssen ausgesetzt sind oder einem stetigen Wachstum unterliegen. Cloud Computing lässt sich jedoch vielfältig einsetzen, wie die folgenden Anwendungsfälle zeigen.

Optimierung der eigenen IT-Infrastruktur

Der Großteil aller Unternehmen verfügt über eine eigene, in der Regel komplexe IT-Infrastruktur, die es zu verwalten gilt, um den immer neuen und steigenden Anforderungen gerecht zu werden. Dadurch verlieren die meisten den Fokus auf die eigenen Kernkompetenzen, um sich mit genau diesen von ihren Mittbewerbern zu differenzieren und hieraus einen Vorteil zu erzielen.

Weiterhin werden enorme finanzielle und zeitliche Investitionen getätigt, um den Anforderungen an das laufende Geschäft durch das Verwalten, Vergrößern und Skalieren von Ressourcen und Kapazitäten zu erhöhen (Stichwort: Lastspitzen), wodurch sich die Produktivität z.B. für neue geschäftskritische Projekte verringert. An dieser Stelle dürfen ebenfalls nicht die Vorabinvestitionen vernachlässigt werden, die für den Aufbau der IT-Infrastruktur sowie den laufenden Betrieb/ Wartung vorgenommen werden müssen.

Mit dem Einsatz von Cloud Computing Lösungen z.B. durch das Outsourcing interner IT-Anwendungen oder die Nutzung von Cloud Storage können externe Ressourcen effektiv und bedarfsgerecht genutzt werden und die oben genannten Kosten lassen sich damit minimieren.

Content bereitstellen

Unternehmen stehen vor der Herausforderung, Inhalte wie Bilder, Videos oder sonstige Downloads auf Ihren Webseiten den Kunden hochperformant und zuverlässig bereitzustellen. Eine Möglichkeit dies zu realisieren, ist das Erhöhen des Durchsatzes sowie die Verringerung der Latenz innerhalb des Netzwerks.

Mittels eines Content Delivery Network (CDN) innerhalb einer Cloud Computing Infrastruktur, in welchem die Inhalte auf sogenannten Edge-Servern gespeichert werden und die sich in einem Rechenzentrum, das sich möglichst nah am Benutzer befindet, können Teile der oben genannten Anforderungen erfüllt werden. Zusätzlich können Algorithmen verwendet werden, welche die Inhalte zum Zeitpunkt der Anfrage auf die Server in der Nähe des Benutzers kopieren, wodurch die Leistung weiter erhöht wird.

Hosting von Anwendungen

Vor der Einführung des Software-as-a-Service Modells (SaaS) (abgesehen von den Application Service Providern – ASP) waren Unternehmen gezwungen eigene Infrastrukturen für die Nutzung und Bereitstellung lokaler Anwendungen aufzubauen und zu warten. Mit SaaS können diese Anwendungen nun online gehostet und verwendet werden. Die Vorteile ergeben sich auf der einen Seite durch Kosteneinsparungen auf Grund eines nutzungsabhängigen Abrechnungsmodells durch automatisierte Updates und Upgrades durch den Anbieter. Auf der anderen Seite ist eine gute Integration in die eigenen bestehenden Systeme ein Vorteil.

Anbieter von Software-as-a-Service basierten Anwendungen stehen vor der Herausforderung die kostspieligen und komplexen Infrastrukturen, die für das Hosting dieser Anwendungen benötigt werden, aufzubauen sowie skalierbar und hochperformat bereitszustellen. Zumal die Nachfrage durch die Kunden mittels eines Forecast schwierig anzuschätzen ist.

Bereitstellung von Medieninhalten

Wollen Unternehmen ihren Kunden Medieninhalte über das Internet bereitstellen, stehen sie vor der Herausforderung, Lastspitzen durch nicht kalkulierbare Anfragemengen zu unterschiedlichen Zeitpunkten zu bewältigen, die nicht überschaubar sind und teuer werden können. Anforderungen an die gesamte Infrastruktur betreffen hierbei die verfügbare Bandbreite, die Performance, den Speicherplatz und nicht zu vernachlässigen: Die Sicherheit. All das kann dazu führen, dass die ursprünglich geplanten Kosten deutlich höher ausfallen.

High Performance Computing

Die Verarbeitung großer Datenmengen für die eine hohe Rechenleistung benötigt wird, ist in den vergangenen Jahren stark angestiegen. Davon betroffen sind vor allem Unternehmen aus den Bereichen der Medizintechnik, Finanzdienstleitungen und Medien.

Für einzelne rechenintensive Projekte werden die Kapazitäten der Infrastrukturen oftmals stark erweitert, da die bestehende Infrastruktur nicht leistungsfähig genug ist. Im schlimmsten Fall stehen zusätzlich nicht ausreichend finanzielle Mittel und Zeit zur Verfügung, um die Infrastruktur gemäß den Anforderungen anzupassen. Hinzu kommt der Aufwand zur Errichtung und dem Erweitern der Serverumgebungen und der damit verbundenen Beschaffung und Bereitstellung der Hard- und Software. Das Gewährleisten einer hohen Verfügbarkeit darf ebenso wenig vernachlässigt werden wie die Sicherheit der gesamten Umgebung. Weiterhin muss die Infrastruktur verwaltet werden (u.a. Zuweisung des Speichers, Konfiguration der Batchprozesse, etc.), um den Geschäftszweck zu erfüllen, was implizit dazu führt, dass die Mitarbeiter dementsprechend fortgebildet und verwaltet werden müssen.

Eine weitere Herausforderung ist die Verwaltung und Neuzuordung der Ressourcen nach dem erfolgreichen Beenden eines Projekts. Werden die verfügbaren Ressourcen nicht umgehend neuen Projekten oder Aufgaben zugewiesen, sind diese ungenutzt und verursachen Kosten ohne einen Wertbeitrag zu leisten.

Mittels Cloud Computing können die Problematiken der oben genannten Punkte minimiert werden und Ressourcen für Projekte aus dem Bereich des High Performance Computing (HPC) bzw. Parallel Computing bedarfsgerecht und kosteneffizient bezogen werden.

Externe E-Commerce Lösungen

Im Bereich des E-Commerce verfügen die meisten Unternehmen nicht über die Kernkompetenzen, um in ihren Anwendungen die notwendigen Eigenschaften für einen ganzheitlichen Handelsprozess zu etablieren. Dazu gehören der gesamte Zahlungsverkehr, die Auftragsverwaltung, das Kommissionieren und Verpacken der Artikel sowie den Versand zum Kunden. Weiterhin muss die gesamte IT-Infrastruktur auf die E-Commerce Lösung abgestimmt sein, um die Bearbeitung der Kundenanfragen zuverlässig und sicher abzuwickeln und ebenfalls auf saisonale bzw. unerwartete Lastspitzen durch schwankende Anfragen flexibel zu reagieren.

Zahlreiche Cloud Computing Anbieter stellen E-Commerce Lösungen bereit, wodurch Unternehmen auf den Aufbau und die Verwaltung einer eigenen Plattform verzichten können und sich damit auf ihre Kernkompentenzen und ihre Kunden konzentrieren können.

Webcrawler

Informationen sind im Internet weit verteilt und unorganisiert, wodurch für das Suchen, Abfragen, Verteilen und Organisieren dieser Daten hohe Anforderungen hinsichtlich der Verarbeitung und dem Speichern gestellt werden. Weiterhin werden moderne Algorithmen benötigt, mit denen diese Daten manipuliert, indiziert und die Anfragen der Benutzer beantwortet werden können. Der ständige Wandel innerhalb des Internets verstärkt zudem die Situation, exakt die Informationen zu finden, die gesucht wurden.

Mit Cloud Computing steht im Prinzip jedem die Möglichkeit bzgl. Speicherplatz und Rechenleistung zur Verfügung, um einen eigenen Webcrawler zu entwickeln. Dazu müssen Dinge beachtet werden, die auch von der Infrastruktur eines Cloud Computing Anbieters erfüllt werden müssen, auf welcher der Webcrawler dann ggf. ausgeführt wird.

Datenspeicherung und Datenbackup

Eine der größten Herausforderungen für Unternehmen ist die stetige Zunahme der zu speichernden Daten, welche die Verwaltungsaufgaben immer komplexer und kostspieliger werden lässt. Nicht nur auf Grund dieser Situation wird die Gewährleistung des Datenschutzes und der Datenverfügbarkeit immer wichtiger. Cloud Storage für das Speichern und Backup der Daten ist hierfür ein idealer Ansatz, wenn gewisse Punkte beachtet werden.
Ein Cloud Storage hat bspw. in erster Linie den Vorteil, dass der genutzte Speicherplatz automatisch mit den Bedürfnissen mitwächst. Werden heute 10GB, morgen aber 100GB benötigt, stellt das kein Problem dar und es müssen dafür keine eigenen Investitionen in neue Speichersysteme getätigt werden.
Zudem stehen alle Daten an einer zentralen Stelle bereit, wodurch alle Mitarbeiter von jedem beliebigen Ort aus einen gemeinsamen Zugriff auf exakt denselben Datenbestand erhalten und damit die Zusammenarbeit deutlich verbessert wird.

Web-Hosting

Unternehmen haben unterschiedliche Lösungsansätze, um das Web-Hosting ihrer Webseite zu betreiben. Zunächst besteht die Möglichkeit ein eigens Rechenzentrum aufzubauen und zu betreiben. Weiterhin kann ein Drittanbieter damit beauftragt werden, die Webseite auf seine dafür dedizierten Servern zu hosten und zu verwalten. Der letzte Ansatz ist die Nutzung Cloud Computing basierter Lösungen.

Egal welcher Ansatz nun verfolgt wird, ist es für Unternehmen unabdingbar eine Infrastruktur auszuwählen, die ihnen eine größtmögliche Sicherheit, Zuverlässigkeit und Performance bietet. Unabhängig davon rücken die Kosten, also fixe Kosten und variable Kosten, immer weiter in den Fokus und betreffen jedes Unternehmen jeder Größe. Zudem ist in den letzten Jahren der Wunsch nach Flexibilität immer weiter gestiegen um die Kosten transparenter im Blick zu behalten.

Cloud Computing Lösungen geben Unternehmen hierbei die Chance ihre Vorabinvestitionen zu verringern und damit Kapital zu sparen. Ein weiterer Vorteil einer Cloud Lösung besteht in der Skalierbarkeit in beide Richtungen. Steigt die Auslastung an, können die Ressourcen nach oben skaliert werden. Nimmt die Auslastung wieder ab, werden die überschüssigen Ressourcen wieder freigegeben. In beiden Fällen entstehen nur Kosten für die Ressourcen, die auch tatsächlich genutzt werden.

Categories
Grundlagen

Arten von Cloud Computing (Redux)

Cloud Computing unterscheidet grundsätzlich drei Arten von Deployment Models

Private Cloud

In einer Private Cloud betreiben Unternehmen ihre eigenen Rechenzentren und nutzen ihre Dienste nur für Ihre eigenen (geschäftlichen) Zwecke innerhalb ihrer eigenen privaten Netze. Die Nutzung durch die Öffentlichkeit kommt hier nicht in Frage. Die Datensicherheit, ‘Corporate Governance’ und Zuverlässigkeit liegen damit in ihrem eigenen Einflussbereich. Aus diesem Grund werden Private Clouds nur indirekt zum Cloud Computing gezählt. Hier werden lediglich die Ideen und Konzepte adaptiert.

Public Cloud

In einer Public Cloud werden Rechenkapazität, Speicherplatz etc. gegen eine Nutzungsgebühr oder kostenlos der Öffentlichkeit zur Verfügung gestellt. Die Aufgaben, die ein Unternehmen in der Private Cloud übernimmt, werden in der Public Cloud dann von einem Drittanbieter übernommen. Dazu gehören z.B. der Kauf und die Wartung der Server. Die Aufgaben und Services von unterschiedlichen Kunden werden dabei auf derselben Infrastruktur gemeinsam gehostet und verarbeitet. Ein einzelner Kunde hat keine Kenntnis darüber, wessen Dienste ebenfalls auf derselben Infrastruktur gespeichert und verarbeitet werden.

Hybrid Cloud

Eine Hybrid Cloud stellt eine Kombination aus einer Private und einer Public Cloud dar. Dabei verfügen Unternehmen zwar über ihre eigene Private Cloud, verwenden aber zusätzlich Dienste aus der Public Cloud von externen Anbietern. Die Attraktivität besteht vor allem darin, dass der externe Anbieter bei Bedarf schneller und kostengünstiger die benötigte Infrastruktur erhöhen bzw. verkleinern kann. Die Dienste werden so in die Private Cloud integriert, dass der Endanwender nicht merkt, dass er eigentlich woanders arbeitet.

Virtual Private Cloud

In der jüngsten Vergangenheit hat sich eine neue Art des Cloud Computing herauskristallisiert, die Virtual Private Cloud. Dabei handelt es sich wie schon bei der Hybrid Cloud um eine Kombination aus einer Public Cloud und einer Private Cloud. Der Unterschied besteht jedoch darin, dass ein Public Cloud Anbieter für den Kunden einen dedizierten (virtuellen) Bereich im Rechenzentrum des Anbieters bereitstellt. Hier kann der Kunde anschließend sein eigenes virtuelles Rechenzentrum nach Private Cloud Gesichtspunkten (Datenschutz, Datensicherheit und Compliance) aber unter den Bedingungen einer Public Cloud (Skalierbarkeit, Verfügbarkeit, Flexibilität und Pay per use) aufbauen. Eine Verbindung der Virtual Private Cloud mit dem eigenen Rechenzentrum ist ebenfalls möglich.

Categories
Management @de

Cloud Computing ist kein Allheilmittel!

Zunächst handelt es sich bei Cloud Computing nicht mehr um einen Hype! Wir befinden uns mittlerweile in der Evaluations- und Adaptionsphase und gerade deswegen ist weiterhin viel Aufklärungsarbeit notwendig, um die Potentiale aufzuzeigen.

Bei den Potentialen handelt es sich bspw. um Kosten – Wandel von fixen zu variablen Kosten, eine bessere Ressourcenallokation, Flexibilität, Agilität, Ortsunabhängigkeit – dadurch flexibleres Recruiting von Leuten auf der ganzen Welt, Bsp. 37Signals). Wichtig ist, dass sich Unternehmen darüber jedoch im klaren sind, dass Cloud Computing Anbieter einem nicht die Arbeit vollständig abnehmen und das der Weg in die Cloud gut durchdacht und geplant werden muss. Das Unternehmen muss sich zunächst selber kennen und analysieren und schauen wo es Potentiale für Cloud Computing sieht.

Der Glaubenskrieg

Wir haben in der Cloud im Prinzip dieselbe Situation wie wir sie schon in der Vergangenheit gesehen haben. In jedem Bereich gibt es einen Glaubenskrieg, welche Technologie oder welcher Ansatz der Bessere ist. So kennen wir den Krieg zwischen Microsoft und Linux oder aktuell zwischen dem iPhone und Android. In der Cloud haben wir den Krieg der unterschiedlichen Deploymentmodels wie der Private/ Public/ Virtual Private und Hybrid Cloud. Aber anders wie bspw. beim Kampf zwischen Apple und Android, wo hier zwischen der coolen Marke Apple mit seinem verschlossenen iOS System und dem offenen Ansatz von Android argumentiert wird, geht es beim Cloud Computing argumentativ in erster linie um die Themen Datenschutz, Datensicherheit und Compliance.

Es geht um den Use Case

Fakt ist allerdings, dass alles vom gegenwärtigen Use Case abhängt. Denn es gibt nicht die gute oder schlechte Cloud. Betrachten wir einmal die unterschiedlichen Cloud Deployment Ansätze:

Private Cloud
Ich bin kein Gegner der Private Cloud. Ich finde die Adopation der Konzepte und Methoden des Cloud Computing für das eigene Rechenzentrum durchaus interessant. Es besteht dadurch die Möglichkeit, die interne IT deutlich flexibler zu gestalten und seinen internen Kunden und Projekten die Ressourcen on Demand bereitzustellen, wodurch sich die Resourcenallokation verbessert und die Abrechnung ebenfalls genauer wird.

Dennoch sollte ein Unternehmen sich überlegen, ob es tatsächlich Sinn macht eine Private Cloud im eigenen Rechenzentrum aufzubauen. Warum? Mit der Private Cloud hat man die Probleme des klassischen Rechenzentrum Betriebs plus die Komplexität der Private Cloud. Hinzu kommen die Kosten für die Hardware/ Software/ Lizenzen sowie die Fortbildung des Personals. Cloud Computing dient nun einmal dazu, sich auf die eigenen Kernkompetenzen zu konzentrieren. Das schafft man mit einer Private Cloud jedoch nicht!

Public Cloud
Die Public Cloud hilft z.B. Entwicklern mit einer coolen Idee, kostengünstig an dafür benötigte Ressourcen zu gelangen. Die für das Projekt benötigte Infrastruktur wächst mit den Anforderungen der Entwickler und der eigentlichen Software. Dann sind natürlich Webapplikationen dafür bestens geeignet. In den vergangenen Monaten und Jahren sind auf Basis der Public Clouds viele tolle und neue Anwendungen und Geschäftsmodelle entstanden. Aber auch Graphikdesigner sollten sich überlegen, ob sie sich für das Rendern ihrer Videos lieber einen Apple Xserver holen oder doch lieber eine performante Instanz in der Cloud starten. Und auch für andere Bereiche in denen der Datenschutz eine nicht so hohe Bedeutung hat (je nach land in dem der Provider sitzt) sind ausreichend Potentiale vorhanden.

Virtual Private Cloud
Die Virtual Private Cloud verbindet das Beste aus den Welten der Public Cloud und der Private Cloud. Hier sehe ich in Zukunft mehr Produktivsysteme als z.B. in der Public Cloud. Sie ist besonders für Unternehmen interessant, denen verhandelbare SLAs und ein höherer Service wichtig sind. Die Anbieter von Virtual Private Clouds bieten darüber hinaus eine bessere Unterstützung bei der Verwaltung der virtuellen Infrastruktur, was unter anderem auch daran liegt, dass innerhalb einer Public Cloud ein sehr hohes Maß an Standardisierung herrscht. In einer Virtual Private Cloud erhält man dagegen die Möglichkeit für mehr Customization.

Hybrid Cloud
Wird mittelfristig das gängigste Cloud Deploymentmodel werden. Unternehmen stocken darüber bei Bedarf ihre Ressourcen auf, wenn diese benötigt werden und geben Sie im Anschluss wieder zurück. Damit werden Services (nicht nur IaaS sondern auch SaaS und PaaS) in die eigene Unternehmens IT adoptiert. Für die Adaption ist natürlich keine eigene Private Cloud erforderlich, aber ein Cloud Managementsystem, das für die Verwaltung und das Monitoring der einzelnen Services wichtig ist.

Beim Cloud Computing geht es um Selbstverantwortung

Unabhängig davon welches Cloud Deploymentmodel am Ende genutzt wird, ist die Eigenverantwortung ein wichtiges Thema! Ein Nutzer darf nicht die gesamte Verantwortung auf die Seite des Anbieters schieben, wenn es darum geht, die Cloud zu nutzen. Natürlich ist der Anbieter für die Infrastruktur verantwortlich, aber das Unternehmen was die Cloud nutzen möchte muss zunächst seine Hausaufgaben machen. Man sollte als Kunden mit dem Anbieter zusammenarbeiten und ggf. den ersten Schritt machen. Sollte er keine Reaktion zeigen, ist er definitiv der falsche Anbieter für mich. Im Falle der Virtual Private Cloud sollte ich als Kunde Einfluss auf das Design meiner virtuellen Infrastruktur nehmen können und mit dem Anbieter zusammen eine Strategie erarbeiten. Denn das ist genau die Kernkompentenz des Anbieters!

Darüber hinaus sollte jedes Unternehmen über ein Risikomanagementsystem verfügen, dass auf Gefahrenpotentiale aufmerksam macht. Wenn ich bspw. als ein produzierendes Unternehmen tätig bin, habe ich auch mehr als nur einen Lieferanten, für den Fall das mein primärer Lieferant ausfällt.

Der Weg in die Cloud

Es gibt nicht exakt DEN weg in die Cloud, aber es gibt logische Dinge die man berücksichtigen sollte.

Haben Sie eine Strategie und denken Sie über Ihre Governance nach. Ein Problem der Cloud besteht darin, dass sie zum ausprobieren verlockt. Und plötzlich ist man drin und nutzt möglicherweise ungewollt mehrere Services, die nicht in die IT-Strategie passen. Darüber hinaus sollten man sich überlegen, was man mit und in der Cloud machen möchte und was man davon erwartet. Als nächstes gilt es eigene Kriterien aufzustellen die aufzeigen, was man vom Cloud Computing Anbieter erwartet. Im Anschluss müssen die Bereich im Unternehmen identifiziert werden, die in die Cloud gehen können, gefolgt von der Suche nach den für das Unternehmen benötigten Services. Das bedeutet, dass das Unternehmen gründlich analysiert werden muss. Weiterhin ist eine offene Kommunikation zur und innerhalb der IT-Abteilung sehr wichtig!

Design for Failure!

Wenn Sie die Cloud nutzen wollen, sollten Sie eines beachten: Design for Failure!. Die Nutzung von IaaS meint in erster Linie, dass der Provider “nur” Ressourcen zur Verfügung stellt, mit denen ich mir ein eigenes virtuelles, skalierbares Rechenzentrum aufbauen kann. Ich merke immer wieder, dass dieses Verständnis fehlt. Bei einer Virtual Private Cloud sieht das etwas anders aus, da hier der Service mehr im Vordergrund steht. Bei einer Virtual Private Cloud sollte man daher mit dem Anbieter zusammen ein Design entwickeln. Unabhängig von Public Cloud oder Virtual Private Cloud ist es allerdings wichtig sich mit der Cloud die man nutzt detailliert auszukennen hat.

Bzgl. des Design for Failure sollte man daher grundsätzlich darauf achten, keinen Single Point of Failure zu schaffen. Und vor allem immer davon ausgehen, dass zu jedem Zeitpunkt etwas schiefgehen kann. Das Ziel muss daher darin bestehen, das die Anwendung zu jederzeit funktioniert, auch dann wenn die darunter liegende Hardware bzw. Infrastruktur ein Problem hat.

Multivendor Cloud Strategie

In Bezug auf das Design for Failure Prinzip sollte man sich ebenfalls Gedanken über eine Multivendor Cloud Strategie machen. Dies gilt nicht nur für IaaS sondern ebenfalls für SaaS und PaaS und bedeutet, dass man sich nicht nur auf einen Anbieter konzentriert, sondern seine Services/ Instanzen über mehrere Anbieter hinweg verteilt. Man kann sich dafür zunächst einen primären Anbieter suchen und parallel dazu bei weiteren Anbietern Vorbereitungen treffen. Falls es bei dem primären Anbieter zu einem Problem kommt, kann dann automatisiert umgeswitched werden. Neben der dadurch noch höheren Ausfallsicherheit beugt man damit ebenfalls einem Vendor Lock-in vor und macht sich Gedanken über das grundsätzliche und portable Design der virtuellen Infrastruktur.

Fazit

Cloud Computing hat für jedes Unternehmen Potentiale. Unabhängig von einer Private/ Public/ Virtual Private oder Hybrid Cloud oder IaaS, SaaS, PaaS. Es gilt letztendlich die passende Lösung für sein Unternehmen zu finden und zu schauen wo Cloud Computing helfen kann. Das heißt zunächst das Unternehmen zu analysieren, zu kennen und zu verstehen und die Bedürfnisse und Anforderungen zu definieren. Im Anschluß muss eine Cloud Strategie entwickelt und danach selbstverantwortlich gehandelt werden. Denn Cloud Computing ist nun einmal kein Allheilmittel!

Categories
Tutorials @de

OpenNebula: Der Aufbau einer Private Cloud

Was ist eine Private Cloud?

Das Ziel einer Private Cloud besteht nicht darin, der Öffentlichkeit eine Schnittstelle zur Cloud zur Verfügung zu stellen. um damit eigene Kapazitäten über der Internet anzubieten. Es geht vielmehr darum, seinen eigenen lokalen Nutzern eine flexible und agile private Infrastruktur bereitzustellen, in der die genutzten Services virtualisiert innerhalb eines selbst administrierten Bereich ausgeführt werden, um die Belastung effizient aufzuteilen. Die virtuelle Infrastruktur-Schnittstelle von OpenNebula stellt den Administratoren Funktionen für die Virtualisierung, die Netzwerkverwaltung, die Konfiguration von Images und physischen Ressourcen, das Management, sowie dem Monitoring und dem Accounting.

Die Sicht des Benutzers

Mit einer OpenNebula Private Cloud steht Nutzern der Infrastruktur eine elastische Plattform zum schnellen Bereitstellen und Skalieren von Services bereit, um den dynamischen Anforderungen gerecht zu werden. Die virtuelle Infrastruktur-Schnittstelle bietet folgenden Möglichkeiten, um Services auf virtuellen Maschinen zu hosten, bereitzustellen, sowie zu kontrollieren und zu überwachen.

  • Kommandozeile
  • XML-RPC API
  • Libvirt Virtualization API inkl. Management Tools

Die folgenden Beispiele zeigen die Funktionalität, die von der OpenNebula Kommandozeile bereitgestellt wird, um eine Private Cloud zu verwalten.

Zunächst überprüfen wir den Host und den physikalischen Cluster:

$ onehost list
 HID NAME                      RVM   TCPU   FCPU   ACPU    TMEM    FMEM STAT
   0 host01                      0    800    800    800 8194468 7867604   on
   1 host02                      0    800    797    800 8387584 1438720   on

Anschließend kann mittels onevm eine virtuelle Maschine an OpenNebula übertragen werden. Dazu wird als erstes ein Template einer virtuellen Maschine benötigt, aus dem ein Image erstellt wird. Das Image wird in dem Verzeichnis /opt/nebula/images abgelegt.

CPU    = 0.5
MEMORY = 128
OS     = [
  kernel   = "/boot/vmlinuz-2.6.18-4-xen-amd64",
  initrd   = "/boot/initrd.img-2.6.18-4-xen-amd64",
  root     = "sda1" ]
DISK   = [
  source   = "/opt/nebula/images/disk.img",
  target   = "sda1",
  readonly = "no" ]
DISK   = [
  type     = "swap",
  size     = 1024,
  target   = "sdb"]
NIC    = [ NETWORK = "Public VLAN" ]

Nachdem die virtuelle Maschine z.B. bzgl. der CPU und des Arbeitsspeichers auf die eigenen Bedürfnisse angepasst wurde, kann diese übertragen werden.

$ onevm submit myfirstVM.template

Nach dem Übertragen der virtuellen Maschine erhalten wir eine ID, mit welcher die virtuelle Maschine identifiziert werden kann, um diese zu überwachen und zu steuern. Die ID erhalten wir mit dem folgenden Befehl:

$ onevm list
  ID     USER     NAME STAT CPU     MEM        HOSTNAME        TIME
   0 oneadmin    one-0 runn   0   65536          host01  00 0:00:02

Das Feld STAT beschreibt den aktuellen Status der virtuellen Maschine. Befindet sich dieser im Status runn, ist die virtuelle Maschine online und wird ausgeführt. Abhängig davon, wie das Image konfiguriert wurde, haben wir Kenntnis von der IP-Adresse, wodurch wir uns auf der virtuellen Maschine anmelden können.

Um eine Migration durchzuführen, verwenden wir erneut den onevm Befehl. Wenn wir z.B. die virtuelle Maschine (VID=0) nach host02 (HID=1) übertragen wollen, nutzen wir:

$ onevm livemigrate 0 1

Damit wird die virtuelle Maschine von host01 nach host02 übertragen. Der Befehl onevm list sollte eine ähnliche Ausgabe der Folgenden anzeigen:

$ onevm list
  ID     USER     NAME STAT CPU     MEM        HOSTNAME        TIME
   0 oneadmin    one-0 runn   0   65536          host02  00 0:00:06

Wie das System funktioniert

OpenNebula – Eigenschaften

  • Verwaltung virtueller Netzwerke: Virtuelle Netzwerke verbinden die einzelnen virtuellen Maschinen.
  • Erstellen virtueller Maschinen: Die Beschreibung jeder einzelnen virtuellen Maschine wird der Datenbank hinzugefügt.
  • Bereitstellen virtueller Maschinen: Der Scheduler entscheided auf Basis von Richtlinien, wo eine virtuelle Maschine ausgeführt wird.
  • Verwaltung virtueller Maschinen Images: Vor dem Ausführen werden die virtuellen Maschinen Images zu dem Host übertragen und SWAP Disk Images erstellt. Nach dem Ausführen werden die virtuellen Maschinen Images in das Repository zurückkopiert.
  • Verwaltung gestarteter virtueller Maschinen: Virtuelle Maschinen werden gestartet und der aktuelle Status periodisch abgefragt. Zudem können die virtuellen Maschinen heruntergefahren, angehalten, gestopped und migriert werden.

OpenNebula Private Cloud – Die wichtigsten Komponeten

  • Hypervisor: Der Virtualisierungsmanager – auf den Ressourcen des Clusters installiert, die OpenNebula für die Verwaltung der virtuellen Maschinen vorgesehen hat.
  • Virtual Infrastructure Manager: Zentrale Verwaltungseinheit zum Steuern und Überwachen der virtuellen Maschinen und Ressourcen. Unterstützt weiterhin die Verwaltung der virtuellen Netzwerke, das Life-Cycle Management der virtuellen Maschinen, das Management der virtuellen Maschinen Images sowie die Fehlertoleranz.
  • Scheduler: Verwaltung der Richtlinien für die virtuellen Maschinen hinsichtlich der gleichmäßigen Verteilung der Last, Server Konsolidierung, Zugehörigkeit, Reservierung der Kapazitäten und SLAs

Quelle

  • Building a Private Cloud
Categories
Tutorials @de

Virtuelle Maschinen für Amazon EC2 mit dem VMBuilder erstellen

Dieses Tutorial beschreibt wie ein offizielles Amazon EC2 Image mit dem VMBuilder deployed wird.

Installation


Installation auf Karmic Koala (9.10) und späteren Versionen

Für alle Ubuntu Versionen ab Karmic Koala (9.10) sind fertige Pakete vorhanden.

Categories
Tutorials @de

Amazon EC2 mit Ubuntu Images (erste Schritte)

Dieser Artikel beschreibt die Nutzung der offiziellen Ubuntu Images unter Amazon EC2.

Um die Ubuntu Server Edition unter den Amazon Web Services auszuführen, sind folgende Schritte notwendig.

  • Erstellen eines Amazon Web Services Account
  • Konfigurieren der Keys
  • Installation der Amazon EC2 API Tools
  • Instanziierung der Images
  • Konfiguration der Instanz
Categories
Grundlagen Services @de

Das Konzept der Amazon Virtual Private Cloud

Bei der Amazon Virtual Private Cloud (VPC) handelt es sich um eine sichere und lückelose Integrationsmöglichkeit zwischen der bereits vorhandenen IT Infrastruktur eines Unternehmens und der Amazon Cloud und dient zum Aufbau einer Hybrid Cloud. Mit Amazon VPC können Unternehmen ihre existierende Infrastruktur mit speziell isolierten AWS Ressourcen mittel eines Virtual Private Network (VPN) verbinden, um damit die Verwaltungsmögklichkeiten wie die Bereiche Sicherheit, Firewall und Intrusion Dection für die AWS Ressourcen zu erweitern.

Um die Amazon Virtual Private Cloud zu nutzen, muss zunächst der IP-Adressraum für die VPC festgelegt werden. Die IP-Adressen innerhalb dieses Adressraums sind privat und bilden ein Netzwerk das mittels paketbasierten Routing von anderen Netzwerken inkl. dem Internet vollständig isoliert ist.

Als nächstes müssen Subnetze erstellt werden, welche Segmente eines VPC IP-Adressraums sind. Damit können die Amazon EC2 Instanzen innerhalb des VPC separiert und sicher betrieben werden. Existiert mehr als ein Subnetz in einem VPC, werden diese mittels eines logischen Routers sternförmig (Stern-Topologie) miteinander verbunden.

Um sich mit der VPC zu verbinden, wird eine VPN Verbindung benötigt, die als VPN Tunnel zwischen der VPC und dem Rechenzentrum, dem Heimnetzwerk oder jeder anderen Co-Location dient. Dazu muss das eigene bestehende Netzwerk so konfiguriert werden, dass jeglicher VPC Datenverkehr zu dem Gateway geroutet wird, welches das Ende der VPN Verbindung darstellt.

Mit einer aktiven VPN Verbindung können anschließend Amazon EC2 Instanzen in einem VPC subnetz starten. Mit den entsprechenden Sicherheitsrichtlinen ist diese Instanz dann ebenfalls im eigenen Netzwerk sichtbar und kann von dort aus wie eine “lokale” Instanz genutzt werden.

VPC basierter Datenverkehr der für das Internet bestimmt ist, wird zunächst automatisch über das VPN in das eigene Netzwerk gerouted. Dort kann dieser von bereits vorhandenen Sicherheitssystemen, wie Firewalls, Intrusion Detection Systemen untersucht werden, bevor die Daten in das Internet weitergeleitet werden. Das ist dann besonders sinnvoll, wenn spezielle Hardware- und Softwaresysteme eingesetzt werden, um bestimmte Sicherheitsrichtlinien zu erfüllen.

Quelle

Categories
Tutorials @de

UEC: Zusammenstellen von Images für Ubuntu 9.10

Dieser Artikel beschreibt das Vorgehen (Bundling) für das Erstellen und die Registrierung von VM Images mit dem UEC Cloud Controller für Ubuntu 9.10. Dazu benötigen wir ein Image, dass von den Daily Builds heruntergeladen werden kann, verknüpfen alles miteinander und laden es in unsere Ubuntu Cloud.

1. Um den Vorgang von der Kommandozeile aus zu starten nutzen wird die folgenden Befehle. Hierbei wird automatisch ein UEC Image heruntergeladen.

TIMESTAMP=$(date +%Y%m%d%H%M%S)
RELEASE=karmic
ARCH=amd64 # Or this might be i386
[ $ARCH = "amd64" ] && IARCH=x86_64 || IARCH=i386
UEC_IMG=$RELEASE-server-uec-$ARCH
URL=http://uec-images.ubuntu.com/$RELEASE/current/
[ ! -e $UEC_IMG.tar.gz ] && wget $URL/$UEC_IMG.tar.gz # This may take a bit, depending on your connectivity

2. Als nächstes muss alles verpackt, hochgeladen und registriert werden. In dem Package cloud-utils befindet sich das Tool uec-publish-tarball. Mit diesem können die oben genannten Aktionen in einem Schritt durchgeführt werden. Weiterhin ist in den cloud-utils das Tool uec-publish-image vorhanden. Mit diesem kann direkt mit einem ungepackten Image gearbeitet werden.

uec-publish-tarball ${UEC_IMG}.tar.gz "${RELEASE}-${TIMESTAMP}" "${ARCH}"

Diese Schritte sind nur dann notwendig, wenn nicht das Tool uec-publish-tarball verwendet wird!

1. Entpacken des UEC Image Tarball

[ ! -e $UEC_IMG.img ] && tar -S -xzf $UEC_IMG.tar.gz

2. Zusammenstellen des Kernels

BUCKET_KERNEL="k-$TIMESTAMP"
UEC_KERNEL=$UEC_IMG-vmlinuz-virtual
euca-bundle-image -i $UEC_KERNEL -r $IARCH --kernel true
euca-upload-bundle -b $BUCKET_KERNEL -m /tmp/$UEC_KERNEL.manifest.xml
EKI=$(euca-register $BUCKET_KERNEL/$UEC_KERNEL.manifest.xml | grep "^IMAGE" | awk '{print $2}') && echo $EKI

3. Zusammenstellen der initrd (Wird nur benötigt, wenn keine Ramdisk vorhanden ist)

BUCKET_INITRD="r-$TIMESTAMP"
UEC_INITRD=$UEC_IMG-initrd-virtual
euca-bundle-image -i $UEC_INITRD -r $IARCH --ramdisk true
euca-upload-bundle -b $BUCKET_INITRD -m /tmp/$UEC_INITRD.manifest.xml
ERI=$(euca-register $BUCKET_INITRD/$UEC_INITRD.manifest.xml | grep "^IMAGE" | awk '{print $2}') && echo $ERI

4. Zusammenstellen des Images

BUCKET_IMAGE="i-$TIMESTAMP"
UEC_IMG=$RELEASE-server-uec-$ARCH
euca-bundle-image -i $UEC_IMG.img -r $IARCH --kernel $EKI ${ERI:+--ramdisk ${ERI}} # This will take a long time (~10m)
euca-upload-bundle -b $BUCKET_IMAGE -m /tmp/$UEC_IMG.img.manifest.xml
EMI=$(euca-register $BUCKET_IMAGE/$UEC_IMG.img.manifest.xml | grep "^IMAGE" | awk '{print $2}') && echo $EMI

3. Damit ist der Kernel und das Image in unsere Ubuntu Cloud (Eucalyptus) hochgeladen worden und kann nun genutzt werden.

euca-describe-images

Wir sollten einen registrierten Kernel sowie ein Image sehen, die als “available” markiert sind.

Mit dem anschließenden Befehl können wir das überprüfen.

Quelle

Categories
Tutorials @de

Eucalyptus: Erstellen eines Image aus einem ISO (Xen)

Dieser Artikel beschreibt, wie mittels Xen und dem ISO Image eines Gast Betriebssystems das installiert werden soll, ein Root Dateiystem für Eucalyptus erstellt wird.

Voraussetzung

  • Hardware Virtualisierung Unterstützung auf dem System (Hardware-assisted virtualization)
  • Funktionsfähige Xen Umgebung (domU muss gestartet werden können)