Die interne OpenNebula Architektur ist in drei Schichten aufgeteilt.
Tools
- Dabei handelt es sich um Management Tools, die auf Basis der Schnittstelle entwickelt wurden, welche vom OpenNebula Core bereitgestellt wird.
Die interne OpenNebula Architektur ist in drei Schichten aufgeteilt.
Tools
Dieser Artikel beschreibt das Einrichten einer Para-virtualisierten Netzwerkschnittstelle unter Eucalyptus. Die folgenden Anweisungen gelten für eine KVM basierte Eucalyptus Installation.
Für ein auf Xen basiertes Eucalyptus System muss die unten aufgeführte Datei gen_libvirt_xml entsprechend geändert werden.
Dieser Artikel beschreibt die Installation eines Tomcat Servlet Container in ein bereits vorhandenes Ubuntu Image.
Dafür muss zunächst das Image gemounted werden.
losetup /dev/loop5 root.img
mount /dev/loop5 temp-mnt
Im Anschluß muss ein JDK sowie ein Tomcat heruntergeladen und in das /opt Verzeichnis des Images gespeichert werden.
Dieser Artikel beschreibt das Vorgehen (Bundling) für das Erstellen und die Registrierung von VM Images mit dem UEC Cloud Controller für Ubuntu 10.04 LTS. Dazu benötigen wir ein Image, dass von den Daily Builds heruntergeladen werden kann, verknüpfen alles miteinander und laden es in unsere Ubuntu Cloud.
Um den Vorgang von der Kommandozeile aus zu starten nutzen wird die folgenden Befehle. Hierbei wird automatisch ein UEC Image heruntergeladen und bereitgestellt.
TIMESTAMP=$(date +%Y%m%d%H%M%S)
RELEASE=lucid
ARCH=amd64 # Or this might be i386
[ $ARCH = "amd64" ] && IARCH=x86_64 || IARCH=i386
UEC_IMG=$RELEASE-server-uec-$ARCH
URL=http://uec-images.ubuntu.com/$RELEASE/current/
[ ! -e $UEC_IMG.tar.gz ] && wget $URL/$UEC_IMG.tar.gz
uec-publish-tarball $UEC_IMG.tar.gz $RELEASE-$TIMESTAMP
Damit ist der Kernel und das Image in unsere Ubuntu Cloud (Eucalyptus) hochgeladen worden und kann nun genutzt werden.
Mit dem anschließenden Befehl können wir das überprüfen.
euca-describe-images
Wir sollten einen registrierten Kernel sowie ein Image sehen, die als “available” markiert sind.
Quelle
Dieses Video zeigt die Installation von Eucalytpus auf Ubuntu Karmic 9.10.
via YouTube
Dieser Artikel beschreibt, wie die Funktionen des Eucalyptus Storage Controller (SC) innerhalb der Ubuntu Enterprise Cloud (UEC) verwendet werden kann. Der Storage Controller ist vergleichbar mit den Amazon Elastic Block Storage (EBS). Mit diesem können Block Devices wie z.B. virtuelle Festplatten von virtuellen Maschinen (Images) gemounted werden. Die Daten werden dabei außerhalb der virtuellen Maschine (VM) gespeichert und sind dabei unabhängig von dem aktuellen Status dieser VM. Das bedeutet, dass die Daten weiterhin persitent gespeichert beliben, auch wenn die virtuelle Maschine beendet wird.
Wurde die Ubuntu Enterprise Cloud mit einer CD installiert und existiert eine separate physikalische Netzwerkschnittstelle, mit der das Front-End mit den Eucalyptus Node Controllers (NCs) verbunden wird, muss sichergestellt sein, dass der Storage Controller das Private Network Interface verwendet.
Mit Hilfe der Weboberfläche kann diese Konfiguration unter Configuration -> Clusters -> Storage Controller vorgenommen werden. Dabei muss darauf geachtet werden, dass die IP-Adresse welche unter Host eingetragen ist zu dem private Interface gehört und das es sich bei diesem Interface auch um das physikalische Interface zu dem privaten Netzwerk handelt.
Für die Konfiguration mittels der Kommandozeile werden die folgenden Befehle verwendet.
sudo euca_conf --deregister-sc
sudo euca_conf --register-sc
Wichtig! Alle Volumes die vor der Ausführung des obigen Befehls erstellt wurden, werden anschließend nicht mehr funktionieren und sollten mit nachfolgendem Befehl entfernt werden.
Das Erstellen von Volumes
Zum Erstellen eines Eucalyptus Storage Controller Volumes nutzen wir den Befehl
euca-create-volume -s 1 -z myzone
Dabei entspricht -s die Größe in GB und -z den Namen der UEC Verfügbarkeitszone.
Mit dem Befehl
euca-describe-availability-zones
wird der Name des UEC Storage Controller Volumes ausgegeben.
VOLUME vol-xxxxxxxx
Das Benutzen von Volumes
Um ein Volume einer bereits gestarteten Instanz hinzuzufügen nutzen wir den Befehl
euca-attach-volume -i i-xxxxxxxx -d /dev/sdb vol-xxxxxxxx
Wobei -i den Identifier der Instanz und -d dem Namen des Endgerätes entspricht, dass dem Storage Controller Volume zugewiesen werden soll.
Mit dem Befehl
euca-describe-volumes
erhalten wir detaillierte Informationen zu den gemounteten Volumes.
VOLUME vol-xxxxxxxx 1 myzone in-use 2009-10-23T14:41:47.375Z
ATTACHMENT vol-xxxxxxxx i-xxxxxxxx /dev/sdb 2009-10-23T14:42:10.274Z
Anschließend sollte das hinzugefügte Endgerät im Verzeichnis /dev der Instanz vorhanden sein. Anschließend sollten wir in der Lage sein mittels
sudo fdisk /dev/sdb
mit dem Volume zu arbeiten. Dieses also zu partitionieren, formatieren, zu mounten und das Volume so zu nutzen, als wäre es wie ein physikalisches Endgerät vorhanden und an unserer Instanz angeschlossen.
Quelle
Das Kölner Unternehmen openQRM-Enterprise, Anbieter der gleichnamigen Cloud Computing Plattform openQRM, ist dem Canonical Software Partner Programm beigetreten und wird in diesem Zuge mit Professional Services und einem langfristigen Support die openQRM Cloud auf den Ubuntu Server Distributionen unterstützen.
Canonical ist Distributor von Ubuntu Linux und stellt mit der Ubuntu Enterprise Cloud eine auf Eucalyptus basierende Cloud Computing Infrastruktur Lösung bereit.
Weitere Informationen sind auf den Webseiten von Ubuntu zu finden:
Quelle
Die grundlegenden Ideen und Konzepte des Cloud Computing reichen bis in die 1960er zurück. Schon damals wurde die Idee entwickelt Rechenleistung und Anwendungen als Utility der Öffentlichkeit gegen eine Nutzungsgebühr bereitzustellen. Dass der Durchbruch erst heute bevorsteht, hängt mit den technischen Voraussetzungen zusammen, die zur damaligen Zeit einfach noch nicht gegeben waren.
Cloud Computing symbolisiert den service- und anwendungsorientierten Trend der heutigen Informationstechnologie, bei dem verteilte und hoch skalierbare Infrastrukturen über das Internet adaptiert werden können und Anwendungen und Dienste an jedem Ort und zu jeder Zeit verfügbar sind.
Unternehmen können durch den Einsatz von Cloud Computing ihre IT-Gesamtausgaben deutlich reduzieren und die Qualität, Sicherheit aber vor allem ihre Arbeitsabläufe messbar steigern. Cloud Computing Anbieter können Skaleneffekte nutzen, indem sie ihre Kosten über eine große Anzahl von Kunden verteilen und haben damit die Möglichkeit die Investitionen in den Betrieb und die Sicherheit (Daten- und Zugangssicherheit) ihrer Rechenzentren im Vergleich zu herkömmlichen Rechenzentrums Betreibern zu erhöhen.
Ob sich der Ansatz der Public Cloud durchsetzen wird, hängt von dem Bewusstsein jedes einzelnen zum Thema Datensicherheit(!) ab. Es werden sich mit hoher Sicherheit hauptsächlich hybride Varianten aus Private Cloud und Public Cloud durchsetzen. Unternehmen werden für unternehmenskritische Daten ihre eigenen ’kleinen’ Rechenzentren (Private Cloud) betreiben und weitergehende Dienste und Anwendungen aus einer Public Cloud beziehen. Für Startups kann zu Beginn der Nutzen einer Public Cloud von besonderem Interesse sein. Die Kosten sind leicht zu kalkulieren und die IT-Infrastruktur wächst dynamisch mit dem Unternehmen.
Vor dem Hintergrund, dass die meisten Anbieter von Cloud Computing Diensten ihre eigenen Standards innerhalb der Infrastrukturen einsetzen, sind für die Zukunft noch Fragen offen, die geklärt werden müssen. Wie komme ich aus der Cloud wieder zurück? und Wie wechsel ich von der Cloud eines Anbieters in die Cloud eines anderen Anbieters? Das zeigt, dass offene Standards signifikant für die Akzeptanz und Weiterentwicklung des Cloud Computing sind.
Zu guter Letzt müssen auch die Internetprovider und Telekommunikationsanbieter sich verpflichtet fühlen ihren Teil zum Erfolg des Cloud Computing beizutragen. Sind die aktuellen Angebote für Unternehmen sehr attraktiv, haben private Anwender fast keine Möglichkeit Dienste, wie z.B. Cloud Storage (Speicherplatz im Internet) in Anspruch zu nehmen. Die Uploadraten herkömmlicher Internetanschlüsse sind für diese Art von Dienst einfach zu langsam und können und werden dadurch auch nicht genutzt werden. Bessern die Anbieter in diesem Sektor ihre Angebote im Hinblick auf die Technik und den Preis nicht nach, besteht die Möglichkeit, dass wir im Privatbereich dieselbe Problematik erleben werden wie in den 1960er.
Zenoss ist eine Open Source IT-Management Suite, mit der die Konfiguration, der aktuelle Zustand, sowie die Performance des Netzwerks, der Server und Applikationen von einer zentralen Stelle aus verwaltet werden können.
Um die Möglichkeiten des Cloud Computing im Unternehmenseinsatz darzustellen, wird am Beispiel eines fiktiven Unternehmens, der Spielwaren GmbH, die IT-Infrastruktur analysiert und ein Handlungskonzept für die Migration in die Cloud vorgestellt.
Die Spielwaren GmbH ist ein weltweit agierendes Unternehmen mit vier Standorten in Deutschland, den USA, China und Indien. Das Unternehmen erzielt mit seinen knapp 3.500 Mitarbeitern weltweit einen Umsatz von ca. 1 Milliarde US Dollar pro Jahr. Die IT-Umgebung des Unternehmens wurde in den letzten Jahren weitestgehend nur dann aktualisiert, wenn die Notwendigkeit durch Ausfall eines Servers oder ähnliches bestand. Die Systemumgebung setzt sich wie folgt zusammen.
Die Kommunikation der Standorte findet über SDSL VPN-Verbindungen statt. Die beschriebene Systemumgebung gilt für jeden Standort. Eine Skizze der IT-Infrastruktur ist in der folgenden Graphik illustriert.
Eine Analyse der IT-Infrastruktur führte zu folgendem Ergebnis.
Generell gilt für die vorhandenen Rechenzentren: Die Hardware bei 80% der Server ist am Limit bzw. veraltet und muss dringend augetauscht werden.
Auf Basis der Analyse und der Sondierung des Cloud Computing Marktes erhält die Spielwaren GmbH folgende Handlungsempfehlung.
Die beschriebene Handlungsempfehlung gilt für die gesamte IT-Umgebung der Spielwaren GmbH, wodurch alle Standort betroffen sind. Eine Skizze der möglichen IT-Infrastruktur nach Umsetzung der Handlungsempfehlung ist in der folgenden Graphik illustiert.
Die Migration würde der Spielwaren GmbH folgende Nutzen bringen.
Neben den Nutzen birgt die Migration aber auch einige Gefahren, die aufgezeigt werden müssen.
Um den finaziellen Vorteil mit Zahlen zu verdeutlichen, wird die vorgeschlagende Google Apps Professional dem vergleichbaren Microsoft Exchange Server gegenüber gestellt. Die Aufstellung der Kosten ist in der folgenden Graphik nachzuvollziehen.
Der Vergleich zeigt den deutlichen finanziellen Vorteil durch den Einsatz der Google Apps Professional Lösung. Über einen Zeitraum von drei Jahren liegen die Ersparnisse pro Benutzer bei ca. 62,00 EUR im Vergleich zur Microsoft Exchange Lösung. Das liegt zum einen an den geringeren Lizenzkosten der Google Lösung (Ersparnis: 98.000 EUR), zum anderen an den geringeren Wartungs- (Ersparnis: 53.000 EUR) und Administrationskosten (Erspanis: 68.000 EUR) sowie an den fehlenden Investitionskosten in eine eigene Infrastruktur für die Server (Ersparnis: 20.400 EUR). Werden die gesamten Wartungs-, Administrations und Infrastrukturkosten herausgerechnet (letzte Zeile), liegt der Kostenvorteil der Google Lösung über einen Zeitraum von drei Jahren nur noch bei ca. 8,00 EUR pro Mitarbeiter.
Dieser Vergleich zeigt, wie die Infrastruktur- und Wartungskosten durch den Einsatz von Cloud Computing signifikant gesenkt werden können.
Die Handlungsempfehlungen, die für dieses Beispiel gewählt wurden, sind bewusst ein wenig extrem aber verdeutlichen gleichzeitig, was bereits heute mit dem Cloud Computing für Möglichkeiten bestehen. Ein Unternehmen muss sich gut überlegen, ob es seine Infrastruktur bzw. die unternehmenskritischen Daten in der Form so auslagern möchte. Zu groß ist z.B. das Risiko der Datensicherheit. Werden auf der anderen Seite aber Kunden von Google (Motorola und Procter & Gamble) und Salesforce.com (Dell, Dow Jones und Morgen Stanley) herangezogen, sollte die Attraktivität dieses Outsourcingmodells nicht vernachlässigt werden. Zu so einer Entscheidung gehört auch immer eine subjektive Betrachtung, bei der die Kosten eine immer größer werdene Variable in der Gleichung werden. Aus diesem Grund müssen auch Kompromisse geschlossen werden, wenn Kosten gesenkt werden sollen. Ob die Datensicherheit dabei zweitrangig behandelt werden darf bleibt fraglich.