Categories
News

Dell veröffentlicht OpenStack Cloud in Europa und Asien

Dell hat heute seine auf OpenStack basierende Cloud vorgestellt. Dabei handelt es sich um eine Open Source On-Premise Lösung, die für den Aufbau einer Private Cloud gedacht ist und exklusiv den europäischen und asiatischen Markt adressiert.

Dell veröffentlicht OpenStack Cloud in Europa und Asien

Dell hat dazu die OpenStack Referenz Architektur angepasst, um Kunden eine schnelle Migration in die Private Cloud zu ermöglichen. Dazu basiert die Referenz Architektur auf den Dell PowerEdge C Series Servern. Zudem arbeitet im Hintergrund ein Ubuntu Linux.

Die Cloud Lösung beinhaltet zusätzlich das Dell Crowbar Software Framework, dass das gesamte OpenStack Deployment, vom initialen Bootvorgang des Servers bis zur Konfiguration der OpenStack Komponenten unterstützt. Ist das erste Deployment fertiggestellt, kann Crowbar dazu genutzt werden, um die Private Cloud zu erweitern und zu warten. Dazu gehören ebenfalls die Konfiguration des BIOS, Status Monitoring, die Überwachung des Netzwerks und weitere Funktionen und Benachrichtigungen.

Bei Crowbar handelt es sich um ein Open Source Projekt unter der Apache 2.0 License.


Bildquelle: http://www.techweekeurope.es

Categories
News

Microsoft schickt sein Dynamics ERP in die Cloud

Microsoft hat erste Schritte unternommen, seine Enterprise Resource Planning Lösung Dynamics ERP Cloud-fähig zu machen und gegen Ende 2012 bereitzustellen. Dieses wurde auf der Convergence Conference in Houston bekanntgegeben.

Bereits auf der Convergence 2011 sprach Microsoft öffentlich über Gedanken, die ERP Anwendung über die eigene Azure Cloud Plattform auszurollen. Diese Ideen werden nun im vierten Quartal 2012 umgesetzt, wodurch NAV 2013 und GP 2013 als Cloud Lösungen bereitgestellt werden. Eine Beta Version von NAV 2013 wird im kommenden Mai veröffentlicht.

Neben diesen Erneuerungen plant Microsoft ebenfalls Kooperationen mit ISV Partnern, die in Zukunft ihre Anwendung via Windows Azure als Cloud Services anbieten sollen.

Mit dem Weg von Dynamics in die Cloud erhofft sich Microsoft eine gewisse Differenzierung von anderen Anbietern im Markt. Da die Redmonder damit nun in der Lage sind, per Public, Private und Hybrid Cloud Lösungen ihren Kunden unterschiedliche Nutzungsstrategien anzubieten.

Categories
News

HP präsentiert weitere Informationen zu seinen cCell Services und nennt Preise

Bei den HP cCell Services handelt es sich um ein neues Cloud-Modell, das HP nun auf den deutschen Markt gebracht hat.

Damit können Kunden erstmals wählen, von welchem Betriebsort sie kommerzielle Cloud-Dienste beziehen möchten: aus dem eigenen Rechenzentrum, von einem regionalen IT-Partner oder aus den HP-Rechenzentren in Frankfurt. Eine zentrale Makler-Plattform sorgt für die Verwaltung und Verteilung der Cloud-Dienste, die von HP und einem Ökosystem an System- und Softwarehäusern bereitgestellt werden. Endkunden können mit diesem Angebot den Standort und den Modus des Cloud-Betriebs an ihre technischen, geschäftlichen und regulatorischen Anforderungen anpassen. HP-Partner erhalten die Möglichkeit, schnell und ohne größere Investitionen ein eigenes Cloud-Angebot aufzubauen.

Als erster HP cCell Service ist ab sofort Infrastructure as a Service (IaaS) verfügbar (Serverleistung, Speicher und Backup). HP wird bis Mitte des Jahres 2012 weitere cCell Services für SAP-Betrieb, Exchange, Sharepoint, Webserver und Datenbanken auf den Markt bringen. Die Software AG hat angekündigt, ihr Portfolio Software AG Cloud-Ready für HP cCell Services zu zertifizieren. Die neue Bereitstellungsoption auf HP cCell Services wird Mitte 2012 verfügbar sein. Software-as-a-Service-Lösungen von Intershop und Seeburger werden im zweiten Kalenderquartal auf der cCell-Plattform verfügbar sein. Die Janz IT AG wird auf der Grundlage von HP cCell Services ihr Angebot „Mittelstandscloud.de“ weiter ausbauen.

Über ein spezielles Cloud-Partnerprogramm (HP Preferred Cloud Partner Program) qualifiziert und unterstützt HP IT-Anbieter, die auf der Grundlage des cCells-Modells eigene Cloud-Angebote aufbauen wollen.

Kunden bezahlen für die HP cCell Services eine Nutzungsgebühr pro Tag. Abgesehen von einer einmaligen Installationspauschale fallen keine Investitionen an. Die Tagespreise pro Dienst variieren je nach gewähltem Service Level. Bestellte Services sind innerhalb von einer Stunde oder schneller verfügbar. HP cCell Services sind Teil des Portfolios HP Enterprise Cloud Services und zunächst für den deutschen Markt verfügbar.

Die Höhe der Kosten beträgt je nach Modell für die Nutzung der Virtual Private Cloud 3,80 EUR pro Tag für eine Maschine von der Kategorie “Small” plus der einmaligen Installationspauschale von 9.842,00 EUR. Für eine Private Cloud werden 4,30 EUR pro Tag für eine Maschine von der Kategorie “Small” plus der einmaligen Installationspauschale von 17.954 EUR berechnet. Die Virtual Private Cloud ist zudem nicht abhängig von einer Mindestvolumennutzung, wo hingegen bei der Private Cloud eine Nutzung von 25% bis 35% Systemauslastung erwartet wird. In der Installationspauschale sind u.a. Workshops Beratung und Integrationshilfen enthalten.

Bei den Service Level werden drei Kategorien 0 bis 2 unterschieden. Wobei hier zwischen dem direkten Hosting in einem HP Rechenzentrum bzw. dem Hosting in einem HP Rechenzentrum oder bei einem Partner unterschieden wird. Die Servicelevel Qualität unterscheidet sich hier jedoch nicht. Beim SLA0 bzw. SLA1 werden jeweils 99,0% (0) bzw. 99,5% (1) angegeben. Den einzigen unterschied macht das SLA Level 2. Hier wird eine garantierte Verfügbarkeit von 99,9% in einem HP Rechenzentrum garantiert. Beim Hosting der Cloud in einem Partner Rechenzentrum werden keine Angaben gemacht, da je nach Projekt und Situation entschieden werden soll.

Categories
News

Deutsche Bundesregierung unterstützt das Thema Cloud Computing

Im Rahmen der CeBIT eröffnete der Staatssekretär des Bundesministerium für Wirtschaft und Technologie (BMWi) Stefan Kampferer die Cloud Computing World des BITKOM.

Nach Aussage von Kampferer habe das BMWi im Jahr 2010 bereits frühzeitig die Wichtigkeit und das Potential des Cloud Computing erkannt und daher zusammen mit dem BITKOM die Initiative Cloud Computing ins Leben gerufen. Kampferer sieht auf Grund des on-Demand Bezugs und pay as you go Modells des Cloud Computing ein großes Produktivitätspotential, was Unternehmen eine deutlich höhere Flexibilität im Vergleich zum klassischen IT-Bezug ermöglicht.

Insbesondere sieht der Staatssekretär noch große Herausforderungen im Mittelstand, bei dem sich in Deutschland jedoch das größte Potential verbirgt. Nach Kampferer erkennen Mittelständler zunächst keinen Nutzen in der Adaption von Cloud Computing. Allerdings sehen diejenigen, die bereits eine Evaluation vorgenommen haben, dass es sich durchaus lohnen kann. Hier müssen die Anbieter über Vertrauen und ein besonderes Maß an Sicherheit die Mittelständler ins Boot holen.

BITKOM mit neuer Umfrage und Whitepaper

Im Anschluß der Eröffnung präsentierte Prof. Dieter Kempf, Präsident des BITKOM, Auszüge aus einer neuen Umfrage, die der BITKOM zusammen mit KPMG erhoben hat und die in Kürze in einem Whitepaper veröffentlicht werden. Diese Umfrage soll alle vier Jahre erneut durchgeführt werden, um einen aktuellen Stand des Cloud Computing in Deutschland aufzuzeigen.

Die Umfrage behandelte u.a. Fragen zur Bedeutung und Verbreitung des Cloud Computing im jeweiligen Unternehmen, die spezifische Branche. Welche Formen eingesetzt werden und welcher Nutzen sich dadurch bisher ergeben hat sowie die Herausforderungen dies es zu bewältigen gab und welche grundsätzlichen Erfahrungen gemacht wurden.

Kempf nannte ebenfalls ein paar Ergebnisse der Umfrage. So sei jedes dritte Unternehmen aufgeschlossen für das Thema Cloud Computing, wobei weiterhin ein hoher Informationsbedarf vorhanden ist. Laut der Umfrage nutzen 27% der befragten Unternehmen Private Cloud Lösungen, wobei bereits 21% planen, dieses Cloud Modell einzusetzen. Zudem nutzt jedes zweite Großunternehmen Private Clouds, wo hingegen 1/4 der KMUs diese Art der Cloud Nutzung bevorzugen. Alle befragten Anwender haben über positive Erfahrungen berichtet. Der Bitkom geht daher davon aus, dass sich die Budgets für die Private Clouds weiter erhöhen werden. 6% der befragten Unternehmen nutzen die Public Cloud, wovon 3/4 bisher positive Erfahrungen gemacht haben.

Der Bitkom sieht weiterhin viel Überzeugungsarbeit die geleistet werden müsse und bei der Vorteile und Vorbehalte wie bspw. das Vertrauen gegenübergestellt werden müssen. In diesem Zuge sollten diverse Rahmenbedingungen weiter definiert und ein entsprechender Rechtsrahmen für die notwendige juristische Sicherheit sorgen.

Besonders für den öffentlichen Sektor sieht der Bitkom durch das Cloud Computing starke Kosteneinsparungen und erhofft sich durch die Cloud zudem einen positiven Einfluss auf das Ökosystem.

Categories
Analysen

Kriterien zur Auswahl eines Cloud Computing Anbieters

Cloud Computing Anbieter haben mit ihren Angeboten und Eigenschaften den größten Einfluss auf Unternehmen und deren Informationstechnologie. Dabei müssen sich Unternehmen der Herausforderung stellen, den für Ihre Bedürfnisse idealen Anbieter zu identifizieren. Das stellte Unternehmen bereits in der Vorzeit des Cloud Computing vor Probleme, jedoch hat sich die Situation durch die hohe Standardisierung auf Seiten der Anbieter verschärft.

In der Regel müssen sich Unternehmen für das entscheiden, was der Anbieter im Portfolio hat ohne Einfluss darauf zu haben und Anpassungen vornehmen zu können. Hinzu kommt, dass neben dem Angebot und dem Preis ebenfalls die SLAs, Governance, Compliance usw. bei der Auswahl berücksichtigt werden müssen. Schließlich hat sich der Einflussbereich des Unternehmens minimiert und das Vertrauen in den Cloud Computing Anbieter steht auf dem Spiel.

Die eigenen Bedürfnisse sind ausschlaggebend

Unternehmen stehen damit vor der Herausforderung den oder die Anbieter zu selektieren, der bzw. die ihre Ansprüche bzgl. der Integration der vorhandenen Systeme, der Abbildung der Geschäftsprozesse usw. bestmöglich unterstützen und des Weiteren über eine hohe Vertrauensbasis verfügen.

Eine Bewertung und Auswahl vorzunehmen ist nicht trivial. Zudem existieren dafür keine geeigneten Frameworks und es ist ebenso schwierig so ein allgemeingültiges Framework zu erstellen. Das ist der Individualität und den Anforderungen eines jeden einzelnen Unternehmens geschuldet. Jedoch kann ein Unternehmen bei der richtungsweisenden Bewertung und Auswahl unterstützt werden.

Grundsätzlicher Auswahlprozess

Auf Grund einer Vielzahl von Angeboten, die unterschiedliche Services, Kosten, Support etc. mit sich bringen, benötigen Unternehmen eine klare Strategie und starke Auswahlkriterien um Cloud Computing bestmöglich für sich zu nutzen.

Während Kosten, Skalierbarkeit, Fachwissen und die operative Stabilität offensichtliche Kriterien sind, gibt es weitere wichtige Faktoren, die bei der Auswahl eines Cloud Computing Anbieters notwendig sind.

Eigene Anforderungen definieren

Ein Unternehmen muss sich zunächst über sich selbst im Klaren sein. Das heißt, es muss seine Unternehmensstrategie, seine Unternehmensziele sowie seine Kernprozesse und Funktionen kennen. Zudem muss es klar definieren, was es sich von der Nutzung der Cloud verspricht. Geht es eher darum, die Möglichkeiten der internen IT zu erweitern oder sollen die nicht strategisch wichtigen Unternehmensanwendungen in die Cloud migriert und dort betrieben werden?

Sobald das Unternehmen eine klare Vorstellung von seinen Anforderungen hat, gilt es einen geeigneten Partner zu finden, der bei der Ausführung hilft. Dabei sollte beachtet werden, dass ein Anbieter, der den aktuellen Bedürfnissen gerecht wird, möglicherweise bei einer Änderungen der Strategie nicht mehr die gewünschten Anforderungen erfüllen kann. Die eigene Strategie sollte daher nicht als ein statischer Plan behandelt werden und eine gewisse Flexibilität beinhalten. Denn die Geschäftsanforderungen ändern sich in der heutigen Zeit deutlich schneller und auch neue unvorhergesehene Cloud-Technologien werden auf dem Markt erscheinen, die dabei helfen werden das Unternehmen strategisch neu auszurichten. Daher ist es notwendig, die Cloud Strategie als auch den Cloud Computing Anbieter regelmäßig zu überprüfen.

Auswahl des Cloud Computing Anbieters

Jedes Angebot im Cloud Computing ist einzigartig. Sei es ein Infrastructure-as-a-Service, Platform-as-a-Service, Software-as-a-Service, Security Service oder ein Service zur Abbildung eines Geschäftsprozesses. Hinzu kommt, dass sich auch die Anforderungen eines Unternehmens an einen Services mit den Angeboten in der Cloud unterscheiden. Das betrifft in erster Linie den eigentlichen Nutzen für das Unternehmen bis hin zur technologischen Anbindung. Die erste Frage, die einem Cloud Computing Anbieter also grundsätzlich gestellt werden muss, ist, ob er genau den Cloud Service anbieten kann, der von dem Unternehmen benötigt wird. Sollte diese Frage mit ja beantwortet werden, gilt es anschließend den Anbieter genauer zu untersuchen. Verfügt er über langjährige Erfahrungen, hat er ein aussagekräftiges Kundenportfolio, passt der Anbieter ethisch zu dem Unternehmen. Bspw. wäre es für ein Unternehmen, das sich in vielen Bereichen für den Umweltschutz einsetzt, unvorstellbar einen Cloud Computing Anbieter zu wählen, der nicht über eine Green IT Policy verfügt.

Im Verlauf der Prüfung werden dann die detaillierten Anforderungen des Unternehmens untersucht und mit den Angeboten des Cloud Computing Anbieters verglichen. Dazu sollten während der Anforderungsanalyse Attribute definiert werden, die der Cloud Service bzw. die Anwendungen erfüllen müssen und je nach Gewichtung für oder gegen die Wahl des Cloud Computing Anbieters sprechen.

Beurteilung der allgemeinen Sicherheit

Eine der größten Sorgen ist die Datensicherheit in der Cloud und die Funktionsfähigkeit der Infrastruktur für den geschäftskritischen Betrieb. Die Systeme und Daten müssen sich daher in sicheren Händen befinden und das gilt es sicherzustellen. Bei der Auswahl des Cloud Anbieters muss daher zunächst eine Bestandsaufnahme der eigenen Sicherheitsanforderungen gemacht und die Probleme erörtert werden, die es zu bewältigen gilt. Dazu gehören z.B. der Datentransfer, die Speicherung, die Zutrittskontrolle, und Netzwerksicherheit. Im Anschluss muss bestimmt werden, ob der Anbieter über die Sicherheit und Compliance Technologien und Mechanismen verfügt, um diese Bedürfnisse zu erfüllen.

Hier sollte der Anbieter u.a. gefragt werden, wie die Sicherheitsmechnismen funktionieren, um den Schutz der Daten während des Transports und beim Speichern zu gewährleisten oder ob die virtualisierte Infrastruktur wirklich sicher ist. Weiterhin ist es notwendig zu wissen, ob der Anbieter über die entsprechenden Technologien und Prozesse wie Verschlüsselung und Entschlüsselung, Disaster Recovery, Zugangsbeschränkungen, Intrusion Protection/ Prevention und Firewall-Dienste verfügt.

Fragen stellen alleine reicht allerdings nicht. Um den Anbieter wirklich kennenzulernen müssen die Sicherheitdokumentationen und Zertifizierungen eingehend überprüft werden. Auch ein Besuch vor Ort sollte in Betracht gezogen werden, um zu sehen und zu verstehen, was sich hinter der Cloud des Anbieters verbirgt.

Zuletzt sollte immer das Worst-Case-Szenario in die Bewertung des Sicherheitsniveaus des Anbieters einfließen. Denn auch wenn das undenkbare niemals eintreten wird, sollte der Anbieter seine Kunden davor bestmöglich schützen können.

Bewertung des Service und Supports

Da es sich beim Cloud Computing um ein serviceorientiertes Model handelt, sollte sich ein Unternehmen für einen Anbieter entscheiden, der Vertrauen ausstrahlt, über eine ausgezeichnete Infrastruktur verfügt und messbare Ergebnisse nachweisen kann. Zudem sollte der Anbieter über eine hohe Reaktionsfähigkeit (schnelle Reaktion auf betriebliche Probleme) und einen guten proaktiven Support (z.B. Kundenbetreuung, vorbeugende Instandhaltung, Erhöhung der Ressoucen in einem Shared Umfeld etc.) verfügen.
Zwar sind maßgeschneiderte Verträge im Bereich des Cloud Computing nicht üblich, dennoch sollte der Anbieter bereit sein, unternehmensgerechte Service Level Agreements (SLAs) zu definieren. Darin enthalten sein sollten bspw. Performance, Verfügbarkeit, Bereitstellungszeit und ein Problemlösungszeitraum. Dazu gehören wiederum formale Eskalationsrichtlinien und definierte Sanktionen. Weiterhin könnte es interessant und notwendig sein, zu überprüfen, wie die bisherige Erfolgsbilanz bzgl. der Einhaltung der SLAs durch den Anbieter aussieht.

Die Suche nach einem flexiblen Anbieter

Das Interesse am Cloud Computing nimmt immer stärker zu. Jedoch ist kein Unternehmen bereit, seine Systeme vollständig in die Cloud zu verlagern. Daher planen die meisten Unternehmen mit dem Aufbau eines hybriden IT-Ökosystems. Also einer Hybrid Cloud, bei der die Ressourcen im eigene Rechenzentrum (ggf. Private Cloud) mit Ressourcen aus einer externen Cloud Infrastruktur (Public Cloud) kombiniert werden.

Unternehmen sollten hierbei darauf achten, dass der Anbieter in der Lage ist, hybride Umgebungen nahtlos zu integrieren und diese ebenfalls sorgfältig zu verwalten. So kann ein Unternehmen bei Bedarf die benötigten Cloud Services von dem Anbieter beziehen und damit seine internen IT Ressourcen und Möglichkeiten erweitern.

Verstehen des Abrechnungsmodells

Die nutzungsabhängige Abrechnung ist eine der attraktivsten Eigenschaften des Cloud Computing. Unternehmen erhalten dadurch die Möglichkeit, auf hohe Investitionen zu verzichten, indem die Kosten für die Beschaffung von Hard- und Software minimiert werden und wodurch sie ein vorhersehbares Betriebskostenmodell aufbauen können.

Dennoch sollten sich Unternehmen bewusst machen, dass jeder Anbieter seine eigene Art und Weise der Preisgestaltung für seine Services hat. Während einige bspw. eine Instanz pro Stunde oder pro Monat abrechnen, berechnen andere auf Basis der genutzten Ressourcen. Einige Anbieter erwarten z.B. eine Vorauszahlung für einen bestimmten Basis Service und in einigen Fällen muss für die Kundenbetreuung möglicherweise eine zusätzliche Gebühr bezahlt werden. Unternehmen müssen daher das Abrechnungsmodell des Anbieters verstehen, um spätere Überraschungen zu vermeiden und ggf. einen kundenspezifischen Preis auszuhandeln.

Auf in die Cloud

Um sicherzustellen, dass exakt die Cloud Services erworben werden, die ein Unternehmen auch wirklich benötigt, muss der Auswahlprozess klar definiert und sorgfältig vorgenommen werden. Dazu gilt es genau zu wissen, wie die Kriterien für die Nutzung von Cloud Computing heute aussehen und wie sie in Zukunft aussehen könnten bzw. sollen.


Bildquelle: http://www.wirtschaftsforum.de

Categories
News

Zynga verlässt die Amazon Web Services und geht zurück in die Private Cloud

Mit Spielen wie CastleVille, Mafia Wars und Farmville wurde Zynga bekannt und hat einen wesentlichen Beitrag für die Online-Games Branche geleistet. Die Spiele wurden zunächst auf den Servern der Amazon Web Services (Amazon EC2) betrieben, da im Jahr 2009 die Zugriffe stiegen und mehr Speicher und Geschwindigkeit benötigt wurden. Die jüngsten Entwicklungen haben jedoch gezeigt, dass Zynga auch eine Private Cloud nutzen kann.

Die Statistiken zeigten, dass Zynga maximal ein Drittel der EC2 Server benötigt, die sie aktuell nutzen. Das mag im ersten Moment überraschend klingen. Aber während der diverser Tests stellte sich heraus, dass Zynga maximal eine virtuelle Maschine (VM) pro Server, wie es auf EC2 der Fall ist, benötigt. Der Vorteil der Private Cloud besteht darin, dass Zynga ihre zCloud Server auf die eigenen Bedürfnisse modifizieren und so für den Einsatz optimieren kann.

Dazu gehören die Optimierung der “Gaming Roles” und deren Zugriff auf die Datenbank und die Software-Infrastruktur sowie die Maximierung der Webserver und der verbesserten Ausführung der Spiellogik im Cloud-Framework. Diese neuen Entwicklungen und Veränderungen wurden während der letzten CloudConnect in Santa Clara, Kalifornien vorgestellt.

Das zCloud Konzept war das Ergebnis von mehr als sechs Monaten Software Design und Entwicklung von Zyngas Ingenieuren. Für Zynga war es ein logischer Schritt auf eine eigene Cloud-Infrastruktur zu setzen. Der Anfang auf der Amazon Cloud gab ihnen zunächst die Möglichkeit die rasant wachsende Nachfrage schnell zu befriedigen. Nach dem Start von Farmville wurden innerhalb von 5 Monaten 25 Millionen Spieler erreicht. Das wäre am Anfang mit einer eigenen Infrastruktur nicht zu schaffen gewesen.

Castle Ville war das erste Spiel das alleine auf der zCloud ausgerollt wurde. Mit dem Start wurden innerhalb von sechs Tagen ca. 5 Millionen Nutzer erreicht. Die zCloud arbeitet mit energieeffizienten Servern, die ähnlich dem Open Compute Project von Facebook sind. Die zCloud wurde entwickelt, um die Anforderungen auf das Cloud-Gaming-fokussierter Anwendungen zu erfüllen, wie bspw. der Bedarf an Speicher, CPU, I / O sowie weiterer Spielelemente und Anwendungen.

Zynga hat sich darüber hinaus auf die Entwicklung performanter Speichersysteme konzentriert, damit die Webserver auch starken Internetverkehr durch die Firewalls und Loadbalancer effizient transportieren können. Zudem wurden strategische Standorte in der Nähe von Facebook Rechenzentren gewählt.

Zynga sieht sich im Vergleich zu Amazon nun als ein hochpreisiger Sportwagen, wohingegen Amazon sich in der Klasse der viertürigen Limousinen befindet.

Der Weg von Zynga könnte zu einem Vorbild für andere Unternehmen werden, die mehr Kontrolle über ihre Cloud-Plattform gewinnen wollen.

Categories
News

Rackspace bietet Private Cloud auf Basis von OpenStack

Mit der Rackspace Cloud: Private Edition ermöglicht der US-amerikanische IaaS Anbieter seinen Unternehmenskunden nun auch die Nutzung einer Private Cloud auf Basis von OpenStack. Dabei handelt es sich um eine Neuausrichtung, da Rackspace lange Zeit nur als Public Cloud Anbieter agierte.

Unternehmenskunden sollen damit die Gelegenheit bekommen, innerhalb einer privaten Umgebung eine Cloud Infrastruktur auf Basis von OpenStack aufzubauen, wobei der Service für die darunterliegende Infrastruktur sowie weitere operative Unterstützung durch Rackspace übernommen werden.

Die Rackspace Cloud: Private Edition bietet alle Funktionen des vorhandenen Public Cloud Angebots, wie bspw. das Self-Service Portal, API Zugriff für Entwickler sowie weitere Tools für Administratoren. Der Kunde kann darüber hinaus jedoch selbst entscheiden, in welchem Rechenzentrum sich die Cloud Infrastruktur befinden soll.

Das grundlegende Design basiert softwareseitig auf OpenStack. Hardwarelieferanten sind derzeit Cisco und Dell. 2012 soll das Angebot mit weiteren Technologien ausgebaut werden, darunter eine Zusammenarbeit mit der Open Compute Foundation, die von Facebook, Intel und Rackspace gegründet wurde. Darüber hinaus soll ein Ökosystem von Technologienpartnern aufgebaut werden für das sich bereits Opscode und RightScale angekündigt haben.

Categories
News

Scality und TeamDrive kooperieren und kündigen neue Lösungen für Private Clouds an

Der Cloud Storage Spezialist Scality und der deutsche Anbieter für Cloud-Collaboration Teamdrive haben angekündigt, beide Lösungen zu vereinigen, um auf dieser Basis eine neue und sichere Cloud Synchronisations-und Collaboration-Lösung anzubieten.

Das Ergebnis dieser Kooperation soll eine vollständig integrierte File-Sharing und Synchronisations-Lösung für den Einsatz in der eigenen Private Cloud werden und richtet sich an Unternehmen, die neben Funktionen für die effektive Zusammenarbeit und Mobilität ebenfalls die vollständige Sicherheit ihrer Infrastruktur erwarten und darüber hinaus die Daten im eigenen Umfeld behalten möchten.

Scality wird der Lösung seine robuste und skalierbare Speichertechnologie einverleiben, während TeamDrive dafür sorgt, dass der Anwender seine Daten, wie Dokumente, sicher und verschlüsselt austauschen kann und zu jeder Zeit die Kontrolle über die Daten behält.

Die Lösung wird dabei von der höchstmöglichen Sicherheit profitieren. So wurde TeamDrives Hosting-Dienst die “Seal of Privacy” Auszeichnung durch das Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein (ULD) verliehen.

Die neue Scality/ TeamDrive Lösung wird am 2./3. November im Rahmen des “SNW – Powering the Cloud” Events in Frankfurt auf dem Scality-Stand vorgestellt.

Categories
News

Suse arbeitet an einer Private Cloud Infrastruktur auf Basis von OpenStack

Suse ist nach eigenen Angaben derzeit aktiv an der Entwicklung einer eigenen Cloud Infrastructure Software. Diese soll auf OpenStack basieren und Unternehmen dabei helfen eine eigene Private Cloud aufzubauen. Eine fertige Version soll 2012 veröffentlicht werden.

Die Suse Cloud soll auf der aktuellen Version von OpenStack basieren, aber nicht vor 2012 erscheinen. Eine erste (Test-) Version soll bereits verfügbar sein und in nächster Zeit zum Download angeboten werden. Jedoch empfiehlt Suse Unternehmen diese Version nicht in einer Produktionsumgebung einzusetzen.

Die Software ist kompatibel mit dem Hypervisor von Microsoft und VMware sowie mit Xen und KVM. Als Basis der Suse Cloud dient der Suse Linux Enterprise Server. Sie kann aber ebenfalls mit dem Suse Studio genutzt werden, um Cloud Anwendungen zu entwickeln und bereitzustellen. Als Administrationstool dient der Suse Manager.

Unternehmen sind laut Suse an OpenStack interessiert, da es die Portierbarkeit von Anwendungen verbessert. Das kann unter anderem daran liegen, dass OpenStack zunehmend für den Aufbau von Public Cloud Umgebungen eingesetzt wird. Von diesem Standpunkt aus haben es Unternehmen tatsächlich einfacher ihre Überlasten von der Private in eine Public Cloud auszulagern.

Categories
Tutorials @de

HowTo: Einrichtung von Witsbits – Private Cloud Management-as-a-Service

Vor kurzem haben wir Witsbits, einen “Private Cloud Management as a Service” aus Schweden vorgestellt. Heute geht es darum, wie vorgegangen werden muss, um Witsbits im eigenen Rechenzentrum/ Serverraum nutzen zu können.

Vorbereitung

Zunächst benötigen wir einen oder mehrere “leere” physikalische Systeme (64bit) als Host für die virtuelle Infrastruktur sowie einen Desktop Computer inkl. Webbrowser, mit dem die webbasierte Management Konsole genutzt werden kann.

Der physikalische Server sollte mindestens über einen 64 bit x86 Prozessor mit Intel VT oder AMD-V Technologie verfügen sowie ein CD-ROM, DVD-ROM oder USB-Ports, um darüber die Installation mittels des Witsbits ISO zu ermöglichen. Der Arbeitsspeicher sollte eine Mindestgröße von 1GB RAM besitzen und die Festplatte sollte nicht zu klein ausfallen, da hier die virtuellen Festplatten und Snapshots der virtuellen Maschinen gespeichert werden.

Weiterhin benötigen wir eine für DHCP konfigurierte Netzwerkumgebung inkl. einer aktiven Internetverbindung. Der DHCP-Server wird IP Adressen für die physikalischen Hosts als auch die virtuellen Maschinen bereitstellen müssen. Jeder physikalische Host benötigt zudem eine Vielzahl an IP Adressen, je nach Anzahl der virtuellen Maschinen, die auf ihm laufen sollen.

Für die Verwaltung der GoCloud Infrastruktur wird ein gewöhnlicher Desktop PC mit Windows, Linux oder Mac Betriebssystem oder ein Smartphone benötigt. Die Managementoberfläche unterstützt derzeit den Internet Explorer 7 und 8, Firefox, Chrome/Chromium und Safari.

Installation und Einrichtung von Go Cloud

Als erstes benötigen wir einen Go Cloud Account. Nach der erfolgreichen Registrierung laden wir uns das ISO Image (ca. 180 MB) herunter und entpacken es.

Nun erstellen wir uns aus dem ISO Image entweder eine bootbare CD/DVD oder einen USB-Stick. Anschließend starten wir den physikalischen Server mit dem ISO Image. Voraussetzung hierfür ist, dass der Server via eines DHCP Servers IP Adressen empfangen kann und das eine aktive Internetverbindung besteht. Der physikalische Host wird sich nun automatisch mit dem Go Cloud Management System verbinden. Nach dem Bootvorgang kann die CD/DVD oder der USB-Stick entfernt werden und dieselbe Prozedur kann mit dem nächsten physikalischen Server erfolgen.

Das zuvor heruntergeladene ISO Image ist mit einer persönlichen Account-ID gekennzeichnet, wodurch alle Server die mit dem ISO Image gebootet werden automatisch an dem Go Cloud Management System dieses Accounts registriert werden. Nachdem das Host System vollständig gebooted wurde, erscheint es auf der Management Konsole in der Weboberfläche. Der physikalische Server ist nun soweit vorbereitet, um virtuelle Maschinen zu starten.

Verwaltung der physikalischen Server und virtuellen Maschinen

Um einen physikalischen Server zu konfigurieren klicken wir in der Web Konsole zunächst auf “Physical Servers”. Hier sollte nun ein neuer Server mit einem Datum sowie einem Timestamp zu sehen sein. Hier wählen wir nun “New Server” und anschließend “Initiate Disks”. Das kann einen Moment dauern. Das darauf folgende Pop-Up bestätigen wir. Go Cloud sucht nun die größte Festplatte, entfernt von dieser alle Partitionen und erstellt eine Große. Wir müssen nun ein paar Mal aktualisieren (F5) bis der “Update Repo (Repository)” Button aktiv ist. Nachdem die Festplatte initialisiert ist, sollte auch die Queue leer sein. Wir klicken anschließen den “Update Repo (Repository)” Button.

Die Public Images von Go Cloud werden nun heruntergeladen und extrahiert. Abhängig von der Internetverbindung kann dieses bis zu 15 Minten dauern. Nach Beendigung wird dieser Job aus der Queue verschwinden.

Um eine erste virtuelle Maschine (VM) auf dem physikalischen Host zu erstellen, geben wir der VM als erstes einen Namen und hinterlegen für das Image ein Passwort. Als nächstes wählen wir ein Image bzw. Gast Betriebssystem und entscheiden uns für die Anzahl an CPUs sowie die Größe des zuzuweisenden Arbeitsspeichers. Mit dem klick auf den Button “Power On” wird ein neues VM Image erstellt, welches unten angezeigt wird. Der Status des Image sollte grün (OK) sein sowie die VM eine zugewiesene IP Adresse haben.

Per Remote Desktop, dem Administrator Passwort und dem Image Passwort der erstellten VM kann die VM nun gestartet werden. Für die Anmeldung benötigen wir hier das Passwort des VM Image und nicht das Passwort für die Anmeldung an Go Gloud.


Quelle: Witsbits