Categories
Kommentar

Cloud Washing: D-Link führt seine Kunden an der Nase herum

Vor ungefähr zwei Wochen habe ich eine Pressemitteilung von D-Link mit dem Betreff “DIR-506L Router verleiht der Cloud Flügel” erhalten. Da stellt sich natürlich die Frage: Seit wann kooperiert ein Hersteller von Netzwerkhardware mit einem Energiedrink aus Österreich und was hat das alles mit Cloud Computing zu tun? Einfache Antwort: Nichts. D-Link ist hier schlicht und einfach auf den Marketingzug “Cloud” aufgesprungen und suggeriert mit so einer Aussage den Medien aber vor allem seinen Kunden, ein Cloud Produkt im Portfolio zu haben, CloudWashing also.

Das Marketing zerstört das Verständnis für Cloud Computing

In der Pressemitteilung heißt es großzügig:

D-Link, der Netzwerkexperte für das digitale Zuhause, erweitert die Cloud-Familie um einen neuen Router: Mit dem tragbaren DIR-506L lässt sich die persönliche Datenwolke bequem in die Tasche stecken.

und weiter

Besonders einfach klappt das mit den Apps für …. Egal ob iPhone, iPad oder Android-Endgerät, die kostenlose App macht den Zugriff und Umgang mit digitalen Inhalten innerhalb der Personal Cloud zu einem Kinderspiel. Anwender können Medien vom Endgerät oder Massenspeicher ganz einfach auf andere PCs, Tablets oder Smartphones streamen und haben so jederzeit uneingeschränkten Zugriff auf Musik, Fotos, Filme, Powerpoint Präsentationen, Excel-Listen oder PDF-Dateien. Das funktioniert natürlich ebenfalls in die andere Richtung: Wichtige Daten landen auch unterwegs bequem und schnell als Backup auf dem am Router angeschlossenen USB-Speicher.

Ich glaube das Kinderspiel für D-Link an dieser Stelle ist es, über ein verwirrendes Marketing seine Kunden auf den falschen Weg zu bringen und sich als Anbieter von Cloud Produkten zu positionieren, die sie definitiv nicht haben. Seit wann hat die Cloud denn z.B. einen USB-Anschluß?

Es kommt aber noch besser.

Mit D-Link in der Personal Cloud
D-Link investiert konsequent in die Entwicklung von Cloud Produkten sowie Services. … Bereits verfügbar sind die Cloud Router … mehrere Netzwerkkameras sowie der Netzwerk-Videorekorder …

Alles klar? Es ist wirklich eine Schande, wie D-Link versucht, seine Kunden an der Nase herumzuführen. Es werden mittlerweile sogar Netzwerkkameras und Netzwerk-Videorekorder cloudifiziert, nur um über den Cloud-Zug den Absatz zu erhöhen. Wohlgemerkt auf Kosten und dem Rücken der Kunden.

Was ist Cloud Computing?

Es gibt klare Beschreibungen was Cloud Computing ist. Dazu gibt es hier viel zu lesen:

83 Prozent aller Unternehmen sind genervt vom Cloud Washing

Solche Marketing-Aktionen, wie sie nicht nur D-Link betreibt, nervt übrigens über 83 Prozent der Unternehmen. Das ergab eine Umfrage von ElasticHosts. Meine Einwände sind also nicht ganz unberechtigt.

Übrigens ist auch Adron Hall von CloudAve das nebulöse Marketing von D-Link – neben ein paar Anderen – negativ aufgefallen.


Bildquelle: ©Thommy-Weiss / PIXELIO

Categories
Management @de

Der Weg in die Cloud startet mit dem richtigen Use Case

Der Übergang von on-Premise hinzu Cloud basierten Lösungen stellt Unternehmen vor Herausforderungen. Sollen die bestehenden Systeme 1:1 migriert oder die Chance genutzt werden, um einen Neuanfang zu starten und nur die Daten übernommen werden. Es stellt sich hier also die Frage, wie existierende Anwendungen in die Cloud migriert werden. So oder so muss sich allerdings das Architekturmodell der bestehenden Systeme und Anwendungen vollständig vom statischen zu dynamischen/ skalierbaren Modellen zzgl. Multi-Tenancy Fähigkeiten verändern, um die wahren Möglichkeiten der Cloud zu nutzen.

Eine Infrastruktur bietet die meisten Freiheiten

Die größten Herausforderungen erleben Unternehmen bei der Nutzung des Infrastructure-as-a-Service (IaaS), da ihnen hier von einem Public Cloud Anbieter „nur“ virtuelle Ressourcen bereitgestellt werden, um auf dieser Basis eine eigene virtuelle Infrastruktur aufzubauen, auf der sie ihre eigenen Systeme hinsichtlich Hochverfügbarkeit aber vor allem mit einer enormen Skalierbarkeit aufzubauen. Ein Nutzer darf sich hier zudem maximal darauf verlassen, dass der Anbieter dafür sorgt, dass die durch im bereitgestellte Infrastruktur zu einem bestimmten Service Level zur Verfügung steht. Um alle weiteren Themen, wie die Wartung der virtuellen Ressourcen und den darauf betriebenen Software, Services und Systemen muss sich der Nutzer selbst kümmern. Ebenso das Sicherstellen der Hochverfügbarkeit der eigenen Systeme und Applikationen fällt in den Aufgabenbereich des Kunden.

Eine Plattform erleichtert die Administration

Ein Stückweit mehr Verantwortung gibt der Nutzer an einen Anbieter ab, wenn er sich für einen Platform-as-a-Service (PaaS) entscheidet. Wie der Name bereits sagt, stellt ein Anbieter eine vollständige Plattform inkl. einem umfangreichen Systemstack zur Verfügung. Ein Nutzer kann sich hier gezielt auf die Entwicklung seiner Anwendung konzentrieren und muss sich nicht, anders als beim IaaS, um die darunter liegende Infrastruktur kümmern. PaaS gilt als die Serviceart mit dem größten Wachstumspotential und den vielfältigsten Möglichkeiten für die kommenden Jahre. Ein Blick auf die PaaS der ersten Stunde unterstreicht diese These. Haben die meisten Anbieter zu Beginn nur eine Programmiersprache unterstützt, kamen im Laufe der Zeit immer weitere Sprachen hinzu, wodurch ein Nutzer mittlerweile aus einer Vielfalt an Sprachen wählen kann, um seine Applikationen in die Cloud zu migrieren bzw. dort neue Ideen zu verwirklichen.

Standardisierte Applikationen

Bei der Nutzung von Applikationen auf Basis von Software-as-a-Service (SaaS) hat der Nutzer am wenigsten bis keinen Einfluss auf das Angebot. Anhand von standardisierten Applikationen wird er von dem Anbieter mit fertigen und in der Regel nicht anpassbaren Lösungen versorgt. Anders als bei IaaS und PaaS, ist ein SaaS Anbieter für den gesamten, einwandfreien Betrieb der Anwendungen verantwortlich. Der Nutzer muss sich hier also um die nicht zu unterschätzende Aufgabe kümmern, wie er seine Daten in die SaaS Applikation migriert, bzw. exportiert, wenn er das Angebot nicht mehr nutzen möchte. An dieser Stelle sollte der Anbieter entsprechende Schnittstellen zu on-Premise Systemen bzw. gängigen Formaten bereitstellen.

Der Use Case ist entscheidend

Für wen welche Art der Cloud Nutzung in Frage kommt, muss jedes Unternehmen individuell evaluieren. Es geht also grundsätzlich um die Frage, für welche Systeme und Plattformen eine Migration in die Cloud besonders sinnvoll ist und welche Serviceart geeignet ist. Über gut dokumentierte APIs sollte ein Anbieter seine Kunden dabei unterstützen, die Cloud bestmöglich für ihre Anforderungen zu nutzen.


Bildquelle: ©Erika Hartmann / PIXELIO

Categories
Insights @de

INSIGHTS: fortrabbit veröffentlicht PaaS für PHP-Profis

Mit fortrabbit startet der zweite Platform-as-a-Service (PaaS) aus Deutschland, genauer aus Berlin. Die drei Gründer kommen aus der PHP Szene und konzentrieren sich mit ihrem Angebot auf professionelle beziehungsweise fortgeschrittene PHP Entwickler. Auf Grund der eigenen Expertise ermöglichen sie Profi PHP-Entwicklern mehr Freiheiten im Umgang mit der Programmiersprache. Zu erwähnen ist, dass fortrabbit vollständig mit privaten Mitteln (bootstrapped) geründet wurde, ohne die Hilfe von Venture Capital.

INSIGHTS: cloudControl wird zum multi-language Platform-as-a-Service

Die fortrabbit Plattform

fortrabbit selbst gibt es schon seit ein paar Jahren. Eine erste Version des selbst entwickelten PaaS lief in einer ersten Version auf eigenen Servern in einem Berliner Rechenzentrum. Um das Angebot für die Masse zu skalieren, erfolgte der Wechsel auf die Infrastruktur der Amazon Web Services (AWS), genauer in die Region Irland. Wobei die benötigten Instanzen und der Storage auf zwei Availibilty Zones verteilt ist. Für den Wechsel auf AWS wurde die PaaS-Software vollständig neu geschrieben und den Bedingungen auf der Amazon Infrastruktur angepasst.

Zielkunden von fortrabbit sind in erster Linie fortgeschrittene PHP-Entwickler, die sich bereits gut auskennen und mehr Freiheiten beim Umgang mit der Programmiersprache benötigen. Als Zielmarkt wurde zunächst Europa festgelegt, wobei eine Expansion, genau wie ein eigenes Partnernetzwerk nicht ausgeschlossen sind.

PHP Renaissance

Die eigene PHP-Expertise, aber auch die eigenen Anforderungen an einen Profi-PHP PaaS, haben fortrabbit dazu bewegt, den Entwicklern mehr Freiheiten auf ihrer Plattform zu geben. Dazu bietet der auf PHP 5.4 und LAMP basierende PaaS eine tiefere Unterstützung, die andere PaaS-Angebote in dieser Form nicht ermöglichen. Dazu gehören Funktionen wie einen beschreibbaren Speicher (native writeable storage), SFTP, Domain-Routing, SSL, SSH-Zugriff (keine Root-Rechte aber u.a. wget und Zugriff auf Error Logs) und Monitoring-Funktionen (Status der Applikation, PHP-Requests, Cache Hits, Miss, inkl. graphischer Darstellung). Hinzu kommt mit dem Composer ein Package Management für PHP, das dafür sorgt, das sämtliche Abhängigkeiten (Dependency Manager) serverseitig erfüllt werden.

INSIGHTS


Im ersten Moment ist die Frage gerechtfertigt ob der Markt noch einen weiteren PaaS benötigt. Mit der Google App Engine, AppFog, Cloud Foundry, Heroku, Engine Yard, OpenShift, Stackato, Windows Azure oder auch cloudControl existieren bereits viele, mittlerweile etablierte PaaS. Dennoch müssen hier zwei Dinge beachtet werden. PaaS hat das schnellste Wachstum von allen Services in der Cloud. Alleine für den Bereich der reinen Anwendungsentwicklung, in dem sich fortrabbit bewegt, sind jährliche Wachstumsraten von 22% zu erwarten. Darüber hinaus hat fortrabbit ein sehr spezielles Angebot, was sich auf eine bestimmte Zielgruppe fokussiert. Wo andere PaaS-Anbieter sich zu einem Polyglot entwickeln, also mehrere Programmiersprachen parallel unterstützen, konzentriert sich fortrabbit auf seine eigenen Stärken und diese liegen im Bereich PHP.

Der Service adressiert fortgeschrittene beziehungsweise professionelle PHP-Entwickler, die mehr Freiheiten bei der Konfiguration ihrer Umgebung benötigen. Hier wird die eigene PHP-Erfahrung fortrabbit einen Vorteil gegenüber anderen PaaS bieten, um den Service mit weiteren Mehrwerten auszubauen.

Download

Der INSIGHTS Bericht kann ebenfalls unter “fortrabbit veröffentlicht PaaS für PHP-Profis” betrachtet und als PDF heruntergeladen werden.


INSIGHTS analysiert und kommentiert aktuelle Meldungen und Ereignisse von Anbietern. Sie sind auch an der Publikation von INSIGHTS Berichten interessiert, dann finden Sie hier weitere Informationen.

Categories
Management @de

Professionelle Open-Source Lösungen für die eigene Cloud

Ich hatte vor längerer Zeit in dem Artikel “Die eigene Cloud bauen mit… – CloudWashing par excellence!” die leichtfertige Aussage eines Journalisten kritisiert, dass man auf einfache Weise eine eigene Cloud Umgebung aufbauen kann. Das dem so nicht ist und worauf zu achten ist, habe ich in dem Artikel ebenfalls erläutert. Dennoch existieren natürlich Lösungen, die dabei helfen, eine eigene Cloud aufzubauen. Tatsächlich gibt es derzeit aber nur fünf Open-Source Lösungen, die für den professionellen Aufbau von Cloud Computing Umgebungen eingesetzt werden sollten. Dazu gehören openQRM, Eucalyptus, OpenStack, CloudStack und OpenNebula.

Grundlegendes! Bitte lesen!

Viele Unternehmen entscheiden sich vermehrt für den Aufbau einer eigenen (Private) Cloud, um die Kontrolle über Ressourcen, Daten, Sicherheit usw. zu behalten. Richtig ist, dass eine eigene Cloud die Agilität eines Unternehmens verbessert und die Systeme bis zu einem gewissen Grad skalieren können. Allerdings sollte sich ein Unternehmen immer bewusst machen, das die Skalierbarkeit einer eigenen Cloud einem manuellen Prozess gleicht. Bei diesem muss in Echtzeit auf Ressourcenengpässe durch das eigene Personal reagiert werden, indem weitere Hardwarekomponenten in Form von Speicherplatz, Arbeitsspeicher oder Rechenleistung nachgerüstet werden. Für jede virtuelle Instanz wird schließlich auch die physikalische Hardware benötigt. Neben Hardware- und Softwareressourcen sind Tools zum Echtzeit-Monitoring der Umgebung daher unerlässlich.

Hardware, Hardware, Hardware

Eine eigene Cloud bedarf also Unmengen an physikalischen Ressourcen um den Wunsch nach Flexibilität und quasi unendlichen virtuellen Ressourcen zu befriedigen. Heißt im Umkehrschluß daher für Unternehmen mit einer eigenen Cloud: Investieren, das eigene Rechenzentrum umbauen und Cloud-fähig zu machen.

Es ist ein Irrglaube, wenn man denkt, dass der Aufbau einer eigenen Cloud impliziert, sich anschließend nicht mehr um die Hochverfügbarkeit der eigenen Infrastruktur (physikalische Maschinen, virtuelle Maschinen, Master-Slave-Replikation, Hot-Standby, etc.) kümmern zu müssen. Das macht dann ja schließlich die Cloud alleine.

Konfigurieren, Skripte, Intelligenz

Eine Cloud funktioniert nicht von alleine. Sie muss entwickelt und mit Intelligenz ausgestattet werden. Das gilt für den Aufbau einer Private Cloud genau so wie für die Nutzung eines Public Cloud Angebots (im Falle von IaaS). Dazu müssen Skripte geschrieben, womöglich Software neu entwickelt werden, die auf der Cloud verteilt läuft. Weiterhin ist es wichtig, die Whitepaper des Anbieter zu lesen, KnowHow(!) aufzubauen und zu verstehen, wie die Cloud arbeitet, um sie für die eigenen Bedürfnisse nutzen zu können. Eine weitere Möglichkeit besteht natürlich darin, sich (zusätzlich) von Profis beraten zu lassen. Das ist bei der Nutzung einer eigenen Cloud nicht anders. Wenn eine virtuelle Maschine A ein Problem hat, dann kann sie plötzlich nicht mehr erreichbar sein, wie jeder normale physikalische Server nun einmal auch. Nun könnte man denken: “Dann nehme ich als Backup für virtuelle Maschine A halt noch eine virtuelle Maschine B dazu!” Und dann? Man könnte nun denken, dass die virtuelle Maschine B automatisch die Aufgaben der virtuelle Maschine A übernimmt. So einfach ist das aber nicht! Skripte müssen vorab dafür sorgen, dass die virtuelle Maschine B die Aufgaben von virtuelle Maschine A übernehmen soll, wenn diese plötzlich nicht mehr erreichbar ist. Auch die virtuelle Maschine B muss dafür zunächst vorbereitet werden. Dazu kann z.B. der eigentliche (wichtige) Inhalt der virtuelle Maschine A inkl. aller Konfigurationen etc. in einem zentralen Speicher und nicht auf dem lokalen Speicher abgelegt werden. Anschließend muss ein Skript dafür sorgen, dass die virtuelle Maschine B automatisch mit den Konfigurationen und allen Daten aus dem lokalen Speicher hochgefahren wird, wenn die virtuelle Maschine A nicht mehr verfügbar ist.

Virtuelles Rechenzentrum

Die Cloud gibt uns im Bereich Infrastructure as a Service letztendlich nur die Möglichkeit, aus einem quasi unendlich großen Pool von Ressourcen die (unendliche) Anzahl an Ressourcen zu dem Zeitpunkt zu bekommen, wenn wir sie benötigen. Wir erhalten von der Cloud somit ein eigenes hochskalierbares virtuelles Rechenzentrum. Das bedeutet aber im Umkehrschluss für den Betreiber einer Cloud (Private, Public), dass er ebenfalls die Menge an physikalischen Ressourcen vorhalten muss, damit die angefragten virtuellen Ressourcen jederzeit bereitgestellt werden können und damit immer ausreichend Ressourcen für die Nutzer zur Verfügung stehen.


Open-Source Lösungen für den Aufbau einer eigenen Cloud


openQRM

openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen und ist aktuell in der Version 5.0 verfügbar. Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können. Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von “P-to-V”, “V-to-P” und “V-to-V”.

openQRM verfügt des Weiteren über ein integriertes Storage-Management, mit dem anhand des Snapshot-Verfahrens Serversysteme dupliziert werden können. Die Snapshots ermöglichen eine dynamische Anpassung des Speicherplatzes, bieten einen persistenten Cloud-Speicher und erlauben ein Backup/Restore der Server sowie deren Versionierung.

Mit der “N-zu-1” Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Dabei spielt es keine Rolle, ob physikalische oder virtuelle Maschinen eingesetzt werden!

Benefits auf einem Blick

Virtualisierung

openQRM unterstützt alle gängigen Virtualisierungstechnologien darunter VMWare, Citrix XenServer und KVM und bietet die Möglichkeit der Migration von P-to-V-, V-to-P- und V-to-V für physikalische Server als auch virtuelle Maschinen.

Storage

openQRM verfügt über ein zentralisiertes Speichersystem mit integriertem Storage Management, welches alle bekannten Storage-Technologien unterstützt. Dazu gehören u.a. Netapp, Equallogic, NFS, iSCSI ZFS und proprietäre auf LVM basierende Storage-Typen, für eine flexible und schnelle Duplizierung von Serversystemen.

Zentrales Management

openQRM verschmilzt die Welt von Open Source mit der von kommerziellen Produkten. Mit einer zentralen Managementkonsole sind alle Funktionen zur Administration von Rechenzentren, System- und Service-Überwachung, Hochverfügbarkeit und automatisierter Bereitstellung vorhanden.

Funktionen

Hardware/Software Isolation

openQRM isoliert die Hardware (physikalische Server, virtuelle Maschinen) vollständig von der Software (Server Images). Dabei ist die eigentliche Hardware eine “Computing Resource” und kann dadurch jederzeit durch eine andere Hardware ersetzt werden, ohne dass die Software (Server Image) neu konfiguriert werden muss.

Unterstützung für verschiedene Virtualisierungs-Technologien

Mit VMWare, Xen, KVM und dem Citrix XenServer unterstützt openQRM eine viehlzahl an virtuellen Maschinen und kann dieses transparent verwalten und migrieren. Neben der System-Migration von physikalischen Servern zu virtuellen Maschinen (P-to-V) können Systeme ebenfalls von virtuellen Maschinen zu physikalischen Servern (V-to-P) migriert werden. Darüber hinaus besteht die Möglichkeit ein System von einer Virtualisierungstechnologie zu einer anderen Virtualisierungstechnologie (V-to-V) zu verschieben.

Vollautomatische Nagios-Konfiguration

openQRM unterstützt die vollautomatische Konfiguration von Nagios mittels “nmap2nagios-ng”. Damit wird das gesamte openQRM Netzwerk analysiert und auf Basis der Informationen eine Nagios-Konfiguration erstellt. Anschließend werden alle Services auf allen Systemen überwacht.

Integriertes Storage-Management

openQRM organisiert die Serversysteme wie Dateien und nutzt zur Verwaltung moderne Storagesysteme anstatt lokaler Festplatten. Mittels Logical Volume Managern (LVM) und deren Snapshot-Verfahren können Server-Templates auf schnellen Wege dupliziert werden.

“Sollen z.B. 10 neue Server ausgerollt werden, kann so einfach ein bestehendes Server-Image 10 mal dupliziert und die “Clone” direkt zum Deployment bereitgestellt werden.”

Mit diesem Konzept steht ein zentrales Backup/Restore sowie die Möglichkeit von Hot-Backups ohne Downtime zur Verfügung.

openQRM unterstützt folgende Storage-Typen:

  • NFS (NAS)
  • iSCSI (iSCSI SAN)
  • Aoe/Coraid (AOE SAN)
  • NetApp (iSCSI SAN)
  • Local-disk (Übertragung von Server-Images auf lokale Festplatten)
  • LVM-Nfs (NFS auf LVM2, erlaubt schnelles Cloning)
  • LVM-iSCSI (iSCSI auf LVM2, erlaubt schnelles Cloning)
  • LVM-Aoe (Aoe auf LVM2, erlaubt schnelles Cloning)
  • Equallogic (iSCSI SAN)
  • ZFS (iSCSI SAN)

Hochverfügbarkeit und “N-to-1”-Fail-Over!

Mit der “N-zu-1” Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Unabhängig davon, ob physikalische oder virtuelle Maschinen eingesetzt werden.

“Um zum Beispiel 10 hochverfügbare Spezialsysteme zu betreiben benötigt man normalerweise weitere 10 “Stand-By”-Systeme. Mit openQRM jedoch benötigt man nur einen einzigen “Stand-By”-Server, der im Fehlerfall eines der 10 Spezialsysteme benutzt wird. Das heißt, man kann 9 “stromfressende”, nicht ausgelastete Server einsparen. Perfekt für “Green IT”.

Des Weiteren können physikalische Server virtuelle Maschinen als “Hot Stand-By” nutzen und lassen sich im Notfall in eine virtuelle Maschine migrieren.

Fertige Server-Templates

Mittels dem “Image-Shelf”-Plugin stellt openQRM bereits fertige Server Templates zur Verfügung. Dazu gehören Linux Distributionen wie Debian, Ubuntu, CentOS und openSuse. Des Weiteren können mit dem Plugin eigene Server Templates auf unterschiedliche Weise (lokal, http, https, ftp) bereitgestellt werden.

Unterstützung verschiedenster Deployment-Methoden

Mit openQRM können Server von jeder Art von Storage gestartet werden. Zusätzlich können die Server Templates von einem Storage-Typ zu einem anderen übertragen werden, dabei kann noch entschieden werden, ob die Server Templates auf einem physikalischen Server oder in einer virtuellen Maschine gestartet werden sollen.

Unterstützung verschiedener OS-Distributionen

Es stehen bereits vor-konfigurierte openQRM-Server Pakete für Debian, Ubuntu und CentOS zur Verfügung. Ein openQRM-Server kann aber alle gängigen Linux Distributionen verwalten.

Cloud-Selector

Mit dem Cloud-Selector kann der Cloud Administrator seine Cloud Produkte wie z.B. Prozessoren, Speicher, Festplattengröße oder den Typ der virtuellen Maschine auswählen und deren Preise festlegen.

Kostenrechner im Cloud-Portal

Die Cloud-Computing-Unit (CCU) kann einer regulären Währung (z.b. USD oder Euro) zugewiesen werden. Mit dem Kostenrechner werden die stündlichen, täglichen und monatlichen verbrauchten Kosten für eine Cloud Appliance berechnet.

Private Cloud Images

Mit der “Private Cloud Image”-Funktion können Cloud Benutzer eigene Server Templates anlegen und verwalten.

Volle SSL-Unterstützung

Der openQRM-Server arbeitet in einem vollständig SSL-verschlüsselten Bereich und unterstützt verschiedene Serverarchitekturen wie i386 und x86_64.

Ich möchte hier noch anmerken, dass es sich bei der openQRM Enterprise um einen deutschen Anbieter aus dem Bereich des Cloud Computing handelt!


Eucalyptus

Beim Elastic Utility Computing Architecture for Linking Your Programs To Useful Systems (Eucalyptus) handelt es sich um eine Open Source Software Infrastruktur zum Aufbau von skalierbaren Utility Computing bzw. Cloud Computing Umgebungen für spezielle Clustersysteme oder einfachen miteinander verbundenen Arbeitsplatzrechnern.

Eucalyptus wurde als ein Forschungsprojekt am Computer Science department an der University of California Santa Barbara entwickelt und wird mittlerweile von der Eucalyptus Systems Inc. vermarktet. Die Software wird aber weiterhin als Open Source Projekt gepflegt und weiterentwickelt. Die Eucalyptus Systems Inc. bietet darüber hinaus lediglich weitere Dienstleitungen und Produkte sowie einen professionellen Support rund um Eucalyptus an.

Folgende Funktionen stellt Eucalyptus bereit:

  • Kompatibilität mit den Schnittstellen zu Amazon EC2 und S3 (SOAP und REST).
  • Unterstützung aller Virtual Machines die auf einem Xen Hypervisor oder einer KVM ausgeführt werden.
  • Administrationstools für die System- und Benutzerverwaltung.
  • Die Möglichkeit mehrere Cluster für eine Cloud zu konfigurieren, wobei jeder einzelne Cluster über eine private interne IP-Adresse verfügt.

Architektur

Eucalyptus besteht aus fünf zusammenarbeitenden Hauptkomponenten um den angeforderten Cloud Service bereit zu stellen. Die Kommunikation zwischen den Komponenten erfolgt über gesicherte SOAP Nachrichten mittels WS-Security.

Cloud Controller (CLC)

Der Cloud Controller dient innerhalb einer Eucalyptus Cloud als Hauptkomponente für die Verwaltung des gesamten Systems und stellt den Administratoren und Benutzern einen zentralen Zugriffspunkt bereit. Die Kommunikation aller Clients mit dem Eucalyptus System erfolgt ausschließlich nur über den Cloud Controller anhand der auf SOAP oder REST basierenden API. Der Cloud Controller ist dafür zuständig, alle Anfragen zu der richtigen Komponente weiterzuleiten, diese zu sammeln und die Antwort der Komponente anschließend wieder zu dem Client zurück zu senden. Der Cloud Controller ist somit die öffentliche Schnittstelle einer Eucalyptus Cloud.

Cluster Controller (CC)

Der Cluster Controller ist innerhalb des Eucalyptus Systems für die Verwaltung des virtuellen Netzwerks zuständig. Der Cloud Controller erhält alle Anfragen auf Basis seiner SOAP oder REST Schnittstellen. Der Cloud Controller erhält alle Informationen über die vorhandenen Node Controllers des Eucalyptus Systems und ist für die Kontrolle des Lebenszyklus jedes einzelnen verantwortlich. Er leitet alle Anfragen an die Node Controller mit verfügbaren Ressourcen weiter um damit virtuelle Instanzen zu starten.

Node Controller (NC)

Ein Node Controller steuert das Betriebssystem und den zugehörigen Hypervisor eines Rechners (Node) im Eucalyptus System. Auf jeder physikalischen Maschine die eine durch den Cluster Controller instantiierte virtuelle Instanz auf Grund einer Anfrage beherbergt, muss eine Instanz eines Node Controller vorhanden sein.

Walrus (W)

Walrus ist für die Zugriffsverwaltung auf den Speicherdienst innerhalb eines Eucalyptus Systems zuständig. Walrus erhält die Anfragen über seine SOAP oder REST Schnittstelle.

Storage Controller (SC)

Der Storage Controller verwaltet den Speicherdienst innerhalb eines Eucalyptus Systems und verfügt über eine Schnittstelle zu Amazon’s S3 Dienst. Der Storage Controller arbeit in Verbindung mit Walrus und wird für die Speicherung und den Zugriff auf die Images der Virtual Machines, die Kernel Images, die RAM Disk Images und die Daten der Benutzer verwendet. Die Images der Virtual Machines können rein privat oder öffentlich zugänglich gemacht werden und können dabei komprimiert und verschlüsselt gespeichert werden. Die Images werden lediglich entschlüsselt, wenn ein Node eine neue virtuelle Instanz starten muss und dazu einen Zugriff auf das Image benötigt.

Das Clustersystem

Ein Eucalyptus System vereint und verwaltet Ressourcen von Single-Cluster als auch Multi-Cluster Systemen. Dabei besteht ein Cluster aus einer Gruppe von Rechnern, die alle mit dem selben LAN verbunden sind. Zu jedem Cluster kann wiederum einer aber auch mehrere Node Controller gehören, die für die Verwaltung der Instantiierung und Beendigung der virtuellen Instanzen verantwortlich sind.

Ein Single-Cluster besteht aus mindestens zwei Maschinen. Auf dem einen werden der Cluster Controller, der Storage Controller und der Cloud Controller ausgeführt, auf dem anderen der Node Controller. Diese Art der Konfiguration ist vor allem für Experimente und schnelle Konfigurationen geeignet. Die dargestellte Konfiguration könnte ebenfalls auf einer einzigen Maschine implementiert werden. Allerdings ist dafür eine äußerst leistungsstarke Hardware notwendig!

Bei einem Multi-Cluster wird jede Komponente (CC, SC, NC, und CLC) auf einer separaten Maschine ausgeführt. Dies sollte die bevorzugte Art und Weise sein das Eucalyptus System zu konfigurieren, wenn damit ernsthaft gearbeitet werden soll. Mit einem Multi-Cluster kann zudem die Performance erhöht werden, indem einem Controller die passende Maschine zugewiesen wird. Zum Beispiel sollte der Cloud Controller auf einer Maschine mit einer schnellen CPU ausgeführt werden. Im Allgemeinen bringt die Entscheidung für einen Multi-Cluster eine höhere Verfügbarkeit, sowie eine bessere Lastverteilung und eine optimierte Verteilung der Ressourcen über alle Cluster. Das Clusterkonzept ist vergleichbar mit dem Konzept der Verfügbarkeitszonen der Amazon EC2. Dabei werden die Ressourcen über mehrere Verfügbarkeitszonen hinweg verteilt, damit ein Fehler in einer Zone nicht die Anwendung beeinträchtigt.

Eucalyptus und die Ubuntu Enterprise Cloud

Bei der Ubuntu Enterprise Cloud (UEC) handelt es sich um eine Open Source Initiative von Ubuntu, um auf eine einfachere Art und Weise skalierbare Cloud Infrastrukturen auf Basis von Eucalyptus bereitzustellen und diese zu konfigurieren.

Mit der Ubuntu Enterprise Cloud können Public Clouds erstellt werden, welche Amazon’s EC2 infrastructure nutzen. Es können damit aber genau so gut Private Clouds entwickelt werden, die auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall gehostet werden.

Vorteile von Eucalyptus

Bei Eucalyptus handelt es sich um eine Umgebung für Cloud Services, mit der Public Clouds auf Amazon’s EC2 Infrastruktur bzw. Private Clouds im hauseigenen Rechenzentrum erstellt werden können. Die grundlegenden Vorteile sollen hier noch einmal kurz aufgeführt werden:

  • Open Source und Entwicklung
    Eucalyptus wurde geschaffen, um die Kommunikation und Forschung von Cloud Computing Plattformen zu fördern. Der Quellcode ist frei verfügbar, was es ermöglicht die Plattform so zu erweitern, damit sie den eigenen Anforderungen entspricht. Eucalyptus wird zunehmend weiterentwickelt. Darüber hinaus ist die Aufnahme und Integration von Funktionswünschen und Verbesserungsvorschlägen sehr schnell.
  • Community
    Eucalyptus verfügt über eine große Community die gerne bereit ist einander zu helfen. Über die Foren kann schnell Kontakt zu anderen Benutzern aufgenommen und Hilfe bezogen werden.
  • Public Cloud
    Eucalyptus funktioniert einwandfrei auf Amazon’s EC2 Framework und kann damit als Public Cloud eingesetzt werden.
  • Private Cloud
    Eucalyptus kann auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall als Private Cloud eingesetzt werden. Dadurch ist die Kontrolle bzgl. der Sicherheit und der gesamten Umgebung in der eigenen Hand.
  • Portabilität
    Auf Grund der Kompatibilität von Eucalyptus mit Amazon’s EC2 API sowie der Flexibilität von Eucalyptus, können Anwendungen ohne großen Aufwand von einer Cloud in die andere migriert werden. Darüber hinaus besteht die Möglichkeit des Aufbaus von Hybrid Clouds, indem eine Private Cloud mit einer Public Cloud erweitert bzw. kombiniert wird.
  • Qualitativ durch Tests
    Durch den Einsatz von Eucalyptus in Ubuntu’s Enterprise Cloud findet tagtäglich ein weltweiter realer Test auf Basis von mehr als tausend Server-Instanzen statt.
  • Kommerzieller Support
    Neben den Foren der Eucalyptus Community kann natürlich auch auf einen kommerziellen Support zurückgegriffen werden.

Open Nebula

OpenNebula ist ein Open Source Virtual Infrastructure Manager mit dem aus vorhandenen Rechenzentren jede Art von Cloud Computing Umgebung aufgebaut und bereitgestellt werden kann. In erster Linie dient OpenNebula als Tool zur Verwaltung der virtualisierten Infrastruktur des eigenen Rechenzentrums bzw. der eigenen Cluster, also der eigenen Private Cloud.

Darüber hinaus ist OpenNebula in der Lage Hybrid Clouds aufzubauen, also die eigene lokale Infrastruktur mit einer Public Cloud Infrastruktur zu verbinden/kombinieren, um die Skalierbarkeit der eigenen Umgebung noch weiter zu erhöhen. OpenNebula verfügt zusätzlich über spezielle Schnittstellen für die Verwaltung von virtuellen Maschinen, Speicherplatz und des Netzwerks von Public Clouds.

Funktionen

Private Cloud Computing

  • Internal Interfaces for Administrators and Users
    Mit einer Unix ähnlichen Kommandozeile und einer XML-RPC API kann der Lebenszyklus der virtuellen Maschinen und physikalischen Server verwaltet werden. Weitere Administrationsmöglichkeiten bietet die libvirt API.
  • Steuerung
    Die Verwaltung der Arbeitslast und Zuweisung der Ressourcen kann nach bestimmten Regeln wie z.B. der aktuellen Auslastung automatisch vorgenommen werden. Des Weiteren wird der Haizea VM-based lease manager unterstützt
  • Virtualisierungsmanagement
    Es existieren Konnektoren für Xen, KVM und VMware, sowie einem generischen libvirt Konnektor für weitere Virtual Machine Manager. Die Unterstützung von Virtual Box ist in Planung.
  • Image Management
    Es sind Funktionen für den Transfer und das Clonen von Virtual Machine Images vorhanden.
  • Netzwerk Management
    Es lassen sich isolierte virtuelle Netze festlegen um virtuelle Maschinen miteinander zu verbinden.
  • Service Management
    Unterstützung von Multi Tier Services bestehend aus Gruppen von miteinander verbundenen virtuellen Maschinen und deren Auto Konfiguration während des Boot Vorgangs.
  • Sicherheit
    Die Verwaltung der Benutzer wird durch den Administrator der Infrastruktur vorgenommen.
  • Fehlertoleranz
    Eine persistente Datenbank dient zum Speichern aller Informationen der Hosts und virtuellen Maschinen.
  • Skalierbarkeit
    Tests zeigten bisher, das OpenNebula mehrere hundert Server und virtuelle Maschinen verwalten kann.
  • Installation
    Die Installation erfolgt auf einem UNIX Cluster Front-End ohne das weitere Services benötigt werden. OpenNebula wird mit Ubuntu 9.04 (Jaunty Jackalope) ausgeliefert.
  • Flexibilität und Erweiterbarkeit
    Die Architektur, Schnittstellen und Komponenten sind offen, flexibel und erweiterbar. Dadurch kann OpenNebula mit jedem aktuellen Produkt aus dem Bereich Virtualisierung, Cloud Computing oder Management Tool für Rechenzentren integriert werden.

Hybrid Cloud Computing

  • Cloud Plugins
    Konnektoren für Amazon EC2 und ElasticHosts.
  • Zusammenschluss
    Unterstützung für den gleichzeitigen Zugriff auf mehrere Remote-Clouds.
  • Erweiterbarkeit
    Modulare Konzepte für die Entwicklung neuer Konnektoren.

Public Cloud Computing

  • Cloud Schnittstellen für Benutzer
    Implementierung einer Teilmenge der Amazon EC2 Query API und der OGF OCCI API
  • Erweiterbarkeit
    Die OpenNebula Cloud API ermöglicht die Implementierung neuer/weiterer Cloud Schnittstellen.

OpenStack

OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Der gesamte OpenStack Quellcode ist frei verfügbar und unterliegt der Apache 2.0 Lizenz. Dadurch ist jeder in der Lage auf dieser Basis seine eigene Cloud zu entwickeln und ebenfalls Verbesserungen in das Projekt zurückfließen zu lassen. Der Open Source Ansatz des Projekts soll zudem die Entwicklung von Standards im Bereich des Cloud Computing weiter fördern, Kunden die Angst vor einem Vendor Lock-in nehmen und ein Ecosystem für Cloud Anbieter schaffen.

OpenStack besteht derzeit aus insgesamt sechs Kernkompenten und wird stetig weiterentwickelt. OpenStack Compute, OpenStack Object Storage und OpenStack Image Service, OpenStack Identity, OpenStack Dashboard und OpenStack Networking.

Man muss sich allerdings darüber im Klaren sein, dass es sich bei OpenStack um kein fertiges Produkt handelt, das sofort einsatzfähig ist, sondern um einzelne Teilprojekte die selbst ineinander integriert und für die eigenen Bedürfnisse angepasst werden müssen. Es gibt aber mittlerweile fertige OpenStack Installationsroutinen von Mitgliedern des OpenStack Projekts.

OpenStack Compute

OpenStack Compute dient dem Aufbau, Bereitstellen und Verwalten von großen Virtual Machine Clustern, um auf dieser Basis eine redundante und skalierbare Cloud Computing Plattform zu errichten. Dazu stellt OpenStack Compute diverse Kontrollfunktionen und APIs zur Verfügung, mit denen Instanzen ausgeführt und Netzwerke verwaltet werden sowie die Zugriffe der Nutzer auf die Ressourcen gesteuert werden können. OpenStack Compute unterstützt zudem eine große Anzahl von Hardwarekonfigurationen und sieben Hypervisor.

OpenStack Compute kann bspw. Anbietern dabei helfen Infrastructure Cloud Services bereitzustellen oder IT-Abteilungen ermöglichen ihren internen Kunden und Projekten Ressourcen bei Bedarf zur Verfügung zu stellen. Zudem können große Datenmengen (Big Data) mit Tools wie Hadoop verarbeitet werden oder Web Anwendungen entsprechend ihrer Ressourcenbedürnisse bedient werden.

OpenStack Object Storage

Mit OpenStack Object Storage können auf Basis von standardisierten Servern redundante und skalierbare Object Storage Cluster mit einer Größe von bis zu 1 Petabyte aufgebaut werden. Dabei handelt es sich nicht um ein Dateisystem und ist nicht für das Speichern von Echtzeitdaten ausgelegt, sondern für das langfristige Speichern von statischen Daten gedacht, die bei Bedarf abgerufen oder aktualisiert werden können. Gute Anwendungsbeispiele für OpenStack Object Storage sind das Speichern von Virtual Machine Images, Photos, E-Mails, Backupdaten oder Archivierung. Da der Object Storage dezentral verwaltet wird, verfügt er über eine hohe Skalierbarkeit, Redundanz und Beständigkeit der Daten.

Die OpenStack Software sorgt dafür, dass die Daten auf mehrere Speicherbereiche im Rechenzentrum geschrieben werden, um damit die Datenreplikation und Integrität innerhalb des Clusters sicherzustellen. Die Storage Cluster skalieren dabei horizontal, indem weitere Knoten bei Bedarf hinzugefügt werden. Sollte ein Knoten ausfallen, sorgt OpenStack dafür, dass die Daten von einem aktive Knoten repliziert werden.

OpenStack Object Storage kann von Anbietern genutzt werden, um einen eigenen Cloud Storage bereizustellen oder die Server Images von OpenStack Compute zu speichern. Weitere Anwendungsfälle wären Dokumentenspeicher, eine Back-End Lösung für Microsoft SharePoint, eine Archivierungsplattform für Logdateien oder für Daten mit langen Aufbewahrungsfristen oder einfach nur zum Speichern von Bildern für Webseiten.

OpenStack Image Service

Der OpenStack Image Service hilft bei der Suche, Registrierung und dem Bereitstellen von virtuellen Maschinen Images. Dazu bietet der Image Service eine API mit einer Standard REST Schnittstelle, mit der Informationen über das VM Image abgefragt werden können, welches in unterschiedlichen Back-Ends abgelegt sein kann, darunter OpenStack Object Storage. Clients können über den Service neue VM Images registrieren, Informationen über öffentlich verfügbare Images abfragen und über eine Bibliothek ebenfalls darauf zugreifen.

Der OpenStack Image Service unterstützt eine Vielzahl an VM Formaten für private und öffentliche Images, darunter Raw, Machine (kernel/ramdisk, z.B. AMI), VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) und OVF (VMWare).

OpenStack Identity

Der OpenStack Identity Service stellt eine zentrale Authentifizierung über alle OpenStack Projekte bereit und integriert sich in vorhandene Authentifizierungs-Systeme.

OpenStack Dashboard

Das OpenStack Dashboard ermöglicht Administratoren und Anwendern den Zugang und die Bereitstellung von Cloud-basierten Ressourcen durch ein Self-Service Portal.

OpenStack Networking

OpenStack Networking ist ein skalierbares und API basierendes System für die Verwaltung von Netzwerken und IP-Adressen.


CloudStack

CloudStack wurde ursprünglich von Cloud.com entwickelt. Nach der Übernahme durch Citrix Systems im Jahr 2011 wurde Citrix zum Hauptsponsor von CloudStack. Die Open-Source Cloud Plattform basiert auf Java und hilft beim Aufbau und der Verwaltung von skalierbaren Infrastrukturen. Zu den aktuell unterstützten Hypervisorn gehören VMware, Oracle VM, KVM, XenServer und die Xen Cloud Platform. Neben einer eigenen RESTful API implementiert CloudStack ebenfalls die Amazon EC2 und S3 APIs sowie VMwares vCloud API. Die Cloud-Infrastruktur kann entweder über die Web-Oberfläche, einer Kommandozeile oder die API konfiguriert und verwaltet werden.

CloudStack besteht aus fünf Kernkomponenten. Der Compute Controller verwaltet die Rechenleistung, der Network Controller steuert das virtuelle Netzwerk und der Storage Controller ist für die Speicherverwaltung des BlockStorage zuständig. Alle drei Komponenten haben direkten Kontakt mit der physikalische Hardware. Auf diesen Komponenten setzt die CloudStack Orchestration Engine auf, die für den Aufbau, die Steuerung und Verwaltung der CloudStack Infrastruktur verantwortlich ist. Über der Orchestration Engine befindet sich als letzte Komponente die CloudStack API, die mit der Web-Oberfläche, Kommandozeile oder über REST interagiert und die Befehle an die Orchestration Engine weitergibt.

Citrix Systems ist nicht das einzige bekannte Unternehmen, was CloudStack unterstützt. Weitere Supporter des CloudStack Projekts sind RightScale, PuppetLabs, Juniper Networks, Enstratus, TrendMicro, Intel und Equinix.


Bildquelle: ©Gerd Altmann / PIXELIO

Categories
Management @de

Die Architektur skalierbarer Applikationen in der Cloud

Das Applikationen für die Cloud neu entwickelt werden müssen ist kein Geheimnis. Dennoch zeigen Ausfälle bei populären Anbietern, dass so manche Architekturen nicht das wirkliche Potential von Cloud Infrastrukturen ausnutzen. Cloud Management Plattform Anbieter Rightscale hat hierzu eine Blogserie veröffentlicht, die zeigt, worauf man achten sollte, wenn eine Anwendung in der Cloud betrieben wird.

Applikationen müssen für die Cloud entwickelt werden

Man muss verstehen, dass Cloud Computing viel mehr bedeutet, als nur ein paar Server zu nutzen und miteinander zu verbinden. Es geht um die gesamte Architektur des eigenen Systems bzw. der eigenen Anwendung, die auf der virtuellen Infrastruktur (IaaS) aufgebaut wird. Wie ich schon in einem Artikel für die Computerwoche geschrieben habe:

Viele Unternehmen entwickeln ihre Cloud-Applikation “daheim” in den eigenen vier Wänden. Erst nach der Fertigstellung soll der Rollout auf eine Cloud-Infrastruktur oder Cloud-Plattform erfolgen. Das ist ein Fehler.

Inbesondere IaaS-Umgebungen (Infrastructur as a Service) wie die Amazon Web Services oder Microsoft Windows Azure vermitteln den Eindruck, nur eine Vielzahl von virtuellen Maschine bereitzustellen. Den Rest übernehme die “Cloud automatisch”. Das ist fatalerweise auch der Tenor, der von vielen Medien verbreitet wird und damit ein völlig falscher Eindruck von einer Cloud entsteht.

Eine Cloud-Anwendung ist nur so viel wert wie die Architektur, auf der sie basiert. Eine Anwendung muss direkt für die Cloudentwickelt werden – Skalierbarkeit und Hochverfügbarkeit sind von Beginn an mit zu bedenken. Eine Anwendung sollte eigenständig weitere virtuelle Maschinen hochfahren können, wenn mehr Leistung benötigt wird (Skalierbarkeit) bzw. die nicht mehr benötigten virtuellen Maschinen auch selbstständig wieder herunterfahren. Genauso verhält es sich, wenn eine virtuelle Maschine in einen fehlerhaften Zustand gerät. Auch hier muss die Anwendung selbst dafür sorgen, dass entsprechend eine virtuelle Maschine als Ersatz hochgefahren wird und die defekte Maschine aus dem System verschwindet (Hochverfügbarkeit).

Die Anwendung muss daher in der Lage sein, auf jeder beliebigen virtuellen Maschine (VM) einer Cloud-Infrastruktur zu funktionieren. Das liegt unter anderem daran, dass jederzeit eine VM ausfallen kann und eine andere neu hochgefahren werden muss. Und auch die Daten, auf die eine Anwendung operiert, befinden sich zwangsläufig nicht mehr an einem einzigen Ort, sondern sind über die Cloud verteilt gespeichert.

Mehr…

Rightscale: Architektur skalierbarer Applikationen in der Cloud

Rightscales Services Architect Brian Adler hat eine Blogserie (vier Beiträge) veröffentlicht, in der er recht detailliert beschreibt, wie die Architektur einer Applikation in der Cloud aussehen sollte.

  1. Architecting Scalable Applications in the Cloud
  2. Architecting Scalable Applications in the Cloud: The Application Tier
  3. Architecting Scalable Applications in the Cloud: The Caching Tier
  4. Architecting Scalable Applications in the Cloud: The Database Tier
Categories
News

Build 2012: Microsoft baut Windows Azure weiter aus

Während seiner Entwicklerkonferenz Build 2012 auf seinem Campus in Redmond hat Microsoft weitere Erneuerung für seine Cloud Computing Plattform Windows Azure vorgestellt. Mit Windows Azure steht Entwicklern u.a. ein Backend für Windows 8 und Windows Phone 8 Apps zur Verfügung, mit dem sie auch geschäftskritische Anwendungen entwickeln, bereitstellen, verwalten und je nach Bedarf und Aufkommen skalieren können.

build 2012: Microsoft baut Windows Azure weiter aus

Windows Azure Neuigkeiten auf einem Blick

Windows Azure als Back-End für das PC-Game Halo 4

Der Mehrspieler Modus des PC-Games Halo 4 basiert künftig auf Windows Azure, so dass die Spieler weltweit eine robuste und kosteneffiziente Plattform zur Skalierung ihres online-games erhalten. Sie können ihre Spiel dann beliebig erweitern oder begrenzen.

Erweiterter Support für Windows Azure Mobile Service

Windows Azure Mobile Services wird künftig auch Windows Phone 8 unterstützen, ergänzend zu den bereits vorhandenen Optionen für Windows 8 Clients und iOS. Entwickler können so künftig leicht Windows 8 Mobile Apps über Windows Azure verbinden.

Erweiterung der Programmiersprachen für Windows Azure

Windows Azure Web Sites unterstützt nun auch Python und bietet Anwendern damit die Wahlfreiheit, Apps in der von ihnen favorisierten Programmiersprache zu entwickeln.

Vorschau auf den Windows Azure Store

Die Vorschau auf den Windows Azure Store bietet einen ersten Einblick in die verschiedenen App Services, dazu zählt das Monitoring ebenso wie Skalierbarkeit oder eMailing und Datenbanken. Unter folgendem Link gibt es weitere Informationen: www.windowsazure.com/store.

Team Foundation Service Availability

Team Foundation Service, eine Lifecycle Management Lösung ist nun offiziell verfügbar. Team Foundation Service umfasst moderne Tools für die flexible und agile Projektplanung und das Projektmanagement, wie die Versionsverwaltung, automatisierte Entwicklungsumgebung und Tools für die automatisieret Bereitstellung der Lösung.

Categories
Kommentar

BYOD und BYOA. Es gibt mehr Vorteile als Risiken.

Die Trends Bring-your-own-device (BYOD) und Bring-your-own-application (BYOA) haben dazu geführt, das Mitarbeiter ihre privaten Endgeräte und (mobilen) Anwendungen mit ins Büro bringen, mit denen sie am Produktivsten sind. Doch anstatt sich gegen den Trend zu wehren, sollten Unternehmen die Vorteile für sich nutzen.

BYOA entwickelt sich zum Trend

Einer Fortinet Umfrage zufolge zeigten sich 69 Prozent der Befragten daran interessiert eigene Anwendungen im Büro zu nutzen. 30 Prozent würden sich dabei sogar gegen Regeln hinweg setzen und trotz eines Verbots eigene Anwendungen einsetzen.

Kontrollverlust wird größer

Der Kontrollverlust in IT-Abteilungen schreitet durch BYOD und BYOA stetig voran. Um sicherzustellen, dass das Unternehmensnetzwerk vor den Endgeräten (BYOD) geschützt ist, können Sicherheitsmaßnahmen eingeführt werden, mit denen der Zugriff je nach Situation beschränkt wird. Bei BYOA sieht es jedoch ein wenig anders aus. Die Daten werden hier in der Regel z.T. auf den lokalen Gerät und in einem Cloud Service oder vollständig in der Cloud gespeichert. Es kann also durchaus vorkommen, dass Unternehmensdaten verloren gehen, sollte der Anbieter des Cloud Service Ausfallen oder gar insolvent werden.

Das bedeutet im Umkehrschluss, dass sich die Unternehmensdaten ebenfalls über mehrere mobile Endgeräte hinweg repliziert befinden. Die IT-Abteilung verliert damit den Überblick wo und in welchem Stand die Daten gespeichert sind. Das kann zu Compliance-Problemen usw. führen.

Es gibt mehr Vorteile als Risiken

Dennoch sollten Unternehmen die Vorteile genau verstehen und anschließend gegen die Risiken abwiegen, bevor eine überhastete Entscheidung gegen BYOD/ BYOA getroffen wird. Denn mobile Anwendungen sind ein wertvolles Gut, was Unternehmen für sich nutzen können. Mit diesen können Mitarbeiter einfacher miteinander zusammenarbeiten, indem sie Dokumente, Videos usw. teilen und gleichzeitig an Dokumenten arbeiten.

Externe oder selbst entwickelte Anwendungen sind zudem eine ideale Quelle, um daraus eigene neue Ideen und Ansätze zu finden, die dem eigenem Unternehmen einen Vorteil verschaffen können. Würde man den Mitarbeitern die Nutzung dieser Anwendungen flächendeckend verbieten, heißt es nicht, dass diese auch tatsächlich darauf verzichten werden. Entweder sie finden einen Weg die App zu nutzen oder man verliert möglicherweise seine besten Mitarbeiter.

Eine Möglichkeit BYOA zu unterstützen besteht darin, die Anwendungen in kontrollierten Umgebungen zu integrieren, um die IT-Infrastruktur aber auch die Nutzer selbst zu schützen. Zudem gibt es einige App-Anbieter, die selbst für Consumer-Apps hohe Sicherheitsstandards in ihren Umgebungen haben. Dazu gehört z.B. Evernote. Der Cloud-basierte Notizblock bietet die Möglichkeit die Nutzerdaten zu verschlüsseln. Damit verfügen die Daten zumindest über ein gewisses Sicherheitsniveau, wenn der Service angegriffen wird.

Entscheider und IT-Abteilungen sollten zudem von den unerwünschten Anwendungen lernen, die durch die eigenen Mitarbeiter in die Unternehmen getragen werden. Anstatt diese zu verbieten, sollte aus diesen gelernt werden, um die eigene Sicherheit zu erhöhen und den eigenen Innovationsgrad zu erhöhen.


Bildquelle: ©Tony Hegewald / PIXELIO

Categories
News

BMC Software ermöglicht Mitarbeitern mit "MyIT" die Kontrolle über individuelle IT-Services zu erhalten

BMC Software hat mit BMC MyIT eine neue Unternehmenssoftware veröffentlicht, die es Angestellten erlaubt, auf personalisierte Weise Kontrolle über die Auslieferung von IT-Services und wichtige Informationen zu erhalten – zu jeder Zeit, an jedem Ort und von jedem Gerät aus.

BMC Software ermöglicht mit

IT-Abteilungen sind unzufrieden

Die Frustration in IT-Abteilungen ist mittlerweile hoch und weit verbreitet. Forrester Research berichtet, dass nur 35 Prozent der befragten Unternehmensentscheider sagen können, dass ihre IT „hochqualitativen, zeitnahen Endnutzer-Support“ bieten kann. Dazu kommt, dass die Mitarbeiter auf der Suche nach schnellerem IT-Support und Troubleshooting zunehmend ihre eigene IT umgehen. Mitarbeiter in Unternehmen verlangen mittlerweile zudem nach einem deutlich besseren Nutzererlebnis als die meisten IT-Unternehmen in der Vergangenheit bieten konnten.

Die Kluft zwischen den Erwartungen von IT-Abteilungen auf der einen und den Mitarbeitern auf der anderen Seite ist außerdem sehr prägnant in sozialen Medienkanälen zu beobachten. Eine kürzlich mit Radian 6 durchgeführte Onlinesuche zeigte mehr als 3.8 Millionen Einträge, die von Nutzern stammen, die Hilfe für IT-bezogene Probleme suchten und frustriert über ihre Erfahrungen im eigenen Unternehmen waren. Diese Einträge wurden in einer einzigen Woche erfasst.

Der Ruf nach Veränderung von Millionen von Mitarbeitern in Unternehmen weltweit ist unmissverständlich. Sie wollen, dass die IT-Abteilungen ihnen ein modernes Frontend für IT-Services und aufbereitete Informationen bieten, die sie ähnlich wie eine Genius Bar einfach nutzen können. Die IT-Abteilungen müssen sich dieser Veränderung anpassen.

BMC MyIT im Überblick

  • Geringere Kosten für IT-Services. Die Verbindung aus Selbstverwaltung, Prozessautomatisierung und Oberfläche, die auf die Mitarbeiter zugeschnitten ist, verringert die Anzahl der Tickets, die auf IT-Probleme bezogen sind, drastisch um bis zu 25 Prozent in Großunternehmen.
  • Höhere Produktivität. IT-Reibereien werden dramatisch reduziert, da MyIT den Mitarbeitern erlaubt, sich auf Produktivität und Wertschöpfung zu konzentrieren, statt sich um das Lösen von IT-Problemen zu kümmern. Mit MyIT sitzen die Mitarbeiter im Fahrersitz. Sie sind mit allen Mitteln ausgestattet, ihre IT-Services und die Informationsbereitstellung selbst festzulegen und zu verwalten – überall, zu jeder Zeit und mit jedem Gerät. Die Services und Informationen, die von den einzelnen Mitarbeitern benötigt werden, werden automatisch aktualisiert, wenn neue Daten online sind oder sich der Standort eines Mitarbeiters ändert.
  • Zufriedenere Mitarbeiter. MyIT sorgt dafür, dass sich die positive Erfahrung der Mitarbeiter mit IT im privaten Bereich auch auf ihre Arbeitswelt überträgt. Unmittelbarer Zugang zu den gewünschten Services und kontextbezogenen Inhalten führt zu einer höheren Arbeitszufriedenheit und Produktivität, und das in einer Zeit, in der die Fähigkeit, talentierte Fachkräfte anzuwerben und zu binden ein entscheidender Erfolgsfaktor ist.
  • Stärkere IT-Organisationen. Die Nachfrage an die IT, ein Consumer-orientiertes Frontend zu entwickeln und die Explosion an neuen Geräten, die unterstützt werden müssen, stellt IT-Organisationen vor große Herausforderungen, besonders, wenn es um die Auslieferung klassischer Dienste über traditionelle Servicemodelle mit geringen Ressourcen geht. IT-Experten wollen in einer modernen IT-Organisation arbeiten, die das Geschäft effizient vorantreibt. MyIT unterstützt IT-Organisationen bei ihrem nachhaltigen Erfolg. Es erfüllt die Erwartungen der Mitarbeiter und garantiert gleichzeitig die notwendige Kontrolle und Sicherheit, um die Unternehmensinteressen zu schützen.

BMCs MyIT kann von jedem beliebigen Desktop-PC, Laptop und mobilen Gerät genutzt werden. Es liefert jedem einzelnen Mitarbeiter ein personalisiertes Portfolio an Technologien und Services, wie z.B. einen Content-Locker, mobile Unternehmens-App Stores und andere lokale Services und Lösungen. MyIT ist in BMCs Remedy IT Service Management Suites integrierbar und wird Mitarbeitern weltweit auch die Stärken des Business Service Management Portfolios bieten.

Categories
Kommentar

Windows 8: Cloud, Mobile, CoIT und mehr…

Windows 8 ist da und wie bereits viele andere Anbieter stellt auch Microsoft vieles ins Zentrum der Cloud, wenn auch nicht zu 100 Prozent ins Zentrum ihrer zukünftigen Strategie. Denn Microsoft geht den hybriden Weg. Das bedeutet, Windows 8/RT sind auch nutzbar, wenn keine Datenverbindung besteht. Auch wenn ich ein großer Fan des reinen Cloud Ansatzes bin, zeigt die Praxis, dass es derzeit einfach noch nicht (mobil) funktioniert. Und insbesondere dieses mobile Dilemma ist meiner Ansicht derzeit die größte Schwachstelle u.a. der Google Chromebooks.

Es geht um den Account

Wie man es von Android kennt, ist nun auch für Windows 8 ein zentraler Microsoft-Account erforderlich, um das gesamte Potential von Windows 8 auszuschöpfen. Dabei kann es sich um ein Live-, Hotmail- oder Outlook.com-Konto handeln. Über diesen Account lassen sich Einstellungen, Apps aus dem Marketplace und Daten geräteübergreifend synchronisieren. Produktiv- und Mediendaten lassen sich über SkyDrive in das System einbinden. Office 365 und Office 2013 stehen zudem als lokale und reine Cloud-Lösungen bereit.

Hier zeigt sich auch die strategische Ausrichtung der letzten Monate, indem angefangen wurde u.a. SkyDrive mit sehr attraktiven Preisen zu vermarkten und ebenfalls die SkyDrive APIs für Entwickler zu öffnen. Ein weiterer bedeutender Schritt war zudem die Fokussierung der Office Suites auf die Cloud.

Windows 8: Vielfalt für die Post-PC Ära

Windows 8 erweitert die technologische Benutzererfahrung mit einer neuen Gerätevielfalt. Microsoft bringt zusammen mit den Hardware-Partnern eine Vielfalt neuer Geräte mit den unterschiedlichsten Modellen in den Handel. Acer, Asus, Dell, HP, Lenovo, Samsung, Sony und Toshiba bieten mit Start von Windows 8 neben klassischen PCs eine große Bandbreite an neuen Windows 8 Tablets, Convertibles, Smart Devices, All-In-Ones und Laptops. Windows 8 wird neben Maus- und Tastatureingabe auch per Touch-Steuerung bedienbar und damit auch auf Tablets optimal nutzbar sein.

Bereits im Juni stellte Microsoft mit Surface eigene, speziell für Windows entwickelte Tablets vor. Seit dem 26.10.2012 ist das Surface Tablet mit Windows RT mit wahlweise 32 GB oder 64 GB Speicherkapazität in Deutschland online verfügbar. Die Touch Cover mit integrierter druckempfindlicher Tastatur für eine schnelle Eingabe sind in Deutschland in weiß, schwarz und cyan erhältlich. Das Type Cover verfügt über bewegliche Tasten für ein authentisches Schreibgefühl wie auf einem klassischen Keyboard.

Windows 8 fühlt sich gut an

Windows 8 hat bei mir einen ersten guten Eindruck hinterlassen. Das System hat sich während der Bedienung einfach gut angefühlt. Natürlich ist das neue Bedienkonzept Geschmackssache. Allerdings hat niemand großartig die Bedienung des iPhone/ iPad in Frage gestellt. Es wurde einfach als innovativ dargestellt. Und jeder der die Microsoft/ Windows “Hass-Brille” mal ablegt, wird sehen, dass das neue Bedienkonzept von Windows 8 ebenfalls innovativ ist.

Die klassische Windows Desktop-Oberfläche ist weiterhin vorhanden. Jedoch muss ich gestehen, dass mir diese nach längerem Rumspielen mit der neuen Windows Oberfläche sehr ungewohnt und unkomfortabel vorkam. Es mag daran gelegen haben, dass ich Windows 8 mit einem Tablet-Hybriden (Tablet + abnehmbarer Tastatur) ausprobiert habe. Außerdem ist die alte Desktop-Oberfläche nicht so richtig touch-tauglich.

Was weiterhin überzeugt ist die neue Plattformstrategie. Windows 8 bzw. der abgespeckte Ableger Windows RT sind auf jedem Endgerät, von Desktop-PC über Notebook und Tablet bis hin zum Smartphone vorhanden. Das macht es dem gemeinen Windows Nutzer einfacher sich in seinem “Leben auf einer einzigen Plattform” besser zurechtzufinden. Hier hat Microsoft insbesondere das Thema “Consumerization of IT (CoIT)” verstanden und umgesetzt. Dies hatte ich vor längerer Zeit bereits in dem Artikel “Microsoft schafft den Spagat zwischen Cloud Computing und Mobile Computing. Die Mobile Cloud wird Realität!” thematisiert.

Microsoft ist mit Windows 8 auf dem richtigen Weg

Microsoft hat mit Windows 8, der Cloud Integration sowie der neuen (mobilen) Plattformstrategie den Trend der CoIT verstanden und ein Produkt geliefert, mit dem der Arbeitsalltag und das Privatleben mit einem Gerät bewältigt werden kann. Bei Bedarf können auch mehrere Geräte (mindestens ein Smartphone) zum Einsatz kommen. Hier hilft die Synchronisation über den Microsoft Account bzw. Lösungen wie der Cloud Storage SkyDrive.

In einem Artikel auf bizruption.de hatte ich kurz nach der Ankündigung von “Microsoft Surface” provokativ geschrieben, dass Android Tablets und das iPad nicht für den Einsatz im Unternehmen taugen.

Andere mögen an dieser Stelle vielleicht anderer Meinung sein und Erfahrungen gemacht haben, aber Android Tablets als auch das iPad sind für den Unternehmenseinsatz nicht geeignet. Google als auch Apple fokussieren sich auf das Endkundensegment, und genau das merkt man. Es fängt bereits bei der Integration der Geräte in die bestehenden Infrastrukturen an. Eines ist klar, wenn man auf Google Apps setzt, hat man die beste Integration auf Android Tablets, die man sich vorstellen kann. Aber wer kann und möchte schon zu 100% den Google Weg gehen? Hinzu kommt, dass es zwar Office Suites für das iPad gibt und sogar Microsoft plant sein Office auf das iPad zu portieren, aber dennoch existieren Medienbrüche und Unbequemlichkeiten, die das “Büro Feeling” auf aktuellen Tablets einfach nicht wiedergeben. Wenn es darum geht Filme zu schauen, Musik zu hören oder eine E-Mail zu schreiben sieht es anders aus, aber Android Tablets oder iPad im Büroalltag?

Categories
Management @de

Mainframe: Grundpfeiler von Wachstum und Innovation?

CA Technologies, Anbieter von IT-Management-Software und -Lösungen, veröffentlicht die Ergebnisse seiner weltweiten Studie „The Mainframe as a Mainstay of the Enterprise 2012“. Aus ihr geht hervor, dass sich der Großrechner in einer zunehmend komplexer werdenden IT-Landschaft zu einem Grundpfeiler von Wachstum und Innovation in der Unternehmensinfrastruktur entwickelt. Die im August 2012 durchgeführte Studie untersuchte die Rolle des Großrechners in der heutigen und künftigen IT-Strategie. Für die Studie wurden weltweit 623 IT-Experten aus elf Ländern befragt. Dabei die Studienergebnisse drei Haupttrends: Der Mainframe spielt eine immer größere strategische Rolle beim Managen der wachsenden Anforderungen von Unternehmen. Im Zeitalter von Big Data und Cloud Computing helfen Großrechner, die Innovationsfähigkeit eines Unternehmens zu erhalten. Die Unternehmen suchen für das Mainframe-Management nach Fachkräften mit fachübergreifenden Kompetenzen.

Großrechner als strategische IT-Investition

Laut Studienergebnissen nimmt der Mainframe eine immer stärkere Position im Unternehmen ein und wird vermehrt als ein strategischer Bestandteil der IT-Infrastruktur wahrgenommen. In diesem Zusammenhang bestätigen 33 bzw. 56 Prozent der Befragten aus Deutschland und über 80 Prozent der weltweiten Teilnehmer, dass Großrechner eine strategische bzw. eine wichtige strategische Komponente ihrer gegenwärtigen und künftigen IT-Strategie sind. Knapp ein Drittel der deutschen Befragten (31 Prozent) und 46 Prozent der weltweiten Umfrageteilnehmer gaben an, dass sie in den nächsten zwölf bis 18 Monaten beabsichtigen, in Mainframe-Software zu investieren. In Großrechner-Hardware wollen in diesem Zeitraum gut zwei Fünftel der deutschen Befragten (44 Prozent) vermehrt investieren. Weltweit steht das bei 36 Prozent der Befragten auf der Agenda. Zudem sehen 52 Prozent der deutschen sowie 44 Prozent der international Befragten vor, ihre Investitionen in Mainframe-bezogene Services (NET) zu erhöhen.

Mainframe als Innovationstreiber

Mit dem zunehmenden Anstieg von Cloud Computing, Big Data und Enterprise Mobility wird der Mainframe die notwendige Rechenleistung liefern, das heißt, er wird in den nächsten Jahren vielen technischen Neuentwicklungen den Weg bereiten. 75 Prozent der deutschen Teilnehmer der Studie und 58 Prozent der international Befragten sind der Meinung, dass der Großrechner eine zentrale strategische Plattform in ihrer Cloud Computing-Strategie ist bzw. sein wird. Insgesamt sehen die Befragten die flexible Bereitstellung neuer Services, Skalierbarkeit und Sicherheit als „wichtige“ Vorteile des Mainframe-Einsatzes, die den Weg in die Cloud ebnen. So evaluieren oder planen gegenwärtig 63 Prozent der weltweit und 69 Prozent der deutschen Befragten in den nächsten zwölf bis 36 Monaten neue Werkzeuge einzusetzen, mit denen sie schnell private und hybride Cloud-Services auf dem Großrechner einführen und kostensparend provisionieren können.

Angesichts der zunehmenden Mobilität, die sich zu einer Triebkraft von IT-Innovationen entwickelt, belegt die Studie schließlich, dass Unternehmen auch das Thema Mobilität in ihre Großrechnerumgebung integrieren. 86 Prozent der Studienteilnehmer aus Deutschland und 74 weltweit gaben an, dass sie bereits ein mobiles Management des Mainframes befürwortet haben oder dies innerhalb der nächsten 18 Monate realisieren werden.

Wandel in der Mainframe-Belegschaft

Obwohl oft von einer Verknappung der Belegschafts-Ressourcen die Rede ist, identifizierte die Studie „The Mainframe as a Mainstay of the Enterprise 2012“ auch positive Entwicklungen. Zwar gehen 76 Prozent der internationalen sowie 79 Prozent der deutschen Befragten davon aus, dass ihr Unternehmen künftig über weniger Großrechnerexpertise verfügen wird. Jedoch sind sich fast alle Befragten (98 Prozent global sowie 98 Prozent aus Deutschland) darin einig, dass ihre Unternehmen angemessen oder sehr gut darauf vorbereitet sind, die Kontinuität der Mainframe-Belegschaft sicherzustellen.

Weltweit gaben nur 7 Prozent und in Deutschland lediglich 8 Prozent der Teilnehmer an, dass sie „sehr große Schwierigkeiten“ bei der Suche nach Mainframe-Nachwuchs hätten. Dagegen berichteten 65 Prozent der deutschen Befragten von „einigen Schwierigkeiten“ in dieser Sache. Damit liegt Deutschland vier Prozent über dem internationalen Durchschnitt mit 61 Prozent. Generell lässt sich Folgendes beobachten: Trotz der weiterhin bestehenden Herausforderung, geeignetes Personal für den Großrechner zu rekrutieren, fühlen sich viele Unternehmen für die Übergangsphase gewappnet – auch wenn die Rekrutierung von geeigneten Fachkräften länger als angenommen dauert.

Die Studie belegt, dass sich die Mainframe-Belegschaft im Wandel befindet. Der Grund dafür ist die tragende Rolle, die der Großrechner im Kontext von Cloud Computing einnimmt. Umso mehr werden interdisziplinäre Fähigkeiten zum zentralen Kriterium bei der Suche nach geeigneten Bewerbern. So planen im nächsten Jahr 89 Prozent der weltweiten sowie 96 Prozent der deutschen Teilnehmer der Studie ein hybrides, Plattform-übergreifendes Management einzuführen – inklusive Design-Teams sowie übergreifender Budgets, Teams und Orgaisationsleitung. Vor diesem Hintergrund meint mehr als die Hälfte der weltweiten Befragten (56 Prozent), dass es für einen Bewerber essentiell sei, sowohl über Mainframe- als auch über übergreifende Kompetenzen zu verfügen. In Deutschland vertreten 58 Prozent diese Meinung.


Bildquelle: http://ethernetfabric.com