Categories
News

Aufzeichnung: CeBIT WebCiety 2012 – Panel: Herausforderungen von Cloud Services

Am 09.03.12 habe ich auf der diesjährigen CeBIT Webciety die Moderation des Diskussionspanels “Herausforderungen von Cloud Services” übernommen. Neben der Teilnahme vor Ort, konnte die Diskussion ebenfalls via Live Stream mitverfolgt werden, dessen Aufzeichnung sich nun auf der Webseite der Webciety befindet – siehe unten.

Aufzeichnung: http://webciety.c.nmdn.net/playlist/index.php#entryId=0_uk9ah53v oder unter http://webciety.c.nmdn.net/playlist/index.php und dann unter Tag 4.

Categories
News

Erster G-Cloud CloudStore Kunde bezieht Service unter 24 Stunden

Die Maritime and Coastguard Agency (MCA), ein Teil des Verkehrsministeriums Großbritanniens, hat als erste Regierungseinrichtung einen Service über den Online Katalog des CloudStore eingekauft, welcher auf dem G-Cloud Framework gehostet wird.

Das MCA war in diesem Fall in der Lage, den Service inkl. Vertragswerk unter 24 Stunden zu beziehen. Im Vergleich zum traditionellen Vorgehen innerhalb des öffentlichen Sektors, das in der Regel Monate benotigt, handelt es sich hier um eine Spitzenzeit.

Um welchen Service es sich dabei handelt ist derzeit noch nicht bekannt.

Weitere Einkäufe über den CloudStore werden in Kürze erwartet. Um das zu fördern, hat das G-Cloud Team am gestrigen Donnerstag dazu ein BuyCamp organisiert, an dem mehr als 30 Organisationen des öffentlichen Sektors in Großbritannien teilgenommen haben.

Der G-Cloud CloudStore ist von seinem Konzept her ein sehr gutes Vorbild, wie eine Regierung dem öffentlichen Sektor IT-Ressourcen in Form von Cloud Services unkompliziert und bei Bedarf über einen Marktplatz bereitstellen kann.


Bildquelle: http://www.businesscloud9.com

Categories
News

Amazon erlaubt nun die Nutzung von 64-bit AMIs und bringt zwei weitere neue Funktionen für Amazon EC2

Die Amazon Web Services haben heute drei neue Funktionen für Amazon EC2 vorgestellt, die mehr convenience bei der Entwicklung und dem Betreiben von Anwenungen bringen sollen.

Dazu gehört die Möglichkeit, nun auf den m1.small und c1.medium Instanztypen 64-bit Amazon Machine Images (AMIs) zu nutzen. Damit können Anwendungen nun besser vertikal über t1.micro, standard, High CPU und High Memory Instanztypen skaliert werden, indem dasselbe 64-bit AMI dazu eingesetzt wird.

Darüber steht mit m1.medium nun ein weiterer Instanztyp zur Verfügung. Eine Instanz dieser Sorte verfügt über 2 EC2 Compute Units (ECUs) Rechenleistung, 3,75 GB Arbeitsspeicher und 410 GB Instanzspeicher. Damit soll ein Mittelweg für Unternehmensanwendungen geschaffen werden, die zwar eine große Anzahl von Rechenleistung und Speicher benötigen, aber nicht auf alle Ressourcen eines m1.large Instanztyps zurückgreifen müssen. Der m1.medium Instanztyp kann in allen weltweiten Regionen als 32-bit und 64-bit Architektur genutzt werden.

Bei der dritten Erneuerung handelt es sich um eine Funktion in der AWS Konsole, die das Arbeiten mit Amazon EC2 Linux Instanzen vereinfachen soll. Es besteht daher nun die Möglichkeit, sich direkt von der EC2 Konsole auf einer Linux Instanz anzumelden, ohne dabei eine zusätzliche Software auf dem lokalen Betriebssystem installieren zu müssen.

Categories
News

Deutsche Telekom setzt auf OpenStack

Die Deutsche Telekom setzt auf die Open Source Cloud Plattform OpenStack, um darauf die Anwendungen ihres Marktplatzes für Cloud Services zu hosten. Das wurde im Rahmen der CeBIT bekanntgegeben. Das Unternehmen aus Bonn hat dazu extra ein Team aufgestellt, dass sich explizit auf OpenStack konzentriert.

Bei OpenStack handelt es sich um eine Open Source Community, die für die Entwicklung der OpenStack Software zum Aufbau von Private und Public Clouds geeignet ist. Die Deutsche Telekom wird die Cloud Infrastruktur als Grundlage für ihren Cloud Services Marktplatz einsetzen, der es kleinen und mittelständischen Unternehmen ermöglichen soll, ab Sommer 2012 auf Cloud Services bei Bedarf zugreifen zu können.

Die Entscheidung der Telekom für OpenStack hat mehrere Gründe. Neben der Offenheit der Plattform und somit als Nutzer nicht einem Vendor Lock-in zu unterliegen, können Softwareanbieter damit ebenfalls schneller ihre Anwendungen auf der Telekom Cloud bereitstellen.

Neben der Nutzung wird sich die Deutsche Telekom aber ebenfalls an der Weiterentwicklung von OpenStack beteiligen. So wird bspw. gerade an Tools gearbeitet, die bei dem automatisierten Management von OpenStack-basierten Clouds helfen sollen.

Als erster Softwareanbieter hat bereits ClearPath angekündigt seine Anwendung auf der Telekom Cloud zu betreiben. Die Sicherheitslösung soll sich an kleine und mittelständische Unternehmen richten und vor Virenangriffen schützen.

Categories
Kommentar

Die eigene Cloud bauen mit… – CloudWashing par excellence!

“Die eigene Cloud bauen mit xyz…” Als ich diese Überschrift gelesen habe, bin ich fast aus allen Wolken gefallen! In dem Artikel werden zwei Produkte vorgestellt, mit denen man seine “eigene Cloud” aufbauen kann.

Kurz gesagt: Den Leuten wird damit suggeriert, eine Private Cloud im Wohnzimmer aufbauen zu können. Gut, meine Frage ist aber nun, wie die Skalierbarkeit, Hochverfügbarkeit usw. gewährleistet wird?

Nehmen wir ein einfaches Beispiel. Ein Anwender hört vom Thema Cloud Computing. Sehr sicher, da die Daten durch die Cloud hochverfügbar sind. Jede Menge Speicherplatz, weil die Cloud skalierbar ist usw. Der Nutzer lädt sich also die in dem Artikel besagte Software herunter, installiert und konfiguriert diese und speichert seine möglicherweise wichtigen Daten darauf ab.

Szenario 1: Der Nutzer merkt nach einiger Zeit, dass nicht mehr ausreichend Speicherplatz vorhanden ist. Nutzer: “Cloud Computing ist ja echt xxx! Ich dachte das wäre skalierbar?!” Ja, aber dafür wird auch demensprechend Speicherplatz in Form von Hardware, also Festplatten benötigt.

Szenario 2: Der Nutzer merkt nach einer Weile, das Daten verschwinden und plötzlich ist kein Zugriff auf die “Cloud” mehr möglich. Nutzer: “Cloud Computing ist echt xxx! Ich dachte die Cloud ist hochverfügbar?!” Ja, ist sie auch. Aber dafür benötige ich mehr als nur ein System und das im besten Fall, an unterschiedlichen Standorten, verteilt.

Wir sehen also, dass es nicht ohne weiteres möglich ist, sich eine Private Cloud im eigenen Wohnzimmer aufzubauen! Genauso verhält es sich, wenn die Software bzw. “Private Cloud” auf einem(!) Server bei einem Webhoster genutzt werden soll. Ein Server reicht da nun einmal nicht aus. Aber leider unterstützen Softwarelösungen wie BDrive und ownCloud diese Problematik, indem sie CloudWashing betreiben und suggerieren, dass jeder seine eigene Cloud betreiben kann.

Aber so einfach scheint es dann auch wieder nicht zu sein:

Owncloud installieren
Suche Unterstützung bei der Installation von owncloud (owncloud.org/).
1blu Server vorhanden und so weit eingerichtet, allerdings komme ich an der Fehlermeldung “MDB2_Schema Error: schema parse error: Parser error: File could not be opened. – Unknown” nicht weiter!
Bitte nur Festpreis Angebote.
Bitte nur anbieten wenn Erfahrung mit owncloud vorhanden ist.

siehe: http://www.twago.de/project/Owncloud-installieren/8670

Da wundern mich auch solche Anfragen nicht, die ich öfters per Facebook bekomme:

Hey, sag mal du bist doch hier der Cloud experte. Ich möchte meine eigene Homecloud einrichten. Es sollte so einfach sein wie dropbox nur das mein Storage zu Hause auf einem Windows Home Server liegt. Nun bin ich auf der Suche nach einer App fürs iphone, einem Programm für Windows OS und vielleicht für windows mobile 6.5. Hast du eine idee oder einen vorschlag wie sowas realisierbar ist? Dropbox ist zwar schon super aber ich hab es gern wenn meine Daten bei mir zu Hause bleiben. Server ist eh immer an.

Cloud ist ja ein weiter Begriff und ich denke wenn ich von überall von jedem System auf meine Daten zugreifen möchte die zu Hause auf meinem Storage abgelegt sind und sicher aufbewahrt nennt sich das Cloud oder?
Dropbox ist ja schon nahezu perfekt, allerdings liegen dabei meine Gesamten Daten bei einem Provider im Netz. Da ist die wahrscheinlichkeit höher das der mal angegriffen wird als mein Home Server…
Darum möchte ich keine Daten online Stellen bei einem Dienstleister.
Ich habe letztens den Begriff Owncloud zugeworfen bekommen. Sagt dir das was?

Bitte, Finger weg von BDrive oder ownCloud, wenn man eine CLOUD bauen möchte. Damit kann mit einfachen Mitteln keine eigene Private Cloud aufgebaut werden!

Wenn jemand wirklich eine Cloud aufbauen möchte, sollte er sich lieber, openQRM, Eucalyptus bzw. die Ubuntu Enterprise Cloud anschauen und dabei bitte einen Blick auf die Voraussetzungen bzw. die notwendigen Topologien werfen.

Update: Mittlerweile gibt es auch einen Artikel über professionelle Open-Source Lösungen für die eigene Cloud.


Bildquelle: http://www.hightechdad.com

Categories
News

Google senkt die Preise für seinen Cloud Storage

Rückwirkend zum 01. März hat Google die Preise für seinen Entwickler Cloud Storage gesenkt und präsentiert zudem Partner, die auf dessen Basis bereits Produkte entwickelt haben.

In einem Blogpost kündigt Google an, die Preise für seinen Cloud Storage zu senken. Der Storage ermöglicht es Entwicklern in Unternehmen die Daten einer Anwendung direkt in der Cloud zu speichern, anstatt dafür die eigenen Server zu nutzen. Die monatlichen Gebühren fallen dementsprechend zwischen 8 und 15 Prozent, je nach Menge der gespeicherten Daten.

Darüber hinaus nennt Google mit Panzura, StorSimple, TwinStrata, Zmanda und Gladinet Unternehmen, die den Cloud Storage bereits in ihren Produkten nutzen.


Bildquelle: http://gizmodo.com

Categories
News

HP präsentiert weitere Informationen zu seinen cCell Services und nennt Preise

Bei den HP cCell Services handelt es sich um ein neues Cloud-Modell, das HP nun auf den deutschen Markt gebracht hat.

Damit können Kunden erstmals wählen, von welchem Betriebsort sie kommerzielle Cloud-Dienste beziehen möchten: aus dem eigenen Rechenzentrum, von einem regionalen IT-Partner oder aus den HP-Rechenzentren in Frankfurt. Eine zentrale Makler-Plattform sorgt für die Verwaltung und Verteilung der Cloud-Dienste, die von HP und einem Ökosystem an System- und Softwarehäusern bereitgestellt werden. Endkunden können mit diesem Angebot den Standort und den Modus des Cloud-Betriebs an ihre technischen, geschäftlichen und regulatorischen Anforderungen anpassen. HP-Partner erhalten die Möglichkeit, schnell und ohne größere Investitionen ein eigenes Cloud-Angebot aufzubauen.

Als erster HP cCell Service ist ab sofort Infrastructure as a Service (IaaS) verfügbar (Serverleistung, Speicher und Backup). HP wird bis Mitte des Jahres 2012 weitere cCell Services für SAP-Betrieb, Exchange, Sharepoint, Webserver und Datenbanken auf den Markt bringen. Die Software AG hat angekündigt, ihr Portfolio Software AG Cloud-Ready für HP cCell Services zu zertifizieren. Die neue Bereitstellungsoption auf HP cCell Services wird Mitte 2012 verfügbar sein. Software-as-a-Service-Lösungen von Intershop und Seeburger werden im zweiten Kalenderquartal auf der cCell-Plattform verfügbar sein. Die Janz IT AG wird auf der Grundlage von HP cCell Services ihr Angebot „Mittelstandscloud.de“ weiter ausbauen.

Über ein spezielles Cloud-Partnerprogramm (HP Preferred Cloud Partner Program) qualifiziert und unterstützt HP IT-Anbieter, die auf der Grundlage des cCells-Modells eigene Cloud-Angebote aufbauen wollen.

Kunden bezahlen für die HP cCell Services eine Nutzungsgebühr pro Tag. Abgesehen von einer einmaligen Installationspauschale fallen keine Investitionen an. Die Tagespreise pro Dienst variieren je nach gewähltem Service Level. Bestellte Services sind innerhalb von einer Stunde oder schneller verfügbar. HP cCell Services sind Teil des Portfolios HP Enterprise Cloud Services und zunächst für den deutschen Markt verfügbar.

Die Höhe der Kosten beträgt je nach Modell für die Nutzung der Virtual Private Cloud 3,80 EUR pro Tag für eine Maschine von der Kategorie “Small” plus der einmaligen Installationspauschale von 9.842,00 EUR. Für eine Private Cloud werden 4,30 EUR pro Tag für eine Maschine von der Kategorie “Small” plus der einmaligen Installationspauschale von 17.954 EUR berechnet. Die Virtual Private Cloud ist zudem nicht abhängig von einer Mindestvolumennutzung, wo hingegen bei der Private Cloud eine Nutzung von 25% bis 35% Systemauslastung erwartet wird. In der Installationspauschale sind u.a. Workshops Beratung und Integrationshilfen enthalten.

Bei den Service Level werden drei Kategorien 0 bis 2 unterschieden. Wobei hier zwischen dem direkten Hosting in einem HP Rechenzentrum bzw. dem Hosting in einem HP Rechenzentrum oder bei einem Partner unterschieden wird. Die Servicelevel Qualität unterscheidet sich hier jedoch nicht. Beim SLA0 bzw. SLA1 werden jeweils 99,0% (0) bzw. 99,5% (1) angegeben. Den einzigen unterschied macht das SLA Level 2. Hier wird eine garantierte Verfügbarkeit von 99,9% in einem HP Rechenzentrum garantiert. Beim Hosting der Cloud in einem Partner Rechenzentrum werden keine Angaben gemacht, da je nach Projekt und Situation entschieden werden soll.

Categories
News

Deutsche Bundesregierung unterstützt das Thema Cloud Computing

Im Rahmen der CeBIT eröffnete der Staatssekretär des Bundesministerium für Wirtschaft und Technologie (BMWi) Stefan Kampferer die Cloud Computing World des BITKOM.

Nach Aussage von Kampferer habe das BMWi im Jahr 2010 bereits frühzeitig die Wichtigkeit und das Potential des Cloud Computing erkannt und daher zusammen mit dem BITKOM die Initiative Cloud Computing ins Leben gerufen. Kampferer sieht auf Grund des on-Demand Bezugs und pay as you go Modells des Cloud Computing ein großes Produktivitätspotential, was Unternehmen eine deutlich höhere Flexibilität im Vergleich zum klassischen IT-Bezug ermöglicht.

Insbesondere sieht der Staatssekretär noch große Herausforderungen im Mittelstand, bei dem sich in Deutschland jedoch das größte Potential verbirgt. Nach Kampferer erkennen Mittelständler zunächst keinen Nutzen in der Adaption von Cloud Computing. Allerdings sehen diejenigen, die bereits eine Evaluation vorgenommen haben, dass es sich durchaus lohnen kann. Hier müssen die Anbieter über Vertrauen und ein besonderes Maß an Sicherheit die Mittelständler ins Boot holen.

BITKOM mit neuer Umfrage und Whitepaper

Im Anschluß der Eröffnung präsentierte Prof. Dieter Kempf, Präsident des BITKOM, Auszüge aus einer neuen Umfrage, die der BITKOM zusammen mit KPMG erhoben hat und die in Kürze in einem Whitepaper veröffentlicht werden. Diese Umfrage soll alle vier Jahre erneut durchgeführt werden, um einen aktuellen Stand des Cloud Computing in Deutschland aufzuzeigen.

Die Umfrage behandelte u.a. Fragen zur Bedeutung und Verbreitung des Cloud Computing im jeweiligen Unternehmen, die spezifische Branche. Welche Formen eingesetzt werden und welcher Nutzen sich dadurch bisher ergeben hat sowie die Herausforderungen dies es zu bewältigen gab und welche grundsätzlichen Erfahrungen gemacht wurden.

Kempf nannte ebenfalls ein paar Ergebnisse der Umfrage. So sei jedes dritte Unternehmen aufgeschlossen für das Thema Cloud Computing, wobei weiterhin ein hoher Informationsbedarf vorhanden ist. Laut der Umfrage nutzen 27% der befragten Unternehmen Private Cloud Lösungen, wobei bereits 21% planen, dieses Cloud Modell einzusetzen. Zudem nutzt jedes zweite Großunternehmen Private Clouds, wo hingegen 1/4 der KMUs diese Art der Cloud Nutzung bevorzugen. Alle befragten Anwender haben über positive Erfahrungen berichtet. Der Bitkom geht daher davon aus, dass sich die Budgets für die Private Clouds weiter erhöhen werden. 6% der befragten Unternehmen nutzen die Public Cloud, wovon 3/4 bisher positive Erfahrungen gemacht haben.

Der Bitkom sieht weiterhin viel Überzeugungsarbeit die geleistet werden müsse und bei der Vorteile und Vorbehalte wie bspw. das Vertrauen gegenübergestellt werden müssen. In diesem Zuge sollten diverse Rahmenbedingungen weiter definiert und ein entsprechender Rechtsrahmen für die notwendige juristische Sicherheit sorgen.

Besonders für den öffentlichen Sektor sieht der Bitkom durch das Cloud Computing starke Kosteneinsparungen und erhofft sich durch die Cloud zudem einen positiven Einfluss auf das Ökosystem.

Categories
News

Die Amazon Web Services senken die Preise

Wie Amazon heute berichtet, werden rückwirkend zum 01. März die Preise für diverse Cloud Services reduziert.

Dazu gehören Amazon EC2, Amazon RDS sowie Amazon ElastiCache. Die Preise für Reserved Instances für EC2 werden demnach um bis zu 37% günstiger. Die Preise für Amazon RDS fallen um bis zu 42% für alle Regionen. On-Demand Preise für EC2, RDS und ElastiCache werden um bis zu 10% gesenkt.

Darüber hinaus kündigt Amazon Mengenrabatte für Amazon EC2 an. Damit erhalten Kunden, die über eine große Anzahl von Reserved Instances verfügen, zudem eine Preisminderung.

Damit senkt Amazon insgesamt bereits zum 19ten Mal die Preise für seine Cloud Services.

Categories
Analysen

Die Amazon Web Services und der Vendor Lock-in

Die Amazon Web Services (AWS) legen ein beachtliches Tempo vor. In regelmäßigen Abständen veröffentlicht das Unternehmen aus Seattle immer mehr Cloud Services, was Amazon innerhalb kürzester Zeit zum Cloud-Primus hat werden lassen. Der letzte Streich, der Amazon Simple Workflow liegt gerade knapp 2 Wochen zurück.

Auf dem ersten Blick ist die Leistung von Amazon wirklich sehr beachtlich. Zudem können die meisten Mitbewerber das vorgelegte Tempo kaum mithalten. Der zweite Blick trübt jedoch die Euphorie um die angebotenen Services. Denn viele Unternehmen nutzen AWS, um ihre ersten Schritte zu gehen und dabei auf eine flexible und öffentliche Cloud Infrastruktur zurückzugreifen. Aber je mehr Angebote wie bspw. Workflow Services oder speziell für die Cloud entwickelte Datenbanken veröffentlicht werden, desto größer wird ebenfalls das Bedenken einem Cloud Vendor Lock-in zum Opfer zu fallen.

Auf Grund der kostengünstigen und einfach zu nutzenden Infrastruktur für Rechenleistung und Speicherplatz, haben sich anfangs viele Kunden für den Einsatz von AWS entschieden. Diese Einfachheit ist weiterhin unumstritten und ermöglicht es insbesondere kleinen Unternehmen und Startups schnell auf die Ressourcen zurückzugreifen, die zu einem bestimmten Zeitpunkt benötigt werden, ohne große vorab Investitionen zu tätigen. Hinzu kommt das bequeme Mitwachsen der Infrastruktur, wenn unerwartet große Anfragen entstehen und die tatsächliche Abrechnung (pay as you go) der Ressourcen. Unternehmen können ihre Workloads also deutlich bequemer und flexibler in der Amazon Cloud verarbeiten lassen als im eigenen Rechenzentrum.

Jedoch führt die Einführung neuer Dienste wie Amazon DynamoDB und Simple Workflow Services (SWF) dazu, dass genau diese Workloads deutlich stärker an die AWS-Infrastruktur gebunden werden. So stellt es für Entwickler bspw. eine größere Herausforderung dar, ihre Daten von der DynamoDB zu einer nicht Amazon Datenbank zu migrieren. Im Falle von SWF, mit der Entwickler workflow-fähige Anwendungen erstellen können, wird die Lücke zwischen der on-Premise Infrastruktur und den Amazon Ressourcen immer kleiner und hebt die Grenze zwischen Kundenseite und AWS-Infrastruktur zunehmend auf.

Es scheint so, als wolle Amazon den Microsoft-Weg gehen, eben nur in der Cloud. Microsoft führte nach Betriebssystemen und Office Produkten immer weitere Funktionen ein und stimmte diese perfekt aufeinander ab. Hinzu kommen bereits vorhandene oder im Laufe der Zeit eingeführte Funktionen, die auch von anderen Herstellern angeboten wurden, aber eine untergeordnete Rolle spielten. So waren die Kunden nicht bereit für eine Funktion zu bezahlen, die in der Software bereits enthalten war, selbst wenn die vom Drittanbieter angebotene in den meisten Fällen deutlich besser war.

Eine weitere nicht zu unterschätzende Problematik ist die Abwanderung von Daten – nicht Diebstahl! Mit Amazon SWF können Anwendungs- und Serviceübergreifende Anwendungen entwickelt werden die einen flüssigen und integrierten Übergang zwischen Anwendungen auf der Kundenseite und der AWS Infrastruktur herstellen. Mit den Simple Workflow Services werden die Daten quasi aus dem eigenen Rechenzentrum in die Amazon Cloud übertragen und sind dort eng in die Workflow Prozesse und die Infrastruktur verankert.

Ähnlich verhält es sich bei der Nutzung von Amazon DynamoDB, aber auch Amazon SimpleDB. Kommt eine dieser Datenbank zum Einsatz ist ein Wechseln zu einem anderen Cloud Anbieter nicht möglich. So kann u.a. die Entwicklung einer Anwendung im Zusammenhang mit einer dieser Datenbanken nicht offline stattfinden, da Amazon DynamoDB bzw. Amazon SimpleDB nur in der Amazon Cloud laufen. Auch der AWS Storage Gateway ist aus der Lock-in Sicht eher kritisch zu betrachten, der er die Daten aus dem eigenen Rechenzentrum heraus auf Amazon S3 speichert.

Amazon ist aus gutem Grund der weltweit führende Cloud Computing Anbieter. Aber Erfolg und Macht führen in der Regel dazu, beides auch zu festigen und stetig auszubauen. Daher sollte sich jeder überlegen, in wie weit und vor allem wie integriert er welchen Service nutzen will und sich zudem nach Alternativen umschauen und eine Multi-Vendor Strategie fahren.

Denn unter diesen Gesichtspunkten stellt sich Frage, ob Zynga wirklich nur aus Performancegründen den Weg in die eigene Cloud gewählt hat.


Bildquelle: http://www.flyingomelette.com