Categories
Events

Rückblick auf die CLOUDZONE 2012 – Die Cloud ist tod, lang lebe die Cloud

Die CLOUDZONE am 10. und 11. Mai führte Deutsche, Österreicher und Schweizer Cloud Anbieter an einem Messestandort zusammen. Ich war am ersten Veranstaltungsort vor Ort und habe Interviews mit einigen Anbietern geführt sowie an dem EuroCloud Anwenderkongress teilgenommen. Ehrlich gesagt hat dieser eine Tag für die aktuelle Größe der Messe vollkommen ausgereicht. Allerdings steckt noch viel Potential in ihr.

Rückblick auf die CloudZone 2012 - Die Cloud ist tod, lang lebe die Cloud

Eröffnet wurde die diesjährige CLOUDZONE durch Bernd Becker, Vorstandssprecher des EuroCloud Deutschland Verbands. EuroCloud ist gleichzeitig eine der Säulen, welche die CLOUDZONE vorantreibt. In seiner Rede stellte Becker noch einmal heraus, dass die EuroCloud das Thema Cloud Computing nicht als nationalen sondern internationalen Ansatz versteht und der Verband zudem darin bestrebt ist, die CloudZone als europäische Leitmesse für Cloud Computing zu etablieren. Meiner Meinung nach ein sehr sportlicher Ehrgeiz, gibt es doch ebenfalls europäische Cloud Computing Veranstaltungen wie die Cloud Computing World Series oder das Cloud Computing Symposium, die beide ebenfalls einen Messebereich bieten. Weiterhin sieht Becker die Rahmenbedingungen in Deutschland sehr positiv, auch wenn es noch Baustellen zu bearbeiten gibt, wie bspw. rechtliche Themen. Was ihn jedoch sehr positiv stimmt, ist die Vielzahl an Cloud Services, die in den letzten Jahren auf dem deutschen Markt erschienen sind.

Auch unser Herr Phillipp Rösler (FDP) durfte zu Wort kommen, allerdings nur per Videobotschaft. In seinen Augen habe die deutsche Politik alles gemacht und sämtliche Rahmenbedingungen für den Erfolg des Cloud Computing in Deutschland geschaffen. Und nun seien die Anwender dran, ihre Skepsis niederzulegen und mit der Nutzung zu beginnen.

Die CLOUDZONE wurde von der Karlsruher Messe- und Kongress-GmbH gemeinsam mit dem EuroCloud Deutschland_eco, dem Verband der deutschen Cloud Computing-Industrie sowie dem CyberForum und dem FZI, Forschungszentrum Informatik Karlsruhe veranstaltet.

Die Messe, die sich ausschließlich mit dem Thema Cloud Computing beschäftigte, hat einen Überblick für interessierte Mittelständler und Cloud-Interessierte aus Wissenschaft und Forschung geboten. Etwa 60 Cloud-Anbieter wie beispielsweise SAP, Red Hat, Dell, Hewlett Packard, DATEV aber auch KMUs wie CAS, PTV, i&k Software, Wepro, Novadex, Leitwerk oder AppSphere präsentierten auf der Messe Karlsruhe ihre Produkte und Lösungen.

Der Datenbestand im Internet wird explodieren

Parallel zur CLOUDZONE fand erstmalig der EuroCloud Anwenderkongress statt, welcher von den drei Landesverbänden aus Deutschland, Österreich und der Schweiz veranstaltet wurde. Dieser wurde ebenfalls durch den omnipräsenten Bernd Becker eröffnet.

Der EuroCloud Anwenderkongress soll den Nutzen der Cloud anhand von echten Anwenderszenarien und Best-Practise Lösungen zeigen, wie mir Andreas Weiss, Direktor EuroCloud Deutschland, in einem persönlichen Gespräch erläuterte.

Die EuroCloud ist mittlerweile schon in 28 Ländern vertreten, präsentierte Becker den Teilnehmern und “schockte” im Anschluss direkt mit neuen Zahlen aus dem Hause IDC. Laut den Analysten wird sich zum einen der Internettraffic bis zum Jahr 2016 verdoppeln. Darüber hinaus erwartet IDC bis zum Jahr 2020 eine verhundersechzigfachung des Datenbestands im Internet. Aktuell liegt dieser bei 1,8 Cetabytes, wobei 1 Cetabyte 10 hoch 21 Byte entspricht. Diese Zahlen sind auf neue Services wie bspw. dem Internetfernsehen zurückzuführen, die bereits als Cloud Services umgesetzt sind. Demnach wird der Markt für Internetservices regelrecht explodieren, was ein gutes Zeichen für das Cloud Computing ist.

Weitere Neuigkeiten der EuroCloud sind die Erscheinung der zweiten Ausgabe “Der Weg in die Cloud”, das ein neues Kapitel zum Thema Anbieterwechsel enthalten wird und im Sommer auf dem Markt kommt sowie drei neue Leitfäden, die u.a. das Thema Controlling behandeln.

Nicht alles Gold was glänzt

Die CLOUDZONE hat mir grundsätzlich gut gefallen. Trotz der relativ jungen Veranstaltung waren eine Vielzahl an namenhaften Anbietern, darunter T-Systems, Claranet, SAP oder Red Hat mit an Bord. Zudem gab der Startup Bereich vielen jungen Unternehmen mit Cloud Lösungen die Chance sich auch einmal der analogen Öffentlichkeit zu präsentieren.

Ob die erwarteten Teilnehmerzahlen erreicht wurden, sollte man noch einmal die Veranstalter fragen. Mein Eindruck war ein ständiges Gewirbel an allen Ständen, ohne das es nun unangenehm voll war und fachliche Gespräche in Ruhe und einer persönlichen Atmospähre zu führen.

Wo Licht hinfällt gibt es aber natürlich auch Schatten. Und der liegt, wie bei den meisten Veranstaltungen, beim Thema WLAN. Fakt ist, für die Teilnehmer wurde kein kostenloses WLAN bereitgestellt, Punkt! Was angesichts dafür, das Cloud Services ohne eine Datenverbindung keine Existenzberichtung haben, mehr als unverständlich ist. Zumal die CLOUDZONE sich als die Cloud Messe in Deutschland präsentiert. Hinzu kommt, dass die Halle mit ein paar wenigen Access Points gut ausgeleuchtet hätte werden können, bzw. sicherlich über ein WLAN Netz verfügt. Darüber hinaus gehörte T-Systems zu den Sponsoren, mit denen man im Sinne der Teilnehmer einen Deal für die Internetleitung im Gegenzug zum Sponsoring aushandeln hätte können.

Ich begrüße Veranstaltungen wie die CloudZone in Deutschland und würde mich freuen, wenn die Veranstalter ihr ehrgeizig Ziel weiter verfolgen und es schaffen aus Deutschland heraus die Messe zu einem europäischen Format auszubauen. Wobei dieses, angesichts des Mitbewerbs, nicht ganz einfach werden wird.

Ein paar Bilder zur CloudZone 2012 gibt es auf Flickr.

Categories
News

Die HP Public Cloud ist nun verfügbar – Fast 40 Unternehmen unterstützen bereits die HP-Lösung

Mit HP Cloud Compute, HP Cloud Object Storage und HP Cloud Content Delivery Network (CDN) stehen ab sofort die ersten Public-Cloud-Dienste von HP der Öffentlichkeit als Betaversion zur Verfügung. Zum Start unterstützen bereits fast 40 Unternehmen die HP Cloud Services. Dazu zählen Platform-as-a-Service-Partner sowie Anbieter von Speicher-, Management- und Datenbanken-Lösungen.

Die HP Public Cloud ist nun verfügbar - Fast 40 Unternehmen unterstützen bereits die HP-Lösung

HP Cloud Services sind Teil des Converged-Cloud-Portfolios von HP. Mit den neuen Public-Cloud-Diensten rundet HP dabei sein Cloud-Portfolio nach unten ab. Entwickler, Softwarefirmen und Unternehmen erhalten dadurch schnellen Zugriff auf ein breites Angebot an Cloud-Lösungen. Damit können sie neue Applikationen schneller und effizienter testen und entwickeln, weltweit einsetzen und entsprechend skalieren. Abgerechnet werden die Public-Cloud-Dienste pro Stunde Nutzungsdauer. Zum Start gibt es für begrenzte Zeit einen 50-prozentigen Rabatt auf die Listenpreise.

Die HP Cloud Services bieten eine Public-Cloud-Infrastruktur in Verbindung mit Plattform-Diensten und Cloud-Lösungen. Die Public-Cloud-Lösung von HP baut auf der OpenStack-Technologie auf. Damit stellt HP Kompatibilität und Anbieterunabhängigkeit sicher. Die Open-Source-Architektur bietet außerdem eine breite Auswahl an Werkzeugen, um die Programmierung von Anwendungen zu beschleunigen, und Zugriff auf ein großes Partner-Ökosystem.

Das Partner-Ökosystem ist ein erster Schritt auf dem Weg zu einem Marktplatz für HP Cloud Services, über den Kunden Zugriff auf HP Cloud Services und Partner-Lösungen erhalten.

Folgende Unternehmen unterstützen bereits heute HPs Public-Cloud-Dienste:

  • Applikationen: Otopy, PXL, SendGrid
  • Datenbanken: CloudOpt, EnterpriseDB, Xeround
  • Entwicklung und Tests: SOASTA, Spirent
  • Verwaltung: BitNami, CloudSoft, enStratus, Kaavo, RightScale, ScaleXtreme, Smartscale Systems, Standing Cloud
  • Mobile: FeedHenry, Kinvey
  • Monitoring: New Relic
  • Platform as a Service: ActiveState, CloudBees, Corent Technology, CumuLogic, Engine Yard, Gigaspaces
  • Sicherheit: Dome9, SecludIT
  • Speicher: CloudBerry Lab, Gladinet, Panzura, Riverbed Technology, SMEStorage, StorSimple, TwinStrata, Zmanda
  • Technologie: Opscode, Zuora

Preise der HP Public Cloud

HP Cloud Compute

HP bietet sechs unterschiedliche Instanztypen (XS bis XXL) mit jeweils unterschiedlichen Ausstattungen an. Die Abrechnung erfolgt pro Stunde ohne die Verpflichtung auf einen langjährigen Vertrag.

Instanz Typ RAM (GB) Anzahl virtueller Kerne lokaler Speicher (GB) Preis pro Stunde
Standard Extra Small 1 1 30 0,04 US-Dollar
Standard Small 2 2 60 0,08 US-Dollar
Standard Medium 4 2 120 0,16 US-Dollar
Standard Large 8 4 240 0,32 US-Dollar
Standard Extra Large 16 4 480 0,64 US-Dollar
Standard Double Extra Large 32 8 960 1,28 US-Dollar

HP Cloud Object Storage

Die Kosten für HPs Cloud Storage sind in drei Speicherbereichsgrößen aufgeteilt, an denen sich die Preise pro Gigabyte orientieren. Die Abrechnung erfolgt pro Gigabyte pro Monat plus die jeweiligen Anfragen (Get, Put, Post, Copy, List) an den Cloud Storage, wobei pro 1000 Anfragen abgrechnet wird. Siehe unten

Speicher Bereiche Preis pro GB pro Monat
0-50 TB 0,12 US-Dollar
Nächsten 950 TB 0,10 US-Dollar
Über 1.000 TB HP fragen

HP Cloud Object Storage Anfragen

Anfrage Typ Preis pro GB
Put, Post, Copy, List, Get und weitere Anfragen 0,01 US-Dollar pro 1,000 Anfragen

HP Cloud Services Non-CDN Bandbreite

Die Preise für die Bandbreite basieren auf der jeweiligen Anzahl des ausgehenden Datentransfers. Dabei werden die ersten 1 GB nicht berechnet, anschließend erfolgt die Abrechnung pro GB pro Monat. Der eingehende Datentransfer ist hingegen vollständig kostenlos.

Bandbreite Preis pro GB pro Monat
Eingehender Datentransfer (komplett) kostenlos
Ausgehender Datentransfer
Ersten 1 GB kostenlos
bis zu 10 TB 0,12 US-Dollar
Nächsten 40 TB HP fragen
Nächsten 100 TB 0,07 US-Dollar
Nächsten 350 TB 0,05 US-Dollar
Über 500 TB HP fragen

HP Cloud CDN Bandwidth

Die Preise für die Bandbreite basieren auf der jeweiligen Anzahl des ausgehenden Datentransfers. Für Daten die vom HP Cloud Storage Richtung des CDN übertragen werden entstehen keine Kosten.

Datentransfer Preis pro GB pro Monat
Ausgehend Nord Amerika, Europa und Lateinamerika Japan, Hong Kong und Singapur Rest der Welt
Ersten 10 TB 0,16 US-Dollar 0,19 US-Dollar 0,39 US-Dollar
Nächste 40 TB 0,11 US-Dollar 0,14 US-Dollar 0,37 US-Dollar
Nächste 100 TB 0,09 US-Dollar 0,12 US-Dollar 0,35 US-Dollar
Nächste 100 TB 0,07 US-Dollar 0,10 US-Dollar 0,32 US-Dollar
Über 250 TB HP fragen HP fragen HP fragen
Anfragen
Pro 10.000 HTTP Anfragen kostenlos kostenlos kostenlos
Pro 10.000 HTTPS Anfragen kostenlos kostenlos kostenlos
Categories
News

Cloud Computing ist das Erfolgsrezept für das „Neue Arbeiten“ in Unternehmen

Der Trend hin zum „Neuen Arbeiten“ unter Einbezug privater IT-Geräte ist in deutschen Unternehmen nicht mehr aufzuhalten. Das bestätigt das aktuelle White Paper „Cloud Computing und Consumerization of IT in Deutschland 2012“ hervor, das IDC im Auftrag von Microsoft Deutschland verfasst hat.

Rund zwei Drittel der befragten Unternehmen haben demnach den Bedarf erkannt und ermöglichen bzw. planen den mobilen Zugriff auf Geschäftsdaten und moderne, interaktive Tools zur Zusammenarbeit innerhalb der nächsten zwei Jahre. Mehr als jeder zweite Befragte (56 Prozent) sieht dabei vor allem in der zunehmenden Mobilität und Flexibilität den größten Nutzen, sich mit dem neuen Trend zu beschäftigen. Der Anspruch an den mobilen Zugriff auf Geschäftsapplikationen und -daten ist jedoch divergent. Während Anwender den einfachen und schnellen Zugriff auf mobile Geschäftsapplikationen erwarten, muss die IT-Abteilung die Sicherheit der Daten gewährleisten. Der Schlüssel liegt laut IDC hier in der Cloud.

Nach den Ergebnissen des IDC White Papers sehen immer mehr Unternehmen in Consumerization of IT einen entscheidenden Wettbewerbsvorteil. Vor allem die steigende Mobilität und Flexibilität (56 Prozent), geringere IT-Kosten (53 Prozent) sowie zeit-, orts- und geräteunabhängiger Zugriff auf Unternehmensapplikationen spielen eine entscheidende Rolle. Rund zwei Drittel der befragten Unternehmen ermöglichen bzw. planen den Zugriff auf mobile Geschäftsapplikationen. Hatten in der Vergangenheit noch viele Unternehmen Vorbehalte gegenüber des Cloud Computing bzgl. der Sicherheit und des Datenstandorts, zeigen die aktuellen Ergebnisse, dass sich diese Sichtweise geändert hat. Public Cloud Services haben einen gewissen Reifegrad erreicht, wodurch auch die Sicherheitsbedenken der Unternehmen sinken. So nahm die Anzahl der „Skeptiker“ innerhalb des letzten Jahres deutlich ab (-7 Prozentpunkte) und umgekehrt sind jetzt 75 Prozent der Entscheider – das sind fünf Prozentpunkte mehr – “Pro Cloud Computing” eingestellt.

Consumerization of IT – Ohne Cloud Computing undenkbar

Die Ergebnisse des IDC bestätigen, dass der Trend Consumerization of IT in direktem Zusammenhang mit Cloud Computing steht. Cloud Services sind der Schlüssel, um Anwender-, Sicherheits- sowie Supportfragen im Zusammenhang mit der Nutzung von privaten Endgeräten im geschäftlichen Alltag zu lösen. Consumerization of IT können Unternehmen einfach nicht mehr ignorieren. Anbieter wie Microsoft und andere sehen sich daher in der Pflicht, Vertrauen zu schaffen und Unternehmen Lösungen für den sicheren Umgang mit diesem Trend im Rahmen ihrer IT-Strategie anzubieten. Laut IDC haben vor allem Großunternehmen das erkannt und setzen vermehrt auf den Einsatz von Cloud Computing.

Großunternehmen haben den Bedarf erkannt

Insgesamt nimmt die Verbreitung von Cloud Computing Fahrt auf. Im Vorjahr hatten zusammengefasst 27 Prozent der Unternehmen Cloud Computing eingesetzt oder gerade eingeführt. Nur ein Jahr später sind es bereits über 40 Prozent – ein immenser Anstieg. Vorreiter wie im letzten Jahr sind die Großunternehmen. Rund 58 Prozent der befragten Unternehmen mit mehr als 1.000 PC-Arbeitsplätzen führen Cloud Services ein oder planen die Einführung in den kommenden ein bis zwei Jahren. Damit liegt das Interesse der Großunternehmen deutlich über dem Durchschnitt.

Categories
News

Die US-Army marschiert in die Cloud – Big Data Analytics in Krisenregion

Um die Analyse ihrer Geheimdienst-Informationen in Afghanistan zu verbessern, setzt die US-Army mit einigen Partnerfirmen aus Wisconsin, auf Services aus der Cloud. Dazu wurde mit dem US-amerikanischen Rüstungs- und Technologiekonzern Lockheed Martin Corp. ein Deal über 19,5 Mio. US-Dollar abgeschlossen. Die Cloud wird dazu genutzt, um die dabei anfallenden Daten zu verarbeiten, zu verwalten und zu speichern.

IEA Inc. und Silicon Graphics werden das Projekt mit 4 Cloud Nodes unterstützen, die als Verbindungspunkte dienen. Einer dieser Nodes wird in Afghanistan eingesetzt und den Kommandeuren die Möglichkeit geben, Echtzeit-Analysen über sämtliche Geheimdienst-Berichte aus aller Welt vorzunehmen. Die Army erhofft sich dadurch mehr Leben retten zu können, da die Datenbasis der Geheimdienst-Berichte bis auf das Jahr 2003 zurückzuführen ist und den Streitkräften nun über das Cloud Computing bereitgestellt wird.

Die Entscheidung für den Einsatz des Cloud Computing in Afghanistan wurde bereits in einem Memo aus dem Juli 2010 diskutiert, in dem kritisiert wurde, wie die Armee mit solchen wichtigen Informationen umgeht. Ein Prototyp des Cloud Nodes wurde im April 2011 in der Bagram Air Base gestartet, um zu untersuchen wie die neue Technologie den Analysten dabei hilft, besser an die Informationen zu gelangen. Für den Produktiveinsatz wird ein System entwickelt, dass über eine bessere Konnektivität, schnellere Hardware, mehr Speicher und mehr Rechenleistung verfügt.

Jeder Node arbeitet mit 228 Servern mit mindestens 1.800 CPU-Kernen, 14 Terabyte RAM und mindestens 1 Petrabyte bzw. 1.000 Terabyte Festplattenspeicher. Jeder Node ermöglicht die sofortige Analyse von Geheimdienst-Nachrichten und kann mehr Daten speichern als die Bibliothek des Kongresses.


Bildquelle: http://luckybogey.wordpress.com

Categories
News

LG geht in den Mobile Cloud Storage Markt und veröffentlicht seine LG Cloud

LG Electronics will keinen Trend verpassen. Wie bereits Apple, Google und Microsoft haben auch die Südkoreaner damit begonnen, Cloud basierte Services für den Privatkundenmarkt zu veröffentlichen. Als erster Service wurde bereits am 1. Mai der hauseigene Cloud Storage Service LG Cloud in die Betaphase geschickt.

Bei dem LG Cloud Service handelt es sich zunächst um einen Cloud Storage, der den Zugriff auf Inhalte von Smartphones, Fernsehgeräten und Computer plattformübergreifend ermöglicht. Um den Service zu nutzen, benötigt der Anwender dazu native Anwendungen, die entweder über Google Play, LG SmartWorld oder direkt von der LG Cloud Webseite www.lgecloud.com heruntergeladen werden können. LG Cloud synchronisiert zudem automatisch sämtliche oder ausgewählte Inhalte von einem Smartphone zum PC oder LG Smart TV. Wodurch die multimedialen Inhalte unverzüglich angeschaut werden können.

LG Cloud steht zunächst für Google Android 2.2 und jünger, Windows XP, Windows 7 und LG Smart TVs mit Netcast 2.0 und jünger bereit. Weiterhin wird der Service zunächst in Nordamerika und Südkorea ausgerollt und später in weiteren Ländern zur Verfügung stehen.

Der Cloud Storage bietet 5GB kostenlosen Speicherplatz. Kunden, die bereits ein LG Smart TV oder LG Smartphone besitzen, oder solche, die ein LG Produkt erwerben, erhalten 6 Monate 50GB kostenlosen Speicherplatz. Die Preise für die Speichererweiterung stehen noch nicht fest.

LG möchte sich vom Mittbewerb abheben

LG betrachtet sein Angebot als mehr als nur einen gewöhnlichen Cloud Storage Service. Das Unternehmen möchte sein Produkt als speicher- und multimedia-orientieren Service vermarkten, da dieser ebenfalls über Echtzeit-Streaming verfügt. Dazu werden die Inhalte direkt über das Netz von einem Server übertragen. Der Nutzer benötigt dazu keine zusätzlichen Decoder auf dem lokalen Gerät, um die jeweiligen Dateien abzuspielen. Dazu werden die jeweiligen Inhalte durch das LG Cloud System vorab automatisch konvertiert und erst dann zum Client übertragen.

Categories
News

Studie zu Private Cloud, Storage und Virtualisierung bestätigt: Performance-Probleme und Ausfallzeiten haben Top-Priorität vor den Kosten

Performance-Engpässe und Ausfallzeiten bei Virtualisierungsprojekten bereiten IT-Verantwortlichen im Speicherumfeld die größten Sorgen. Noch im Vorjahr hatten die Kosten Top-Priorität. Das ist ein Ergebnis einer aktuellen Studie von DataCore Software, führender Anbieter für Storage-Hypervisor-Software, unter rund 300 befragten Unternehmen weltweit.

63 Prozent der Befragten gaben an, dass speicherseitige Systemausfälle und Performance-Verschlechterungen die Hauptprobleme bei der Realisierung von Virtualisierungsprojekten sind. Im Vorjahr lag dieser Wert noch bei 36 Prozent. 51 Prozent sind der Ansicht, dass steigende Storage-Kosten viele Virtualisierungsinitiativen ausbremsen. 2011 lag dieser Wert noch bei 66 Prozent.

Storage verschlingt einen erheblichen Teil des Virtualisierungsbudgets, die steigenden Ausgaben allein werden jedoch nicht mehr als Hauptproblem gesehen. Rund 44 Prozent der Befragten gaben an, dass die Speicherkosten mittlerweile mehr als ein Viertel ihres Gesamtbudgets ausmachen. Dabei können 37 Prozent der Unternehmen heute mehr Geld für den Speicher ausgeben, bei nur 13 Prozent wurde das Budget reduziert.

Weitere Ergebnisse der weltweiten Studie

  • 34 Prozent der Befragten geben zu, die Storage-Kosten bei der Umsetzung von Server- und/oder Desktopvirtualisierungsprojekten unterschätzt zu haben. Fast jeder Vierte (28 Prozent) hat die Speicherkosten bei der Bereitstellung einer Private Cloud unterbewertet.
  • Trotz steigender Ausgaben für Speicherlösungen konnten die Performanceprobleme bei Server- und Desktop-Virtualisierungsprojekten nicht eliminiert werden. So berichteten die Befragten von erheblichen Problemen bei Performance, Ausfallsicherheit und Business Continuity trotz eines höheren durchschnittlichen Storage-Budgets.
  • 32 Prozent konstatieren eine langsame Performance aufgrund der Speicherumgebung (gegenüber 26 Prozent im Jahr 2011), 32 Prozent verzeichnen Ausfallzeiten aufgrund von Speicherproblemen (2011 nur 9 Prozent) und 23 Prozent gaben an, dass die Sicherstellung der Business Continuity einer der schwierigeren Herausforderung ist.
  • Kapp 80 Prozent der befragten Unternehmen haben mittlerweile mehr als die Hälfte ihrer Server virtualisiert (2011: 64 Prozent), wohingegen weniger als 5 Prozent noch gar keine Server virtualisiert haben (2011: 9 Prozent).
  • Fast zwei Drittel (65 Prozent) können ihre Storage-Ressourcen noch immer nicht in einem logischen Storage-Pool (2011: 61 Prozent) verwalten.
  • Jeder zweite Befragte nutzt Virtualisierungssoftware, die heterogene Speichermedien nicht zentral managen kann.
  • In privaten Clouds setzen weniger als ein Drittel (32 Prozent) der Befragten Speichervirtualisierungstechnologien für private Cloud-Umgebungen ein.

Die Umfrage „2012 State of the Private Cloud“ zeigt zudem, dass die Virtualisierung in der Praxis angekommen ist und das speicherbezogene Performance und Verfügbarkeit die größten Kopfzerbrechen verursachen und inzwischen mit Bedenken bezüglich der Kosten einhergehen.

Die Umfrage wurde im März 2012 durchgeführt. 289 Unternehmen unterschiedlicher Größe nahmen weltweit an der Online-Befragung teil und beantworteten Fragen zu Storage, Virtualisierung und Private Clouds. Etwa 180 teilnehmende Unternehmen stammen aus Europa.
Der vollständige Bericht steht bereit unter: http://pages.datacore.com/StateofPrivClouds.html.

Categories
News

Die Deutsche Telekom wird Mitglied im SaaS-EcoSystem

Vor dem Hintergrund seines neuen „Telekom Cloud Business Market Place“ sucht die Deutsche Telekom Erfahrungsaustausch mit Experten aus dem deutschen SaaS- und Cloud-Netzwerkes des Saas-EcoSystem e.V.

Zur Mitte des Jahres 2012 wird die Deutsche Telekom AG ihren neuen Cloud-Marktplatz, den „Business Market Place, eröffnen“. Im Zuge dessen wird sich das Unternehmen jetzt als neues Mitglied im SaaS-EcoSystem e.V engagieren. Der Dax-Konzern will bei der Weiterentwicklung seines Cloud-Marktplatzes von der Expertise der einzelnen Mitglieder des Cloud-Netzwerks profitieren sowie seinerseits Know-how beim Aufbau von Cloud-Konzepten beisteuern.Phil Zamani, SVP Cloud Services der Deutschen Telekom AG: „Als Forum für die Entwicklung bedarfsgerechter Lösungen, Konzepte und Berater im Umfeld von SaaS und Cloud stellt das SaaS-EcoSystem für uns eine ideale Plattform für den intensiven Erfahrungsaustausch rund um alle Cloud-spezifischen Themen dar.“

Die Bonner bauen ihren Marktplatz auf der Open Source Software OpenStack auf. Dieser wendet sich vor allem an den deutschen Mittelstand, der dort verschiedenste Cloud-Services zu Anwendungspaketen schnüren und on-demand nutzen kann.Frank Türling, Vorstand für Öffentlichkeitsarbeit des SaaS-EcoSystem: „Wir freuen uns über den Beitritt der Deutschen Telekom AG. Er zeigt auf beeindruckende Weise, welche Relevanz der SaaS-EcoSystem e.V. als das deutsche Expertennetzwerk rund um alle Themen für SaaS und Cloud mittlerweile gewonnen hat.“

Knapp zwei Jahre nach ihrer Gründung zählt die Expertenplattform nun bereits 27 Mitglieder aus den unterschiedlichsten Fachgebieten.

Categories
News

Amazon hilft mit CloudFormation beim Aufbau einer Virtual Private Cloud

Die Amazon Web Services ermöglichen nun den automatisierten Aufbau einer vollständigen Virtual Private Cloud (VPC) auf Basis eines einzelnen AWS CloudFormation Templates. Laut Jeff Barr, beschreibt das Template alle Eigenschaften, die notwendig sind, um den dafür notwendigen Ressourcenstack zu erstellen.

Amazon VPC kann bereits seit mehreren Jahren genutzt werden und erlaubt dem Nutzer den Aufbau eines für sich isolierten Bereichs auf der Amazon Cloud. Hier können Ressourcen in einem virtuellen Netzwerk ausgeführt werden und darauf mittels öffentlichen und privaten Subnetzen sowie VPNs zugegriffen werden.

Mit dem Einsatz von AWS CloudFormation müssen Anwender nicht die Reihenfolge der Provisionierung der jeweiligen AWS Services sowie deren Abhängigkeiten berücksichtigen. CloudFormation nutzt dazu Templates, die als in JSON (JavaScript Object Notation) formatierte Textdateien geschrieben werden. JSON basiert auf einer Teilmenge der Programmiersprache JavaScript und ist sowohl für Menschen als auch Maschinen lesbar.

Um Entwicklern und Systemadministratoren ein wenig unter die Arme zugreifen, hat Amazon zwei Beispiel Templates erstellt, um zu zeigen wie diese aufgebaut sind. Das erste Template erstellt eine Amazon VPC mit einer EC2 Instanz. Das zweite Template baut eine VPC inkl. einem Public und Private Subnetz sowie einem Elastic Load Balancer und einer EC2 Instanz auf.

Beide Templates können in Jeff Barrs Blogpost nachvollzogen werden.


Bildquelle: http://www.allmystery.de

Categories
Analysen

Achtung IT-Abteilungen: Hier kommt Google Drive

Das soll kein Hetzartikel gegen Google Drive werden. Es handelt sich dabei bestimmt um einen hervorragenden Service – ich durfte bisher noch nicht in den Genuss kommen. Dennoch muss auch alles Gute kritisch betrachtet werden. Denn neben den Bedenken bzgl. des Datenschutz, dabei handelt es sich nicht um die Diskussion wegen dem Eigentum der Daten, wird Google Drive auch den IT-Abteilungen massives Kopfzerbrechen bereiten.

Google Drive ist angekommen

Google Drive ist Googles neuer Cloud Storage, der zu Beginn dieser Woche vorgestellt wurde. Google möchte damit die Zusammenarbeit fördern und hat dazu Google Docs und Drive integriert. Google Drive bietet neben Funktionen wie Smart Tagging, einer neuartigen Bilderkennung und der Unterstützung der OCR Technologie ebenfalls 5GB kostenlosen Speicherplatz der mit neun Kapazitätsstufen erweitert werden kann. Der Preis für weiteren Speicher beginnt bei 2,49 US-Dollar pro Monat für 25 GB.

Google Drive im Unternehmen

Google Drive ist selbstverständlich nicht der einzige Cloud Storage, über Dropbox und Box sollten IT-Abteilungen ebenso beunruhigt sein. Aber es gibt einen entscheidenen Unterschied zu allen anderen Cloud Storage Services und Google Drive. Denn auf Grund der Vielzahl an Google Anwendungen, die zudem noch z.T. mit Google Drive integriert sind, allen voran Google Mail, YouTube, Google+ oder Google Maps erschweren es den IT-Abteilungen, Google Drive auszusperren und so das Unternehmen vor Datenverlusten zu beschützen. Bei anderen Anbietern wie Dropbox oder Box ist das einfacher, da beide nur einen Dienst anbieten.
Google Docs konnte bereits seit längerer Zeit als Datenspeicher genutzt werden, jedoch war dieses eher eine “Randfunktion” die nicht so populär gemacht wurde. Google Drive hingegen wurde bereits im Vorhinein massiv durch die Medien getrieben. Spekulationen und Gerüchte waren in den letzten Wochen an der Tagesordnung. Das führt natürlich dazu, dass Google Drive auch in der breiten Öffentlichtkeit war genommen wird und die Nutzung wahrscheinlich erhöht. Google sollte also angesichts der Probleme für Unternehmen, Möglichkeiten bieten, den Zugriff auf Google Drive separat von anderen Google Dienst zu sperren.

Ich bin zwar persönlich auch kein Fan von Blockaden und mag es frei zu arbeiten. Wenn es jedoch um sensible Unternehmensdaten geht, die ein Mitarbeiter zusammen mit seinen privaten Daten im Google Drive speichern könnte, hört der Spaß ein wenig auf. Zudem wird ein Stück Papier, in dem der Mitarbeiter auf die Nutzung des Service verzichtet, wahrscheinlich nicht viel bringen. Wie bereits geschrieben, ich bin kein Fan von Blockaden, aber in gewissen Maßen muss ein Mitarbeiter auch vor sich selbst geschützt werden. Denn auch wenn die Consumerization langsam Einzug erhält, geht nicht jeder Mitarbeiter so sorgsam mit den Daten um, wie er es sollte.

Es geht an dieser Stelle also darum, wie IT-Abteilungen sicherstellen können, dass ein Mitarbeiter mögliche Unternehmensdaten nicht in seinem privaten Google Drive speichert. Denn solange nicht geklärt ist bzw. Google nicht dazu Stellung nimmt, inwieweit sie mit den Daten die im Google Drive gespeichert werden umgehen, also ggf. analysieren usw., kann und darf Google Drive (für Privatleute) im Unternehmen nicht eingesetzt werden.

Categories
News

Gartner nennt 5 Cloud Computing Trends die Einfluss auf die Technologie Strategie haben werden

Die Möglichkeiten die uns das Cloud Computing bietet, neue Ideen zu verwirklichen oder die Art wie wir in Zukunft arbeiten werden, sind beeindruckend. Jedoch ist die Einflusstiefe so immens, dass viele Unternehmen weiterhin verunsichert sind, wie sich das Thema weiter entwickeln wird. Aber auch Unternehmen, die sich bereits für die Cloud begeistern konnten, müssen in jedem Fall ständig auf ihre Strategie schauen und ggf. Anpassungen vornehmen.

In diesem Zusammenhang haben die Researcher aus dem Hause Gartner fünf Cloud Computing Trends identifiziert, die sich schnell etablieren werden und in den kommenden drei Jahren einen Wandel hervorrufen sollen. In ihrem Bericht “Five Trends in Cloud Computing that will affect its cloud strategy through 2015” beschreiben die Analysten fünf Themen, bei denen sie glauben, dass diese einen entscheidenen Einfluss auf die Cloud Computing Strategie haben werden.

Entscheidungsframework vs. Cloud Optimierung

Cloud Computing bringt mit z.T. geringeren Kosten, einer höheren Flexibilität und einer verhältnismäßig geringen Komplexität eine Menge Vorteile mit sich. Hinzu kommt der Zugriff auf Ressourcen die schnell einen Mehrwert bringen, während das eigene Risiko dabei klein gehalten wird. Dennoch müssen diese Vorteile mit den Herausforderungen und möglichen Bedrohungen gegeneinander abgewogen werden. Dazu gehören bspw. Sicherheitsthemen, ein Mangel an Transparenz, Bedenken hinsichtlich der Performance und Verfügbarkeit sowie Einschränkungen in Bezug auf die Lizenzierung und Herausforderungen bei der Integration.

Hybrid Cloud Computing

Eine Hybrid Cloud beschreibt die Kombination einer Public Cloud/ Virtual Private Cloud und der internen IT-Infrastruktur eines Unternehmens. Das Hybrid Cloud Konzept kann zu einem einheitlichen Modell werden, in dem eine einzige Cloud durch mehrere andere Cloud Plattformen gebildet wird, die wiederum je nach denen sich ändernden geschäftlichen Anforderungen genutzt werden können. Zudem müssen Richtlinien und Vorschriften dafür sorgen, dass sich Unternehmen und Organisationen für die Hybrid Cloud entscheiden können. Weiterhin müssen Unternehmen eine Strategie festlegen, wie sie die externe Cloud in ihre Umgebungen integrieren und die Komplexität vor den Nutzern verstecken.

Vereinfachte Cloud Nutzung durch Cloud Brokerage

Ein Cloud Services Brokerage bietet ein architektonisches-, business-, und IT-Betriebs-Modell, mit dem verschiedene Cloud Services bereitgestellt, verwaltet und adaptiert werden können. Und das sich innerhalb eines föderierten und konsistenten Bereitstellung-, Abrechnung-, Sicherheit-, Administration- und Support-Framework befindet. Das Ziel des Cloud Service Broker ist es, ein Proof of Concept für eine vertrauenswürdige Cloud-Management-Plattform zu präsentieren. Die Plattform soll damit das Bereitstellen von komplexen Cloud-Services für Unternehmenskunden erleichtern.

Gartner glaubt, dass die IT-Abteilungen strategische Partnerschaften aufbauen sollten und sich damit als eine Art lokaler Cloud-Service Agent für die jeweiligen Abteilungen zu positionieren, anstatt die Cloud Services einzeln auf Abteilungsebene zu koordinieren. Der Aufbau so einer Beziehung erhöht die Wahrscheinlichkeit, dass die Abteilungen sich auch in Zukunft für Beratung und Support an die IT wenden und diese nicht umgehen.

Cloud-zentriertes Design

Der einfache Wechsel einer Anwendung auf eine Cloud-basierte Lösung wird Unternehmen nicht den Mehrwert bieten, den sie sich davon versprechen. Zunächst sollten sie Möglichkeiten finden, um die Workloads der bestehenden Anwendungsinfrastruktur in die Cloud zu migrieren. Darüber hinaus sollte die Architektur einer Anwendung für die Cloud von Grund auf neu entwickelt und designed werden, um die besonderen Herausforderungen und den Nutzen der Cloud zu berücksichtigen. Dieser Ansatz kann vor allem dann Vorteile bieten, wenn ein Unternehmen einen sehr unterschiedlichen Ressourcenbedarf hat.

Gartner rät, dass Unternehmen weiterdenken sollten, als nur die Migration der Workloads vor Augen zu haben, um damit Cloud Anwendungen zu entwickeln, die das volle Potenzial der Cloud ausnutzen und damit “Weltklasse-Anwendungen” zu schaffen.

Zukünftige Rechenzentren und Betriebsmodelle

Unternehmen sollten damit beginnen, die Vorteile der Cloud in Betracht zu ziehen, wenn sie das Modell ihres Rechenzentrums neu definieren und schauen wie sie es in Zukunft betreiben wollen. Denn eines ist klar, Cloud Computing kann das Betriebsmodell eines Rechenzentrums erheblich verändern.

Gartner ist der Meinung, dass Unternehmen sich Gedanken über den Aufbau einer Cloud-Infrastruktur in ihrem zukünftigen Rechenzentrum machen sollten.


Bildquelle: GigaOM#