Categories
News

Nutzen die Mitarbeiter Dropbox geht der Geschäftsführer in den Knast!

So oder so ähnlich könnte es sein, wenn man Puppet Labs CEO Luke Kanies glauben schenkt. Diese These stellt der Manager während einer Panel Diskussion auf der GigaOm Structure 2012 auf. Oh Graus mögen nun alle Geschäftsführer denken, denn ganz unrecht scheint er damit nicht zu haben, wenn wir schauen, mit was für Herausforderungen Unternehmen heutzutage konfrontiert werden, wenn sich alles in die Cloud bewegt.

Die rechtlichen Entscheidungen sind schwammig

Kanies war nicht daran interessiert das Publikum zu schocken, dennoch stellte er heraus, dass die meisten Unternehmen keine internen Regeln haben, wie Mitarbeiter mit Cloud Services umzugehen haben, um damit auf der rechtlichen Seite zu sein. Die Rechtsanwälte unter den Lesern wird es nun freuen… 😉 Panel-Teilnehmer James Urquhart (enStratus VP of Product Strategy) stimmte Kanies zu und fügte hinzu, dass es bereits vier Gesetzesänderungen gibt, wie mit gespeicherten Dokumenten in der Cloud umzugehen sei.

Es gibt mehr Herausforderungen als nur die Gesetze

Das Panel wandte sich auch schnell dem Thema Recht ab, kein Wunder saß dort auch kein einziger Rechtsanwalt, und konzentrierte seine Diskussion auf die Thematik, dass Unternehmen einen Wandel vom Infrastruktur-zentrischen hin zu Applikations-zentrischen Architekturen erleben werden. Zudem müssen die Menschen eine völlig neue Art des Denkens annehmen. Laut Paremus CEO Richard Nicholson haben viele Organisationen Probleme mit den Strukturen aktueller Applikationen. Wofür er durch das Panel eine breite Zustimmung erhielt. Werden die Applikationen in das Zentrum gestellt, ist es notwendig, dass Unternehmen darüber nachdenken, wie sie ihr Geld ausgeben und wer die Entscheidungen trifft.

Hallo Schatten-IT

Das Panel sprach ebenfalls ein Thema an, das ich vor längerer Zeit in meinem Artikel “Cloud Computing und die Schatten-IT” behandelt habe. Wenn die IT-Abteilungen nicht in der Lage sind auf die Bedürfnisse ihrer Mitarbeiter einzugehen und schnell Lösungen bieten, wird sich selbst an Cloud Services bedient, was dann z.B. mit Dropbox am eigenen Arbeitsplatz enden kann. Luke Kanies: “Ein Grund dafür ist, wenn man die IT fragt und egal wie die Frage lautet, sie sagen Nein.” “Daher Fragen die Leute nicht mehr und suchen sich halt selbst ihre Lösungen. Trotz aller möglichen rechtlichen Herausforderungen.” Wo wir wieder beim Thema Geschäftsführer und Knast sind!

Video zur Panel Diskussion auf der GigaOm Structure 2012

Watch live streaming video from gigaomstructure at livestream.com

Bildquelle: http://gallery.kewl.lu

Categories
News

Facebook erweitert sein eigenes Edge Network

Facebook erweitert sein eigenes Edge Network, um damit das Ausliefern der Photos zu beschleunigen. Das erzählte Facebook Vice President Frank Frankovsky auf der GigaOM Structure 2012 während einer Diskussion zu den Absichten von Facebook die Skalierbarkeit seiner Infrastruktur zu erhöhen. Dabei will Facebook nicht seinen CDN Partner (Content Delivery Network) kündigen, sondern lediglich eigene Server in die POPs (Point of Presence) von ISPs stellen, um damit die Inhalte an seine weltweit verteilten Nutzer schneller auszuliefern.

Facebook macht derzeit weniger als 2 Prozent des gesamten Internetverkehrs aus. Dennoch würde es sich laut Frankovsky bereits nur wegen der Masse an Photos, die sich auf Facebook befinden, lohnen über ein eigenes CDN nachzudenken. Hinzu kommen zukünftige Services.

Open Compute Project treibt Innovation

Frankovsky erzählte darüber hinaus, wie das Open Compute Project Facebook dabei hilft den Betrieb zu optimieren. So benötigt Facebook gerade mal einen Systemadministrator im Rechenzentrum um 10.000 Server(!) zu verwalten. Er äußerte sich ebenfalls zu Plänen die Server neu zu entwerfen, um bei einer höheren Dichte mehr Komponenten unterzubringen und die Racks modularerer zu konfigurieren.

Er setzt sich zudem für Innovation in mehreren Bereichen ein, einschließlich wie man ein Rechenzentrum mit maximaler Kapazität durch die intelligente Verteilung von Workloads betreibt.

Facebook VP Frank Frankovsky auf der GigaOM Structure 2012

gigaomstructure on livestream.com. Broadcast Live Free

Bildquelle: http://mashable.com

Categories
News

Rackspace wird nervös! Offenheit als Argument gegen AWS und seine "Klone".

Tja, wenn man die Fälle davon schwimmen sieht, versucht man es halt mit Spitzen gegen die Konkurrenz. In diesem Fall Rackspace Präsident Lew Moorman gegen die Amazon Web Services (AWS) und alle Anbieter, die “Klone” der AWS Cloud aufbauen. Moorman ist auf dem Standpunkt, dass der Cloud Markt eine Open Source Alternative zum Platzhirsch AWS benötigt, so der Manager während seiner Präsentation auf der GigaOm Structure 2012. Rackspace gehört zu den größeren Mitbewerbern von AWS und den Initiatoren der Open Source Cloud Software OpenStack.

Rackspace wird nervös! Offenheit als Argument gegen AWS und seine

Moorman: Nicht auf den AWS Zug aufspringen

Moorman hält es für eine falsche Strategie, wenn sich andere Anbieter darauf konzentrieren einfach nur Interoperabilität zu der Amazon Cloud Infrastruktur zu bieten. Natürlich bringt Moorman in diesem Zusammenhang OpenStack ins Spiel, das Rackspace zusammen mit der NASA im Jahr 2010 gegründet hat und welches er als die Open Source Alternative am Markt sieht. Er vergleicht OpenStack sogar mit der Evolution von Linux. Allerdings widerspricht sich der Rackspace Präsident. OpenStack sei bemüht zu 100% im Einklang mit den Amazon Web Services zu sein, wird aber stetig in die Entwicklung und Wartung einer eigenen transparenten API investieren. Damit möchte OpenStack zwar kompatible zu AWS sein, seinen Kunden aber mehr Möglichkeiten bieten.

Eat Your Own Dog Food

Rackspace setzt alles auf OpenStack. So wird der Cloud Anbieter gegen Ende dieses Sommers seine Public Cloud Infrastruktur komplett auf die OpenStack Plattform umstellen. Moorman erwartet das Gleiche von anderen Anbietern, die dem OpenStack Projekt angehören. Beispielweise basiert das gesamte HP Converged Cloud Portfolio auf OpenStack.

Ein der Verzweiflung geschuldeter Schritt

Rackspace bzw. Moormans Vorstoß wirken wie ein verzweifelter Versuch, neben dem großen Rivalen AWS ein wenig Aufmerksamkeit zu bekommen. Insbesondere Rackspace ist seit Jahren das, was man nicht als offen bezeichnen kann. Erst mit OpenStack scheinen sie die Kurve zu bekommen. Aber was bedeutet hier offen? Reden wir von der Software oder den APIs? Reden wir hier im Sinne der Kunden als Endnutzer oder im Sinne der Kunden von OpenStack, also Service Anbieter? Wenn wir an dieser Stelle von Kunden sprechen sollten wir es im Sinne der Endkunden, also Unternehmen, die Cloud Infrastrukturen nutzen, machen.

Was ich sehr traurig finde ist, das sich Rackspace bzw. OpenStack selbst nicht treu sind. Auf der einen Seite argumentieren sie damit, dass der Cloud Markt eine Open Source Alternative zu den Amazon Web Services benötigt, auf der anderen Seite wollen sie zu 100% konform zu AWS sein. Was denn nun bitte Rackspace und OpenStack?

Eines ist klar, der Anbieter und das Projekt scheinen verstanden zu haben, dass AWS meilenweit entfernt ist. Zudem wird Rackspace meiner Einschätzung nach langsam nervös, da AWS sich mit Eucalyptus einen starken Open Source Partner an Land gezogen hat, mit dem Unternehmen ihre eigene AWS kompatible Private Cloud aufbauen können, wodurch sie ihre Instanzen, Workloads etc. zwischen der Amazon Cloud und der eigenen Eucalyptus Cloud verschieben können.

In meinem Artikel “Die Amazon Web Services und der Vendor Lock-in“, habe ich auf mögliche Lock-in Situationen in der Amazon Cloud hingewiesen. Diese beziehen sich auf die Amazon Services Amazon DynamoDB und Simple Workflow Services (SWF), die dazu führen, dass Unternehmen sich in eine Abhängigkeit begeben, da DynamoDB eine proprietäre Datenbank ist und mit SWF vollständige Geschäftsprozesse in der Amazon Cloud abgebildet werden können. Allerdings bin ich seit der Kooperation mit Eucalyptus hier entspannter geworden, da Eucalyptus in Zukunft immer mehr AWS Services adaptieren wird.

Rackspace kopiert die AWS Strategie

Nachdem AWS und Eucalyptus nun also kooperieren, um hybride Cloud Infrastrukturen aufzubauen und damit den Lockin aufweichen, muss Rackspace nachziehen. Mit der Umstellung der eigenen Public Cloud Infrastruktur auf OpenStack machen sie den ersten Schritt, um bei ihren Kunden dann zukünftig argumentieren zu können, dass diese mit einer eigenen Private Cloud auf Basis von OpenStack ebenfalls einen hybriden Ansatz verfolgen können.

Categories
News

Samsung plant Enterprise Cloud Services für mobile Geräte

Samsung plant mit der Entwicklung eigener Cloud Services, um damit seine Galaxy Tablets und Smartphones attraktiver für Unternehmen zu machen. Das erzählte Vice President of Enterprise Sales von Samsung Mobile, Dave Lowe der InfoWorld am letzten Mittwoch während einer Veranstaltung in New York. Da immer mehr Mitarbeiter eigene Endgeräte mit ins Unternehmen bringen, sehe Samsung die Notwendigkeit, eigene Cloud Services anzubieten, um damit die verschiedenen Geräte sowie unterschiedlichen Betriebssysteme mit dem Unternehmen zu verbinden.

Samsung plant Enterprise Cloud Services für mobile Geräte

Samsungs Portfolio setzt sich aus einer Vielzahl unterschiedlicher Produkte zusammen, darunter Smartphones, Tablets, PCs und Thin Clients mit verschiedener Hardware und Betriebssystemen. Laut Samsung steigt das Interesse an Android, Windows 8 und Windows Mobile Geräten, wodurch Unternehmen nicht mehr herum kommen, Cloud Services bereitzustellen, damit die Daten bequem zwischen diesen Geräten ausgetauscht werden können. Samsung wird sich daher darauf konzentrieren, in Zukunft eigene Cloud Services anzubieten. Wann das allerdings passieren wird, lässt das Unternehmen offen. Aktuell arbeitet Samsung mit anderen Anbietern zusammen um eigene Lösungen über die Cloud bereitzustellen.

Ich sag es ja schon länger, die “Mobile Cloud” ist der wahre Megatrend!


Bildquelle: http://www.globallearninggroup.com

Categories
News

Google Apps Administratoren können nun die 2-Wege Authentifizierung erzwingen

Die 2-Wege Authentifizierung, mit der eine weitere Sicherheitsebene im Anmeldeprozess eingezogen wird, steht bereits seit dem Jahr 2010 innerhalb von Googles Office Suite Google Apps zur Verfügung. Aber erst jetzt haben Administratoren die Möglichkeiten, diese Sicherheitstechnologie zwingend für ihre Nutzer zu aktivieren.

Google Apps Administratoren können nun die 2-Wege Authentifizierung erzwingen

Mit einer weiteren Einstellungen in der Google Apps Management Konsole, können Admins nun erzwingen, dass sich ihre Nutzer über die 2-Wege Authentifizierung anmelden. Damit wird ein Nutzer nun nicht mehr nur nach seinem Password gefragt, sondern muss zusätzlich einen Code eingeben, den er via SMS oder Sprachnachricht auf sein Mobiltelefon erhalten hat.

Mit dem Einsatz einer 2-Wege Authentifizierung wird die Sicherheit des Systems erhöht, da ein Angreifer neben dem Passwort des Nutzers ebenfalls sein Mobiltelefon stehlen müsste.

Allerdings macht dieses Verfahren den Anmeldeprozess für die Nutzer komplizierter und verlangt eine Konfiguration auf dem jeweiligen Mobiltelefon. Folglich kann es dazu führen, das viele Nutzer die 2-Wege Authentifizierung verweigern werden.

Categories
News

Wenn der Kuchen spricht, haben die Krümel Pause: So sieht Amazon CTO Werner Vogels die Cloud in 5 Jahren

Er ist der weltweit einflussreichste Manager, wenn es um das Thema Cloud Computing geht und wird vereinzelnd schon als Cloud Rockstar bezeichnet, Amazon CTO Werner Vogels. Werner ist die treibende Kraft hinter den Amazon Web Services und hatte mit seiner damaligen Dissertation “Scalable Cluster Technologies for Mission-Critical Enterprise Computing” zumindest im Geiste bereits die Amazon Cloud geschaffen. Auf der diesjährigen GigaOM Structure 2012 warf er einen Blick in sein Orakel und erzählte wie sich die Cloud seiner Meinung nach von heute bis ins Jahr 2017 verändern wird.

Die Amazon Web Services werden noch günstiger

Werner verspricht, das Amazon in Zukunft sein Preismodell weiterhin verbessern wird. “Wenn man zurück schaut, sieht man, dass wir unsere Preise bereits 20 mal verringert haben. Das Beste ist, dieses auch weiterhin zu tun. Das ist unser Ziel.”

Die Startup Szene wird sich weiter vergrößern

Das Amazon Startups liebt, wissen wir ja bereits. Mit Socialcam, Pinterest und Instagram nennt er nur ein paar Beispiele von jungen Unternehmen, die sich die Cloud zu nutze gemacht haben, um auf ihr schnell skalieren zu können und freut sich schon auf weitere neue Startups. Werner nennt dieselben Argumente, die auch ich immer gerne wieder nutze. “Wären sie in der Lage gewesen ihre Unternehmen in einer traditionellen Welt von Hardware und Infrastruktur aufzubauen? Ich denke nicht! Wir werden viele junge Unternehmen sehen, die völlig neue Dinge bauen werden.”

CIOs werden auf junge Unternehmen hören

Wenn es um IT-Lösungen geht, die erst durch die Cloud entstanden sind, “werden CIOs bereit sein, auf junge Unternehmen zu hören.” “Vor fünf Jahren hätten sie nur mit den großen Jungs gesprochen.” Dies wird sich weiter verändern.

Alte Hardware Unternehmen werden gegen das Aussterben kämpfen

HP und die anderen klassischen Hardware Unternehmen müssen sich anpassen um zu überleben. “Ich glaube wenn Unternehmen wirklich eine neue Cloud-Mentalität verinnerlichen – nicht nur eine Cloud im Angebot haben, sondern ein echter Partner für ihre Kunden sind statt nur ein Verkäufer zu sein – und Ihnen helfen Kosten einzusparen, werden CIOs sich auch junge Unternehmen anschauen, die überall auftauchen.” “Ich sehe CIOs die mittlerweile bereit sind mehr Risiko einzugehen”, so Werner. “Wenn sich Dinosaurier nicht verändern, nun ja wir wissen was mit den Dinosaurier passiert ist.”

Werner Vogels Video auf der GigaOM Structure 2012

Watch live streaming video from gigaomstructure at livestream.com

Bildquelle: http://www.allthingsdistributed.com

Categories
News

Armutszeugnis: Cloud Computing Ausfälle haben seit 2007 mehr als 71 Million US-Dollar an Kosten verursacht.

Seit 2007 haben 568 Stunden Ausfallzeit von 13 namhaften Cloud Services mehr als 71.700,000 US-Dollar an Kosten verursacht, das sagt zumindest die International Working Group on Cloud Computing Resiliency (IWGCR). Dabei liegt die durchschnittliche Nichtverfügbarkeit von Cloud Services bei 7,5 Stunden pro Jahr. Das entspricht einer garantierten Verfügbarkeit von 99,9 Prozent, die weit weg von dem liegt, was von geschäftskritischen Systemen (99,999 Prozent) erwartet wird. Im Vergleich dazu beträgt die durchschnittliche Nichtverfügbarkeit von Strom in einer modernen Großstadt weniger als 15 Minuten pro Jahr. Ein Armutszeugnis für die Public Cloud Anbieter?

Mit “Availability Ranking of World Cloud Computing (ARWC)” handelt es sich um die erste Publikation der im März 2012 von ParisTech und 13 pariser Universitäten gegründeten Gruppe. Grundlage ihrer Forschung sind Presseberichte von Cloud Computing Ausfällen von Services wie Twitter, Facebook, Amazon, Microsoft, Google, Yahoo, Paypal und Weiteren.

Public Cloud Anbieter stehen unter Druck

Seit die Cloud Anbieter damit begonnen haben, immer mehr staatliche Einrichtungen und weltweit agierende Unternehmen anzusprechen wird es zunehmend wichtiger, dass die bereitsgestellten Services zuverlässig arbeiten, insbesondere dann, wenn es sich um geschäftskritische Systeme handelt. Das scheinen die Cloud Anbieter aber scheinbar nicht zu 100% verinnerlicht zu haben.

Die Kosten pro Ausfall sind nicht zu vernachlässigen

Die Forscher fanden heraus, dass die Kosten für einen einstündigen Ausfall variieren. Der Reiseanbieter Amadeus hätte demnach mit 89.000 US-Dollar zu rechnen, Paypal hingegen mit 225.000 US-Dollar pro Stunde. Die Zahlen basieren auf den stündlichen Kosten, mit der die jeweilige Industrie in ihrem Markt rechnet. Ausfälle bei Unternehmen wie Google, Microsoft und Amazon belaufen sich, laut den Forschern, auf schätzungsweise 200.000 US-Dollar pro Stunde.

Neben den wirtschaftlichen Auswirkungen für den Service Anbieter, sollte hier aber nicht der Kunde aus den Augen verloren werden. Der ist viel wichtiger! Manche Ausfälle haben sich schließlich schon über mehrere Tage hingezogen.

Der Zustand ist wahrscheinlich noch viel schlimmer

Die Forscher merken an, dass ihre Vorgehensweise nicht perfekt sei, da die vorliegenden Informationen bei weitem nicht vollständig seien. Sie gehen daher davon aus, das sie die vorliegenden Zahlen wahrscheinlich unterschätzen. Viele Ausfälle wurden von der Presse nicht publiziert, was viel Platz für weitere bietet. Darüber hinaus standen den Forschern ebenfalls nicht die exakten Werte für die wirtschaftlichen Kosten pro Ausfall oder die durchschnittlichen Kosten pro Stunde von jedem Cloud Anbieter zur Verfügung.

Liebe Anbieter entschädigt richtig!

Wie ich erst vorgestern geschrieben habe, sind Public Cloud Ausfälle nun einmal öffentlich. Probleme in einem privaten Rechenzentrum interessieren niemanden. Kein Journalist würde darüber berichten, da es einfach langweilig ist und keine Leser anziehen würde.

Aber der “Witz” an der ganzen Cloud Ausfall Geschichte ist, dass die Cloud Anbieter lediglich die Kosten für den Zeitraum, in welchem der Service nicht verfügbar war, erlassen. So haben Azure Nutzer für den Ausfall am 29. Februar eine Gutschrift über 33% erhalten. Amazon ist hier nicht besser.

Es ist ja schön und gut und vor allem zwingend erforderlich, dass man als Nutzer zumindest nicht einen Service berechnet bekommt, der nicht funktioniert. Wo kommen wir denn dahin: Pay as you go! Aber die Cloud Anbieter müssen hier etwas ändern, sonst werden sie von Seiten der Kunden früher oder später ihr blaues Wunder erleben. Sie müssen sich an dieser Stelle mit mehr Transparenz und Glaubwürdigkeit durch eine strengere Selbstkontrolle und Verpflichtung gegenüber ihren Kunden abheben.

Die Erstattung der Kosten für einen nicht verfügbaren Service ist das eine. Aber wie schaut es mit Vertragsstrafen aus, wenn ich als Unternehmen auf Grund des Ausfalls meinen Kunden wiederum nicht die erwartete Serviceleistung erbringen kann und von diesem wiederum in Regress genommen werde bzw. wenn ich dadurch Umsatzeinbußen habe. Hier halten sich die Cloud Anbieter derzeit (noch) schön raus. Ich denke hier gibt es eine Menge Stoff für Diskussionen. Rechtsanwälte bitte zuerst. 😛


Bildquelle: http://www.deerns.nl

Categories
News

Eucalyptus 3.1 wird Open Source(iger) wie keine andere Version zuvor

Eucalyptus Systems hat gestern eine neue Version seiner Open Source Cloud Infrastruktur Software angekündigt. Eucalyptus 3.1 richtet sich auf Basis derselben Plattform an die Open Source Community als auch an Unternehmen, um damit Cloud Infrastrukturen und Cloud Entwicklungsumgebungen aufzubauen, zu betreiben sowie zu verwalten. Die neue Version präsentiert neben einer besseren Performance ebenfalls viele weitere Funktionen wie FastStart, mit der Nutzer AWS-komaptible (Amazon Web Service) on-Premise Cloud Infrastrukturen unter 20 Minuten aufbauen können.

Mehr als nur AWS Unterstützung

Wer nun glauben mag, dass Eucalyptus sich komplett auf der Kooperation mit den Amazon Web Services stützt und ausruht, der irrt. Eucalyptus 3.1 wird sich verstärkt auf die Entwicklung der Community konzentrieren und diese unterstützen. Dazu wird u.a. der vollständige Eucalyptus 3.x Quellcode auf Github zur Verfügung gestellt. Darüber hinaus wird die Bereitstellung von Unternehmensplattformen auf Basis von Red Hat Enterprise Linux und Red Hat Enterprise Virtualization sowie VMware vCenter 5 unterstützt. Hinzu kommen Möglichkeiten für das Management von Community Projekten, mit denen Fehler, Korrekturen und Wünsche verwaltet werden können.

Eucalyptus 3.1 im Überlick

Mit der neuen Version möchte Eucalyptus es Unternehmen ermöglichen, on-Premise Cloud Infrastrukturen auf eine einfache Art und Weise aufzubauen und gleichzeitig die Innovationsfähigkeit der Cloud zu erhöhen, indem die Open Source Cloud Community alle Mittel erhält, um dazu beizutragen, die Eucalyptus Cloud ihren Bedürfnissen nach anzupassen. Zu den neuen Funktionen in Eucalyptus 3.1 gehören:

On-Premise Cloud Plattformen

Unternehmen erhalten mit Eucalyptus 3.1 nun die Möglichkeit, eigene on-Premise Cloud Umgebungen auf der neuesten Version von Red Hat Enterprise Linux inkl. EC2, EBS, S3 und IAM zusammen mit den Red Hat Enterprise und VMware Virtualisierungsplattformen aufzubauen.

FastStart: Ruck Zuck zur eigenen Private Cloud

FastStart bietet Nutzern einen Self-Service, mit dem sie eine Eucalyptus IaaS Cloud Umgebung automatisiert unter 20 Minuten aufbauen können. FastStart kann zusammen mit CentOS 5 und Xen oder CentOS 6 und KVM genutzt werden. Mit durch FastStart bereitgestellte Clouds können sich Nutzer die auf Eucalyptus gespeicherten Images aussuchen und mit einem Klick auf der Infrastruktur ausrollen. Für fortgeschrittene Nutzer bietet Eucalyptus Silvereye, eine Reihe von Tools, mit der sich komplexere Eucalyptus Umgebungen installieren und konfigurieren lassen.

Open Source Cloud Community

Der vollständige Eucalyptus 3.1 Quellcode steht nun öffentlich auf Github bereit. Zudem werden alle Erneuerungen ebenfalls auf Github bereitgestellt, dazu gehören ebenfalls das Tracking von Fehlern und neuen Funktionen. Damit sollen Mitglieder der Eucalyptus Community die Gelegenheit erhalten ihren Teil beitragen zu können.

Los geht’s am 27. Juni

Am 27. Juni 2012 werden Kunden in den Genuss der neuen Funktionen kommen, die auf Eucalyptus 3 aufbauen werden. Dazu gehören weiterhin neue Funktionen für die Hochverfügbarkeit, Amazon Web Services API Erweiterungen, Rapid Instancing, Verbesserungen am Elastic Block Store (EBS), erweiterte Unterstützung für Windows-Images, eine neu gestaltet Verwaltungskonsole sowie verbesserte Kommandozeilentools.

So langsam zeichnet sich die Handschrift von Eucalyptus CEO Marten Mickos ab, der bereits als CEO von MySQL die relationale Datenbank zu einem der führenden Open Source Anbieter am Markt machte.


Bildquelle: http://www.srs.fs.usda.gov

Categories
News

Platform-as-a-Service ist das nächste große Schlachtfeld in der Cloud

Glaubt man einer Studie von Frost & Sullivan, wird der Platform-as-a-Service (PaaS) Markt zum nächsten Schlachtfeld der Cloud Service Anbieter. Nachdem sich die Bereiche Infrastructure-as-a-Service und Software-as-a-Service soweit normalisiert haben, konzentrieren sich Unternehmen nun vermehrt auf das Thema PaaS. Das ergab Frost & Sullivan’s Bericht “Asia-Pacific Platform as a Service Market 2011”. Insbesondere die Flexibilität für die Anwendungsentwicklung und SaaS Applikationen fördern die Attraktivität von PaaS.

Die Asiaten hängen im Bereich PaaS hinterher

Die die meisten Software Lösungen aus der Cloud standardisiert sind, suchen Unternehmen derzeit passende PaaS-Angebote, um eigene Applikationen zu hosten. Daher ist PaaS mittlerweile der einzige Teil des Cloud Stacks, bei dem sich Anbieter noch deutlich voneinander differenzieren können.

Laut dem Bericht von Frost & Sullivan hatte der Paas Markt im asiatisch-pazifischen Raum im Jahr 2010 einen Umsatz von 43,2 Millionen Dollar und wird bis 2016 auf 523 Millionen US-Dollar wachsen. Insbesondere die Flexibilität und die Möglichkeit bei der Entwicklung und dem Test von neuen Applikationen die Kosten zu reduzieren, führen zu einer hohen Attraktivität von PaaS Lösungen. Auch wenn Unternehmen die Vorteile des Cloud Computing verstanden haben, handelt es sich für sie beim PaaS noch um ein relativ junges Konzept, da noch nicht ausreichend Regulierungen und Standards vorhanden seien.

Darüber hinaus macht die mittlerweile große Auswahl an Plattformen für Java, Ruby und weiteren Sprachen durch CloudBees, Heroku und anderen Anbietern die Entscheidung schwer, die richtige Lösung zu finden und behindert somit die Portierung der on-Premise Anwendungen zu einem bestimmten PaaS-Anbieter. Daher ist die Offenheit und Integrationsmöglichkeit zu anderen Plattformen sowie mobilen Endgeräten für die Zukunft besonders zu beachten, so Frost & Sullivan.

PaaS hat eine große Zukunft vor sich

Auch wenn sich diese Studie nur auf den asiatischen Markt bezieht, ist für den weltweiten PaaS Markt ebenfalls ein Wachstum zu erwarten, dass sieht man an den stetig wachsenden PaaS-Angeboten und Erweiterungen. Die Zahlen zeigen deutlich, dass die Asiaten sich hinter dem Weltmarkt befinden, auf Grund ihrer Größe und Marktmacht aber in Zukunft ein Wörtchen mitreden werden.

Wir werden in Zukunft ein ähnliches Phänomen wie bei den Cloud Storage Service Anbietern erleben, die in den letzten Wochen und Monaten reihenweise aus dem Boden geschossen sind. Der PaaS Markt wird, mit dem erreichen seines Reifegrads, immer mehr Anbieter und neue Lösungen anziehen. Diese Entwicklung kann sich aber ebenfalls auf Unternehmen und ihre on-Premise Cloud Infrastrukturen auswirken. Unternehmen verstehen immer besser, dass sie ihre IT-Abteilungen als internen (Cloud) Dienstleister aufstellen müssen, um gegenüber den externen Anbietern konkurrenzfähig zu bleiben.


Bildquelle: http://assets.byways.org

Categories
News

Googls Apps wirbt mit bis zu 85% Energieeinsparungen

Cloud Computing Anbieter werben in der Regel mit Kosteneinsparungen durch die Nutzung ihrer skalierbaren Infrastrukturen oder Plattformen bzw. SaaS Applikationen. Google geht nun einen Schritt weiter und behauptet, dass Unternehmen mit der Nutzung seiner SaaS Office Suite Google Apps zwischen 65% und 85% Energieeinsparungen erhalten, wenn sie anstatt ihrer Anwendungen, die Google Cloud Lösung nutzen.

Googls Apps wirbt mit bis zu 85% Energieeinsparungen

Google bezieht sich dabei auf die Ergebnisse einer Fallstudie der US General Services Administration (GSA). So konnte die GSA mit ca. 17.000 Anwendern, durch die Migration zu Google Apps, den Energieverbrauch um fast 90 Prozent und die Kohlendioxid-Emissionen um 85 Prozent reduzieren. Das führt zu ca. 285.000 US-Dollar (eine Reduktion von 93%) jährlichen Einsparungen bei den Energiekosten.

Google nennt in diesem Zusammenhang zwei wichtige Faktoren, die dafür verantwortlich sind. Die Reduzierung des Energieverbrauches und die niedrigeren Kohlendioxidemissionen. Schauen wir uns die obere Graphik an, wird deutlich, dass Google Apps bzw. Cloud basierte Lösungen von anderen Anbietern, darauf achten, so wenig wie möglich Energie für den Betrieb und die Kühlung der Server aufzubringen. Google erläutert darüber hinaus, dass kleine Unternehmen und Unternehmen, die bereits Google Apps ähnliche on-Premise Anwendungen nutzen, am meisten einsparen.

Weiterhin geht Google auf seine Chromebooks ein, die das Unternehmen als eine weitere Möglichkeit sieht, um Energie zu sparen, da es sich dabei um reine Cloud basierte Laptops handelt, die schneller, leichter und weniger Strom benötigen. Der Einsatz könnte demnach zwischen 10% und 45% an zusätzlichen Energieeinsparungen für Mitarbeiter Computer einbringen, so Google.