Categories
Management @de

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Mit dem IT-Cloud-Index präsentieren techconsult und HP Deutschland eine Langzeituntersuchung zum Stellenwert von Cloud Computing in mittelständischen Anwenderunternehmen. Der Cloud-Einsatzgrad hat sich innerhalb eines Jahres nahezu verdoppelt. Software-as-a-Service (SaaS) dominiert zwar noch innerhalb der Cloud-Dienste, die Nachfrage nach Infrastructure-as-a-Service-Angeboten (IaaS) hat jedoch insbesondere im dritten Quartal gegenüber dem zweiten deutlich zugelegt und befindet sich auf der Überholspur. Die Cloud-Thematik manifestiert sich zunehmend im Mittelstand. Fast jedes zweite Unternehmen hat sich bereits intensiv mit diesem Thema auseinandergesetzt.

Cloud Computing Nutzung hat sich innerhalb eines Jahres verdoppelt

Im deutschen Mittelstand setzt jedes fünfte Unternehmen bereits auf Cloud-Lösungen. Mit einem Anteil von 22 Prozent der Unternehmen im dritten Quartal 2012 hat sich der Einsatzgrad gegenüber dem Vorjahresquartal nahezu verdoppelt. Allerdings zeigt sich eine etwas abgemilderte Wachstumsdynamik in den letzten Monaten. Im Vergleich zum Vorquartal hat sich der Einsatzgrad um einen Prozentpunkt erhöht. Für das vierte Quartal dürfte dieser zunächst verhaltene Entwicklungstrend anhalten. So wird ein Zuwachs von einem Prozent prognostiziert.

Innerhalb der Cloud-Dienste wird dem Software-as-a-Service-Modell weiter die bedeutendste Rolle zugesprochen. So setzen 15 Prozent der mittelständischen Unternehmen entsprechende Produkte ein. Die Steigerungsraten über die letzten Quartale zeigen sich indes sehr konstant, wenn auch auf einem immer noch ausbaufähigem Niveau. Dagegen steigt der Bedarf an Infrastrukturleistungen im Rahmen des as-a-Service-Modells seit dem zweiten Quartal deutlich an.

Was die SaaS-Angebote betrifft, stehen die klassischen, horizontal einsetzbaren Software-Lösungen im Fokus des Interesses. So baut der Mittelstand neben den Office- und CRM-Lösungen vor allem auf E-Mail- und Collaboration-Dienste.

Die Nachfragesteigerung für Cloud-Infrastrukturleistungen liegt gegenüber dem Vorquartal bei drei Prozentpunkten. Inwieweit hier saisonale Aspekte eine Rolle spielen, wird das vierte Quartal dieses Jahres zeigen. Den Prognosen der Befragten zufolge dürfte jedoch der positive Trend anhalten. Damit gilt es für den Mittelstand nicht nur die kurzfristige Auslastung von Kapazitätsspitzen sicherzustellen, sondern auch langfristig in das IaaS-Modell einzusteigen. Die Treiber waren in erster Linie der Bedarf an Server- und Speicherkapazitäten. Der anhaltende Trend ist auch Indiz dafür, dass die mittelständischen Unternehmen zunehmend Vertrauen in die IaaS-Cloud entwickeln und sie als adäquate Option sehen, ihren Bedarf an Infrastruktur-Ressourcen kostenoptimal zu decken.

Plattform-as-a-Service Angebote konnten sich im Jahresverlauf ebenfalls als ein konstant nachgefragter Service entwickeln, wenn auch mit noch verhaltenen Wachstumsraten. Vornehmlich tragen die Datenbanken als Service auf der Anwendungs-Infrastrukturebene zu dem aktuellen Einsatzgrad von sechs Prozent bei, der sich um einen Prozentpunkt im Vergleich zum Vorquartal erhöht hat.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Jedes zweite Unternehmen hat Interesse am Cloud Computing

Das Thema Cloud Computing manifestiert sich im Mittelstand. Mittlerweile hat sich fast jedes zweite Unternehmen (47 Prozent) mit Cloud Computing sehr intensiv bzw. intensiv auseinandergesetzt. Weitere 30 Prozent haben sich zumindest grundsätzlich schon einmal mit der Thematik beschäftigt. Im Vergleich zum Vorjahr hat sich allein der Anteil derjenigen verdoppelt, die sich sehr intensiv mit Cloud-Lösungen beschäftigt haben.

Nur jedes fünfte Unternehmen hat sich bislang gar nicht mit der Thematik auseinandergesetzt. Hier ist davon auszugehen, dass sich diese Unternehmen zum einen skeptisch gegenüber einem grundlegenden Eingriff in die Strukturen der bestehenden und laufenden IT-Infrastruktur zeigen. Zum anderen spielt das Thema Virtualisierung in diesen, zum Teil auch kleineren Unternehmen, nach wie vor eine weniger stark ausgeprägte Rolle. Zu berücksichtigen ist auch, dass auf Grund des operativen Alltagsgeschäftes häufig Ressourcen fehlen, sich Zeit zu nehmen und sich über neue Technologien zu informieren und sich damit auseinanderzusetzen. Insbesondere in kleineren mittelständischen Unternehmen wird in erster Linie die Nutzung von Cloud Computing aus der Geschäftsleitung (50 Prozent) heraus angeregt.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Geschäftsführung forciert Cloud Computing Themen

Treiber für Cloud Computing ist meist die unternehmenseigene IT, oftmals auch in Abstimmung mit der Fachabteilung. In erster Linie kommt der Impuls für den Einsatz von Cloud Computing daher vom IT-Verantwortlichen des Unternehmens (72 Prozent). Diese drängen darauf, ihre IT-Kapazitäten zu flexibilisieren und von den Vorteilen des Cloud Computing zu profitieren. Das wird möglich durch den kostengünstigen Bezug von Speicherkapazitäten, Software oder Rechenleistungen aus der „Wolke“.

14 Prozent der Befragten gaben an, dass Cloud Computing von der Geschäftsleitung angestoßen werde. Dies sind vor allem überdurchschnittlich viele kleinere mittelständische Unternehmen. Noch im Herbst 2011 waren es gerade neun Prozent. Hier wird deutlich, dass das Thema mehr als noch vor einem Jahr auch in die Chefetagen gelangt ist. Aktuell spielen Fachabteilungen eine weniger relevante Rolle, nur acht Prozent der Befragten gaben an, dass der Cloud-Einsatz ausschließlich aus der Fachabteilung heraus angeregt wurde.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Public Cloud ist im Mittelstand angekommen

Anwender geben auch im dritten Quartal der Private Cloud grundsätzlich den Vorzug. Hier verbleibt die IT im Haus bzw. wird beim Dienstleister in einer dedizierten Umgebung betrieben. Immerhin zieht mit 46 Prozent der aktuellen Cloud-Nutzer fast jeder Zweite dieses Modell der Public und der Hybrid Cloud vor. Dennoch wurde der Public Cloud über die letzten Quartale die zunehmend höhere Akzeptanz erneut bestätigt. Jedes dritte Unternehmen kann sich mit diesem Modell anfreunden. Eine ähnliche Kontinuität ist in der Bewertung der hybriden Form festzustellen, die jeder Fünfte als adäquate Lösung bestätigt.

Im Durchschnitt hatte von den Cloud Usern im dritten Quartal jedes zweite Unternehmen Dienste aus der Private Cloud bezogen. Hierbei wurden vor allem PaaS- und IaaS-Angebote in Anspruch genommen. Was SaaS-Dienste betrifft, so werden diese zwar noch immer mehrheitlich aus der Private Cloud bezogen. Allerdings ist hier im Verlauf des letzten Jahres eine deutliche Tendenz zu Lösungen aus der Public Cloud zu verzeichnen, deren Nutzung im Vergleich zum dritten Quartal 2011 um zehn Prozent zulegte. Im Jahresvergleich konnte die Hybrid-Cloud um zwei Prozent zulegen. Durch die Parallel-Nutzung von Private und Public Cloud werden die eigenen Ressourcen mit den Vorteilen der Public Cloud kombiniert und stellen so eine ideale Ergänzung zu eigenen Private-Cloud-Ressourcen dar. Bei Engpässen können skalierbare Public-Cloud-Dienste ergänzt werden, ohne im Regelbetrieb ungenutzte Infrastruktur bereithalten zu müssen. Virtualisierung als Grundstein für hybride Cloud-Lösungen ist in vielen Unternehmen zwar gegeben, die Herausforderung ist jedoch, einen geeigneten Dienstleister bzw. Cloud-Anbieter zu finden, mit dessen Lösungen die unternehmenseigene Infrastruktur kompatibel ist.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing


Quelle: techconsult

Categories
Services @de

Microsoft Lösungen für die Private Cloud

Angesichts aktueller politischer Entwicklungen in Deutschland, die es deutschen Behörden ermöglichen sollen, Daten in der Cloud abzugreifen, wird sich der Trend in Unternehmen verstärken, eine eigene Private Cloud aufzubauen. Ein Grund, aktuelle Lösungen zu evaluieren. Nachdem ich vor kurzem mit openQRM, Eucalyptus, OpenStack, CloudStack und OpenNebula einige Open-Source Kandidaten vorgestellt habe, sind heute die Lösungen von Microsoft an der Reihe. Insbesondere der neue Microsoft Windows Server 2012 und Hyper-V bringen interessante Microsoft Cloud Ansätze in das eigene Rechenzentrum.

Microsoft in der Private Cloud

Eine Private Cloud bedeutet, die Konzepte einer Public Cloud – u.a. Flexibilität, Skalierbarkeit und Self-Service – in das eigene Rechenzentrum zu übertragen. Hier sei noch einmal angemerkt, dass eine einfache Virtualisierung NICHT einer Private Cloud entspricht. Zu einer Cloud gehören u.a. die drei oben genannten Eigenschaften, die von der gewöhnlichen Virtualisierung so nicht erfüllt werden.

Microsoft ermöglicht mit seinen Lösungen das Abbilden von Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS) sowohl in der Private als auch in der Public Cloud. Dieses hat den Vorteil Daten und Anwendungen bspw. primär lokal im eigenen Rechenzentrum zu speichern und im Bedarfsfall in die Public Cloud zu skalieren.

IaaS stellt dabei Infrastrukturressourcen wie Rechenleistung, Speicherplatz und Netzwerkkapazitäten als Service bereit, PaaS hingegen Anwendungsplattformen als Service.

Was wird für eine Private Cloud à la Microsoft benötigt?

Für den Aufbau einer Microsoft Private IaaS-Umgebung wird der Windows Server Hyper-V, das Microsoft System Center sowie das Microsoft System Center Virtual Machine Manager Self-Service Portal benötigt, wodurch sich eine dedizierte Cloud-Umgebung inkl. Self-Service Möglichkeiten bereitstellen lässt.

Darüber hinaus ermöglichen die Private Cloud Services die nahtlose Anbindung an Microsoft Public Cloud Infrastruktur Windows Azure. Somit lassen sich neben einer Ressourcenskalierung ebenfalls Applikationsframeworks und Identitymanagement-Tools nutzen, um die Private mit der Public auf Basis einer Hybrid Cloud zu integrieren.

Hyper-V

Hyper-V ist Microsofts Technologie für die Servervirtualisierung. Er setzt auf dem Windows Server 2012 auf und bildet die Grundlage einer Microsoft Private Cloud. Damit lassen sich mehrere Server als virtuelle Maschinen (VMS) auf einer physikalischen Hardware betreiben. Hierzu unterstützt Hyper-V parallel unterschiedliche Betriebssysteme, darunter u.a. Windows und Linux auf x64-Hardware.

System Center

Das System Center ist der Dreh- und Angelpunkt der Private Cloud und unterstützt bei der Verwaltung der physikalischen, virtuellen als auch Cloud-Infrastruktur. Dazu gehören neben dem Management der skalierbaren Rechenzentrumsinfrastruktur und geschäftskritischer Workloads ebenfalls die Steuerung standardisierter Prozesse für die Verwaltung des Rechenzentrums und der Verwaltungs-Workflows. Weiterhin bietet das System Center Self-Service-Funktionen, mit denen Nutzer die benötigten IT-Ressourcen konsumieren können.

Virtual Machine Manager SSP 2.0

Das Virtual Machine Manager Self-Service Portal setzt auf den Windows Server Hyper-V und das System Center auf. Es handelt sich dabei um eine kostenlose und fertige Lösung, mit der sich Ressourcen in einem Rechenzentrum dynamisch zu Gruppen zusammenfassen lassen, um damit die Private Cloud mit den notwendigen Ressourcen zu versorgen. Weiterhin lassen sich einzelne oder Gruppen von Ressourcen unterschiedlichen Abteilungen zuordnen und z.B. virtuelle Maschinen über ein Self-Service-Portal bereitstellen.

Kombination mit der Microsoft Public Cloud

Auch wenn der Artikel zu Beginn die politischen Einflüsse auf die Public Cloud sensibilisiert hat, gibt es dennoch Szenarien, bei denen eine Public Cloud weiterhin in Frage kommen kann. Es kommt auf die Sensibilität der Daten an und wie ein Unternehmen damit selbst umgehen möchte.

Die Microsoft Private Cloud Services lassen sich ebenfalls mit Microsofts Public Cloud verbinden, um evtl. Lastspitzen auszugleichen oder die Zusammenarbeit in unterschiedlichen Regionen zu verbessern. Hier ein paar Einsatzmöglichkeiten.

SharePoint Online & Office 365

Wollen sich Unternehmen weltweit vergrößern, muss auch die IT mitwachsen. Das stellt bei on-Premise Lösungen finanzielle und zeitliche Herausforderungen dar. Einfacher ist es, neue Standorte über Cloud Lösungen anzubinden und den Mitarbeitern damit denselben Zugriff auf Dokumente und Applikationen zu ermöglichen wie den Mitarbeitern in der zentralen Niederlassung.

Hier können SharePoint Online und Office 365 helfen. Beide ermöglichen die standortübergreifende Zusammenarbeit und den Datenaustausch zwischen Mitarbeitern an geographisch unterschiedlichen Orten.

Exchange Online

Wie beim Austausch von Daten und der globalen Zusammenarbeit verhält es sich beim Thema E-Mail. Vergrößert sich ein Unternehmen überregional oder gar global stehen IT-Entscheider vor denselben Herausforderungen. Eine Private Cloud auf Basis von Microsoft lässt sich zum einen mit Exchange Online erweitern, um den wachsenden Speicherbedarf gerecht zu werden. Darüber hinaus können Mitarbeiter über eine simple URL auf die Exchange-Dienste in der Private oder Public Cloud zugreifen.

SQL

Wer an Microsoft und Datenbanken denkt, dem fällt zunächst Microsoft Access ein. Für Leute, die mehr Performance benötigen der Microsoft SQL-Server. Wohlgemerkt verschlingt, insbesondere ein Datenbankserver, massiv an Hardware und benötigt eine Menge Performance um die heutigen Anforderungen zu erfüllen.

Eine Microsoft Alternative aus der Cloud heißt SQL Azure. Dabei handelt es sich um einen vollständig verwalteten SQL-Server in Microsofts Public Cloud, der weltweit zur Verfügung steht.

Applikationsskalierung

In Zeiten globaler Vernetzung und des Internets lassen sich die benötigten Ressourcen für eine Applikation nur noch schwer einschätzen. Eine einzige Marketingaktion kann entscheidend für den Erfolg oder Misserfolg (Applikationen bricht unter der Last zusammen.) eines neuen Service sein. Gegensteuern lässt sich nur mit hohen Investitionen in die eigene Infrastruktur, ohne genau zu wissen, ob die Ressourcen tatsächlich benötigt oder ob sie gar überhaupt ausreichen werden.

Public Cloud Infrastrukturen sind dynamischer, da hier grundsätzlich mehr Ressourcen zur Verfügung stehen als es ein Unternehmen in der Regel im eigenen Rechenzentrum kann. So lassen sich Applikationen in der Cloud ebenfalls während Spitzenlasten ausfallsicher und skalierbar betreiben. Nehmen die Zugriffe zu, werden weitere Ressourcen automatisch hinzugefügt und wieder entfernt, wenn der Ansturm vorbei ist. Dabei kann die Applikation entweder direkt in der Public Cloud betrieben werden oder zunächst in der Private Cloud laufen und bei Bedarf weitere Ressourcen aus der Public Cloud anfordern (Hybrid Cloud).

Zu beachten ist hier jedoch, dass Applikationen, seien sie lokal oder bereits direkt für die Cloud gedacht, auch für die Cloud entwickelt werden müssen.

Categories
Kommentar

Ein deutscher Patriot Act schadet dem deutschen Cloud Computing Markt

Wie netzpolitik.org berichtet, arbeiten das deutsche Bundesfinanzministerium sowie das Bundesinnenministerium an der Überwachung von Daten in der Cloud. Ebenso arbeiten das Zollkriminalamt (ZKA) sowie das Bundesamt für Verfassungsschutz im Rahmen internationaler Arbeitsgruppen an Methoden, um Daten aus der Cloud abzuhören. Zusammen mit der Bundesnetzagentur gehören beide dazu dem „European Telecommunications Standards Institute“ (ETSI) an. Zwar sei das Bundeskriminalamt (BKA) nicht direkt mit involviert, sei aber in Kontakt mit dem ZKA und habe Einfluss auf Entwicklungen und Beschlüsse.

Das ETSI soll Datenschutz umgehen

Bereits im August hatte ich darüber geschrieben, dass sich das ETSI mit Technologien beschäftigt, um den Datenschutz trotz Mechanismen wie z.B. SSL auszuhebeln.

Das ETSI soll dazu “eine geheime Hintertür für die Cloud” entwickeln. Dabei soll es darum gehen, den Sicherheitsbehörden das Abhören und Überwachen von Kommunikationsdaten in der Cloud zu erleichtern. Das soll neben Angeboten wie Facebook, Twitter usw. ebenfalls Unternehmensangebote wie die Amazon Web Services, Microsoft Windows Azure und andere Anbieter betreffen. Dazu habe sich das ETSI eine Backdoor überlegt, um unkompliziert den unautorisierten Zugriff zu ermöglichen.

SSL wird ausgehebelt

Bei der ETSI Idee handelt es sich, wie sonst oft diskutiert, allerdings nicht um rechtliche Themen wie bspw. dem “Patriot Act”. Hier geht es um reine Technik. Das ETSI will eine Schnittstelle definieren, mit der europäische Sicherheitsbehörden Zugriff auf die Cloud Services der Anbieter erhalten. Die ETSI-Arbeitsgruppe “TC Lawful Interception” stellt sich die Umsetzung so vor, dass die Internet-Anbieter sämtlichen Verkehr standardmäßig umleiten. Nutzt ein Anwender eine verschlüsselte HTTPS-Verbindung (was mittlerweile Standard ist), soll der Datenverkehr auf spezielle Server in das Rechenzentrum des Internet-Anbieter umgeleitet werden. Hier sollen die Sicherheitsbehörden dann den Zugriff auf die Daten erhalten. Um das zu realisieren, müssen die entsprechenden SSL-Zertifikate ausgehebelt werden. Der ETSI geht es nach eigenen Angaben nur um die Erfassung der Datenkommunikation und nicht um die Kontrolle der Inhalte. Der britische Sicherheitsspezialisten und Leiter des Computer Laboratory der Universität Cambridge Ross Anderson hingegen schreibt nach einer Analyse des ETSI-Entwurfs allerdings: “Wenn man die Infrastruktur baut, auf die sich das ETSI geeinigt hat, kann diese für Überwachungsaktivitäten genutzt werden.”

Konsortium hilft beim Forschen zum Schnüffeln

Wie netzpolitik weiter schreibt, arbeiten die Deutsche Telekom und die 1&1 Internet AG zusammen unter der Firma „Strategie- und Forschungszentrum Telekommunikation“ (SFZ TK) an dem gemeinsamen Projekt mit dem Namen “CLOUD” an der Überwachung von Cloud-Diensten. Zwar geht es nur um die “Fragestellungen zu Cloud-Computing und dessen Implikationen auf die Telekommunikationsüberwachung“, aber was man zwischen den Zeilen lesen kann ist besorgniserregend:

“Die unter Umständen weltweite und nicht transparente Verteilung der Daten, Software, Betriebssysteme und Speicher sowie der in der Regel auf verschlüsselten Kommunikationsprotokollen basierende Zugang zu Cloud-Diensten erschwert einen Zugriff der Sicherheitsbehörden.”

Neben dem BKA und der Bundespolizei arbeitet ebenfalls das Bundesamt für Verfassungsschutz mit SFZ TK zusammen.

Deutschland verbaut sich selbst einen kleinen Wettbewerbsvorteil

Im Mai hatte ich im Verlauf der SecureCloud 2012 in Frankfurt noch die Gelegenheit mit mehreren Beratern zu sprechen. Die durchweg einstimmigen Aussagen waren, dass sich Cloud Angebote aus Deutschland mit dem Verkaufsargument des hohen Datenschutzniveau sehr gut verkaufen lassen.

Ein deutscher Patriot Act schadet dem deutschen Cloud Computing Markt

Einige Cloud Anbieter aus Deutschland werben u.a. mit solchen Geschichten wie “Made in Germany” und hohen Datenschutzanforderungen in unserem Land. So ganz unrecht haben sie damit natürlich nicht. Im Vergleich zu anderen Ländern ist der Zugriff auf Daten bei einem deutschen Anbieter so ohne weiteres nicht möglich.

Dieser Wettbewerbsvorteil – TRUST (wir erinnern uns an die CeBIT 2012) – wird, geht es nach der deutschen Bundesregierung, jedoch bald verschwinden. Es geht dann nicht mehr darum, wer den besseren Datenschutz bieten kann oder vertrauenswürdig ist, sondern einzig und allein darum wer die besten Services und die innovativsten Produkte hat. Unternehmen müssen in Zukunft zudem noch besser darauf achten, ihre Daten zu klassifizieren und entscheiden, was in die Cloud soll und was doch lieber on-Premise bleibt. Darüber hinaus wird diese Entwicklung Einfluss auf den Markt haben, da sich immer mehr Unternehmen für eine eigene Private Cloud entscheiden.

Willkommen Private Cloud

Das Vertrauen in die Public Cloud wird weiter sinken und Public Cloud Services – die für das Cloud Computing in Reinform stehen – werden demnach einen weiteren Dämpfer erhalten! Interessant ist, dass die Marktforscher von Gartner für 2012 ein großes Wachstum in der Public Cloud sehen. Zudem sollen die Ausgaben für Enterprise Public Cloud Services bis 2016 die 207 Milliarden US-Dollar erreichen.

Ziehen wir diese neue Entwicklung heran, wird Gartner seine Prognosen wohl herunterschrauben müssen. Die Bedenken von CIOs, Public Cloud Services zu nutzen, sind derzeit eh schon höher als gedacht. Der Hauptgrund sind die Befürchtungen vor Datenlecks in der Public Cloud. Deutsche Unternehmen werden die Gedanken der deutschen Regierung ebenfalls nicht gerne hören. Eine Umfrage von IDC ergab vor kurzem, das ein Drittel der befragten deutschen Unternehmen in 2013 zwischen 26% – 50% ihres IT-Budget in die Private Cloud investieren wollen. Allerdings interessieren sich 90% der Unternehmen nicht(!) für die Public Cloud.

Categories
Comment

Failures in the cloud are in the nature of man

If the cloud falls it has to do with the people who are responsible for it. How could it be otherwise. Finally, the systems do not program or configure on their own. And even if it means “No cloud without automation” you have to say “(No cloud without automation) without human skills”. In particular, we see our human weaknesses in the cloud when an outage occurs. Especially this year, we have seen a few of them.

People make mistakes

And that’s ok. As long as we are learning from those mistakes. What at one or the other vendors was not the case this year. I will not mention any names here, because those certainly know itself that they need to do something much better. But if an emergency generator does not work twice and also all emergency plans fail, something is wrong!
Although this failure, I am writing about, was not primarily a human error. Because against a hurricane and storm we are helpless. But the cascade of failures that happened during the storm is inexplicable.

Other errors that have happened this year, can be assigned directly to the people. On the one hand we had for example misconfigured network interfaces which ensure that the vendor networks were flooded with data and have therefore set themselves checkmate. Or a provider recently changes the configuration of the load balancer, which led to a prolonged outage.

Like I said, people make mistakes. And therefore one should not always blame “the big bad cloud”, but rather look behind the facade and keep in mind that there are just sitting humans like you and I.

Along these lines, let’s have a better 2013. 🙂

Categories
Kommentar

Ausfälle in der Cloud liegen in der Natur des Menschen

Wenn die Cloud fällt sind es wir Menschen, die dafür verantwortlich sind. Wie soll es auch anders sein. Schließlich programmieren und konfigurieren sich die Systeme nicht von alleine. Und auch wenn es heißt “No cloud without automation” muss man eigentlich sagen “(No cloud without automation) without human skills”. Insbesondere zeigen sich unsere menschlichen Schwächen in der Cloud dann, wenn es wieder mal zu einem Ausfall kommt. Vor allem in diesem Jahr haben wir ein paar davon gesehen.

Menschen machen Fehler

Und das ist ok. Solange aus diesen Fehlern auch gelernt wird. Was bei dem einen oder anderen Anbieter dieses Jahr nicht der Fall war. Ich will und werde hier keine Namen nennen, denn diejenigen Wissen bestimmt selbst, dass sie etwas deutlich besser machen müssen. Aber wenn ein Notstromaggregat innerhalb kürzester Zeit zweimal nicht funktioniert und ebenfalls sämtliche Notfallpläne scheitern, läuft etwas falsch!
Zwar war dieser Ausfall, von dem ich hier spreche, in erster Linie kein menschliches Versagen. Denn gegen einen Wirbelsturm und Gewitter sind wir machtlos. Aber die Kaskade von Fehlern die während des Unwetters passiert war, ist unerklärlich.

Andere Fehler die in diesem Jahr passiert sind, lassen sich dem Menschen direkt zuordnen. Zum einen waren da bspw. falsch konfigurierte Netzwerkschnittstellen die dafür gesorgt haben, dass die Netze der Anbieter mit Daten überflutet wurden und sich somit selbst Schachmatt gesetzt haben. Oder es wurden erst kürzlich bei einem Anbieter Änderungen an der Konfiguration der Load-Balancer vorgenommen, die zu einem längeren Ausfall führten.

Wie gesagt, Menschen machen Fehler. Und daher sollte man nicht immer “der großen bösen Cloud” die Schuld geben, sondern hinter die Fassade schauen und bedenken, dass dort auch nur Menschen wie Du und ich sitzen.

In diesem Sinne, auf in ein besseres 2013. 🙂

Categories
Management @en

Amazon improves EC2 with automatic failover and details their billing reports

Amazon improves one of their biggest “weak points” and with that comes towards their customers. It’s about the failover for individual EC2 instances. Typically, a customer must take care themselves to ensure that a new EC2 instance boots up, when a running fails. Amazon has now optimized its infrastructure and introduces automatic failover for EC2 instances. Furthermore there are more detailed information on the bills.

Automatic failover for Amazon EC2

As an Amazon customer it is not easy to build your own infrastructure in the AWS cloud. For the promised high availability in public cloud computing it is necessary that the customer ensures that for themselves, which many users have not been implemented.

Amazon comes towards their customers now and extends its Auto Scaling function with the Amazon EC2 status checks. That means, when an instance in an Auto Scaling group becomes unreachable and fails a status check, it will be replaced automatically.

As Amazon writes, it is not necessary to take any action to begin using EC2 status checks in Auto Scaling groups. Auto Scaling already incorporates these checks as part of the periodic health checks it already performs.

More details within the invoices

Furthermore new detailed billing reports give access to new reports which include hourly line items of the Amazon infrastructure.

Categories
Management @de

Amazon erweitert EC2 mit automatischem Failover und liefert detaillierte Rechnungen

Amazon hat einen seiner größten “Schwachpunkte” ausgebessert und kommt seinen Kunden damit weit entgegen. Es geht um die Ausfallsicherung einzelner EC2 Instanzen. Normalerweise muss sich ein Kunde selbst darum kümmern und dafür sorgen, dass eine neue EC2 Instanz hochfährt, wenn eine laufende ausfällt. Amazon hat nun seine Infrastruktur optimiert und führt das automatische Failover von EC2 Instanzen ein. Zudem gibt es nun detaillierte Informationen in den Rechnungen.

Automatischer Failover für Amazon EC2

Als Amazon Kunde hat man es nicht leicht, wenn man seine Infrastruktur in der AWS Cloud aufbauen will. Für die vom Public Cloud Computing versprochene Hochverfügbarkeit muss man als Kunde nämlich selbst sorgen, was viele Nutzer nicht umgesetzt haben.

Amazon kommt den Kunden nun ein Stück entgegen und erweitert seine Auto Scaling Funktion mit den Amazon EC2 Status Checks. Das bedeutet, wenn eine Instanz innerhalb einer Auto Scaling Gruppe nicht mehr verfügbar ist und den status check nicht besteht, wird diese Instanz automatisch durch eine neue Instanz ersetzt.

Wie Amazon schreibt, ist es nicht notwendig dafür selbst aktiv zu werden, da die EC2 Status Checks automatisch in die Auto Scaling Gruppen integriert wurden.

Mehr Details innerhalb der Rechnungen

Darüber hinaus geben neue Abrechnungen nun mehr Informationen über die stündliche Nutzung der Amazon Infrastruktur.

Categories
Analysis

Cloud Computing: It is about agility and flexibility and secondarily about the costs

The German Computerwoche discussed in their article “How much is the Cloud” the costs of cloud computing. In this case, the piece focuses on the topic of software-as-a-Service (SaaS) and does not consider the bandwidth of the cloud area. The general result of the article is, driving an on-premise solution for five years is cheaper than using cloud services in the same period. This conclusion is of course not surprising. Investing vigorously once and use my purchased resources over a very long period without renewing them I’m going definitely cheaper than using a SaaS model, where I pay monthly or annual contributions. But what is not noted, I always hang behind the current trends and above all never use the latest software versions. Because cloud computing is secondary about cost and primarily about the agility and flexibility a company wins with it.

Cloud Computing is necessarily not cheaper

The article includes some analysts statement e.g. from Gartner as well. Their conclusion is, that SaaS “… can be cheaper over the first five years of on-premise operations.” Therefore, a long-term view and comparison of on-premise and cloud computing is recommended. This indicates that after a few years the break even is reached and then the on-premise solutions have significant cost advantages. Nicholas Krasser, Board member of Pentos AG, says: “The license costs in SaaS mode are from the sixth or seventh year definitely higher than the amortized cost of the on-premise licenses and servers and the ongoing operation.”

Mr. Krasser’s statement of course is right. As I mentioned above, it is a very simple calculation. If I initially invest a large sum in software licenses and let my employees working over six to seven years with outdated software versions, of course, I save in the long term. The situation is similar with hardware. But am I able to make my employees happy and productive with that strategy?

With a SaaS solution you invest on a monthly or yearly basis in the required software and of course at the same time you pay for innovation, updates, security fixes, new releases etc. That should not be forgotten. In addition, I get more flexibility to introduce a new SaaS solution quickly, without long-term investment in licenses.

Cloud computing makes the IT infrastructure more flexible

The foundation of cloud computing is the consolidation of hardware resources based on virtualization. This allows companies to reduce up to 40 percent of their total costs in the own data center. Singularly, 25 to 30 percent of these savings fall to the lower power consumption and investment for cooling systems. This allows the target of a “Green IT” pursue as well. Traditional data centers had to be construed strongly over dimensioned to provide sufficient IT resources even during peak periods. Throughout the year but only 20 percent of this capacity is needed. The remaining 80 percent are unproductive.

Because of virtualization, the design of a data center is no longer sent to the maximum need of the anticipated demand. With the scalability of cloud computing, the resources are automated and flexible provided to the relevant business areas. Following the resources are shut down again. This operational efficiency leads to 30 percent cost savings.

In short, cloud computing can maximize the economies of scale and improve resource utilization of the entire IT infrastructure.

Cloud computing improves the agility of the entire company

Cloud Computing optimizes all technology processes and improves efficiency. It also reduces access to resources and increases the ability to innovate. Employees can access to information and applications more quickly, enabling them to analyze information summarily and immediately make decisions. A location-independent access to the data can also increase the productivity of each employee.

Cloud computing also ensures an optimized operation of the IT infrastructure, making it possible to compensate for peak times convenient and timely manner. Unexpected successful advertising campaigns, monthly and annual or seasonal influences may therefore be addressed without long term investments in costly hardware resources. The scalability of the cloud automatically (after manual configuration) adjusts the needed resources and provides them. This can be computing power, storage or applications.

It’s the same with the ability to innovate the enterprise. Any new initiative requires resources. Personnel as well as the supporting IT in the background. The cloud reduces the evaluation of new ideas and the time-to-market by the necessary IT resources are available on-demand.

Furthermore cloud computing promotes a better collaboration between employees and optimize the coordination with customers and partners. Within the company the cloud ensures a close integration of the employees as well as the processes and systems. This provides a more efficient collaboration. In the external communications with customers and partners the cloud is a platform that allows a seamless interaction.

Innovations must come to the foreground

IT is traditionally regarded as the drag of any business and it seems that this will not change in the era of cloud computing. A cost analysis is important and everyone who does it not makes a mistake. However, with cost-cutting you will not get a competitive advantage. To innovate you have to invest. Companies like Amazon (Amazon Web Services, Amazon Kindle) or Google have shown that impressively. With cloud computing the doors are open to any company also to increase the level of innovation and improve agility. And even the communication between employees, partners and customers can be optimized. Preferably startups and young companies that have built their business models based on the cloud and would not exist without these scalable infrastructures show how this works.

Categories
News

Savvis präsentiert seinen Symphony Cloud Storage

Bereits am 4. Dezember hatte Savvis den limitierten Launch seines Savvis Symphony Cloud Storage bekanntgegeben. Anhand einer weltweiten Anbindung, unbegrenzten Kapazitäten sowie höchster Zuverlässigkeit und Sicherheit soll die neue Lösung die Anforderungen von Unternehmen erfüllen.

Kostenloser Datentransfer für Savvis Kunden

Während jedes Unternehmen über das Internet auf den Symphony Cloud Storage zugreifen kann, fallen für bestehende Kunden, die das private Netzwerk von CenturyLink (Mutterunternehmen von Savvis) nutzen, keine Gebühren für die Datenübertragung beim Herunterladen von Daten an. Für Savvis Kunden, die eine Hosting- oder Colocation-Lösung in einem Rechenzentrum, in dem Cloud Storage angeboten wird, verwenden, ist der Datentransfer zwischen Cloud Storage und Infrastruktur nicht mit Kosten verbunden.

Die wichtigsten Funktionen im Überblick

  • Replikationen ermöglichen es Unternehmen, den Speicherort ihrer Daten flexibel zu bestimmen. Durch ein globales Namespace-Modell können Kunden die gesamten Daten analysieren, auch wenn einzelne Teilstücke an verschiedenen Standorten liegen.
  • Aufgrund der globalen Reichweite und den weltweiten Rechenzentren von Savvis ist der Zugriff von überall und jedem Gerät möglich – einschließlich mobiler Geräte wie Laptops, Tablets und Smartphones.
  • Unbegrenzte und kostengünstige Speicherlösung ohne vertragliche Bindungen hinsichtlich Laufzeiten oder Kapazitäten – es wird ausschließlich nach dem tatsächlichen Verbrauch abgerechnet.
  • Hohe Skalierbarkeit, die es Anwendern ermöglicht, ohne die Einschränkungen einer normalen Speicher-Infrastruktur, flexibel größer oder kleiner zu skalieren.
  • Abrechnung nach dem Pay as you go Modell.
  • Sicherheit durch Vertragsstrafen bei Verletzung der Service-Levels und 24/7 Support.

Aufgebaut auf der EMC Atmos Plattform und kompatibel zum EMC Atmos API-Framework ermöglicht der Symphony Cloud Storage den Anwendern, Lösungen von Anbietern, die bereits EMC-Technologien nutzen, zu integrieren.

Symphony Cloud Storage Partnerprogramm

Zusammen mit der eingeschränkten kommerziellen Nutzung des Symphony Cloud Storage führt Savvis das Symphony Cloud Storage Partnerprogramm ein, zu dem Lösungen von Anbietern wie Riverbed, zur Modernisierung von Datensicherung und Archivierung, gehören. Die Oxygen Cloud ermöglicht Unternehmen den intelligenten Dateizugriff auf mobile Geräte und Panzura bietet Storage-Konsolidierung für globale Netzwerkspeichersysteme (NAS) zur Archivierung und der Erstellung von Backups.

Der weltweit zugängliche Savvis Cloud Storage wird zunächst in Rechenzentren in London, Singapur, Toronto, Washington, D.C., und Santa Clara, Kalifornien, gehostet. Der Symphony Cloud Storage ergänzt das auf VMware basierende Portfolio der Savvis Symphony Enterprise Cloud Solutions.

Start in 2013

Symphony Cloud Storage ist derzeit für eine begrenzte Anzahl von Savvis Kunden verfügbar, die volle kommerzielle Verfügbarkeit ist für Anfang 2013 geplant.

Categories
Analysis

Cloud Computing is the backbone of the mobile world

The market of mobile devices and solutions is growing constantly. Recently the German BITKOM predicts a thriving tablet boom. Accordingly, more than 3.2 million units are sold in 2012. This is an increase of 52 percent. Sales are expected to rise to 1.6 billion euros. And also the trend towards mobile office and collaboration solutions has strengthened obviously.

The cloud is the backbone of mobile solutions

On a closer view it is clear that cloud computing is a guarantee of success for the mobile technology market and offers. The cloud allows providers such as Google (Google Play), Amazon (Kindle Android AppStore) and Microsoft (Windows Store) to deliver their customers the (for them actually-bringing added value) content such as books, music, apps, etc. anywhere and across devices. Unlike Apple, Google and Amazon have the strategy achieving its revenue mostly with content in particular and sell the needed devices at cost price. Also suppliers such as Samsung and LG recognized it and (plan to) have their own cloud offerings, to provide their customers with content or want to animate to store data and therefore want to lock them in.
But not only provider of mobile marketplaces use the cloud for their purposes. Even developers of mobile applications store their data more and more in the cloud instead locally.

Hybrid is the right strategic path

Wireless data connections continuing to develop rapidly but there are obviously still a lot of holes in the mobile (broadband) coverage. It is less about the inner cities, but the rural areas. Here are just still unstable or substandard connections (EDGE) available. And also the long-awaited high-speed standard LTE (Long Term Evolution) is not able meet the expectations or is overpriced for the masses.

Another point is reliability and trust while the mobile work. Ist the data respectively are the changes actually stored successfully or do I experience a surprise in the office? Especially when working in a moving train, it is strongly unadvisable working with pure cloud-based solutions.

Developers of mobile productivity solutions should therefore focus on a hybrid approach. The main work should take place on the mobile device. Any changes/ selected data is then in the event of a data connection synchronized in the background automatically (remember status messages). The ability to switch to an online or a cloud mode would be an option, for example to enable the real-time collaboration with colleagues.

No cloud, no fun.

Besides the development of mobile devices and operating systems such as Android, iOS and Windows Phone, the mobile market would not develop the way it is happening now without cloud computing. One the one hand the increase of powerful devices and more comfortable operating systems and apps are responsible for this progress. However, we should not forget that it is the cloud which created the possibilities for a seamless and device-independent access and synchronization of content.