Categories
Kommentar

Erneuter Ausfall der Amazon Web Services zeigt, dass Cloud Nutzer nicht aus den eigenen Fehlern lernen

Gestern war es dann wieder einmal soweit. Amazon hatte erneut mit einem schweren Ausfall in seiner Region US-East-1 zu kämpfen und zog direkt die üblichen Verdächtigen Reddit, Foursquare, Heroku und Co. mit. Dabei handelt es sich bereits um den fünften signifikanten Ausfall in den letzten 18 Monaten in dieser Region. Nach April 2011, März 2012 sowie dem 15. und 30. Juni 2012 plus vier weitere Ausfälle innerhalb nur einer Woche im Jahr 2010, nun der nächste Ausfall.

Die Hintergründe des AWS Ausfall

Die Region US-East-1 ist die älteste aller AWS Regionen. Dabei handelt es sich um das Rechenzentrum in Virginia, das erst vor kurzer Zeit wegen schwerer Gewitter in die Schlagzeilen geraten war. Letzte Woche hatte ich noch geschrieben, dass neue Public Cloud Anbieter zwar mittlerweile über aktuellere Technologien verfügen, es für Amazon auf Grund der losen Kopplung sämtlicher Services aber leicht fallen sollte, einen Austausch vorzunehmen. Es scheint, dass der Zeitpunkt mehr als überschritten ist. Das Grab US-East-1 ist größer als vermutet.

Was ist passiert?

Was genau passiert ist, kann der AWS Statusseite zu Beginn verständlicherweise nicht immer direkt entnommen werden. In der Regel wird ein paar Tage nach dem Ausfall ein ausführlicher Blogpost mit ein paar Details veröffentlicht.

Aus den Statusmeldungen lässt sich nur entnehmen, dass es wieder Performanceprobleme “mit einer kleinen Anzahl von EBS Volumes (Elastic Block Store)” gibt.

10:38 AM PDT We are currently investigating degraded performance for a small number of EBS volumes in a single Availability Zone in the US-EAST-1 Region.
11:11 AM PDT We can confirm degraded performance for a small number of EBS volumes in a single Availability Zone in the US-EAST-1 Region. Instances using affected EBS volumes will also experience degraded performance.
11:26 AM PDT We are currently experiencing degraded performance for EBS volumes in a single Availability Zone in the US-EAST-1 Region. New launches for EBS backed instances are failing and instances using affected EBS volumes will experience degraded performance.

12:32 PM PDT We are working on recovering the impacted EBS volumes in a single Availability Zone in the US-EAST-1 Region.
1:02 PM PDT We continue to work to resolve the issue affecting EBS volumes in a single availability zone in the US-EAST-1 region. The AWS Management Console for EC2 indicates which availability zone is impaired.EC2 instances and EBS volumes outside of this availability zone are operating normally. Customers can launch replacement instances in the unaffected availability zones but may experience elevated launch latencies or receive ResourceLimitExceeded errors on their API calls, which are being issued to manage load on the system during recovery. Customers receiving this error can retry failed requests.

2:20 PM PDT We’ve now restored performance for about half of the volumes that experienced issues. Instances that were attached to these recovered volumes are recovering. We’re continuing to work on restoring availability and performance for the volumes that are still degraded.

Zudem waren auch “eine kleine Anzahl von RDS Instanzen (Relational Database Service)” betroffen. Hier kam es zu Problemen bei der Verbindung und ebenfalls bei der Performance.

11:03 AM PDT We are currently experiencing connectivity issues and degraded performance for a small number of RDS DB Instances in a single Availability Zone in the US-EAST-1 Region.
11:45 AM PDT A number of Amazon RDS DB Instances in a single Availability Zone in the US-EAST-1 Region are experiencing connectivity issues or degraded performance. New instance create requests in the affected Availability Zone are experiencing elevated latencies. We are investigating the root cause.

Die üblichen Verdächtigen: Reddit, Foursquare, Heroku und Co.

Interessant ist, dass immer die üblichen Verdächtigen u.a. Reddit, Heroku und Foursquare von einem Ausfall der US-East-1 Region betroffen sind. Das bedeutet im Umkehrschluss, dass alle Beteiligten nicht aus den eigenen Fehlern vorheriger Ausfälle gelernt haben und genau so weitermachen wie zuvor. Das “Schöne” an solchen Ausfällen ist, dass man einen schönen öffentlichen Rundumblick auf die Robustheit der jeweiligen Angebote der Anbieter erhält, die ihre Anwendungen auf den Amazon Web Services laufen lassen. Auch Instagram, dass bekannterweise für 1 Milliarde Dollar an Facebook verkaufte wurde, war bei einem der letzten Ausfälle schwer getroffen. Da scheint die technische Due Diligence Prüfung nicht funktioniert zu haben.

Es stellt sich die Frage, wie lange die Verantwortlichen von Reddit, Foursquare, Heroku (gehört übrigens zu Salesforce) und Co. noch warten, bis etwas an der Architektur geändert wird. Die Systemarchitekten sollten langsam damit beginnen etwas zu ändern. Gute Vorbilder sind Netflix und Okta.

Was ist zu tun?

Das ist im Einzelfall zu entscheiden. Jedoch reicht es zunächst einmal nicht aus, nur eine Region oder eine Availability Zone zu nutzen. Man muss einfach verstehen, dass Cloud Computing viel mehr bedeutet, als nur ein paar Server zu nutzen und miteinander zu verbinden. Es geht um die gesamte Architektur des eigenen Systems bzw. der eigenen Anwendung, die auf der virtuellen Infrastruktur (IaaS) aufgebaut wird. Wie ich schon in einem Artikel für die Computerwoche geschrieben habe:

Viele Unternehmen entwickeln ihre Cloud-Applikation “daheim” in den eigenen vier Wänden. Erst nach der Fertigstellung soll der Rollout auf eine Cloud-Infrastruktur oder Cloud-Plattform erfolgen. Das ist ein Fehler.

Inbesondere IaaS-Umgebungen (Infrastructur as a Service) wie die Amazon Web Services oder Microsoft Windows Azure vermitteln den Eindruck, nur eine Vielzahl von virtuellen Maschine bereitzustellen. Den Rest übernehme die “Cloud automatisch”. Das ist fatalerweise auch der Tenor, der von vielen Medien verbreitet wird und damit ein völlig falscher Eindruck von einer Cloud entsteht.

Eine Cloud-Anwendung ist nur so viel wert wie die Architektur, auf der sie basiert. Eine Anwendung muss direkt für die Cloudentwickelt werden – Skalierbarkeit und Hochverfügbarkeit sind von Beginn an mit zu bedenken. Eine Anwendung sollte eigenständig weitere virtuelle Maschinen hochfahren können, wenn mehr Leistung benötigt wird (Skalierbarkeit) bzw. die nicht mehr benötigten virtuellen Maschinen auch selbstständig wieder herunterfahren. Genauso verhält es sich, wenn eine virtuelle Maschine in einen fehlerhaften Zustand gerät. Auch hier muss die Anwendung selbst dafür sorgen, dass entsprechend eine virtuelle Maschine als Ersatz hochgefahren wird und die defekte Maschine aus dem System verschwindet (Hochverfügbarkeit).

Die Anwendung muss daher in der Lage sein, auf jeder beliebigen virtuellen Maschine (VM) einer Cloud-Infrastruktur zu funktionieren. Das liegt unter anderem daran, dass jederzeit eine VM ausfallen kann und eine andere neu hochgefahren werden muss. Und auch die Daten, auf die eine Anwendung operiert, befinden sich zwangsläufig nicht mehr an einem einzigen Ort, sondern sind über die Cloud verteilt gespeichert.

Mehr…

Für den Fehlerfall vorbereitet sein

Selbstverständlich darf man Amazon von diesem erneuten Ausfall auf keinen Fall freisprechen. Die Region US-EAST-1 in North Virginia scheint das Problemkind zu sein. Dennoch weißt Amazon regelmäßig und vehement darauf hin: “Design for failure!”

Hierfür hat das Unternehmen eine Webseite geschaffen, auf der Whitepapers zum Download bereitstehen, die dabei helfen, fehlertolerante Anwendungen zu entwickeln und Cloud Architekturen zu verstehen. Dazu gehören u.a. die Folgenden.

AWS Cloud Architecture Best Practices Whitepaper

Dieses Whitepaper gibt einen technischen Überblick aller AWS Services und verschiedener Best Practice Ansätze für die architektonische Gestaltung, um damit effiziente und skalierbare Architekturen zu entwerfen.
Link

Building Fault-Tolerant Applications on AWS Whitepaper

In diesem Whitepaper werden Funktionen für die Erhöhung der Fehlertoleranz vorgestellt, die dazu dienen, um hoch zuverlässige und hochverfügbare Anwendungen innerhalb der AWS Cloud zu entwickeln.
Link

Web Hosting Best Practices Whitepaper

Dieses Whitepaper überprüft detailliert Lösungen für das Web Application Hosting. Dazu gehört unter anderem, wie jeder AWS Service genutzt werden kann, um eine hochverfügbare und skalierbare Webanwendung zu entwerfen.
Link

Leveraging Different Storage Options in the AWS Cloud Whitepaper

Dieses Whitepaper dient dazu, einen Überblick über die Speichermöglichkeiten in der AWS Cloud zu geben und darüber hinaus Szenarien vorzustellen, um eine effektive Nutzung zu erzielen.
Link

AWS Security Best Practices Whitepaper

In diesem Whitepaper werden bestimmte Tools, Funktionen und Richtlinien beschrieben, um zu verstehen, wie Cloud Anwendungen innerhalb der AWS Infrastruktur von Grund auf geschützt werden können.
Link

Netflix und sein Chaos Monkey

Ein Grund warum Netflix ein so robustes und hochverfügbares System auf der Amazon Cloud betreibt, ist der selbst entwickelte und sogenannte Chaos Monkey. Der Chaos Monkey hilft Netflix dabei sicherzustellen, dass alle einzelnen Komponenten unabhängig voneinander arbeiten. Dazu zerstört der Chaos Monkey wahllos Instanzen und Services innerhalb der Netflix AWS Infrastruktur, um seinen Entwicklern dabei zu helfen, zu gewährleisten, dass jede einzelne Komponente antwortet, auch wenn die System-Abhängigkeiten nicht einwandfrei funktionieren.

Das gilt für die gesamte Cloud!

Alle genannten Bereiche gelten nicht nur für die Amazon Web Services, sondern ebenfalls für Windows Azure, Rackspace usw. Bevor man in die IaaS-Cloud eines Anbieter geht, sollte man sich vorher damit auseinandersetzen und verstehen, wie die Infrastruktur funktioniert und wie das eigene Systeme daraufhin entwickelt werden muss.

Categories
Kommentar

Schuldzuweisungen in Zeiten des Cloud Computing

Gestern ist mir wieder ein Tweet über den Weg gelaufen, der nicht nachvollziehbar ist. Der Bilderservice Mobypicture twittert “Mobypicture is currently unavailable because of system maintenance by Amazon….”. Währenddessen waren auf dem Statusboard der Amazon Web Services unter http://status.aws.amazon.com keine Auffälligkeiten erkennbar. Der Mobypicture Service hingegen war nicht erreichbar. Ich werde hier Amazon nicht verteidigen. Aber die Schuld per Tweet einfach auf den Anbieter zu schieben, scheint mir dann doch zu einfach. Es scheint eher so, dass Mobypicture die Möglichkeiten der AWS Cloud nicht kennt bzw. diese nicht nutzt – wie schon Instagram.

Wer ist denn “schuld” in der Cloud?

Das kommt darauf an. Nämlich unter anderem davon, was von der Cloud Infrastruktur bzw. dem Cloud Service ausfällt. Bei SaaS als auch PaaS sind mir als Nutzer weitestgehend die Hände gebunden. Beim IaaS halte jedoch ich größtenteils die Fäden selbst in der Hand und muss dafür sorgen, dass meine Applikation auf der Infrastruktur einwandfrei arbeitet. Selbst dann, wenn die darunterliegende Infrastruktur Stückweit ausfällt. Dafür gibt es Mittel und Wege. Wenn ich alles daheim im eigenen Rechenzentrum mache, sorge ich schließlich auch für Redundanz und kann maximal mit dem Finger auf bspw. die kaputte Festplatte zeigen. In der Cloud stehen mir aber deutlich mehr Möglichkeiten zur Verfügung. Extrem(!) gesagt dürfte eine eigene Applikation erst dann ausfallen, wenn die gesamte IaaS-Cloud eines Anbieters ausfällt.

Mehr Eigenverantwortung bitte!

Es ist nicht das erste Mal, dass ich das schreibe. “Beim Cloud Computing geht es um Selbstverantwortung.

Mehr Eigenverantwortung und IaaS bedeutet, darauf zu achten die Möglichkeiten der verteilten Cloud Infrastruktur zu nutzen und die Architektur der Applikation genau diesen Begebenheiten anzupassen und diese dafür zu entwickeln. Stichworte: Parallelität, Skalierbarkeit usw.

Im Falle der Amazon Web Services bedeutet dies:

  • Nicht nur eine virtuelle Maschine einsetzen.
  • Sich nicht nur auf eine Availability Zone verlassen.
  • Nicht nur eine Region nutzen.
  • Eine Multivendor Strategie in Betracht ziehen.

Dann sieht es schon anders aus.


Bildquelle: http://www.akademische.de

Categories
Kommentar

Die Cloud überlebt sämtliche Speichermedien

Ich habe eine interessante Infographik gefunden, die zeigt, dass die Cloud sämtliche Speichermedien überleben wird. Die Graphik veranschaulicht sehr gut, wie lange die Daten auf einer bestimmten Speichertechnologie sicher abgelegt werden können, bis auf diese nicht mehr zugegriffen werden kann oder wann ein Wechsel auf eine andere Technologie erforderlich ist.

Die Cloud überlebt sämtliche Speichermedien

Die Cloud Anbieter sorgen für das Überleben der Daten

Die Graphik konzentriert sich auf die Lebensdauer eines bestimmten Speichermediums, abhängig von der Nutzung. Eine oft benutzte CD wird natürlich nicht so lange eingesetzt werden können als eine, auf die einmalig Daten kopiert wurden und die anschließend vorsichtig behandelt wird. Hierbei sollte man aber auch nicht den Lebenszyklus einer Technologie vergessen. Nach einem bestimmten Zeitraum, auch abhängig davon wie erfolgreich die Technologie ist, kann diese eingestellt und nicht weiter unterstützt werden. Was passiert dann?

Ein weiteres nicht zu unterschätzendes Risiko sind die Dateiformate und deren Abwärtskompatibilität. So ändern z.B. Anbieter wie Microsoft regelmäßig ihre Office-Datenformate (z.B. .doc > .docx), die dann nur von der aktuellen Office Version bestmöglich unterstützt werden. Mir sind zudem Erfahrungen bekannt, wo sich Excel 97 Tabellen zwar mit Office 2000 öffnen ließen, sämtliche Formatierungen und Formeln aber nicht mehr korrekt dargestellt wurden. Fatal waren die Probleme mit den Formeln, da diese auf den ersten Blick richtig waren. Erst auf dem zweiten Blick wurde deutlich, dass sämtliche Ergebnisse falsch berechnet wurden.

An dieser Stelle helfen Software-as-a-Service (SaaS) Lösungen, indem die Daten in dem Service gespeichert werden und der Anbieter Anspassungen an der Software regelmäßig vornimmt und die “internen” Datenformate ebenfalls selbst anpasst, ohne dass der Nutzer davon betroffen ist. Das trifft natürlich nur dann zu, wenn der Cloud Speicher auch über eigene Office Lösungen verfügt, die in den Storage integriert sind, wie z.B. Google Apps, Zoho oder Office 365.

Werden Daten in der Cloud gespeichert, muss man sich als Unternehmen nicht um die darunterliegende Speichertechnologie kümmern. Der Anbieter stellt den Speicherplatz als Service bereit und sorgt dafür, dass die Technologie den aktuellen Standards entspricht. Die Sorge um die Technologieunterstützung wandert demnach vom Unternehmen hin zum Anbieter.

Alte vs. Neue Welt

Ein gutes Beispiel für eine disruptive Technologie innerhalb des schon sehr disruptiven Cloud Computing ist der erst kürzlich von Amazon veröffentlichte Service Amazon Glacier. Dabei handelt es sich um einen Cloud Service für die Datenarchivierung bzw. für das Langzeit-Backup. Glacier soll Unternehmen dazu bewegen, ihre Tape Libraries aufzugeben und die Daten stattdessen kostengünstig in die Cloud zu verlagern.

AWS beschreibt Amazon Glacier als einen kostengünstigen Storage Service, der dafür entwickelt wurde, um Daten dauerhaft zu speichern. Zum Beispiel für die Datenarchivierung bzw, die Datensicherung. Der Speicher ist, entsprechend der aktuellen Marktsituation, sehr günstig. Kleine Datenmengen können ab 0,01 US-Dollar pro GB pro Monat gesichert werden. Um den Speicher so kostengünstig anzubieten, ist der Service, im Vergleich zu Amazon S3, für solche Daten gedacht, auf die selten zugegriffen wird und deren Zugriffszeit mehrere Stunden betragen darf.

Daten in Amazon Glacier werden als ein Archive gespeichert. Dabei kann ein Archiv aus einer einzigen oder mehreren einzelnen zusammengefassten Dateien bestehen, die in einem sogenannten Tresor organisiert werden können. Der Zugriff auf einen Tresor kann über den AWS Identity and Access Management-Service (IAM) gesteuert werden. Um ein Archiv von Glacier zu laden, ist ein Auftrag erforderlich. Die Bearbeitung so eines Auftrags benötigt, laut Amazon, in der Regel zwischen 3,5 bis 4,5 Stunden.

Anstatt auf gewohnte Speichersysteme, verlässt sich Amazon Glacier auf kostengünstige Commodity Hardware. (Der ursprüngliche Ansatz, Cloud Computing kostengünstig anzubieten.) Für eine hohe Datenredundanz besteht das System aus einer sehr großen Menge von Speicher-Arrays, die sich aus einer Vielzahl von kostengünstigen Festplatten zusammensetzen.

Dann bekomme ich aber auch Meldungen wie Folgende zugeschickt, die zeigen, dass die “Alte Welt” den Kampf noch nicht aufgegeben hat.

“Anbieter” hat die Speicherdichte und Energieeffizienz seiner xyz-Appliances deutlich erhöht und verfügt nun über die effizienteste Enterprise-Disk-Backup- und Deduplizierungslösung am Markt. Die xyz bietet nun 3 TB-Festplatten und damit eine 50 Prozent höhere Speicherdichte, 42 Prozent niedrigeren Energieverbrauch und 25 Prozent höhere Performance. Verglichen mit Wettbewerbsprodukten beansprucht die xyz die kleinste Stellfläche bei gleichzeitig höchstem Mehrwert.

Neben der Verschlüsselung von ruhenden Daten (Data-at-rest) in der xyz, hat “Anbieter” sowohl die Produktfamilie der xyz-Serie als auch die “Produkt” Tape Libraries mit zusätzlichen Security-Erweiterungen ausgestattet. Diese zahlreichen Updates helfen die Datensicherungseffizienz in Unternehmen zu erhöhen und gleichzeitig den immer anspruchsvolleren Service Level Agreements (SLAs) und Sicherheitsbedürfnissen gerecht zu werden.

Die Cloud macht Speichermedien überflüssig

Es gab Zeiten, in denen Unternehmen sich darüber Gedanken machen mussten, welche Speichertechnologie sie einsetzen sollten, um Daten über einen langen Zeitraum sicher zu archivieren. Es ist sehr leicht zu argumentieren, “Schieb einfach alles in die Cloud, da läuft’s schon.”. So ist das natürlich nicht. Aber Cloud Anbieter können hier definitiv helfen, indem sie die darunter liegenden Speichertechnologien bei Bedarf austauschen, ohne dass der Kunde etwas davon mitbekommt. Vor allem die Anbieter der “Alten Welt” sollten sich darüber Gedanken machen, wie sie ihren Kunden diese on-Premise Sorgen nehmen können und sich den Ideen aus der “Neuen Welt” annehmen.

Ich kenne bspw. ein Unternehmen, dass einen Mitarbeiter, der eigentlich schon in Rente sein sollte, beschäftigt, da er der Einzige ist, der das Wissen über eine spezielle Magnetband Technologie besitzt. Dies ist dem Umstand der Aufbewahrungsfristen geschuldet. Erst wenn die Frist abgelaufen ist, darf dieser Mitarbeiter in seinen Wohl verdienten Ruhestand gehen.


Quelle: http://www.thecloudinfographic.com

Categories
Kommentar

Vernichtet Cloud Computing die Enterprise IT?

Cloud Computing gehört zu den disruptivsten Technologien und Konzepten der letzten 10 Jahre. Mit dem flexiblen Bezug von quasi unendlich verfügbaren Ressourcen lassen sich zwar nicht einfacher virtuelle Infrastrukturen aufbauen, aber agiler und kurzfristig. Auch der Zugriff auf – neue – Anwendungen und Daten, die durch die Cloud ortsunabhängig zur Verfügung stehen, hat einen erheblichen Einfluss auf uns, unsere Arbeitswelt und damit auch zwangsläufig auf die Enterprise IT. Durch das Cloud Computing getriebene Themen wie Bring your own device (BYOD) und Mobile Computing, aber auch die Consumerization of IT (CoIT) hinterlassen immer mehr Spuren in den IT-Umgebungen vieler Unternehmen. Es stellt sich somit die Frage, ob das Cloud Computing und seine oben genannten Gefährten dazu beitragen werden, dass die Enterprise IT, wie wir sie kennen nicht mehr lange existieren wird.

Mitarbeiter zeigen wo es lang geht

Die CoIT sorgt dafür, dass IT-Wissen kein rares Gut mehr ist. Vorbei sind die Zeiten, in denen IT-Abteilungen dem Großteil der restlichen Mitarbeiter gleich mehrere Schritte voraus sind. Das liegt unter anderem daran, das die Informationstechnologie in unserem alltäglichen Leben einen omnipräsenten Zustand eingenommen hat. Zudem hat sich die Bedienbarkeit in den letzten Jahren deutlich vereinfacht und die Angst vor dem unbekannten Computern, Smartphones usw. schwindet stetig. Vergessen sollte man auch nicht den demographischen Wandel. Der Nachwuchs wächst mit und in die neuen Technologien herein und hat es mit der IT daher viel einfacher als die vorherigen Generationen. Das Verhältnis von Mitarbeitern die sich mit IT auskennen und denjenigen die Schwierigkeiten damit haben, wird sich immer stärker verändern, bis wir an einem Punkt angelangt sind, wo es keine nicht IT-affinen Mitarbeiter mehr geben wird.

Ständig neue Technologien, die primär für den privaten Gebrauch gedacht sind, beeinflussen die Mitarbeiter darüber hinaus im großen Stil. In Kombination mit der CoIT und dem demographischen Wandel sehen somit immer mehr Nutzer neue Möglichkeiten, diese eher privaten Technologien in ihren Arbeitsalltag einzusetzen und sich damit das Leben zu vereinfachen und die eigene Produktivität zu steigern.

Ein weiteres Problem, das sich die Enterprise IT ausgesetzt sieht: Die IT-Abteilungen sind zu langsam und sitzen weiterhin auf ihrem Thron. Es gibt viele Mitarbeiter und Projekte die innerhalb des Unternehmens und für die Außenwirkung Ideen haben. Dafür benötigen sie allerdings Ressourcen und diese in Form von IT. Dabei kann es sich von einer trivialen Angelegenheit wie Zugriffsrechte, über neue Applikationen bis hin zu Servern oder vollständigen Infrastrukturen handeln. Für jedes genannte Thema ist mindestens ein Ticket bis hin zu zahlreichen Meetings erforderlich. Oder die Antwort lautet schlicht und einfach – Nein! Im Falle von Ja! kann die Bereitstellungszeit mehrere Wochen oder gar Monate benötigen. Für ein einfaches Testsystem steht das in keinem Verhältnis, fördert die Missgunst bei den Mitarbeitern und kann im schlimmsten Fall das ganze Projekt gefährden.

Die Cloud vereinfacht den Zugang

Mitarbeiter und Projekte suchen daher Auswege, um zum einen Diskussionen aus dem Weg zu gehen und zum anderen ihre Ziele im vorgegebenen Zeitfenster zu erreichen. Dem Kunden sind die internen Machtkämpfe relativ egal und er sollte davon besser auch nichts mitbekommen.

Möglich machen es ihnen Lösungen aus der Cloud. Seien es nun vollständige Applikationen (Software-as-a-Service, SaaS), Plattformen für die Entwicklung und den Betrieb eigener Anwendungen (Platform-as-a-Service, PaaS) oder ganze Infrastrukturen für umfangreiche IT-Landschaften (Infrastructure-as-a-Service, iaaS). In der Cloud ist für jeden etwas dabei, wenn auch nicht für jede Situation.

Und auch mobile Applikationen, die ihre Daten bevorzugt in der Cloud ablegen, oder Cloud Storage Services und moderne HTML 5 Applikationen ermöglichen den ortsunabhängigen Zugriff.

Cloud Computing unterstützt die Enterprise IT

Die Enterprise IT darf nicht die Augen vor dem Cloud Computing verschließen und muss diese disruptive Technologie als Unterstützer ihrer täglichen Arbeit sehen. Ähnlich verhält es sich mit BYOD. In beiden Fällen gilt: Augen zu und durch funktioniert nicht! Proaktiv handeln und den Mitarbeiten wieder einen Schritt voraus sein ist gefragt.

Wer sich nun fragt, wie Cloud Computing ein Unterstützer sein kann, hier vier Beispiele:

Irgendwann wird der CEO/ CIO in der Tür stehen und erwarten, dass die Datenmengen die täglich im Web, in den lokalen Systemen usw. gesammelt werden, im großen Stil analysiert und unmenschliche Verknüpfungen angestellt werden sollen, da ein Informationsvorsprung einen Wettbewerbsvorteil bedeutet. Stichwort: Big Data. Wie sollen also in kurzer Zeit die Unmengen an benötigten Systemen für die Verarbeitung (Rechenleistung) und Ablage (Speicherplatz) beschafft und konfiguriert werden? Und wie sollen diese aus dem IT-Budget des laufenden Jahres finanziert werden? Selbst die Entwicklung einer eigenen Big Data Applikation kostet bereits viel Zeit und Geld. Genau, Cloud Computing. Denn Cloud Infrastrukturen sind eine ideale Lösung für die Anforderungen von Big Data. Aber ebenfalls speziell darauf ausgerichtete PaaS Lösungen können bereits helfen, “nur” die Abfragen zu schreiben.

Das Big Data Beispiel lässt sich auf so ziemlich jeden Fall anwenden, wenn es darum geht, kurzfristig Anforderungen zu erfüllen, bei denen mehr als “nur ein paar” virtuelle Server benötigt werden. Denn eines sollte man nicht vergessen, für jede virtuelle Ressource werden auch physikalische Ressourcen benötigt.

Auch neue Anwendungen lassen sich via SaaS kurzfristig, kostengünstig bzw. kostenlos testen, ohne dafür eigene Hardware zu nutzen oder gar die dafür notwendige darunterliegende Software zu besitzen, installieren und konfigurieren.

IT-Abteilungen können Cloud Computing zudem nutzen, um die eigene Innovationsfähigkeit und damit den Innovationsgrad des Unternehmen selbst zu erhöhen, indem sie kurzfristig auf Cloud Technologien zurückgreifen, um neue Ideen zu testen oder zu entwickeln.

Eines sollte weiterhin angemerkt werden. Cloud Computing ist kein Job Killer. Änderungen im Job und Weiterbildungen sind ein normales Phänomen, die natürlich auch die Cloud mit sich bringt. Allerdings erledigen die Cloud Infrastrukturen nicht alles von alleine. Um bspw. ein IaaS Angebot zu nutzen, müssen weiterhin die virtuellen Server Stückweit konfiguriert werden und die virtuelle Infrastruktur und Applikationen so gestaltet werden, dass sie tatsächlich skalierbar und hochverfügbar arbeiten. IT-Abteilungen müssen in der Cloud “verteilt” denken und agieren.

Enterprise IT stirbt nicht aus

Die Enterprise IT wird nicht aussterben. Es sei denn, sie passt sich nicht den aktuellen und zukünftigen Begebenheiten und Trends an. Nicht die IT-Abteilungen werden die technologische Marschroute mehr vorgeben. Die Mitarbeiter werden zeigen und darauf aufmerksam machen, welche Technologien sie für ihre Produktivität benötigen. IT-Abteilungen sollten also verstehen, dass sie in einigen Fällen noch einen gewissen Vorsprung vor den Kollegen haben, dieser aber stetig schwindet. Umgehen können und sollten sie mit dieser Situation, indem sie

  • Auf Mitarbeiter eingehen.
  • Offen sein.
  • Innovationen von Mitarbeitern in das Unternehmen hineintragen lassen.
  • Verstehen dass es mittlerweile viele kleine CIOs/ CTOs gibt.
  • Crowdsourcing innerhalb des Unternehmens einsetzen, um Wünsche und Bedürfnisse zu erkennen.
  • Sich ebenfalls mit dem Markt für Consumer Produkte auseinandersetzen und Ideen für den Einsatz im Unternehmen ableiten.
  • Den Mitarbeitern wieder einen Schritt voraus sein.
  • Die Innovationsfähigkeit und den Innovationsgrad steigern.
Categories
Kommentar

"The Woz" hat Angst vor der Cloud – Na und…?

“iWoz” (Steve Wozniak) aka “The Woz”, Mitbegründer von Apple, hat gesprochen und das Netz hält den Atem an. Das Woz sich gerne zu Themen äußert ist bekannt, aber hier hätte erst einmal überlegen sollen. Versteht mich nicht falsch, ich schätze ihn sehr, hab sein Buch gelesen und verfolge sonst alles was er macht. Aber diese allgemeinen Äußerungen helfen niemanden weiter und sind reine Meinungsmache. Das Problem: Die Medien springen auf seinen Zug mit auf. So gut wie jede englischsprachige und ein paar deutschsprachige Publikationen haben darüber geschrieben.

Ein Interview nach einer Theateraufführung

Nach seinem Besuch einer Theateraufführung zu “The Agony and the Ecstasy of Steve Jobs” durften die Zuschauer Woz auf der Bühne ein paar Fragen stellen. Dabei kam es u.a. zu den folgenden Aussagen:

“I really worry about everything going to the cloud,”

“I think it’s going to be horrendous.”

“With the cloud, you don’t own anything. You already signed it away.”

“I want to feel that I own things,” “A lot of people feel, ‘Oh, everything is really on my computer,’ but I say the more we transfer everything onto the web, onto the cloud, the less we’re going to have control over it.”

Nicht alles auf die Goldwaage legen

Es ist nicht das erste Mal in der jüngsten Vergangenheit, dass Woz unüberlegte Äußerungen macht. Wie Golem schreibt, habe er im November 2010 angekündigt, dass Apple Nuance gekauft habe, wobei das nicht korrekt sei. Er hat sich damit entschuldigt, dass er es wohl falsch verstanden habe. Und auch Kim Schmitz, der nachweislich nicht gerade saubere Geschäfte betreibt, nimmt er mit seltsamen Aussagen in Schutz.

Aus diesem Grund sollte man seine sehr allgemeinen Aussagen ohne Inhalt nicht überbewerten.

Ich stimme ihm zu, das viele (noch) weiterhin das Gefühl brauchen, dass sich die Daten in ihrem Besitz befinden. Daher bin ich auch der Meinung, dass Gartner mit seiner Prognose, dass die Personal Cloud bis 2014 den Computer verdrängt, falsch liegt.

Aber betrachten wir die aktuelle Entwicklung des Mobile Computing, muss man sich die Frage stellen, warum das iPhone oder Android so erfolgreich sind? Es sind die Apps und die mobilen Datenverbindungen. Ohne Apps und mobilem Internet wären Smartphones nicht da wo sie heute sind. Denn sie würden uns keinen nennenswerten Mehrwert bieten. Es ist der Zugriff auf unsere Daten von jedem Ort, die mobile Unabhängigkeit, die Smartphones so beliebt machen.

Und wo befindet sich der Großteil aller Daten, die von den Apps benötigt werden? In der Cloud bzw. auf Servern von den Anbietern dieser Apps. Es ist daher sehr vage zu sagen, dass man Bedenken vor der Cloud hat und seine Daten dort nicht speichern würde, da diese dort nicht mehr im eigenen Dunstkreis sind. Ich habe dazu mal einen Artikel geschrieben, der das genauer betrachtet: “Die Heuchelei der Cloud Kritiker“.

Das Mobile Computing und Cloud Computing ernähren sich Gegenseitig und werden durch die Consumerization of IT zudem vorangetrieben.

Vorsicht vor Social Networks? Ja.

Werden die Daten auf der Infrastruktur eines echten Cloud Anbieters wie Amazon Web Services, Rackspace, internet4YOU usw. gespeichert, dann gehören die Daten weiterhin einem selbst.

Facebook und andere Social Networks klammer ich hier mal aus, da deren Geschäftsmodell darauf basiert Nutzerdaten zu monetarisieren. Wird für den Service nichts bezahlt, dann ist man das Produkt. So ist es nun einmal. Ich verstehe Woz Aussagen auch eher so, dass sich diese auf Services wie Social Networks beziehen und nicht auf professionelle Angebote für Unternehmen.

Wichtig ist natürlich, das man immer die Nutzungsbedinungen lesen sollte(…), bevor kritische Daten z.B. auf einem Cloud Storage abgelegt werden. Aber was ist kritisch? Das muss jeder für sich selbst bewerten.


Bildquelle: http://www.heraldsun.com.au

Categories
Kommentar

Der Feind ist mitten unter uns: Das ETSI will den vermeintlich sicheren Cloud Hafen Europa zerstören

Europa verliert seinen Status als vermeintlich sicherer Hafen für Cloud Services. Die Zeiten, in denen Berater, Rechtsanwälte und Datenschützer den Finger vor den Bösen USA heben können sind vorbei. Der Feind ist Mitten unter uns und heißt ETSI (European Telecommunications Standards Institute).

Europa und Datenschutz… Kinder das waren noch Zeiten!

Werden wir wahrscheinlich unseren Kindern und Enkeln erzählen. Lange galt Europa als das Vorbild, wenn es um den Datenschutz ging. Die erste Frage die sich ein Cloud Anbieter von Beratern, Analysten und Kunden gefallen lassen musste war, ob er denn auch ein Rechenzentrum in Europa betreibe. Denn hier kommen die “bösen” USA schließlich nicht an die Daten ran. Aus und vorbei. Geht es nach der ETSI, sind wir alle bald weltweit gleich gestellt, sei es in den USA, Asien, Afrika und ja, sogar in EUROPA!

Wie das ZDF bzw. ORF-Journalist Erich Moechel schreiben, will das ETSI “eine geheime Hintertür für die Cloud”. Dabei soll es darum gehen, den Sicherheitsbehörden das Abhören und Überwachen von Kommunikationsdaten in der Cloud zu erleichtern. Das soll neben Angeboten wie Facebook, Twitter usw. ebenfalls Unternehmensangebote wie die Amazon Web Services, Microsoft Windows Azure und andere Anbieter betreffen. Dazu habe sich das ETSI eine Backdoor überlegt, um unkompliziert den unautorisierten Zugriff zu ermöglichen.

SSL wird ausgehebelt

Bei der ETSI Idee handelt es sich, wie sonst oft diskutiert, allerdings nicht um rechtliche Themen wie bspw. dem “Patriot Act”. Hier geht es um reine Technik. Das ETSI will eine Schnittstelle definieren, mit der europäische Sicherheitsbehörden Zugriff auf die Cloud Services der Anbieter erhalten. Die ETSI-Arbeitsgruppe “TC Lawful Interception” stellt sich die Umsetzung so vor, dass die Internet-Anbieter sämtlichen Verkehr standardmäßig umleiten. Nutzt ein Anwender eine verschlüsselte HTTPS-Verbindung (was mittlerweile Standard ist), soll der Datenverkehr auf spezielle Server in das Rechenzentrum des Internet-Anbieter umgeleitet werden. Hier sollen die Sicherheitsbehörden dann den Zugriff auf die Daten erhalten. Um das zu realisieren, müssen die entsprechenden SSL-Zertifikate ausgehebelt werden. Der ETSI geht es nach eigenen Angaben nur um die Erfassung der Datenkommunikation und nicht um die Kontrolle der Inhalte. Der britische Sicherheitsspezialisten und Leiter des Computer Laboratory der Universität Cambridge Ross Anderson hingegen schreibt nach einer Analyse des ETSI-Entwurfs allerdings: “Wenn man die Infrastruktur baut, auf die sich das ETSI geeinigt hat, kann diese für Überwachungsaktivitäten genutzt werden.”

Willkommen Private Cloud

Wird die Idee Realität ist das Vertrauen in die Public Cloud zerstört und Public Cloud Services – die für das Cloud Computing in Reinform stehen – wären demnach tod! Interessant ist, dass die Marktforscher von Gartner für 2012 ein großes Wachstum in der Public Cloud sehen. Zudem sollen die Ausgaben für Enterprise Public Cloud Services bis 2016 die 207 Milliarden US-Dollar erreichen.

Ziehen wir diese neue Entwicklung heran, wird Gartner seine Prognosen wohl herunterschrauben müssen. Die Bedenken von CIOs, Public Cloud Services zu nutzen, sind derzeit eh schon höher als gedacht. Der Hauptgrund sind die Befürchtungen vor Datenlecks in der Public Cloud. Deutsche Unternehmen werden die Gedanken der ETSI ebenfalls nicht gerne hören. Eine Umfrage von IDC ergab vor kurzem, das ein Drittel der befragten deutschen Unternehmen in 2013 zwischen 26% – 50% ihres IT-Budget in die Private Cloud investieren wollen. Allerdings interessieren sich 90% der Unternehmen nicht(!) für die Public Cloud.


Bildquelle: http://mully1.wordpress.com

Categories
Kommentar

ZDF: Ahnungslosigkeit im technischen Jenseits

Das ZDF scheint aus den Problemen, die sie während der WM 2010(!) hatten, keine Lehren gezogen zu haben. Zumindest liest sich so ein Kommentar von Eckart Gaddum, verantwortlich für die Neuen Medien im ZDF.

Rückblick: WM 2010

Während des Spiels Deutschland gegen Serbien bei der WM 2010 konnte man als Zuschauer ein klassisches Szenario erleben, wo Cloud Computing hätte helfen können. Das ZDF übertrug das WM Spiel ab 13:30 Uhr, also zu einer Uhrzeit wo die Vielzahl der Menschen in Deutschland arbeiten muss. Parallel zur Fernsehübertragung existiert(e) ganz modern ebenfalls ein Live Stream, erreichbar über die Internetseite des ZDF – http://zdf.de. Die Vorberichte des Spiels wurden stabil übertragen. Es wurde nicht einmal der Eindruck vermittelt, einen Internet Stream zu sehen. Doch bereits während der Nationalhymnen brach der Stream zusammen!

ZDF: Stand 2012

Zusammen mit der ARD bietet das ZDF zusätzlich zum Fernsehprogramm ebenfalls bis zu sechs weitere Olympia Sportarten live über das Internet an. Dabei griffen am 28. Juli über 1,6 Millionen auf die Highlightvideos zu. Live schauten knapp über eine Million zu.

Und jetzt kommt Herr Gaddum: “Kurzzeitig – wie gestern beim Tischtennis – hat uns das große Interesse der Leute auch schon mal in die Knie gezwungen. Mit einem solchen Ansturm haben selbst wir nicht gerechnet.” Das ZDF plant seine Systeme aufzurüsten, aber man höre: “Und dennoch können wir nicht jeden Nutzungs-Peak vorausahnen – das ist eben das Netz“, so Gaddum.

Ahnungslosigkeit im technischen Jenseits

Sehr geehrter Herr Gaddum, Sie müssen nicht jeden Nutzungspeak vorausahnen können. Denn Sie haben es richtig erkannt, das Netz ist unberechenbar. ABER, es gibt Technologien und Systeme, die Ihnen dabei helfen und Ihnen das Vorausahnen abnehmen. Schauen Sie doch mal wie es der moderne Mittbewerb wie bspw. Netflix macht.

In diesem Sinne.

Categories
Kommentar

Hört endlich mit eurem CloudWashing auf! Ihr habt eh verloren!

Ich war einer der ersten der den Terminus CloudWashing öffentlicht verwendet hat. Da es mich einfach wahnsinnig nervt, wie die klassischen Webhoster usw. die Unwissenheit der Anwender nutzen, um sie zu betrügen!

Das ist Cloud Computing

Ich hatte hier bereits 2010 beschrieben, worauf man bei einem echten Cloud Service achten sollte.

  • On Demand:
    Ich beziehe die Ressourcen zu dem Zeitpunkt, wenn ich Sie auch tatsächlich benötige. Anschließend “gebe ich sie wieder zurück”.
  • Pay as you Go:
    Ich bezahle nur für die Ressourcen, die ich auch tatsächlich nutze, wenn ich sie nutze. Dabei wird entweder z.B. pro Benutzer, pro Gigabyte oder pro Minute/ Stunde abgerechnet.
  • Keine Grundgebühr:
    Bei einem Cloud Computing Angebot zahle ich keine monatliche/ jährliche Grundgebühr!
  • Hohe Verfügbarkeit:
    Wenn ich die Ressourcen benötige, kann ich sie zu diesem Zeitpunkt auch nutzen.
  • Hohe Skalierbarkeit:
    Die Ressourcen lassen sich automatisiert meinen Bedürfnissen anpassen. Das bedeutet, dass sie entweder mit meinen Ansprüchen wachsen, wenn ich mehr Leistung benötige oder sich verkleinern, wenn die Anforderungen wieder abnehmen.
  • Hohe Zuverlässigkeit:
    Die von mir genutzten Ressourcen sind zu dem Zeitpunkt wenn ich sie nutze tatsächlich verfügbar, worauf ich mich verlassen kann.
  • Blackbox:
    Ich muss mich nicht darum kümmern, wie es im Inneren des Cloud Angebots aussieht. Ich nutze einfach den Service über eine offene, gut dokumentierte Schnittstelle.
  • Automatisierung:
    Nachdem ich eine Grundeinrichtung bzgl. meiner Bedürfnisse vorgenommen habe, sind von mir keine weiteren manuellen Eingriffe während der Nutzung des Angebots notwendig. Ich muss z.B. die Leistung der Server oder die Größe des Speicherplatzes nicht manuell anpassen. Dafür werden mir Möglichkeiten zur Automation bereitgestellt.
  • Zugriff über das Internet:
    Darüber kann diskutiert werden. Allerdings ist der Kostenvorteil den man durch Cloud Computing erhält obsolet, wenn eine teure exklusive Mietleitung benötigt wird, um bspw. die Ressourcen eines Anbieters zu nutzen.
  • Keine zusätzlichen Installationen:
    Bei einem SaaS Angebot erfolgt die vollständige Nutzung über den Webbrowser ohne dabei eine weitere Softwarekomponenten wie z.B. Java (Umgebung) installieren zu müssen.

Das ist CloudWashing

Twinstrata hat den Spieß umgedreht und beschrieben, was acht sichere Zeichen dafür sind, dass der Anbieter CloudWashing betreibt.

    8. Das Produkt wird auf vier Paletten in einem Mack Truck geliefert.
    7. Die Rechnung für die Kühlung verdoppelt sich und freie Flächen verschwinden.
    6. Auf der Verpackung befindet sich ein “Cloud” Aufkleber.
    5. Statt es gewünschten Pay-as-you-go Modells erhält man einen “36 monatigen Ratenzahlungsplan”.
    4. Die on-Demand Erweiterung erfolgt 90 Tage nach dem Kontakt mit einem Vertriebsmitarbeiter.
    3. Die Telefonnummer für On-Demand-Erweiterung ist ständig besetzt.
    2. Deine Berufsbezeichnung lautet nun “Cloud Administrator”, aber Du machst das gleiche wie zuvor.

    und zu guter letzt:

    1. Nach zwei Jahren ruft der Vertriebsmitarbeiter an um zu sagen: “Upgrade time!”

Hört auf mit dem CloudWashing! Ihr habt eh verloren!


Bildquellen: http://community.service-now.com, http://blogspot.com

Categories
Kommentar

Dein Cloud Services Setup

Inspiriert von Karsten Sauers Blogparade zum Thema Social Media Setup, möchte ich mit diesem Artikel nun eine Eigene mit dem Fokus auf die Nutzung von Cloud Services starten. Dabei interessiert mich, welche Services wofür genutzt werden und wie intensiv das passiert, also ob es darum geht den Service erst einmal zu evaluieren oder ob es sich um den produktiven Einsatz handelt. Dabei steht zum einen die private Nutzung aber bevorzugt der Einsatz im Unternehmensumfeld im Vordergrund.

Fragen über Fragen

Wie ich eingangs erwähnt habe, interessiert mich insbesondere die geschäftliche Nutzung, also wie ihr bei der Arbeit Cloud Services einsetzt, um bestimmte Herausforderungen zu bewältigen. Aber natürlich ist auch die private Nutzung interessant, da sich insbesondere durch die Cloud die Arbeitswelt und das private Umfeld mehr und mehr verschmelzen. Ich würde gerne Wissen: Was sind eure bevorzugten Services (privat, geschäftlich)? Welche Probleme löst ihr damit? Welche Vorteile habt ihr dadurch? Welche Probleme habt ihr durch die Nutzung bekommen? Schreibt einfach eure Success Story oder die Lessons Learned.

Wie Karsten es im Bereich Social Media gemacht hat, möchte ich gerne euer Cloud Services Setup portraitieren. Wenn ihr Interesse habt, dann schickt mir einfach eine E-Mail mit Antworten zu den unten genannten Fragen an cloud-setup@clouduser.org. Ich werde die Infos dann umgehend auf CloudUser veröffentlichen.

  • Wer bist Du?
  • Was machst Du?
  • Wie sieht Dein Cloud Services Setup (privat, beruflich) aus?
  • Wie lautet Deine Sucess Story oder die Lessons Learned?

Bildquelle: http://wunderground.com

Categories
Kommentar

Zurück in die Cloud: Terminals und Mainframes bekommen ihr Update 2.0

Seitdem die ersten Cloud Lösungen auf dem Markt erschienen sind, hat sich bis heute vieles weiterentwickelt. Viele Anbieter versorgen uns mittlerweile täglich mit neuen Services. Auch Unternehmen, die traditionell nicht aus dem Cloud Computing Umfeld kommen, konzentrieren ihre Geschäftsmodelle verstärkt auf Lösungen aus der Cloud und bauen ihre Angebote darauf auf. Ebenso verhält es sich mit der Art wie wir in Zukunft bzw. bereits arbeiten oder im privaten Umfeld mit neuen mobilen Technologien umgehen. Wo die älteren Semester vereinzelnd bestimmt noch mit Terminals und Mainframes gearbeitet haben, wird die jüngere Generation diese Technologien nur aus dem Museum kennen. Aber aufgepasst wir erleben eine Revolution. Es geht nämlich “Zurück in die Cloud”.

Terminals und Mainframes für die Masse

Blicken wir auf die Vergangenheit zurück, hatte immer nur eine ausgewählte Gruppe an Unternehmen und Menschen Zugriff auf Rechenleistung usw., die durch Mainframes bereitgestellt und auf die per Terminals zugegriffen wurde. Dabei handelte es sich zum einen um große Unternehmen, zum anderen um Universitäten und Forschungseinrichtungen. Allerdings musste die Nutzung der Mainframes teuer bezahlt werden, denn Rechenleistung war Luxus.

Seit 2006 ist Rechenleistung und der Zugriff auf Speicherplatz, Anwendungen und IT-Ressourcen im Allgemeinen für die breite Masse zugänglich. Selbst wenn die Zielgruppe anfangs eher klein war, gehörte diese nicht mehr zu einer Gruppe von Auserwählten. Jeder der möchte darf heute auch – wenn er dazu in der Lage ist und das zu moderaten Preisen.

Terminals 2.0

Nicht zuletzt durch die Chromebooks und Chromebox von Google erleben die Terminals eine Revolution. Mit Googles ChromeOS verschwindet das lokale Betriebssystem und wandert in Googles Cloud, von wo sämtliche Anwendungen und Daten bereitgestellt werden. Das Chromebook bzw. die Chromebox sind lediglich nur noch ein Stück “dumme” Hardware mit einem Monitor sowie einer Tastatur/ Maus. Das Betriebssystem selbst wird über die Cloud geliefert. Schlussendlich ist Googles Chromebook Ansatz eine Weiterentwicklung der Terminal Services, die in den 90ern und z.T. bis heute noch gerne in Unternehmen eingesetzt werden, um den Mitarbeitern eine vollständige und vorkonfigurierte Arbeitsumgebung schnell bereitzustellen. Allerdings beschränkte sich dieses Konzept bisher nur auf das eigene Unternehmensnetz. Google geht einen Schritt weiter und macht die Terminals zu 100% mobil. Möglich machen es die heutzutage mobilen Datenverbindungen und WLAN Netze.

Neben Google gibt es natürlich weitere Anbieter, die Cloud Desktops bzw. Desktop-as-a-Service Lösungen anbieten, um darüber komplette Arbeitsumgebungen aus einer Cloud bereitzustellen.

Aber auch ohne Chromebooks oder explizite Cloud Desktops/ Desktop-as-a-Service Angebote sind wir nicht mehr auf unser lokales Betriebssystem angewiesen. Heutzutage reicht ein Browser, um Anwendungen (Software-as-a-Service, SaaS) zu nutzen, Daten zu speichern oder darauf zuzugreifen.

Mainframes 2.0

Die Amazon Web Services (AWS) wiederum haben die Mainframes revolutioniert. Was noch vor ein paar Jahren unvorstellbar war ist nun Wirklichkeit. Kreditkarte raus und her mit der Rechenleistung (Infrastructure-as-a-Service, IaaS). So einfach ist es wirklich. Bei der Umsetzung sollte man jedoch behutsam vorgehen.

Neben Rechenleistung können mittlerweile natürlich viele weitere Services über die Cloud genutzt werden. Speicherplatz, Geschäftsprozesse, Anwendungslogik bis hin zu ganzen Anwendungen (Platform-as-a-Service, PaaS) lassen sich in die Cloud auslagern. Neben Amazon gibt es mit Microsoft Windows Azure, Rackspace oder Google natürlich noch viele weitere Cloud Anbieter.

Was viele zudem nicht wissen. Jeder nutzt heute in irgendeiner Form die Cloud bzw. Cloud Anwendungen. So setzen beliebte Angebote wie Pinterest, SoundCloud, Instagram oder mobile Apps auf Cloud Infrastrukturen, um damit auf mögliche Besucheranstürme vorbereitet zu sein, bzw. hohe Investitionskosten in IT-Infrastruktur zu vermeiden.

Zurück in die Cloud

Die technologische Entwicklung die uns das Cloud Computing beschert, zeigt einen Trend der Informationstechnologie hin zu dem Motto “back to the roots” oder viel besser “back to the cloud”. Wie ich Eingangs beschrieben habe, wurde in den Anfängen der “vernetzten” Informationstechnologie die IT-Infrastruktur um einen Mainframe aufgebaut an dem Terminals angeschlossen waren. Terminals zeichneten sich dadurch aus, dass diese über lediglich einen Monitor und Eingabegeräte verfügten – aber über keinen lokalen Speicher oder eine nennenswerte Intelligenz. Diesem alten Ansatz steht im Grunde der einzige Unterschied gegenüber, dass der Mainframe i.d.R. im eigenen Rechenzentrum stand, da Bandbreiten mit heutigen Maßstäben nicht vergleichbar bzw. nicht finanzierbar waren. Mit der Revolution durch das Cloud Computing und den schnellen und allgemein stabilen Datenverbindungen kann die Hardware als auch Software heute überall stehen.


Bildquelle: http://bengene.blogspot.de