Categories
News

Wenn der Kuchen spricht, haben die Krümel Pause: So sieht Amazon CTO Werner Vogels die Cloud in 5 Jahren

Er ist der weltweit einflussreichste Manager, wenn es um das Thema Cloud Computing geht und wird vereinzelnd schon als Cloud Rockstar bezeichnet, Amazon CTO Werner Vogels. Werner ist die treibende Kraft hinter den Amazon Web Services und hatte mit seiner damaligen Dissertation “Scalable Cluster Technologies for Mission-Critical Enterprise Computing” zumindest im Geiste bereits die Amazon Cloud geschaffen. Auf der diesjährigen GigaOM Structure 2012 warf er einen Blick in sein Orakel und erzählte wie sich die Cloud seiner Meinung nach von heute bis ins Jahr 2017 verändern wird.

Die Amazon Web Services werden noch günstiger

Werner verspricht, das Amazon in Zukunft sein Preismodell weiterhin verbessern wird. “Wenn man zurück schaut, sieht man, dass wir unsere Preise bereits 20 mal verringert haben. Das Beste ist, dieses auch weiterhin zu tun. Das ist unser Ziel.”

Die Startup Szene wird sich weiter vergrößern

Das Amazon Startups liebt, wissen wir ja bereits. Mit Socialcam, Pinterest und Instagram nennt er nur ein paar Beispiele von jungen Unternehmen, die sich die Cloud zu nutze gemacht haben, um auf ihr schnell skalieren zu können und freut sich schon auf weitere neue Startups. Werner nennt dieselben Argumente, die auch ich immer gerne wieder nutze. “Wären sie in der Lage gewesen ihre Unternehmen in einer traditionellen Welt von Hardware und Infrastruktur aufzubauen? Ich denke nicht! Wir werden viele junge Unternehmen sehen, die völlig neue Dinge bauen werden.”

CIOs werden auf junge Unternehmen hören

Wenn es um IT-Lösungen geht, die erst durch die Cloud entstanden sind, “werden CIOs bereit sein, auf junge Unternehmen zu hören.” “Vor fünf Jahren hätten sie nur mit den großen Jungs gesprochen.” Dies wird sich weiter verändern.

Alte Hardware Unternehmen werden gegen das Aussterben kämpfen

HP und die anderen klassischen Hardware Unternehmen müssen sich anpassen um zu überleben. “Ich glaube wenn Unternehmen wirklich eine neue Cloud-Mentalität verinnerlichen – nicht nur eine Cloud im Angebot haben, sondern ein echter Partner für ihre Kunden sind statt nur ein Verkäufer zu sein – und Ihnen helfen Kosten einzusparen, werden CIOs sich auch junge Unternehmen anschauen, die überall auftauchen.” “Ich sehe CIOs die mittlerweile bereit sind mehr Risiko einzugehen”, so Werner. “Wenn sich Dinosaurier nicht verändern, nun ja wir wissen was mit den Dinosaurier passiert ist.”

Werner Vogels Video auf der GigaOM Structure 2012

Watch live streaming video from gigaomstructure at livestream.com

Bildquelle: http://www.allthingsdistributed.com

Categories
News

Armutszeugnis: Cloud Computing Ausfälle haben seit 2007 mehr als 71 Million US-Dollar an Kosten verursacht.

Seit 2007 haben 568 Stunden Ausfallzeit von 13 namhaften Cloud Services mehr als 71.700,000 US-Dollar an Kosten verursacht, das sagt zumindest die International Working Group on Cloud Computing Resiliency (IWGCR). Dabei liegt die durchschnittliche Nichtverfügbarkeit von Cloud Services bei 7,5 Stunden pro Jahr. Das entspricht einer garantierten Verfügbarkeit von 99,9 Prozent, die weit weg von dem liegt, was von geschäftskritischen Systemen (99,999 Prozent) erwartet wird. Im Vergleich dazu beträgt die durchschnittliche Nichtverfügbarkeit von Strom in einer modernen Großstadt weniger als 15 Minuten pro Jahr. Ein Armutszeugnis für die Public Cloud Anbieter?

Mit “Availability Ranking of World Cloud Computing (ARWC)” handelt es sich um die erste Publikation der im März 2012 von ParisTech und 13 pariser Universitäten gegründeten Gruppe. Grundlage ihrer Forschung sind Presseberichte von Cloud Computing Ausfällen von Services wie Twitter, Facebook, Amazon, Microsoft, Google, Yahoo, Paypal und Weiteren.

Public Cloud Anbieter stehen unter Druck

Seit die Cloud Anbieter damit begonnen haben, immer mehr staatliche Einrichtungen und weltweit agierende Unternehmen anzusprechen wird es zunehmend wichtiger, dass die bereitsgestellten Services zuverlässig arbeiten, insbesondere dann, wenn es sich um geschäftskritische Systeme handelt. Das scheinen die Cloud Anbieter aber scheinbar nicht zu 100% verinnerlicht zu haben.

Die Kosten pro Ausfall sind nicht zu vernachlässigen

Die Forscher fanden heraus, dass die Kosten für einen einstündigen Ausfall variieren. Der Reiseanbieter Amadeus hätte demnach mit 89.000 US-Dollar zu rechnen, Paypal hingegen mit 225.000 US-Dollar pro Stunde. Die Zahlen basieren auf den stündlichen Kosten, mit der die jeweilige Industrie in ihrem Markt rechnet. Ausfälle bei Unternehmen wie Google, Microsoft und Amazon belaufen sich, laut den Forschern, auf schätzungsweise 200.000 US-Dollar pro Stunde.

Neben den wirtschaftlichen Auswirkungen für den Service Anbieter, sollte hier aber nicht der Kunde aus den Augen verloren werden. Der ist viel wichtiger! Manche Ausfälle haben sich schließlich schon über mehrere Tage hingezogen.

Der Zustand ist wahrscheinlich noch viel schlimmer

Die Forscher merken an, dass ihre Vorgehensweise nicht perfekt sei, da die vorliegenden Informationen bei weitem nicht vollständig seien. Sie gehen daher davon aus, das sie die vorliegenden Zahlen wahrscheinlich unterschätzen. Viele Ausfälle wurden von der Presse nicht publiziert, was viel Platz für weitere bietet. Darüber hinaus standen den Forschern ebenfalls nicht die exakten Werte für die wirtschaftlichen Kosten pro Ausfall oder die durchschnittlichen Kosten pro Stunde von jedem Cloud Anbieter zur Verfügung.

Liebe Anbieter entschädigt richtig!

Wie ich erst vorgestern geschrieben habe, sind Public Cloud Ausfälle nun einmal öffentlich. Probleme in einem privaten Rechenzentrum interessieren niemanden. Kein Journalist würde darüber berichten, da es einfach langweilig ist und keine Leser anziehen würde.

Aber der “Witz” an der ganzen Cloud Ausfall Geschichte ist, dass die Cloud Anbieter lediglich die Kosten für den Zeitraum, in welchem der Service nicht verfügbar war, erlassen. So haben Azure Nutzer für den Ausfall am 29. Februar eine Gutschrift über 33% erhalten. Amazon ist hier nicht besser.

Es ist ja schön und gut und vor allem zwingend erforderlich, dass man als Nutzer zumindest nicht einen Service berechnet bekommt, der nicht funktioniert. Wo kommen wir denn dahin: Pay as you go! Aber die Cloud Anbieter müssen hier etwas ändern, sonst werden sie von Seiten der Kunden früher oder später ihr blaues Wunder erleben. Sie müssen sich an dieser Stelle mit mehr Transparenz und Glaubwürdigkeit durch eine strengere Selbstkontrolle und Verpflichtung gegenüber ihren Kunden abheben.

Die Erstattung der Kosten für einen nicht verfügbaren Service ist das eine. Aber wie schaut es mit Vertragsstrafen aus, wenn ich als Unternehmen auf Grund des Ausfalls meinen Kunden wiederum nicht die erwartete Serviceleistung erbringen kann und von diesem wiederum in Regress genommen werde bzw. wenn ich dadurch Umsatzeinbußen habe. Hier halten sich die Cloud Anbieter derzeit (noch) schön raus. Ich denke hier gibt es eine Menge Stoff für Diskussionen. Rechtsanwälte bitte zuerst. 😛


Bildquelle: http://www.deerns.nl

Categories
Kommentar

Der Himmel weint. Nicht! Public Cloud Ausfälle sind nun einmal öffentlich.

Die Cloud der Amazon Web Services (AWS) hatte am Ende der letzten Woche, genauer am Abend des 14. Juni zu US-amerikanischer Zeit, erneut mit Problemen zu kämpfen. Nach Angaben von AWS handelte es sich dabei um ein defektes Stromkabel eines Hochspannungsverteilers im Rechenzentrum in North Virginia.

Nicht der erste Ausfall

Zwar habe die Notstromversorgung zunächst funktioniert, jedoch habe sich dann der erste Generator überhitzt. Der zweite Generator übernahm zwar kurzzeitig, fiel aber ebenfalls wegen eines Konfigurationsfehlers an einem Schalter aus. Dadurch waren sämtliche Amazon EC2 Services und die EBS-Volumes nicht mehr mit Strom versorgt und vielen aus.

Es ist nicht der erste Ausfall von AWS. In den letzten 1,5 Jahren hat der Cloud Anbieter bereits drei Stück zu verzeichnen. Der erste war auf einen manuellen Fehler durch eine fehlerhafte Routerkonfiguration zurückzuführen, der zu einer Kaskade von Fehlern führte. Der zweite kurzzeitige Ausfall, über den in den deutschen Medien nicht berichtet wurde, lag an einer defekten Datenleitung, die das Rechenzentrum US-EAST-1 mit dem Internet verbindet.

Fragt mal euren Admin

Ich möchte diesen erneuten Ausfall auf keinen Fall kleinreden. Amazon ist Serviceanbieter und muss sicherstellen, dass das Angebot zuverlässig genutzt werden kann. Natürlich ruft so eine Situation wieder die Kritiker an die Front. Cloud sei unsicher und doch nicht zu gebrauchen und damals war ja eh alles besser und wenn man es selbst macht passiert so etwas nicht.

Liebe Kritiker, fragt mal euren Admin wie oft es Ausfälle im Rechenzentrum eures Unternehmens gibt. Oder besser, fragt ihn mal wie oft die Backupsysteme getestet werden. Die Antwort zur ersten Frage: Häufiger als ihr denkt. Die Antwort zur zweiten Frage: Niemals, denn um solche Szenarien duchzuspielen bedarf es Zeit. Ich bin mir sehr sicher, das Amazon regelmäßig Fehlersituation durchspielt. Aber ein fehlerhaftes Kabel? Ok, die Kaskade an Fehlern, die während zwei Ausfällen aufgetreten sind ist wirklich seltsam. Wenn es zu einem Problem kommt, dann halt richtig…

Dennoch, Amazon leistet wirklich sehr gute Pionierarbeit. Meiner Ansicht nach gehören sie derzeit zum besten was die Cloud Computing Welt zu bieten hat. AWS legt vor und die anderen Anbieter ziehen nach. So sieht es momentan aus.

Public bedeutet nun einmal öffentlich

Natürlich sind solche Fehler nicht zu entschuldigen und schaden das Ansehen des Cloud Computing. Allerdings stehen Public Cloud Anbieter nun einmal in der Öffentlichkeit. Wenn Microsoft mit Windows ein Problem hat, wird es in den Medien ebenfalls breitgetreten. Ein Anbieter mit einem eher unbekannten Produkt bleibt da unbeachtet.

Daher sollte man sich immer vor Augen halten, was tagtäglich in den weltweit verteilten Rechenzentren passiert, insbesondere in denen, die von privaten Firmen betrieben werden. Kommt sowas an die Öffentlichtkeit? Natürlich nicht, weil es niemanden interessiert. Daher meine Bitte, wenn ein Ausfall zu beklagen ist, stellt nicht immer gleich das gesamte Cloud Computing Konzept in Frage, sondern stellt euch lieber die Frage, wie es gerade im RZ eures Unternehmens vielleicht aussieht.

Ich würde gerne mal eine Studie über die Ausfälle von privat betrieben Rechenzentren erstellen, um einen Vergleich zu Public Cloud Rechenzentren zu haben. Allerdings glaube ich, dass die Datenerhebung sich äußerst schwierig herausstellen wird.


Bildquelle: http://tecbiz.blogspot.com

Categories
News

Erneute Probleme in der Amazon Cloud – Ausfall bei den Amazon Web Services in North Virginia

Wie GigaOm berichtet, hatten die Amazon Web Services am Donnerstag wieder mit einem Ausfall zu kämpfen, von dem Webseiten und Services wie Quora und HipChat betroffen waren. Zudem soll der Ausfall auch Heroku, einem Ableger von Salesforce, getroffen haben.

Amazon gehört zu den größten Infrastruktur Anbietern von vielen bekannten und mittlerweile sehr populären Services wie Pinterest und Dropbox. Von dem Ausfall waren die AWS Services Amazon EC2 und Amazon RDS betroffen, der in Amazons Rechenzentrum in North Virginia aufgetreten ist. Weitere Services wie ElastiCache und Elastic Beanstalk hatten in North Virginia ebenfalls mit Problemen zu kämpfen. Der Ausfall ist scheinbar auf einen Stromausfall zurückzuführen.

Folgende Informationen konnten über die AWS Status Webseite abgerufen werden:

Amazon EC2

We continue to investigate this issue. We can confirm that there is both impact to volumes and instances in a single AZ in US-EAST-1 Region. We are also experiencing increased error rates and latencies on the EC2 APIs in the US-EAST-1 Region.

9:55 PM PDT We have identified the issue and are currently working to bring effected instances and volumes in the impacted Availability Zone back online. We continue to see increased API error rates and latencies in the US-East-1 Region.

Amazon RDS

9:33 PM PDT Some RDS DB Instances in a single AZ are currently unavailable. We are also experiencing increased error rates and latencies on the RDS APIs in the US-EAST-1 Region. We are investigating the issue.
10:05 PM PDT We have identified the issue and are currently working to bring the Availability Zone back online. At this time no Multi-AZ instances are unavailable.
00:11 AM PDT As a result of the power outage tonight in the US-EAST-1 region, some EBS volumes may have inconsistent data.
01:38 AM PDT Almost all affected EBS volumes have been brought back online. Customers should check the status of their volumes in the console. We are still seeing increased latencies and errors in registering instances with ELBs.

GigaOm hat ebenfalls ein paar Tweets herausgesucht:

Mein Lieblingstweet ist übrigens dieser, der perfekt zu meinem kürzlich verfassten Artikel “Amazon Web Services – Das Mekka der Startups! Aber reicht das wirklich aus?” passt und meine Ansicht bestätigt:

Nicht der erste Ausfall in der Geschichte der Amazon Web Services

Dieser Ausfall ist nicht der Erste in der Geschichte der Amazon Web Services. Erinnern wir uns an Ostern 2011 und einem kurzen Ausfall im März 2012. Ihre solltet also aus solchen Situationen lernen und nicht alle Eier in ein Nest legen, sondern die kritischen Daten breit verteilen. Am besten über mehrere Anbieter hinweg.

Dennoch stehe ich weiter hinter meiner Aussage, dass solche Ausfälle nur so extrem an die Öffentlichkeit geraten, da Cloud Anbieter nun einmal in der Öffentlichkeit stehen und Millionen von Augen ausgesetzt sind. Wie viele privat betriebene Rechenzentren haben wohl heute ein Problem gehabt, was meint ihr?


Bildquelle: http://www.loggly.com

Categories
News

Die Amazon Web Services überarbeiten ihre Support Angebote

Nachdem mit HP und Oracle nun zwei große der Branche ebenfalls beim Cloud Computing mitspielen, haben die Amazon Web Services (AWs) ihre Support Angebote überarbeitet. AWS hat entsprechend die Preise für seinen Premium Support verringert und wird seinen Gratis Support ausweiten.

Neben den Startups versucht Amazon seit längerer Zeit vehement auch einen Fuß bei den Enterprise Kunden in die Tür zu bekommen. Allerdings haben etablierte Anbieter wie HP und Oracle bereits mehr Erfahrung im Support für Unternehmenskunden und werden das als ein Unterscheidungsmerkmal zu Amazon sehen und bewerben. Kein Wunder also, das AWS hier nachziehen muss.

Die neuen AWS Support Angebote gliedern sich in Zukunft wie folgt:

  • Basic: Kostenloser 24×7 Support für alle AWS Kunden. Das beinhaltet Kontakt zum Kundenservice bzgl. Problemen mit dem Account und der Abrechnung sowie einem technischem Support für Probleme des AWS Systems. Darüber hinaus stehen mit technischen FAQs, Best Practise Guidelines und dem AWS Service Health Dashboard, ebenfalls die offiziellen AWS Entwickler Foren offen.
  • Developer: Ist vergleichbar mit einem Bronze Support und bietet für 49 US-Dollar pro Monat einen 1:1 E-Mail Kontakt mit Experten von AWS während der normalen Geschäftszeiten. Dazu gehören die Hilfe bei der Konfiguration, dem Betrieb und der Wartung von Applikationen, welche die Kernfunktionen- und Services von AWS nutzen.
  • Business: Nannte sich vormals Gold Support und beinhaltet den Basic und Developer Support. Hinzukommen ein 24/7 Telefon-, E-Mail und Chat-Support inkl. einer Reaktionszeit von einer Stunde sowie die Unterstützung durch einen AWS Trusted Advisor, der für die Überwachung zuständig ist und bei einem optimalem Betrieb hilft. Der Support deckt zudem die Lösungen von Drittanbietern wie E-Mail- und Datenbanklösungen ab. Die Kosten betragen ab sofort 100 US-Dollar pro Monat (vormals 400 US-Dollar) plus 3%-10% von den monatlichen Kosten für die Nutzung der AWS Infrastruktur.
  • Enterprise: Nannte sich zuvor Platinum Support und wird nun pro Nutzung abgerechnet. AWS garantiert hier eine Reaktionszeit von 15 Minuten nach Eingang des Problems, einen persönlichen technischen Ansprechpartner sowie Zugang zu AWS Architekten und Beratern.

Die neue Kostenstruktur für den AWS Support

Die Amazon Web Services überarbeiten ihre Support Angebote


Bildquelle: http://www.activegarage.com/

Categories
News

Amazon S3 erreicht 1 Billion gespeicherte Objekte

Die Grenze ist geknackt. Seit dem Ende der letzten Woche sind über eine Billion Objekte (1.000,000,000,000) im Cloud Storage Amazon S3 gespeichert. Jeff Barr vergleicht die Zahl mit etwa 142 Objekte die damit auf jedem Erdbewohner anfallen würden, oder 3,3 Objekte für jeden Stern in unserer Galaxie. Würde man ein Objekt pro Sekunde zählen, wäre man damit 31.710 Jahre beschäft alle zu zählen. Beeindruckend!

Amazon S3 erreicht 1 Billion gespeicherte Objekte

1 Billion Objekte entstehen nicht von alleine

Verantwortlich für diese atemberaubende Zahl, Amazon S3 existiert erst seit 6 Jahren, sind natürlich die Kunden. Trotz neuer Funktionen wie Amazon S3 – Object Expiration, mit der einzelne Objekte quasi ein Verfallsdatum erhalten, und wodurch bereits über 125 Milliarden Objekte gelöscht wurden, hat die Datenmenge explosionsartig zugenommen.

Natürlich entstehen solche Datenmengen nicht von alleine und Amazon trägt mit neue Funktionen wie bspw. dem API Zugriff auf die Abrechnungsdaten sein übliches dazu bei, dass immer mehr Daten gespeichert werden müssen. Dennoch ist diese hohe Frequenz nicht verwunderlich. Amazon S3 ist nun einmal der Dreh und Angelpunkt in der Amazon Cloud, wenn es darum geht “irgendetwas” permanent zu speichern.


Bildquelle: http://www.businesscomputingworld.co.uk

Categories
News

AWS Identity and Access Management (IAM) Rollen für EC2 Instanzen

Amazon erweitert seinen AWS Identity and Access Management (IAM) Service um Rollen für Amazon EC2 Instanzen. Das schreibt das Unternehmen auf seinem Blog. Die neue Funktion ermöglicht den sicheren API-Zugriff von Amazon EC2 Instanzen auf andere AWS Services.

Bisher mussten die Access Keys in irgendeiner Form sicher auf die EC2 Instanzen transportiert und dort hinterlegt werden. Das stellt insbesondere beim Aufbau großer skalierbarer Infrastrukturen eine Herausforderungen dar. Zudem muss sichergestellt werden, dass sich die Schlüssel regelmäßig ändern. Die neuen IAM Rollen für EC2 Instanzen kümmern sich ab sofort automatisch um beides. Dazu wird eine IAM Rolle erstellt und diese den entsprechenden Berechtigungen zugewiesen. Die EC2 Instanzen müssen anschließend mit dieser Rolle gestartet werden. Anschließend sorgt das System dafür, das die jeweiligen Access Keys mit den vorher zugewiesenen Berechtigungen auf den EC2 Instanzen hinterlegt sind.

IAM Rollen für EC2 Instanzen können mit folgenden Ressourcen genutzt werden:

  • Alle EC2 Instanten
  • Linux und Windows Instanzen
  • Alle AMIs
  • Amazon VPC
  • Spot und Reserved Instances
  • Regionen: Nordamerika, Südamerika, Europa, Asien/Pazifik

Das Rollenkonzept wurde ebenfalls in die Services Auto Scaling und AWS CloudFormation integriert, wodurch auch diese nun EC2 Instanzen inkl. IAM starten können. Die Unterstützung für AWS GovCloud wird demnächst folgen.


Bildquelle: http://www.busmanagement.com

Categories
News

Amazon Spot Instanzen unterstützen nun Auto Scaling und CloudFormation

Die Amazon EC2 Spot Instances können nun auch zusammen mit dem Auto Scaling und der AWS CloudFormation genutzt werden. Das schreibt AWS auf seinem Unternehmensblog. Weiterhin stehen neue Code Beispiele bereit, mit denen gezeigt wird, wie die Amazon SNS genutzt werden können, um sich über Änderungen an den Spot Instance Preisen informieren zu lassen.

Amazon Spot Instances unterstützen nun Auto Scaling und CloudFormation

Auto Scaling mit Spot Instances

Anhand der Auto Scaling Funktion lässt sich jetzt auch die Anzahl der EC2 Spot Instances bei Bedarf automatisch skalieren. Mit Spot Instances bietet ein Kunde auf ungenutzte Amazon EC2 Kapazitäten. Dazu teilt man Amazon mit, welche EC2 Instanz man gerne haben möchte und was man bereit ist dafür zu bezahlen. Anhand von Angebot und Nachfrage wird ein Spot-Preis ermittelt.

AWS CloudFormation mit Spot Instances

EC2 Spot Instances lassen sich zudem nun auch über AWS CloudFormation Templates bereitstellen. Dazu stellt AWS entsprechend drei neue CloudFormation Templates zur Verfügung, um den Einstieg zu vereinfachen. Diese Templates beinhalten bspw. ein Template für die Verwaltung der asynchronen Verarbeitung mit Amazon SQS und Auto Scaling, ein Template für den Lasttest von Webseiten zusammen mit “Bees with Machine Guns” und Auto Scaling sowie einem Template für das Grid Computing in Verbindung mit StarCluster.

Neue Code Beispiele für Amazon SNS

Mit einem neuen Code Beispiel werden zudem nun Möglichkeiten gezeigt, wie man Amazon SNS Benachrichtigungen erstellen und verwalten kann, wenn sich der Status von Amazon EC2 Spot Instanzen oder der Preis von Spot Instanzen in einer bestimmten Region ändert.

Categories
News

AWS ermöglicht ab sofort API Zugriff auf die Abrechnungsdaten

Fast kein Tag, an dem bei den Amazon Web Services (AWS) nichts passiert. Der Innovationsgrad ist erschreckend hoch. Da lohnt sich ja fast ein eigener AWS Blog. 😉 Mit der neuesten Funktion bietet Amazon nun den programmatischen Zugriff via API auf die Abrechnungsdaten.

AWS ermöglicht ab sofort API Zugriff auf die Abrechnungsdaten

Dafür muss dem AWS Billing System zunächst der Schreibzugriff auf einen Amazon S3 Bucket (Ordner) gegeben werden. Anschließend muss der programmatische Zugriff hier freigeschaltet werden.

Ist die Einrichtung erfolgt, legt Amazon mehrmals täglich eine Rechnung mit den voraussichtlichen Kosten in den angegeben S3 Bucket ab, wo diese heruntergeladen und weiterverarbeitet werden können. Am Ende einer jeden Abrechnungsperiode wird dort zudem die endgültige Rechnung bereitgestellt.

Folgende Parameter können aus den Abrechnungsdaten abgefragt werden. Detaillierte Informationen stehen hier:

  • Invoice ID
  • Payer Account Name and ID
  • Linked Account Name and ID (for Consolidated Billing)
  • Record Type
  • Record ID
  • Billing Period Start and End Dates
  • Invoice Date
  • Taxation Address
  • Payer Purchase Order Number
  • Product Code
  • Product Name
  • Seller of Record
  • Usage Type
  • Operation
  • Rate ID
  • Item Description
  • Usage Start and Usage End Date and Time
  • Usage Quantity
  • Blended Rate (for Consolidated Billing)
  • Currency Code
  • Cost Before Tax
  • Credits
  • Tax Amount
  • Tax Type
  • Total Cost

Die meisten der oben genannten Parameter ergeben nur im Zusammenhang mit dem Consolidated Billing einen Sinn. Kurzum kann ein AWS Kunde damit mehrere AWS Accounts unter einer einzigen Rechnung zusammenfassen.

Die erzeugten Dokumente können in einem beliebigen S3 Bucket gespeichert werden. Man sollte sich jedoch bewusst machen, dass man als Kunde selbst für die dadurch entstehenden Kosten des genutzten Speicherplatz zahlt. Nach der Weiterverarbeitung können diese Daten aber natürlich wieder gelöscht werden.

Categories
Analysen

Amazon Web Services – Das Mekka der Startups! Aber reicht das wirklich aus?

Die Amazon Web Services sind insbesondere bei Startups sehr beliebt. Der unkomplizierte Zugriff auf Infrastruktur Ressourcen haben es Unternehmen wie Pinterest ermöglicht, innerhalb kürzester Zeit einen fullminanten Start hinzulegen und ohne große Investitionen in eigene Infrastruktur zu wachsen. So sagt Pinterest sogar von sich selbst, dass sie ohne AWS nicht so darstehen würden wie heute. Jedoch lässt sich das große Geld bei den großen Unternehmen verdienen. Dafür hat Amazon in den vergangenen Wochen und Monaten einige strategische Entscheidungen in diese Richtung getroffen. Aber ist das Unternehmen überhaupt in der Lage mit seinem Public Cloud Angebot im lukrativen Markt für Geschäftskunden mitzuspielen oder bleiben sie eine reine Anlaufstelle für Startups?

Die Referenzen von Amazon sind beeindruckend

Ein Blick auf die Referenzen der Amazon Web Services beeindruckt. Im Laufe der Jahre sind auf der Public Cloud Infrastruktur eine Vielzahl von bekannten und in der Internetwelt hochgelobte Angebote entstanden. Zusätzlich hat sich um die AWS Solution Provider ein Ökosystem gebildet, die mit Clients, Add-On Services und Consulting die Amazon Cloud erweitern. Der jüngste Geniestreich im Ökosystem war die Veröffentlichung des AWS Marketplace, über den Anbieter und Kunden SaaS Anwendungen auf Basis des Pay per use anbieten und beziehen können.

Startups sind undankbar

Aber in dieser so scheinbar perfekten Welt gibt es auch Dinge zu hinterfragen. So wirbt Amazon auf seinen Veranstaltungen und in sonstigen Vorträgen vehement um die Aufmerksamkeit der Startups. Mit einem guten Grund. Wie ich eingangs geschrieben habe, erhalten Startups bei Amazon schließlich auch sehr unkompliziert die Ressourcen die sie benötigen. Aber lässt sich nur mit Startups wirklich viel Geld verdienen? Frank Sempert von Saugatuck Technology ist bspw. der Meinung, dass Amazon mit seinem Cloud Geschäft derzeit nicht viel verdient. Vielmehr geht er von Gewinnmargen im einstelligen Bereich aus und schätzt, dass Amazon frühestens ab dem Jahr 2015 höhere Margen zwischen 20 und 30 Prozent einfahren wird.

Ein weiterer Punkt: Startups sind undankbar! Ein Beispiel ist Zynga. Nachdem das Unternehmen in der AWS Cloud wachsen konnte, haben sie Amazon den Rücken gekehrt und sind in die eigene Private Cloud geflüchtet. So wird es in Zukunft auch mit anderen Kunden weitergehen. Denn die Amazon Cloud ist für junge Unternehmen ideal um zu wachsen und dabei auszutesten, wann sich das Wachstum bis zu einem gewissen Grad einstellt. Nachdem sich ein Maximum eingestellt hat, werden viele merken, dass eine On-Premise Lösung vielleicht doch die bessere und kostengünstigere Variante ist. Wenn der Kuchen also eine gewisse Größe erreicht hat, wird Amazon in vielen Fällen nicht davon kosten dürfen.

Auf ins Big Business

Das Ziel muss also darin bestehen, ebenfalls etablierte Unternehmen mit ins Kundenportfolio zu bekommen. Ein Blick auf die Referenzenliste zeigt nämlich nicht viele große und etablierte Kunden, was natürlich daran liegen kann, dass diese nicht kommuniziert werden möchten. Das hat Amazon aber bemerkt und ist seit Monaten weltweit auf der Suche nach neuen Mitarbeitern. Zudem bietet das Unternehmen ebenfalls einen Premium Support.

Allerdings ergibt sich für AWS hier ein Problem. Unternehmen setzen vermehrt auf das Cloud Computing. Allerdings zieht es die meisten in die Private Cloud, wobei weniger auf die Kosten und mehr auf das Thema Agilität geachtet wird. Public Clouds werden, auf Grund des Datenschutzes und eines möglichen Lock-in, der bspw. mit Services wie DynamoDB oder dem Amazon Simple Workflow auf jedenfall gegeben ist, eher abgelehnt.

Die Public Cloud wird in Zukunft daher nicht das Maß aller Dinge sein. Sie diente eher als aha Effekt bzw. Referenz für Unternehmen, um zu sehen, was Cloud Computing für Möglichkeiten bietet. Einen ersten richtigen Schritt hat Amazon daher mit der Eucalyptus Kooperation gemacht. Die Zusammenarbeit wird für Amazon der notwendige Türöffner sein, um auf Basis einer Hybrid Cloud attraktive Unternehmen anzusprechen und entsprechende Workloads oder Anwendungen in einem hybriden Modell zu betreiben.

Fazit

Die Amazon Web Services müssen den Sprung ins Big Business schaffen, denn nur mit Startups lässt sich kein Geld verdienen. Ich lasse mich natürlich gerne vom Gegenteil überzeugen, allerdings verhält sich Amazon hier sehr verschlossen und schlüsselt die Zahlen für die Amazon Web Services nicht detailliert auf.

Die aktuelle Entwicklung zeigt, dass sich das Cloud Computing bei etablierten Unternehmen mehr in die Richtung der Private Cloud orientieren wird. Ein erster strategischer Schritt war daher die Kooperation mit Eucalyptus Cloud, um den Hybrid Cloud Gedanken zu vertiefen, der mit dem VPC Service (Virtual Private Cloud) bereits seit längerem existiert. Es ist schwierig zu sagen, ob das allerdings reichen wird. Da es sich bei den Amazon Web Services jedoch um ein reines Service Unternehmen und kein Software Unternehmen handelt, werden sie den Schritt in ein reines Private Cloud Angebot nicht wagen (können). Selbst die Akquisition von Eucalyptus wäre zwar früher oder später vorstellbar, jedoch würde sich Amazon damit die Probleme eines Software Unternehmens ins Haus holen, indem sie dann auch für den Support der On-Premise Software, Upgrades, Bugfixes usw. zuständig wären.

Die Public Cloud ist für (etablierte) Unternehmen natürlich nicht vollständig uninteresant, dennoch prüfen sie, welche Daten in die Public Cloud ausgelagert werden. Denn wie habe ich vor längerer Zeit schon einmal geschrieben: “Am Ende zählt der Use Case.


Bildquelle (von mir modifiziert): http://badische-zeitung.de