Cloud Computing

Amazon AWS builds a data center in Germany: Nice idea!

The Amazon Web Services will open a new cloud region targeting the German market by establishing a data center in Germany (Frankfurt). But is this so exciting for German companies?

Amazon AWS to touch down in Germany

Apparently, Amazon AWS has recognized the importance of the German market and the concerns of German companies. Crisp Research knows from reliable sources that the cloud provider will open a cloud region for the German market with a location in Frankfurt in the coming weeks.

After the announcement of Salesforce of a German data center location, Amazon is the next big U.S. cloud provider to follow the trend. This again shows the attractiveness of Germany. After all, most American companies treat the German market rather stepmotherly. Typically, the majority of American cloud providers supply the European market through data centers in Ireland (Dublin) and the Netherlands (Amsterdam). This reduces the attractiveness of cloud providers, especially in the case of medium-sized German businesses. Consultations with IT users consistently show that storing data outside of Germany and an agreement that is based on maximum European law are a no-go.

[Update]: Technical evidence

On the 4th of July 2014 German blogger Nils Jünemann published an article technically referencing on a new AWS region “eu-central-1”. Using a traceroute to “” he proved, that something is available. However, when I traceroute on the 5th of July 2014 the host was unknown.

AWS Portfolio: Slowly reaching the enterprise IT

In addition to the data center site, Amazon has announced AWS CloudTrail last year, the first service to allow companies more control over compliance. AWS CloudTrail helps you monitor and record the AWS API calls to one or more accounts. Here views from the AWS Management Console, the AWS Command Line Interface (CLI), from your own applications or third party applications are taken into account. The collected data are stored on either Amazon S3 or Amazon Glacier for evaluation and can be viewed on tools from AWS or external providers. Amazon CloudTrail can be used free of charge. However, costs are associated with storing the data on Amazon S3 and Amazon Glacier as well as with Amazon SNS notifications.

AWS CloudTrail is one of the most important services for enterprise customers that Amazon has released in recent times. The collected logs support the compliance with government regulations by allowing recording of all accesses to AWS services. One can operate more successful security audits based on the log data, identifying the precise origin of vulnerabilities and unauthorized or erroneous hits on data.

Enterprise quo vadis?

After establishing itself as a leading infrastructure provider and enabler for startups and new business models in the cloud, the company from Seattle has been trying to get one foot directly in the lucrative business environment for quite some time. However, one question remains open. Will that be enough to achieve a critical mass of German companies in order to evolve from a provider for startups and developers to a serious alternative for IT workloads for business?

Yes, under certain conditions:

  • Business related services must be launched simultaneously in all regions and not only in the U.S..
  • AWS requires a network of partners in order to reach the mass of attractive German corporate customers.
  • The localization of all information, such as white papers, how-to’s and training is critical.
  • Less self-service, more managed services and professional services, e.g. through the partner network.
  • Reducing complexity by simplifying the use of the scale-out principle.
  • Cloud Connectivity for reliable access to the services.
  • Avoidance of the service lock-in.
  • Strengthening the AWS Marketplace for easier use of scalable standard workloads and applications.
  • Consideration of hybrid cloud scenarios and strengthening of the partner Eucalyptus on the private cloud side.

Note on the Eucalyptus partnership: Nearly all Eucalyptus customers should also be AWS customers (Source: Eucalyptus). This means, conversely, that some hybrid cloud infrastructure exists between on-premise Eucalyptus infrastructure and the Amazon public cloud.

The existing question marks: Microsoft and Google

Medium-sized businesses demand from cloud providers that the data are stored in a German data center. About 75 percent consider physical data location a necessity to enforce German law more easily.

After Salesforce, IBM and Amazon are the only remaining major cloud providers who could be expected to make investments in this direction.

About Google, one can unfortunately say that nothing will happen in the near or far future. The DNA and mentality of the company in terms of data location and customer concerns differ too strongly from those of other providers.

At Microsoft, the cards are basically good. However, the Redmond company doesn’t need to play them now. Microsoft is pursuing a different strategy by using the Cloud OS Partner Network for local providers worldwide (e.g. Pironet NDH in Germany), empowering them with the so-called “Azure Pack” to offer an own Microsoft Azure based cloud infrastructure in a hosted model from a local data center.

How the trend of building local data centers will develop remains to be seen. Bottom line is, Germany and especially the location of Frankfurt, among others due to the DE-CIX, are well prepared to take additional international cloud providers. A key finding of this development is that international providers have understood the concerns and are willing to make compromises in the name of what is good for the user.

Cloud Computing

Analyst Report: Amazon AWS vs. Microsoft Azure

After Microsoft needed to fight against vendors like Novell, Oracle, IBM or HP for on-premise market shares in the last decades, with the Amazon Web Services a new giant has been established in the public cloud, who puts out feelers to the enterprise customer. A market which predominantly is dominated by Microsoft and which reveals an enormous potential for the vendors.

Market forecasts by Crisp Research show a strong growth by 40 percent per year for the next years, whereby revenues in Germany in 2018 amounted up to 28 billion euros. This free analyst report compares the service portfolio as well as the strategy of the Amazon Web Services with that of Microsoft Azure.


Amazon AWS baut Rechenzentrum in Deutschland: Nette Idee!

Die Amazon Web Services werden eine neue Cloud-Region speziell für den deutschen Markt mit einem Rechenzentrum in Deutschland (Frankfurt) eröffnen. Aber ist das wirklich so spannend für die deutschen Unternehmen?

Amazon AWS landet in Deutschland

Amazon AWS hat die Bedeutung des deutschen Marktes und die Bedenken deutscher Unternehmen scheinbar erkannt. Crisp Research weiß aus sicheren Quellen, dass der Cloud-Anbieter in den kommenden Wochen eine Cloud-Region für den deutschen Markt mit einem Standort in Frankfurt eröffnen wird.

Nachdem Salesforce einen deutschen Rechenzentrumsstandort angekündigt hat, folgt mit Amazon der nächste große US-amerikanische Cloud-Anbieter. Dies zeigt erneut die Attraktivität des Standorts Deutschland. Schließlich behandeln die meisten amerikanischen Unternehmen den deutschen Markt ansonsten eher stiefmütterlich. Typischerweise versorgt der Großteil der amerikanischen Cloud-Anbieter den europäischen Markt über Rechenzentren in Irland (Dublin) und den Niederlanden (Amsterdam). Das verringert bei vielen deutschen, vornehmlich mittelständischen Unternehmen, die Attraktivität. Beratungsgespräche mit IT-Anwendern zeigen ständig, dass das Speichern von Daten außerhalb von Deutschland und ein Vertragswerk, das maximal auf europäischem Recht beruht, nicht gerne gesehen wird.

AWS Portfolio: Annäherung an die Enterprise-IT

Neben dem Rechenzentrumsstandort hat Amazon mit AWS CloudTrail bereits im letzten Jahr einen ersten Service vorgestellt, um Unternehmen mehr Kontrolle über die Compliance zu ermöglichen. AWS CloudTrail hilft beim Überwachen und Aufzeichnen der AWS API Aufrufe von einem oder mehrerer Accounts. Dabei werden Aufrufe über die AWS Management Console, dem AWS Command Line Interface (CLI), von eigenen Anwendungen oder Anwendungen von Drittanbietern berücksichtigt. Die erhobenen Daten werden entweder in Amazon S3 oder Amazon Glacier zur Auswertung gespeichert und lassen sich über Tools von AWS oder externen Anbietern betrachten. Derzeit lassen sich nur Amazon EC2, Amazon ECS, Amazon RDS und Amazon IAM überwachen. Amazon CloudTrail kann kostenlos genutzt werden. Kosten entstehen für das Speichern der Daten auf Amazon S3 und Amazon Glacier sowie für die Benachrichtigungen über Amazon SNS.

AWS CloudTrial gehört zu den wichtigsten Services für Unternehmenskunden, die Amazon in der letzten Zeit veröffentlicht hat. Die gesammelten Logdateien helfen bei der Compliance, indem sie sämtliche Zugriffe auf AWS Services aufzeichnen und damit das Einhalten von gesetzlichen Rahmenbedingungen nachweisen können. Ebenso verhält es sich mit Sicherheitsaudits, bei denen sich damit Sicherheitslücken und unberechtigte oder fehlerhafte Zugriffe auf Daten nachvollziehen lassen.

Unternehmenskunden quo vadis?

Nachdem sich AWS als führender Infrastrukturanbieter und Enabler für Startups und neue Geschäftsmodelle in der Cloud etabliert hat, versucht das Unternehmen aus Seattle schon seit geraumer Zeit einen Fuß direkt in das lukrative Unternehmensumfeld zu bekommen. Es bleibt allerdings eine Frage offen. Wird das ausreichen, um eine kritische Masse deutscher Unternehmen zu erreichen, um sich von einem Anbieter für Startups und Entwickler zu einer ernsthaften Alternative für IT-Workloads für Unternehmen zu entwickeln?

Ja, unter bestimmten Voraussetzungen:

  •            Unternehmensrelevante Services müssen ebenfalls direkt in anderen Regionen bereitgestellt werden und nicht vorerst nur in den US-Regionen.
  •           AWS benötigt ein Partnernetzwerk, um an die Masse an attraktiven deutschen Unternehmenskunden zu gelangen.
  •           Die Lokalisierung von sämtlichen Informationen, wie White Paper, HowTos und Schulungen ist kritisch.
  •           Weniger Self-Service, mehr Managed Services und Professional Services, z.B. über das Partnernetzwerk.
  •           Verringerung der Komplexität durch Vereinfachung der Nutzung des Scale-Out Prinzips.
  •           Cloud Connectivity für die zuverlässige Anbindung an die Services.
  •           Vermeidung des Service Lock-in.
  •           Stärkung des AWS Marketplace für einfachere Nutzung von skalierbaren Standardworkloads und Applikationen.
  •           Berücksichtung von Hybrid Cloud Szenarien und Stärkung des Partners Eucalyptus auf der Private Cloud Seite.

Anmerkung zur Eucalyptus Partnerschaft: Nahezu alle Eucalyptus Kunden sollen ebenfalls AWS Kunden sein (Quelle: Eucalyptus). Das bedeutet im Umkehrschluss, dass einige Hybrid Cloud Infrastrukturen zwischen on-Premise Eucalyptus Infrastrukturen und der Amazon Public Cloud bestehen.

Die bestehenden Fragezeichen: Microsoft und Google

Mittelständische Unternehmen fordern von Cloud-Anbietern, dass die Daten in einem deutschen Rechenzentrum gespeichert werden. Etwa 75 Prozent sehen darin die Notwendigkeit, um durch physische Lokalität der Daten das deutsche Recht einfacher anwendbar zu machen.

Nach Salesforce, IBM und Amazon bleiben lediglich zwei wichtige Cloud Anbieter übrig, von denen Investitionen in diese Richtung zu erwarten wären.

Über Google darf man leider getrost sagen, dass zu diesem Thema über kurz oder lang nichts passieren wird. Die DNA und Mentalität des Unternehmens hinsichtlich Datenlokalität und Kundenbedenken weicht von denen anderer Anbieter zu stark ab.

Bei Microsoft liegen die Karten grundsätzlich gut. Allerdings brauchen die Redmonder diese vorerst nicht ausspielen. Microsoft verfolgt eine andere Strategie, indem mit dem Cloud OS Partnernetwork  weltweit lokale Anbieter (z.B. Pironet NDH in Deutschland) dazu ermächtigt werden, mit dem sogenannten „Azure Pack“ eine eigene auf  Microsoft Azure basierende Cloud-Infrastruktur in einem gehosteten Modell aus einem lokalen Rechenzentrum anzubieten.

Wie sich der Trend lokaler Rechenzentren entwickeln wird bleibt abzuwarten. Unterm Strich ist Deutschland und speziell der Standort Frankfurt, u.a. auf Grund des DE-CIX, gut darauf vorbereitet, weitere internationale Cloud-Anbieter aufzunehmen. Eine wichtige Erkenntnis aus dieser Entwicklung ist, dass internationale Anbieter die Bedenken verstanden haben und gewillt sind Kompromisse einzugehen, was am Ende dem Anwender zu Gute kommen wird.


Report: Amazon AWS vs. Microsoft Azure – Die Public Cloud Giganten im Vergleich

Nachdem Microsoft in den letzten Jahrzehnten mit Anbietern wie Novell, Oracle, IBM oder HP um on-Premise Marktanteile kämpfen musste, hat sich mit den Amazon Web Services ein neuer Gigant in der Public Cloud etabliert, der nun verstärkt seine Fühler in Richtung der Unternehmenskunden ausstreckt. Ein Markt, der vorwiegend von Microsoft beherrscht wird und einenormes Potential für die Anbieter offenbart. Marktprognosen von Crisp Research zeigen in den nächsten Jahren ein deutliches Wachstum von 40 Prozent pro Jahr, wodurch sich die Umsätze alleine in Deutschland im Jahr 2018 auf 28 Milliarden Euro belaufen werden. Dieser Analyst Report vergleicht das Service-Portfolio sowie die Strategie der Amazon Web Services mit denen von Microsoft Azure.

Der Report steht kostenlos unter AWS vs. Azure: Duell um die Vormachtstellung  in der Public Cloud zum kostenlosen Download zur Verfügung.




Cloud und Unternehmen: Google steht sich selbst im Weg

Google hat auf seinem Event Google Cloud Platform Live einige Neuigkeiten für sein Infrastruktur- und Plattform Angebot angekündigt und gleichzeitig die Preise radikal gesenkt. Ein Blick in die Nutzungsbedingungen der Google Cloud Platform und das Verhalten zeigen allerdings, dass Google den Markt weiterhin nicht verstanden hat und sich klar und deutlich als rücksichtsloser Datensauger positioniert.

Auf dem Google Cloud Platform Live Event hat Senior Vice President Urs Hölzle beachtenswerte Zahlen über die Nutzung der Google Cloud Platform gezeigt. Demnach sollen in etwa 4,75 Millionen aktive Applikationen auf der Plattform laufen sowie 6,3 Billionen Datenabfragen und 28 Milliarden Front-End Anfragen pro Tag stattfinden. Allerdings sollte an dieser Stelle in Betracht gezogen werden, dass die Google Cloud Platform sich u.a. aus der Google Compute Engine (GCE), der Google App Engine (GAE) und weiteren einzelnen Services zusammensetzt und speziell die GAE bereits seit nun mehr sechs Jahren am Markt aktiv ist. Damit sind diese Zahlen weiterhin beachtenswert, sollten aber auch nicht überwertet werden.

Die Preise für IaaS Ressourcen fallen weiter gegen Null

Mit einer radikalen Preisreduzierung will Google sich attraktiver gegenüber den Amazon Web Services aufstellen. Die Preise für den Big Data Analytics Service BigQuery werden daher um satte 85 Prozent reduziert. Der Preis für Cloud Storage Service fällt um bis zu 65 Prozent. Die Kosten für die virtuellen Maschinen der Compute Engine werden für alle Regionen, Typen und Größen um bis zu 32 Prozent gesenkt.

Einen Tag später kündigte Amazon AWS auf seinem AWS Summit 2014 in San Francisco seine insgesamt 42te Preissenkung an. Die Preise für Amazon S3 werden demnach im Schnitt um weitere 51 Prozent gesenkt. Für das erste Terrabyte an Daten kostet 1 GB Speicherplatz bei AWS nun 0,085 US-Dollar, bei Google 0,026 US-Dollar. Die Preise für eine AWS M3 Instanz wurden um 38 Prozent gesenkt und kostet statt ehemals 0,113 US-Dollar ab dem 1. April nun 0,07 US-Dollar pro Stunde.

Auch Microsoft hat mittlerweile reagiert und seine Preise für Azure reduziert.

Crisp Research rät anderen IaaS Anbietern, sich nicht auf diesen Preiskampf einzulassen und stattdessen in Services zu investieren, die den Kunden einen echten Mehrwert bieten. Gegen die Economies of Scale von Amazon AWS, Google oder Microsoft wird es langfristig  schwer sein, profitabel mitzuhalten.

Google holt technisch auf

Neben den Preissenkungen hat Google ebenfalls technische Erneuerungen angekündigt. Dazu gehören sogenannte Managed Virtual Machines (VM) für die App Engine, die laut Google mit ein paar Codezeilen automatisch gestartet und verwaltet werden können. Diese Art der VM soll die Stabilität der Compute Engine mit den programmierbaren Kontrollmöglichkeiten durch die App Engine kombinieren.

Weiterhin wird die Compute Engine nun weitere Betriebssystemimages unterstützen. Darunter Red Hat Enterprise Linux und SUSE Linux Enterprise Server. In einer Limited Preview wird ebenfalls der Windows Server 2008 R2 bereitgestellt.

Der BigQuery Service wurde so erweitert, dass nun 100.000 Datensätze pro Sekunde abgefragt werden können, um damit die Analyse großer Datenströme zu ermöglichen. Diese und weitere Verbesserungen dienen grundsätzlich dazu, um Services und Applikationen für andere Google Angebote wie Android, Chrome usw. zu entwickeln und mit Googles anderen Services und Plattformen zu verbinden.

Google hegt und pflegt das Image der Datenkrake

Trotz der Preissenkungen und technischer Erneuerungen lohnt ein Blick in die Nutzungsbedingungen der Google Cloud Platform. Hier findet sich unter 1.2 der Lizenzvereinbarungen:

“By submitting, posting, generating, or displaying any Application and/or Customer Data on or through the Services, Customer gives Google a worldwide, non-sublicensable, non-transferable, non-exclusive, terminable, limited license to use any Application and/or Customer Data for the sole purpose of enabling Google to provide, maintain, protect, and improve the Services in accordance with the Agreement.” Quelle:

In einem Satz zusammengefasst bedeutet diese Passage nichts anderes als dass Google sich das Recht einräumt, sämtliche Applikationen und Kundendaten für bestimmte eigene Zwecke zu verwenden. Da diese Zwecke nicht weiter spezifiziert bzw. eingeschränkt sind, rät Crisp Research Unternehmen und professionellen Entwicklern von jeglicher Nutzung des Service ab, um rechtliche Probleme mit den eigenen Kunden zu vermeiden.

Google bevormundet seine Kunden

Unterm Strich ist Googles größtes Problem allerdings, dass der Suchmaschinenanbieter nicht wie ein kundenorientiertes Unternehmen handelt. Anbieter wie beispielsweise Salesforce, Microsoft oder Amazon stellen sich hierbei ganz anders auf. Ganz im Gegenteil, Google versucht ständig seine Nutzer zu bevormunden und ihnen aufzuzwingen wie und nach welchen Regeln sie zu handeln haben. Das mag bei technisch nicht versierten Privatnutzern vielleicht funktionieren. Schließlich sind die Alternativen sehr gering. Mit erfahrenen Administratoren, CIOs und Entwicklern kann man so langfristig allerdings nicht umgehen.

Ein Zeichen dafür sind die oben angesprochenen Nutzungsbedingungen der Google Cloud Platform. Aber auch Googles Umgang mit den Kunden im Rahmen von Portfoliobereinigungen der eigenen Services zeigt, dass Google noch lange nicht in der Welt der Enterprise-IT angekommen ist. Dienste kurzfristig abzuschalten, ohne eine echte Alternative anzubieten (vgl. Google RSS Reader), ist in der Welt der Unternehmens-IT nicht akzeptabel.

Im Rahmen vieler Gespräche mit CIOs und IT-Entscheidern im Mittelstand, hat sich für Crisp Research klar gezeigt, dass langfristiges Commitment und somit die Aufrechterhaltung der Services ein absolut kritischer Punkt für die Anwender ist.

Für Unternehmen hat die Google Cloud Platform derzeit keine Relevanz

Google hat, auf Grund seiner App Engine, definitiv eine große Verbreitung in der Entwickler Community. Für Workloads von Unternehmen ist die Google Cloud Platform aber derzeit keine Option und kann nicht mit Angeboten von Amazon AWS, IBM Softlayer oder Microsoft Azure mithalten.

Entwickler und Startups sind eine nicht zu unterschätzende Kundengruppe. Aber das große Geld wird bei den Unternehmenskunden verdient. Damit ist es, nicht nur für Google sondern ebenfalls für AWS, wichtig sich auf die Bedürfnisse der Unternehmen einzulassen und mit entsprechenden Services und Lösungen zu reagieren. Amazon AWS hat dies mit CloudTrail und WorkSpaces verstanden. Von Google sind bisher keine Ansätze zu erkennen. Das gilt ebenfalls für die doch sehr Google native App Engine. Andere PaaS Angebote wie Red Hat OpenShift oder IBM BlueMix sind deutlich offener gestaltet und passen besser in die Cloud Strategie von Unternehmenskunden.

Weiterhin ist es wichtig eine horizontale Variationsvielfalt zu bieten. Google als auch Amazon bieten ausschließlich Public Cloud Services, das war’s. IBM und Microsoft hingegen sind in der Lage von Public über Private bis hin zu Hybrid Cloud Szenarien anzubieten und das inklusive weiteren Dienstleistungen und Professional Services. Das bedeutet, dass beide Unternehmen in der Lage sind auf die Deployment-Anforderungen und Bedürfnisse ihrer Kunden eingehen zu können, wodurch die horizontale Angebotsbreite das Maximum im Markt bietet.

Trotz angeblich 4,75 Millionen aktiven Applikationen und täglich 6,3 Billionen Datenabfragen, sieht Crisp Research in der Google Cloud Platform derzeit noch keine Alternative für Unternehmenskunden. Nicht nur die Nutzungsbedingungen zeigen, dass Google die Bedenken rücksichtslos übersieht und versucht, seine Interessen uneingeschränkt durchzusetzen. Anbieter wie IBM, Microsoft und Amazon hingegen sind deutlich näher an den Kunden und verstehen deren Bedürfnisse.  Google geht es im Online-Werbegeschäft derzeit immer noch zu gut. Das Cloud-Business macht derzeit deutlich weniger als ein Prozent des Konzernumsatzes aus und ist noch lange nicht profitabel. Google muss sich weiterhin deutlich zu seinem Cloud-Portfolio bekennen, eine klare Roadmap aufstellen und sich ebenfalls daran halten. Nur so kann der Suchmaschinenriese  Vertrauen bei seinen Cloud-Kunden aufbauen.


Salesforce baut Rechenzentrum in Deutschland. Wann folgen Amazon, Microsoft Google und Co.?

Salesforce wird im Jahr 2015 einen Rechenzentrumsstandort in Deutschland eröffnen. Crisp Research hält den Schritt als den einzig logisch Richtigen um deutsche Unternehmenskunden anzuziehen. Es bleibt allerdings die Frage offen, warum die anderen großen Cloud Player wie Amazon AWS, Microsoft und Google nicht schon lange in Deutschland gelandet sind!

Salesforce expandiert nach Europa

Nach einem Umsatzwachstum von 41 Prozent für das Finanzjahr 2014 wird der CRM Anbieter Salesforce seine Aktivitäten für das Finanzjahr 2015 in Europa weiter verstärken. Hierzu sollen europaweit mehr als 500 neue Arbeitsplätze und weitere Rechenzentren entstehen. Das erste der drei Rechenzentren wird nach Unternehmensangaben im August in Großbritannien eröffnet. Zwei weitere sollen im Jahr 2015 in Deutschland und Frankreich folgen. Bereits auf der letzten Salesforce Customer Company Tour im vergangenen Juli wurde ein Rechenzentrum für dieses Frühjahr in London angekündigt.

Auch Salesforce hat zu kämpfen

Fakt ist, trotz des Umsatzwachstums von 41 Prozent in Europa und stolz verkündeter Kunden wie BMW Group, Deutsche Post DHL, Sixt, Vaillant und Carl Zeiss Vision hat Salesforce es nicht leicht. Auch das zeigen die Investitionen und Expansionen mit weiteren Rechenzentren in Europa. Salesforce muss näher an den Kunden herankommen, wenn der Kunde nicht von alleine kommt. Es ist nicht das erste Bekenntnis, dass die Public Cloud in dieser Form nicht für alle funktioniert. Bereits im November letzten Jahres kündigte Salesforce CEO Mark Benioff mit dem “Salesforce Superpod” nichts anderes als eine Dedicated Private Cloud auf der Salesforce Infrastruktur an, um Kunden die Möglichkeit zu bieten das CRM-System nicht auf der Public Cloud, sondern einem extra für sie abgetrennten Bereich zu nutzen. Man sieht also, es wird ständig und in langsamen Schritten zurückgerudert. Natürlich nur im Sinne der Kunden.

Deutschland sollte nicht unterschätzt werden

Salesforce Expansion nach Deutschland zeigt außerdem, dass der Druck enorm sein muss und Deutschland attraktiver ist als vermutet. Schließlich behandeln die meisten amerikanischen Unternehmen den deutschen Markt eher stiefmütterlich.

Der Großteil der amerikanischen Cloud Anbieter versorgt den europäischen Markt derzeit über Rechenzentren in Irland (Dublin) und den Niederlanden (Amsterdam). Das stößt bei vielen Deutschen, vornehmlich Datenschützern und mittelständischen Unternehmen, auf Unbehagen. Das Speichern von Daten außerhalb von Deutschland und ein Vertrag maximal nach europäischem Recht wird nicht gerne gesehen. Jedoch sollte und darf der Wirtschaftsstandort Deutschland nicht vernachlässigt werden. Für die US-amerikanischen Unternehmen mag Deutschland zwar ein kleines Land sein, aber die Wirtschaftskraft zu unterschätzen wäre fatal.

Die Erwartungshaltung ist riesig

Salesforce positioniert sich mit Salesforce1 mittlerweile als eine allumfassende Plattform für die Entwicklung von Social, Mobile und weiteren Cloud-basierten Applikationen und richtet sich damit gezielt an Entwickler, ISVs, Endanwender und Administratoren. Salesforce versucht damit sein Image als reiner CRM-Anbieter abzuschütteln.

Salesforce sieht sich somit nicht mehr nur im Wettbewerb mit anderen CRM-Anbietern sondern ebenfalls mit den großen Playern wie Microsoft, Amazon AWS und Google, deren Cloud-Stack auch stetig weiter ausgebaut wird und bei fast allen nahezu vollständig ist. Die Expansion mit einem eigenen Rechenzentrum in Deutschland ist für Salesforce damit ein enormer Wettbewerbsvorteil gegenüber anderen Anbietern wie Amazon AWS, Microsoft oder Google. Insbesondere im stark umkämpften Markt für Unternehmenskunden, in denen Amazon AWS und Google sich schwer tun und wo Microsoft auf Grund seiner bestehenden breiten Kundenbasis bereits eine gute Ausgangslage hat.

Crisp Research ist der Meinung, dass spätestens nach dieser Ankündigung kein Anbieter, der den deutschen Markt als ernsthaft attraktiv betrachtet, mehr daran vorbeikommt, ebenfalls ein eigenes Rechenzentrum in Deutschland zu eröffnen. Zahlen von Crisp Research zeigen eine deutliche Anforderung von mittelständischen Unternehmen an Cloud Anbieter, dass die Daten in einem deutschen Rechenzentrum gespeichert werden müssen. Etwa 75 Prozent sehen darin die Notwendigkeit, um durch physische Lokalität der Daten das deutsche Recht einfacher anwendbar zu machen.

Microsoft sorgt für ein großes Fragezeichen

Warum hat zum Beispiel Microsoft nicht schon längst ein Rechenzentrum in Deutschland gebaut? Das Unternehmen ist seit Jahrzehnten in Deutschland tätig und sollte die Kundenbasis und deren Bedenken besser kennen als jeder andere Cloud Anbieter! Crisp Research hat erste Gerüchte über Rechenzentrumsstandorte von Amazon AWS und Microsoft in Deutschland gehört. Eine offizielle Bestätigung, als auch ein Dementi blieben bis heute allerdings aus.

Der Standortvorteil eines Rechenzentrums in Deutschland ist nicht zu vernachlässigen, um aktiv damit zu beginnen, den deutschen Unternehmen ihre Bedenken zu nehmen. Die Cloud Computing Anbieter haben in der Vergangenheit viel geredet und versprochen. Aussagekräftige Taten blieben jedoch aus. Nach IBM, mit einem Cloud-Rechenzentrum in Ehningen bei Stuttgart, hat nun auch Salesforce den richtigen Schritt gemacht. Wir sind gespannt wer folgen wird.


Enterprise Cloud: IBM bringt sich in Position

Letzte Woche hat IBM angekündigt mehr als 1,2 Milliarden US-Dollar in den Ausbau seines globalen Cloud Angebots zu investieren. Hierzu sollen Cloud-Services aus weltweit 40 Rechenzentren in 15 Ländern bereitgestellt werden. Deutschland wird IBM aus einem Rechenzentrum in Ehningen versorgen. Dabei wird Softlayer, das IBM in 2013 übernommen hat, eine Schlüsselrolle spielen, dessen Kapazitäten sich in diesem Zuge verdoppeln sollen.

Investitionen sind ein deutliches Zeichen

Die 1,2 Milliarden US-Dollar sind nicht die ersten Investitionen, die IBM in den vergangenen Jahren in sein Cloud Business fließen lässt. Seit 2007 wurden über 7 Milliarden US-Dollar in die Expansion des Geschäftsfeldes investiert. Darunter 2 Milliarden US-Dollar für Softlayer. Hinzu kommen mehr als 15 weitere Akquisitionen die Cloud Computing Lösungen und Know-How in das Unternehmen gebracht haben. Die letzte große Ankündigung war die Summe von 1 Milliarde US-Dollar, die IBM in sein Cognitive Computing System Watson investieren wird, um es u.a. der breiten Masse als Service zur Verfügung zu stellen.

Diese Investitionen zeigen, dass es IBM mit der Cloud tatsächlich ernst meint und sie als eine Säule für seine zukünftige Unternehmensstrategie sieht. So sieht auch die Erwartungshaltung aus. IBM geht davon aus, dass der weltweite Cloud-Markt bis zum Jahr 2020 auf mehr als 200 Milliarden US-Dollar wachsen wird. Bis zum Jahr 2015 will IBM jährlich sieben Milliarden US-Dollar weltweit mit seinen Cloud-Lösungen erwirtschaften.

Softlayer Positionierung ist von entscheidender Bedeutung

Ein Besonderes Augenmerk will IBM auf die Softlayer Cloud legen. Hierzu sollen sich die Kapazitäten im Jahr 2014 verdoppeln. Laut IBM konnten durch den Zukauf des Cloud Computing Anbieter in 2013 fast 2.400 neue Kunden gewonnen werden. Mit Softlayer sollen die wichtigsten Märkte und Finanzzentren gezielt gestärkt werden. Weiterhin soll die Softlayer Cloud in Zukunft auch von der Watson Technologie profitieren.

Die Akquisition von Softlayer war ein wichtiger Schritt für IBMs Cloud-Strategie, um sich eine bessere Cloud-DNA einzuverleiben. Die IBM SmartCloud hat bis zum heutigen Tag enttäuscht. Das ergeben nicht nur Gespräche mit potentiellen Kunden die sich zum größten Teil negativ über das Angebot und die Nutzung geäußert haben.

Spannend wird die Erweiterung der Softlayer Cloud werden. Laut der offiziellen Softlayer Webseite werden derzeit an sieben Standorten weltweit mehr als 191.500 Server betrieben.

  • Dallas: 104,500+ Server
  • Seattle: 10,000+ Server
  • Washington: 16,000+ Server
  • Houston: 25,000+ Server
  • San Jose: 12,000+ Server
  • Amsterdam: 8,000+ Server
  • Singapore: 16,000+ Server

Das sind im Vergleich zu anderen Cloud Playern wie die Amazon Web Services (über 450.000), Microsoft (etwa 1.000.000) und Google allerdings nur Peanuts. Selbst nach einer Verdopplung im Jahr 2014 auf 383,300 Server.

IBMs weltweite Cloud Rechenzentren

Ein Teil der genannten 1,2 Milliarden US-Dollar sollen im Jahr 2014 genutzt werden, um insgesamt 15 neue Rechenzentren zu eröffnen. In der Summe sollen dann 40 Rechenzentren verteilt auf 15 Länder die weltweite Basis der IBM Cloud bilden. Die neuen Cloud-Rechenzentren werden in China, Hongkong, Japan, Indien, London, Kanada, Mexiko City, Washington D.C. und Dallas entstehen. Das deutsche Cloud-Rechenzentrum steht in Ehningen bei Stuttgart das Schweizer in Winterthur.

Auf der technischen Seite besteht jedes neue Cloud-Rechenzentrum aus mindestens vier sogenannten PODS (Points of Distribution). Eine eigenständige Einheit besteht aus 4.000 Servern. Jeder POD arbeitet unabhängig von den anderen PODs, um die Services bereitzustellen und soll eine garantierte Verfügbarkeit von 99,9 Prozent aufweisen. Kunden können sich für die Nutzung eines POD mit 99,9 Prozent Verfügbarkeit entscheiden oder eine Verteilung über mehrere PODs wählen, um damit das Verfügbarkeitsverhältnis zu erhöhen.

Der Footprint im Unternehmensumfeld

IBM will sich mit seinen Investitionen klar gegen die Amazon Web Services positionieren. Man muss jedoch eines unterscheiden. Amazon AWS (AWS) ist einzig und alleine in der Public Cloud vertreten und wird dieses laut Aussage von Andy Jassy auf der letzten re:Invent auch bleiben. AWS glaubt an die Public Cloud und es besteht kein Interesse auch in (Hosted) Private Cloud Infrastrukturen zu investieren. Ein Unternehmen, das bei AWS jedoch das nötige Kleingeld mitbringt erhält dort durchaus seine eigene private Region, die von AWS verwaltet wird (ähnlich AWS GovCloud).

Beim Wettbewerb zwischen IBM und AWS geht es in erster Linie nicht um den Vorsprung in der Public, Private oder sonst einer Art von Cloud-Form. Es geht um die Vormachtstellung bei den Unternehmenskunden. AWS ist mit Startups und Entwicklern groß geworden und versucht seit geraumer Zeit auch die Attraktivität bei den Unternehmen zu erhöhen. Das haben sie mit mehreren neuen Services auf der vergangenen re:Invent gezeigt. Dabei handelt es sich allerdings um einen Markt, auf dem IBM bereits seit Jahrzehnten vertreten ist und über eine gute und breite Kundenbasis sowie wertvolle Kontakte bei den Entscheidern verfügt. Das ist ein Vorteil der, trotz AWSs derzeitigen technischen Vorsprung, nicht zu unterschätzen ist. Ein weiterer Vorteil der für IBM zum Tragen kommt ist die große Basis an Partnern im Bezug auf die technische Unterstützung und dem Vertrieb. Denn der reine Self-Service, den eine Public Cloud bietet, passt nicht zum Großteil der Unternehmenskunden. Dennoch muss IBM zusammen mit der Softlayer Cloud bei den Unternehmen erst noch technisch überzeugen und den Kunden einen konkreten Nutzen für die Wertschöpfung aufzeigen um erfolgreich zu sein.

Was sich für IBM als ein Vorteil gegenüber anderen Cloud-Anbietern wie AWS erweisen wird, ist die lokale Präsenz mit Rechenzentren in mehreren Ländern. Insbesondere der deutsche Markt wird dies zu schätzen wissen, wenn ebenfalls das Angebot stimmt. Hier bleibt es spannend zu sehen, ob andere US Cloud-Anbieter nachziehen werden und ein Rechenzentrum in Deutschland eröffnen, um den Bedenken deutscher Unternehmen entgegenzukommen.

IBMs Investitionen zeigen, dass der Anbieter die Cloud als eine zukünftige tragende Säule sieht und in diesem Bereich ein tragfähiges Geschäft aufbauen will.


Die Amazon Web Services greifen nach der Enterprise IT. Ein Realitätscheck.

Die AWS re:Invent 2013 ist vorbei und die Amazon Web Services (AWS) haben mit einigen neuen Services begonnen, die Hände weiter nach den Unternehmenskunden auszustrecken. Nachdem sich AWS als führender Infrastrukturanbieter und Enabler für Startups und neue Geschäftsmodelle in der Cloud etabliert hat, versucht das Unternehmen aus Seattle schon seit geraumer Zeit einen Fuß direkt in das lukrative Unternehmensumfeld zu bekommen. Aktuelle Public Cloud Marktzahlen für das Jahr 2017 von IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) geben AWS Rückenwind und bestärken den IaaS Marktführer in seiner reinen Public Cloud Strategie.

Die neuen Services

Mit Amazon WorkSpaces, Amazon AppStream, AWS CloudTrail und Amazon Kinesis hat Amazon interessante neue Services präsentiert, die insbesondere Unternehmenskunden adressieren.

Amazon WorkSpaces

Amazon WorkSpaces ist ein Service, der virtuelle Desktops auf Basis von Microsoft Windows bereitstellt, mit dem sich eine eigene Virtual Desktop Infrastructure (VDI) innerhalb der Amazon Cloud aufbauen lässt. Als Basis kommt der Windows Server 2008 R2 zum Einsatz, der Desktops mit einer Windows 7 Oberfläche ausrollt. Alle Services und Applikationen werden aus Amazon Rechenzentren auf die entsprechenden Endgeräte gestreamt, wobei das PCoIP (PC over IP) von Teradici zum Einsatz kommt. Dabei kann es sich um Desktop-PCs, Notebooks, Smartphones oder Tablets handeln. Zudem lässt sich Amazon WorkSpaces mit einer Microsoft Active Directory kombinieren, was die Benutzerverwaltung vereinfacht. Standardmäßig werden die Desktops mit bekannten Anwendungen wie Firefox oder Adobe Reader/ Flash ausgeliefert. Dies lässt sich von den Administratoren beliebig anpassen.

Mit Amazon WorkSpaces betritt Amazon völlig neues Terrain, in welchem mit Citrix und VMware bereits zwei absolute Marktgrößen warten. VMware hatte erst während der VMworld in Barcelona die Übernahme von Desktone bekanntgegeben. VDI ist grundsätzlich ein sehr spannendes Marktsegment, da es die Unternehmens-IT von Administrationsaufgaben erlöst und Infrastrukturkosten reduziert. Allerdings handelt es sich hierbei um ein noch sehr junges Marktsegment. Unternehmen sind zudem noch sehr vorsichtig bei der Auslagerung ihrer Desktops, da anders als bei klassischen on-Premise Terminal Services, die Bandbreite (Netzwerk, Internet, Datenverbindung) von entscheidender Bedeutung ist.

Amazon AppStream

Amazon AppStream ist ein Service, der als ein zentrales Backend für graphisch umfangreiche Applikationen dient. Damit soll die eigentliche Leistung des Endgeräts, auf dem die Applikationen genutzt werden, keine Rolle mehr spielen, da sämtliche Ein- und Ausgaben innerhalb der Amazon Cloud verarbeitet werden.

Da die Leistung der Endgeräte in Zukunft wahrscheinlich eher noch mehr zunehmend wird, muss die lokale Leistung vermutlich nicht berücksichtigt werden. Allerdings ist der Service für den Aufbau einer echten Mobile Cloud, bei der sich sämtliche Daten und Informationen in der Cloud befinden und die Geräte lediglich als Konsumenten genutzt werden, durchaus interessant. Weiterhin ist die Kombination mit Amazon WorkSpaces zu betrachten, um Applikationen auf Endgeräte bereitzustellen, die lediglich als ThinClients dienen und keine weitere lokale Intelligenz und Leistung benötigen.

AWS CloudTrail

AWS CloudTrail hilft beim Überwachen und Aufzeichnen der AWS API Aufrufe von einem oder mehrerer Accounts. Dabei werden Aufrufe über die AWS Management Console, dem AWS Command Line Interface (CLI), von eigenen Anwendungen oder Anwendungen von Drittanbietern berücksichtigt. Die erhobenen Daten werden entweder in Amazon S3 oder Amazon Glacier zur Auswertung gespeichert und lassen sich über die AWS Management Console, dem AWS Command Line Interface oder Tools von Drittanbietern betrachten. Derzeit lassen sich nur Amazon EC2, Amazon ECS, Amazon RDS und Amazon IAM überwachen. Amazon CloudTrail kann kostenlos genutzt werden. Kosten entstehen für das Speichern der Daten auf Amazon S3 und Amazon Glacier sowie für die Benachrichtigungen über Amazon SNS.

AWS CloudTrial gehört, auch wenn er nicht sehr spannend ist (Logging), zu den wichtigsten Services für Unternehmenskunden, die Amazon in letzter Zeit veröffentlicht hat. Die gesammelten Logdateien helfen bei der Compliance, indem sie sämtliche Zugriffe auf AWS Services aufzeichnen und damit das Einhalten von gesetzlichen Rahmenbedingungen nachweisen können. Ebenso verhält es sich mit Sicherheitsaudits, bei denen sich damit Sicherheitslücken und unberechtigte oder fehlerhafte Zugriffe auf Daten nachvollziehen lassen. Amazon ist gut beraten, AWS CloudTrail schnellstmöglich über alle weiteren AWS Services zu erweitern und für sämtliche Regionen weltweit verfügbar zu machen. Insbesondere die Europäer werden es danken.

Amazon Kinesis

Amazon Kinesis ist ein Service zur Echtzeitverarbeitung von großen Datenströmen. Hierzu ist Kinesis in der Lage Datenströme beliebiger Größe aus einer Vielzahl unterschiedlicher Quellen zu verarbeiten. Die Steuerung erfolgt aus der AWS Management Console, indem sich einer Anwendung unterschiedliche Datenströme zuweisen und darüber speichern lassen. Auf Grund von Amazons massiver Skalierbarkeit bestehen keine Kapazitätsbegrenzungen. Allerdings werden die Daten automatisch auf die weltweiten Amazon Rechenzentren verteilt. Als Use Cases für Kinesis gelten die üblichen Verdächtigen: Finanzdaten, Social Media sowie Daten aus dem Internet of Things/ Everything (Sensoren, Maschinen usw.).

Der eigentliche Vorteil von Kinesis, als Big Data Lösung, besteht in der Echtzeitverarbeitung von Daten. Gängige Standard-Lösungen am Markt verarbeiten die Daten via Batch, wodurch die Daten niemals zum direkten Zeitpunkt, sondern maximal ein paar Minuten später verarbeitet werden können. Kinesis hebt diese Barriere auf und ermöglicht neue Möglichkeiten zur Auswertung von Live-Daten.

Herausforderungen: Public Cloud, Komplexität, Self-Service, “Lock-in”

Schaut man auf die aktuellen AWS Referenzen, ist die Quantität als auch die Qualität beeindruckend. Schaut man genauer hin, handelt es sich bei den Top-Referenzen allerdings weiterhin um Startups, unkritische Workloads oder komplett neue Entwicklungen die dort verarbeitet werden. Das bedeutet, dass die meisten bestehenden IT-Systeme, um die es tatsächlich geht, sich noch gar nicht in der Cloud befinden. Das hängt neben den Bedenken vor dem Kontrollverlust und Compliance Themen damit zusammen, dass das Scale-out Prinzip es für Unternehmen beliebig kompliziert macht, ihre Anwendungen und Systeme in die AWS-Cloud zu migrieren. Am Ende läuft es darauf hinaus, dass sie von Vorne beginnen müssen, da ein nicht verteilt entwickeltes System nicht so funktioniert, wie es auf einer verteilten Cloud Infrastruktur laufen sollte – Stichworte: Skalierbarkeit, Hochverfügbarkeit, Multi-AZ. Das sind Kosten die nicht unterschätzt werden sollten. Das führt dazu, dass selbst die Migration eines vermeintlich einfachen Webshops zu Herausforderungen für Unternehmen werden, die nicht über die Zeit und das notwendige Cloud-Wissen verfügen, um den Webshop für die (Scale-out) Cloud Infrastruktur neu zu entwickeln.

Hinzu kommt, dass sich die Skalierbarkeit und Verfügbarkeit einer Applikation auf der AWS Cloud nur sauber realisieren lässt, wenn man sich an die Services und APIs hält, mit denen dies sichergestellt wird. Weiterhin stehen viele weitere infrastrukturnahe Services zur Verfügung bzw. werden ständig veröffentlicht, die das Leben für den Entwickler sichtlich einfacher machen. Der Lock-in ist damit vorprogrammiert. Zwar bin ich auf dem Standpunkt, dass ein Lock-in nichts Schlechtes sein muss, solange der Anbieter die gewünschten Anforderungen erfüllt. Dennoch sollte sich ein Unternehmen vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.

Zum Schluss. Auch wenn einige Marktforscher der Public Cloud eine goldende Zukunft prophezeien, sollte man die Zahlen nicht zu sehr auf die Goldwaage legen. Cloud Marktzahlen werden schon seit Jahren immer mal wieder nach unten korrigiert. Außerdem muss man im Einzelfall betrachten, wie sich diese Zahlen tatsächlich zusammensetzen. Aber darum geht es hier nicht. Am Ende des Tages geht es darum, was der Kunde will. Andy Jassy hat auf der re:Invent noch einmal deutlich gemacht, dass Amazon AWS konsequent auf die Public Cloud setzen wird und in keine eigenen Private Cloud Lösungen investieren wird. Man kann dies nun als Arroganz und Ignoranz gegenüber den Kunden, dem puren Willen nach Disruption oder einfach nur Selbstbestätigung interpretieren. Fakt ist, auch wenn Amazon wohl die Private Cloud für die CIA bauen wird, haben sie bei weitem nicht die Ressourcen und Kenntnisse, um als Softwareanbieter am Markt aufzutreten. Amazon AWS ist ein Service-Anbieter. Allerdings haben sie mit Eucalyptus einen starken Verbündeten auf der Private Cloud Seite, der es ermöglicht eine AWS-ähnliche Cloud Infrastruktur im eigenen Rechenzentrum aufzubauen.

Anmerkung hierzu: Nahezu alle Eucalyptus Kunden sollen ebenfalls AWS Kunden sein (Quelle: Eucalyptus). Das bedeutet im Umkehrschluss, dass einige Hybrid Cloud Infrastrukturen zwischen on-Premise Eucalyptus Infrastrukturen und der Amazon Public Cloud bestehen.

Vorteile: AWS Marketplace, Ökosystem, Enabler, Innovationstreiber

Was bei den ganzen Diskussionen um Amazon AWS und Unternehmenskunden leider immer wieder kläglich vergessen und auch von Amazon viel zu wenig beworben wird, ist der AWS Marketplace. Im Vergleich zu der Cloud Infrastruktur, die Kunden nutzen können, um eigene Lösungen zu entwickeln, bietet der Marketplace voll funktionsfähige Softwarelösungen von Partnern (z.B. SAP), die auf der AWS Infrastruktur automatisch ausgerollt werden können. Die Kosten für die Nutzung der Software werden pro Stunde oder pro Monat abgerechnet. Hinzu kommen die AWS Gebühren für die dafür benötigte Infrastruktur. Hier steckt der eigentliche Mehrwert für Unternehmen, ihre bestehenden Standardsysteme bequem in die Cloud auszulagern und sich von den on-Premise Systemen zu trennen.

Man muss bei den Amazon Web Services daher strikt zwischen der Nutzung von Infrastruktur für die Eigenentwicklung und dem Betrieb von fertigen Lösungen trennen. Beides ist in der der Amazon Cloud möglich. Hinzu kommt das Ökosystem von Partnern und Systemintegratoren, die AWS Kunden dabei helfen, ihre Lösungen zu entwickeln. Denn auch wenn AWS selbst (derzeit noch) ein reiner Infrastruktur Anbieter ist, müssen sie gleichermaßen als Plattform für andere Anbieter und Partner verstanden werden, die darauf ihre Geschäfte betreiben. Darin besteht auch der maßgebliche Erfolg und Vorteil gegenüber anderen Anbietern am Markt und wird langfristig die Attraktivität bei den Unternehmenskunden erhöhen.

Hinzu kommt, dass Amazon der absolute Innovationstreiber in der Cloud ist, dem kein anderer Cloud-Anbieter derzeit technologisch das Wasser reichen kann. Dazu bedarf es keiner re:Invent. Stattdessen zeigt sich dies nahezu jeden Monat von Neuem.

Amazon AWS ist – bedingt – tauglich für die Enterprise IT

Je nach Land und Use Case variieren die Anforderungen, die Amazon für Unternehmen erfüllen muss. Europäische Kunden sind hier meist bedachter mit der Datenhaltung und speichern die Daten lieber im eigenen Land. Ich saß schon mit mehr als einem Kunden zusammen, der technisch überzeugt war aber das Speichern der Daten in Irland nicht in Frage kam. In einigen Fällen ist es aber auch die fehlende Einfachheit der Nutzung. Das bedeutet, dass ein Unternehmen seine bestehende Anwendung oder Webseite nicht für die Amazon Infrastruktur (neu) entwickeln möchte. Gründe hierfür sind die fehlende Zeit und das Wissen um dies umzusetzen, was gleichzeitig zu einen längeren Time to Market führen würde. Beides lässt sich auf die Komplexität zurückführen, um auf den Amazon Web Services Skalierbarkeit und Verfügbarkeit zu erreichen. Es sind nun einmal nicht nur ein paar API-Aufrufe. Stattdessen muss die vollständige Architektur auf die AWS Cloud ausgerichtet werden. In Amazons Fall liegt es insbesondere an der horizontalen Skalierung (scale-out) die dies erforderlich macht. Die Unternehmen würden lieber die vertikale Skalierung (scale-up) bevorzugen, um das bestehende System 1:1 migrieren zu können und nicht von vorne zu beginnen, sondern direkt in der Cloud Erfolge zu erzielen.

Die AWS Referenzen zeigen allerdings auch, dass ausreichend Use Cases für Unternehmen in der Public Cloud existieren, bei denen die Datenhaltung eher als unkritisch betrachtet werden kann, solange die Daten vorher klassifiziert und anschließend verschlüsselt abgelegt werden.

Analysten Kollege Larry Carvalho hat sich auf der re:Invent mit ein paar AWS Unternehmenskunden unterhalten. Ein Kunde hat eine gehostete Webseite auf AWS für weniger als $7.000 Dollar implementiert, wofür ein anderer Systemintegrator $70.000 berechnen wollte. Ein anderer Kunde hat ausgerechnet, dass er für eine on-Premise Business Intelligence Lösung inkl. Wartung etwa $200.000 pro Jahr zahlen würde. Auf Amazon AWS lediglich $10.000 pro Jahr. Diese Beispiele zeigen, dass AWS auf der einen Seite ein Enabler ist. Auf der anderen Seite aber auch, dass die Sicherheitsbedenken in einigen Fällen den Kosteneinsparungen in den Unternehmen weichen werden.


AWS Activate. Startups. Marktanteile. Noch Fragen?

Startups sind die Grundlage für den Erfolg der Amazon Web Services (AWS). Mit ihnen ist der IaaS-Marktführer groß geworden. Anhand einer offiziellen Initiative baut AWS diesen Zielkundenmarkt weiter aus und wird die restlichen IaaS-Anbieter damit weiter im Regen stehen lassen. Denn von deren Seite, mit Ausnahme von Microsoft und Rackspace, passiert nichts.

AWS Activate

Es ist kein Geheimnis das AWS sich gezielt die Gunst der Startups “erkauft”. Abgesehen von dem attraktiven Service Portfolio haben Gründer, die von Accelerator unterstützt werden, AWS Credits im zweistelligen Bereich erhalten, um ihre Ideen auf der Cloud Infrastruktur zu starten.

Mit AWS Activate hat Amazon nun ein offizielles Startup-Programm gestartet, um als Business-Enabler für Entwickler und Startups zu dienen. Dieses besteht aus dem “Self-Starter Package” und dem “Portfolio Package”.

Das Self-Starter Package richtet sich an Startups, die ihr Glück auf eigene Faust versuchen und beinhaltet das bekannte kostenlose AWS-Angebot, welches jeder Neukunde in Anspruch nehmen kann. Hinzu kommen ein AWS Developer Support für einen Monat, “AWS Technical Professional” Training und ein vergünstigter Zugriff auf Lösungen von SOASTA oder Opscode. Das Portfolio Package ist für Startups die sich in einem Accelerator Programm befinden. Diese erhalten AWS Credits im Wert zwischen 1.000 Dollar und 15.000 Dollar sowie ein Monat bis ein Jahr kostenlosen AWS Business Support. Hinzu kommen “AWS Technical Professional” und “AWS Essentials” Trainings.

Noch Fragen wegen der hohen Marktanteile?

Angesichts dieser Initiative werden die Amazon Web Services auch in Zukunft alleine weiter vorne weglaufen. Mit Ausnahme von Microsoft, Google und Rackspace, positioniert sich nur AWS als Plattform für Nutzer, die dort ihre eigenen Ideen umsetzen können. Alle anderen Anbieter umarmen lieber Unternehmenskunden, die eher zögerlich auf den Cloud Zug aufspringen und bieten bei weitem nicht die Möglichkeiten einer AWS Cloud Infrastruktur. Anstatt das Portfolio auf Cloud-Services auszulegen, wird stattdessen mit Rechenleistung und Speicherplatz versucht auf Kundenfang zu gehen. Dabei hat Infrastruktur aus der Cloud mehr zu bedeuten als nur Infrastruktur.


"Amazon ist nur ein Webshop!" – "Europa braucht größere Eier!"

Ich hatte in diesem Jahr die Ehre die CEO Couch des Open-Xchange Summit 2013 zu moderieren. Dabei handelt es sich um ein Format, bei der Top CEOs mit provokanten Fragen konfrontiert werden und zu einem bestimmten Thema auf den Punkt antworten. Zum meinen Gästen gehörten Hermann-Josef Lamberti (EADS), Dr. Marten Schönherr (Deutsche Telekom Laboratories), Herbert Bockers (Dimension Data) und Rafael Laguna (Open-Xchange). Das Hauptthema in diesem Jahr war Cloud Computing und wie sich deutsche und europäische Anbieter gegen die vermeintlich übermächtige Konkurrenz aus den USA behaupten sollten. Ich habe zwei Aussagen herausgegriffen die während der CEO Couch genannt wurden, die ich kritisch diskutieren möchte.

Amazon ist nur ein Webshop!

Eine Aussage hat mir Sorgenfalten bereitet. Denn zum einen hatte bereits VMware damit unterstrichen, dass sie ihren vermeintlich größten Mitbewerber scheinbar unterschätzen, zum anderen ist sie absolut falsch. Um Amazon heute immer noch als einen Webshop zu bezeichnen muss man seine Augen sehr weit schließen und in etwa 90% des Unternehmens ausblenden. Amazon ist heute mehr als ein Webshop. Amazon ist ein Technologie Unternehmen bzw. Anbieter. Rafael hat dies während seiner Keynote sehr gut dargestellt. Es gibt derzeit drei Anbieter die es geschafft haben jeweils ein eigenes geschlossenes Ökosystem von den Web-Angeboten über die Inhalte bis zu den Endgeräten aufzubauen. Dazu gehören Google, Apple und Amazon.

Neben dem Webshop gehören weitere Technologie-Angebote und -Services zu dem Unternehmen. Darunter die Amazon Web Services, Content Distribution für digitale Bücher, Musik und Filme (LoveFilm, Amazon Instant Video), die E-Book Reader Kindle sowie der Kindle Fire (mit einer eigenen Android Version), die Suchmaschinen, Alexa Internet und die Filmdatenbank IMDb.

Wenn man sich darüber hinaus einmal anschaut wie Jeff Bezos Amazon führt (z.B. Kindle Strategie; Verkauf zum Selbstkostenpreis; Umsatz über Inhalte), stehen bei ihm langfristiges Wachstum und Marktanteile im Vordergrund, anstatt schnelle Gewinne zu erzielen.

Wer einen guten Eindruck von Jeff Bezos’ Denkweise bekommen möchte, dem empfehle ich den Fireside Chat mit Werner Vogels auf dem 2012er AWS re: Invent. Die 40 Minuten lohnen sich.

Europa braucht größere Eier!

Die Couch war sich geschlossen einig. Obwohl Europa das Potential und die Unternehmen hat, um in der Cloud abgesehen von Datenschutzthemen auch technisch und innovativ ein Wort mitzureden, werden im Vergleich zu den USA zu kleine Brötchen gebacken oder besser ausgedrückt: “Europa braucht größere Eier.”. Das hängt zum einen mit dem Kapital zusammen, dass Investoren in den USA bereit sind zu investieren, zum anderen aber auch an der Mentalität etwas zu riskieren, zu scheitern und groß und langfristig zu denken. An dieser Stelle können europäische Unternehmer und vor allem Investoren von Jeff Bezos lernen. Es geht um den langfristigen Erfolg und nicht darum schnell Geld zu verdienen.

Das ist meiner Ansicht nach auch ein Grund, warum wir niemals ein europäisches Unternehmen sehen werden, dass z.B. den Amazon Web Services (AWS) das Wasser reichen wird. Die potentiellen Kandidaten wie T-Systems, Orange und andere große ICT-Anbieter, die über die Rechenzentren, Infrastrukturen, das Personal und notwendige Wissen verfügen, konzentrieren sich lieber auf die Zielkunden die sie seit jeher bedienen – die Unternehmenskunden. Hingegen wird die Public Cloud sowie AWS-ähnliche Services für Startups und Entwickler völlig vernachlässigt. Das ist auf der einen Seite in Ordnung, da Cloud Angebote auf Enterprise Level und Virtual Private bzw. Hosted Private Cloud Lösungen benötigt werden, um die Bedürfnisse der Unternehmenskunden zu befriedigen. Auf der anderen Seite darf man sich dann aber auch nicht wundern, dass AWS derzeit die meisten Marktanteile besitzt und als Innovationsmaschine gilt. Die bestehenden ICT-Anbieter sind nicht bereit ihre bestehenden Geschäfte zu verändern oder durch neue Modelle zu erweitern, um damit weitere für sie attraktive Zielgruppen anzusprechen.

Allerdings, wie es auch mein Freund Ben Kepes gut beschrieben hat, ist Amazon derzeit zu recht mit Abstand der Liebling und Marktführer in der Cloud. Aber es gibt noch ausreichend Platz für andere Anbieter im Markt, die Use Cases und Workloads anbieten können, die Amazon nicht bedienen kann. Oder weil sich die Kunden einfach gegen die Nutzung von AWS entscheiden, da es für sie zu kompliziert, aufwendig, zu teuer oder mit rechtlichen Themen nicht vereinbar ist.

Also Europa, legt euch größere Eier zu! Ausreichend Potential ist vorhanden. Schließlich haben Anbieter wie T-Systems, Greenqloud, UpCloud, Dimension Data, CloudSigma oder ProfitBricks konkurrenzfähige Angebote. Von Marten Schönherr habe ich erfahren, dass er mit seinem Startup dabei ist ein Chromebook ohne Chrome zu entwickeln. Mir will allerdings nicht der Gedanke aus dem Kopf gehen, dass Rafael und Open-Xchange (OX App Suite) ihre Finger da mit im Spiel haben.