Categories
News

ProfitBricks expandiert in die USA

Nach der Markteinführung seines Infrastructure-as-a-Service (IaaS) Angebots im Mai 2012 auf dem deutschen Markt, startet der deutsche Cloud Computing Anbieter ProfitBricks mit dem Verkauf von virtuellen Rechenzentren in Las Vegas, USA

ProfitBricks: IaaS der nächsten Generation?

Die GUI weißt dem Kunden den Weg

Ein virtuelles Rechenzentrum von ProfitBricks ermöglicht es dem Kunden, komplette und beliebig komplexe Netzstrukturen zu konfigurieren und über die graphische Benutzeroberfläche “Data Center Designer”, die individuellen Anforderungen entsprechend und im laufenden Betrieb auf Knopfdruck anzupassen. Das gilt für jede Komponente des virtuellen Netzwerks: Prozessorleistung (Cores), Arbeitsspeicher (RAM), Festplattenplatz (Storage), Load Balancer oder Firewalls. Wie jedes gute IaaS Angebot reagiert die ProfitBricks Lösung auf Lastspitzen und lässt sich entsprechend skalieren.

Support aus erster Hand

Die Abrechnung der Ressourcen erfolgt minutengenau. Es wird also nur das bezahlt, was tatsächlich in Anspruch genommen wird. Zudem bietet ProfitBricks Support von eigenen deutschen und US-amerikanischen Mitarbeitern, die rund um die Uhr zur Verfügung stehen. Die Kunden haben darüber hinaus volle Kontrolle über den Standort ihrer Daten und können so auch weiterhin sicherstellen, dass ihre Daten ausschließlich in Deutschland mit deutschem Datenschutz gehostet werden.

Categories
News

Big Data: MapR integriert seine Hadoop Distribution mit der Google Compute Engine

MapR Technologies, Softwareanbieter für die Analyse großer Datenmengen, wird in Zukunft seine eigene Apache Hadoop Distribution für Googles Infrastructure-as-a-Service Google Compute Engine bereitstellen. MapR für die Google Compute Engine wird zunächst kostenlos als Private Beta für eine ausgewählte Anzahl von Benutzern zur Verfügung stehen. Wer Interesse an der Big Data Analyse hat, kann sich hier dafür bewerben.

Big Data: MapR integriert seine Hadoop Distribution mit der Google Compute Engine

Big Data Analyse auf der Google Compute Engine

Mit der Kombination von Googles neuen IaaS und MapRs Hadoop sind Nutzer damit in der Lage große Implementierungen von MapR Cluster on-Demand bereitzustellen und sich damit ein Cloud-basiertes System für die Analyse großer Datenmengen aufzubauen. Google hatte MapReduce ursprünglich für sein interes Such-Framework entwickelt.

Ein Meilenstein für die Big Data Analyse

Während der Google I/O demonstrierte MapR bereits, zu was seine Hadoop Implementierung in der Lage ist. Ein 1TB TeraSort Job wurde innerhalb von 1 Minute und 20 Sekunden verarbeitet. Dabei nutzte MapR einen Google Compute Engine Cluster bestehend aus 1.256 Nodes, 1.256 Platten und 5.024 Cores für gerade einmal 16 US-Dollar.

Zum Vergleich: Der aktuelle Weltrekord für den TeraSort liegt bei 1 Minute und 2 Sekunden. Dazu wurde ein physikalischer Cluster mit mehr als vier Mal so vielen Festplatten, doppelt so vielen Cores und weitere 200 Server benötigt. Kosten: Mehr als 5.000.000 US-Dollar.

Integration

Für die Integration von MapR mit der Google Compute Engine stehen mehrere Standard MapR Konfigurationen zur Verfügung. Nutzer können die Google Compute Engine je nach Bedarf nutzen und können, wenn nötig, mehr als 1.000 Node Cluster starten.

Categories
Kommentar

Zurück in die Cloud: Terminals und Mainframes bekommen ihr Update 2.0

Seitdem die ersten Cloud Lösungen auf dem Markt erschienen sind, hat sich bis heute vieles weiterentwickelt. Viele Anbieter versorgen uns mittlerweile täglich mit neuen Services. Auch Unternehmen, die traditionell nicht aus dem Cloud Computing Umfeld kommen, konzentrieren ihre Geschäftsmodelle verstärkt auf Lösungen aus der Cloud und bauen ihre Angebote darauf auf. Ebenso verhält es sich mit der Art wie wir in Zukunft bzw. bereits arbeiten oder im privaten Umfeld mit neuen mobilen Technologien umgehen. Wo die älteren Semester vereinzelnd bestimmt noch mit Terminals und Mainframes gearbeitet haben, wird die jüngere Generation diese Technologien nur aus dem Museum kennen. Aber aufgepasst wir erleben eine Revolution. Es geht nämlich “Zurück in die Cloud”.

Terminals und Mainframes für die Masse

Blicken wir auf die Vergangenheit zurück, hatte immer nur eine ausgewählte Gruppe an Unternehmen und Menschen Zugriff auf Rechenleistung usw., die durch Mainframes bereitgestellt und auf die per Terminals zugegriffen wurde. Dabei handelte es sich zum einen um große Unternehmen, zum anderen um Universitäten und Forschungseinrichtungen. Allerdings musste die Nutzung der Mainframes teuer bezahlt werden, denn Rechenleistung war Luxus.

Seit 2006 ist Rechenleistung und der Zugriff auf Speicherplatz, Anwendungen und IT-Ressourcen im Allgemeinen für die breite Masse zugänglich. Selbst wenn die Zielgruppe anfangs eher klein war, gehörte diese nicht mehr zu einer Gruppe von Auserwählten. Jeder der möchte darf heute auch – wenn er dazu in der Lage ist und das zu moderaten Preisen.

Terminals 2.0

Nicht zuletzt durch die Chromebooks und Chromebox von Google erleben die Terminals eine Revolution. Mit Googles ChromeOS verschwindet das lokale Betriebssystem und wandert in Googles Cloud, von wo sämtliche Anwendungen und Daten bereitgestellt werden. Das Chromebook bzw. die Chromebox sind lediglich nur noch ein Stück “dumme” Hardware mit einem Monitor sowie einer Tastatur/ Maus. Das Betriebssystem selbst wird über die Cloud geliefert. Schlussendlich ist Googles Chromebook Ansatz eine Weiterentwicklung der Terminal Services, die in den 90ern und z.T. bis heute noch gerne in Unternehmen eingesetzt werden, um den Mitarbeitern eine vollständige und vorkonfigurierte Arbeitsumgebung schnell bereitzustellen. Allerdings beschränkte sich dieses Konzept bisher nur auf das eigene Unternehmensnetz. Google geht einen Schritt weiter und macht die Terminals zu 100% mobil. Möglich machen es die heutzutage mobilen Datenverbindungen und WLAN Netze.

Neben Google gibt es natürlich weitere Anbieter, die Cloud Desktops bzw. Desktop-as-a-Service Lösungen anbieten, um darüber komplette Arbeitsumgebungen aus einer Cloud bereitzustellen.

Aber auch ohne Chromebooks oder explizite Cloud Desktops/ Desktop-as-a-Service Angebote sind wir nicht mehr auf unser lokales Betriebssystem angewiesen. Heutzutage reicht ein Browser, um Anwendungen (Software-as-a-Service, SaaS) zu nutzen, Daten zu speichern oder darauf zuzugreifen.

Mainframes 2.0

Die Amazon Web Services (AWS) wiederum haben die Mainframes revolutioniert. Was noch vor ein paar Jahren unvorstellbar war ist nun Wirklichkeit. Kreditkarte raus und her mit der Rechenleistung (Infrastructure-as-a-Service, IaaS). So einfach ist es wirklich. Bei der Umsetzung sollte man jedoch behutsam vorgehen.

Neben Rechenleistung können mittlerweile natürlich viele weitere Services über die Cloud genutzt werden. Speicherplatz, Geschäftsprozesse, Anwendungslogik bis hin zu ganzen Anwendungen (Platform-as-a-Service, PaaS) lassen sich in die Cloud auslagern. Neben Amazon gibt es mit Microsoft Windows Azure, Rackspace oder Google natürlich noch viele weitere Cloud Anbieter.

Was viele zudem nicht wissen. Jeder nutzt heute in irgendeiner Form die Cloud bzw. Cloud Anwendungen. So setzen beliebte Angebote wie Pinterest, SoundCloud, Instagram oder mobile Apps auf Cloud Infrastrukturen, um damit auf mögliche Besucheranstürme vorbereitet zu sein, bzw. hohe Investitionskosten in IT-Infrastruktur zu vermeiden.

Zurück in die Cloud

Die technologische Entwicklung die uns das Cloud Computing beschert, zeigt einen Trend der Informationstechnologie hin zu dem Motto “back to the roots” oder viel besser “back to the cloud”. Wie ich Eingangs beschrieben habe, wurde in den Anfängen der “vernetzten” Informationstechnologie die IT-Infrastruktur um einen Mainframe aufgebaut an dem Terminals angeschlossen waren. Terminals zeichneten sich dadurch aus, dass diese über lediglich einen Monitor und Eingabegeräte verfügten – aber über keinen lokalen Speicher oder eine nennenswerte Intelligenz. Diesem alten Ansatz steht im Grunde der einzige Unterschied gegenüber, dass der Mainframe i.d.R. im eigenen Rechenzentrum stand, da Bandbreiten mit heutigen Maßstäben nicht vergleichbar bzw. nicht finanzierbar waren. Mit der Revolution durch das Cloud Computing und den schnellen und allgemein stabilen Datenverbindungen kann die Hardware als auch Software heute überall stehen.


Bildquelle: http://bengene.blogspot.de

Categories
Analysen

Google Cloud Platform vs. Amazon Web Services – Ein erster Vergleich

Nachdem Google sein Cloud Portfolio mit der Compute Engine erweitert hat, fangen erste Medien an darin den Killer der Amazon Web Services zu sehen. Ein Grund mal die Cloud Services von Google und Amazon gegenüberzustellen. Wer sich für einen direkten Vergleich von Microsoft Windows Azure mit den Amazon Web Services interessiert, sollte hier weiterlesen.

Der Vergleich: Google Cloud vs. Amazon Cloud

Die folgende Tabelle stellt das Cloud Services Portfolio 1:1 gegenüber und schafft Klarheit, wer in welchem Bereich was anbietet, wie der Name des jeweiligen Service lautet und unter welcher URL weitere Informationen zu diesem zu finden sind.

Funktion

Amazon Web Services

Google Cloud Platform

Rechenleistung

Virtuelle Maschinen Elastic Compute Cloud Full Virtual Machines (Google Compute Engine)
High Performance Computing Cluster Compute Instances
MapReduce Elastic Map Reduce Google App Engine
Dynamische Skalierung Auto Scaling Google Compute Engine

Speicher

Unstrukturierter Speicher Simple Storage Service Google Cloud Storage
Flexible Entities SimpleDB
Block Level Storage Elastic Block Store Persistent disk (Google Compute Engine)

Datenbanken

RDBMS Relational Database Service Google Cloud SQL, BigQuery
NoSQL DynamoDB “Google F1”

Caching

CDN CloudFront
In-Memory ElastiCache

Netzwerk

Load Balancer Elastic Load Balancer
Hybrid Cloud Virtual Private Cloud
Peering Direct Connect
DNS Route 53 Public DNS

Messaging

Async Messaging Simple Queue Service
Push Notifications Simple Notification Service
Bulk Email Simple Email Service

Monitoring

Ressourcen Monitoring CloudWatch

Sicherheit

Identitätsmanagement Identity Access Management

Deployment

Ressourcenerstellung CloudFormation
Web Application Container Elastic Beanstalk Google App Engine

Wie man sieht, ist das Google Cloud Portfolio im Vergleich zum Service Angebot der Amazon Web Services noch sehr dünn. Falls ich etwas bei Google übersehen habe, macht mich darauf bitte aufmerksam. Ich werde das dann umgehend nachtragen.

Categories
News

SaaS-EcoSystem – CloudPlaner: "… aber die Idee ist gut…"

Unter www.cloud-planer.de hat der SaaS-EcoSystem e.V. einen Marktplatz für “Kompetenzträger” aus dem SaaS & Cloud-Computing Umfeld veröffentlicht, um hier einen Marktplatz anbieterunabhängiger und echter Cloud-Dienste aufzubauen. Hauptanliegen des Cloud-Planers sei nach Angaben des Vereins die Informationsvermittlung, eine Gewinnerzielungsabsicht bestehe nicht.

SaaS-EcoSystem CloudPlaner:

Die Idee ist gut, die Kriterien schwach!

Der Cloud-Planer soll Unternehmen transparent über Lösungen, Experten & Technologien im Bereich SaaS & Cloud bieten. Dazu sollen sie in dem Cloud-Marktplatz Profile über verfügbare Cloud-Lösungen, Cloud-Technologien und Cloud-Experten finden und sich umfangreich informieren.

Die Kriterien für eine “echte” Cloud-Lösung á la SaaS-EcoSystem e.V. sind:

  • Basiert die Lösung auf Internet-Technologien und bietet sie eine browserbasierte Oberfläche oder eine App für mobile Endgeräte?
  • Kann der Nutzer die Anwendung administrieren?
  • Ist gewährleistet, dass alle Kunden zu jeder Zeit mit dem gleichen Software-Release arbeiten?
  • Wird die Software automatisiert bereitgestellt und kann der Kunde die Einrichtung selber vornehmen?
  • Ermöglicht die Lösungsarchitektur eine beliebige Skalierung, also die für die Zielgruppe unlimitierte Nutzung der Anwendung?

Ich möchte das an dieser Stelle mal unkommentiert lassen und verweise u.a. auf:

Nur noch eins. Im Katalog kann man ebenfalls nach PaaS und IaaS Lösungen suchen. Die Anforderungen des SaaS-EcoSystem e.V. decken die Eigenschaften eines PaaS und IaaS Anbieter überhaupt nicht ab.

Present your own dog food – Unabhängigkeit Fehlanzeige

In der ersten Version beinhaltet der Marktplatz nur die Angebote und Lösungen von Mitgliedern aus dem SaaS-EcoSystem. Innerhalb der nächsten Monate soll der Cloud-Planer nach Angaben des Vereins jedoch für alle weiteren Anbieter von Cloud-Angeboten geöffnet werden. Ergo: Anbieterunabhängigkeit zunächst Fehlanzeige.

Lösungen, die mit dem “Trust in Cloud” Zertifikat des SaaS-EcoSystem ausgezeichnet wurden, werden auf www.cloud-planer.de besonders hervorgehoben. Zudem sollen Unternehmen auf dem Cloud Marktplatz Fachleute zu allen relevanten Fachthemen im Cloud-Bereich sowie wissenswerte Beiträge von “Cloud-Experten”, die in Videobeiträgen komplexe Sachverhalte verständlich darstellen finden. Mit dem Qualitätszertifikat “Cloud-Experte” zeichnet das SaaS-EcoSystem nach eigenen Angaben Personen aus, die nachgewiesen haben, das entsprechende Know-how zu besitzen.

Was ich von den “Trust in Cloud” und dem “Cloud-Experten” Zertifikaten halte, habe ich bereits hier beschrieben:

Keine Gewinnerzielungsabsicht? Naja!

Ich musste in letzter Zeit immer wieder die Aussagen verarbeiten: “Als Verein/ Verband haben wir keine Absichten Gewinn zu erzielen.” Das stimmt natürlich, aber die Mitglieder des Vereins sind – zurecht – darauf getrimmt, Geld zu verdienen. Und genau dafür ist dieser Marktplatz gedacht, den Mitgliedern Aufträge zu besorgen. Es sei nebenbei angemerkt, dass die beiden Vorstände des SaaS-EcoSystem e.V. ebenfalls mit ihren SaaS Lösungen und Beratungsleistungen dicke im Anbieter Katalog vertreten sind. Wie gesagt, das ist auch gerechtfertigt. Aber muss man sich damit hinter dem Deckmäntelchen des Vereins/ Verbands verstecken. Mit offenen Karten zu spielen würde viel mehr Glaubwürdigkeit und Transparenz zeigen. Das gilt übrigens für alle Verbände, Vereine und sonstige nicht kommerzielle Institutionen.

Categories
News

Google präsentiert mit der Google Compute Engine seinen eigenen Infrastructure-as-a-Service. Noch keine Konkurrenz für AWS!

Nun ist es soweit und es zeigt, dass Gerüchte immer ein Stück Wahrheit mit sich bringen. Google steigt mit seiner Google Compute Engine in den mittlerweile hart umkämpften Markt der Infrastructure-as-a-Services (IaaS) ein. Der Public Cloud Service vervollständigt neben einem Platform-as-a-Service Angebot (Google App Engine) und einer Software-as-a-Service Lösung (Google Apps) das Google Cloud Portfolio zu einem vollständigen Cloud Stack.

Google präsentiert mit der Google Compute Engine seinen eigenen Infrastructure-as-a-Service

Das Cloud Portfolio wird erweitert

Mit der Google App Engine, BigQuery und dem Google Cloud Storage hat Google seit 2008 sein Cloud Portfolio stetig ausgebaut. Was noch fehlte war eine Infrastructure-as-a-Service Lösung, mit der virtuelle Maschinen bei Bedarf genutzt werden können.

Mit der Google Compute Engine steigt Google nun auch in dieses Marktsegment ein und bietet in einer geschlossenen Beta die Möglichkeit, virtuelle Maschinen (VM) mit dem Linux Betriebssystem auf der Google Infrastruktur, die auch von Google Mail und anderen Services eingesetzt wird, zu nutzen.

Rechenleistung

Hier bietet die Compute Engine zunächst die Möglichkeit Ubuntu als auch CentOS Linux Betriebssysteme auf virtuellen Maschinen mit 1,2,4 oder 8 Kernen und 3,75 GB Arbeitsspeicher pro virtueller Instanz zu nutzen.

Speicherplatz

Mit der Compute Engine können drei unterschiedliche Arten genutzt werden, um die Daten zu speichern.

Flüchtiger Speicher

Auf jeder virtuellen Instanz befindet sich ein flüchtiger lokaler Speicher, bei dem die Daten nur während des Lebenszyklus einer virtuellen Maschinen gespeichert werden. Wenn die VM gestoppt wird, werden alle Daten gelöscht. Dennoch werden alle Daten die auf die VM geschrieben verschlüsselt abgelegt.

Persistenter Speicher

Die Google Compute Engine bietet einen persistenten Speicher, der als Service (virtuelle Fesplatte) mit dem Google Storage Netzwerk verbunden ist und über dieselbe Latenz und Geschwindigkeit wie der lokale Speicher einer VM verfügt. Daten die auf diese “virtuelle Festplatte” gespeichert werden, werden automatisch über mehrere physikalische Festplatten innerhalb eines Google Rechenzentrum repliziert. Darüber hinaus können Snapshots von den Festplatten für Backup/ Restore Zwecke erstellt werden. Zudem besteht die Möglichkeit diese virtuellen Platten als Laufwerk in mehrere virtuelle Maschinen zu mounten, um davon Daten zu lesen. Wie beim lokalen VM Speicher sind auch die Daten auf den virtuellen Festplatten verschlüsselt.

Google Cloud Storage

Der Google Cloud Storage existiert für Entwickler schon etwas länger. Er bietet die Möglichkeit, Daten persistent zu speichern und auf die Buckets (Ordner) innerhalb des Storage mit einer VM zuzugreifen.

Netzwerkkapazitäten

Über der Google Netzwerk lassen sich die virtuellen Maschinen mit der Aussenwelt und innerhalb des Netzwerks selbst verbinden.

Isolierte Bereiche

Der Netzwerk Stack ist so aufgebaut, dass sich die virtuellen Maschinen eines Nutzers in einem isolierten Bereich befinden und von Dritten nicht ohne Weiteres darauf zugegriffen werden kann.

Externe IP Adressen

Die virtuellen Maschinen können entweder mit statischen oder dynamischen IP-Adressen verknüpft werden, um anschließend über das Internet auf diese zuzugreifen.

Konfigurierbare Firewall

Mit einer Firewall können die Zugriffe auf die virtuellen Maschinen kontrolliert werden.

Management

Mit einer Benutzeroberfläche sowie einem Kommandozeilentool kann die Infrastruktur verwaltet werden.

API

Alle Management Tools basieren auf einer offenen RESTful API. Google plant darüber hinaus, alle verfügbaren Tools als Open Source zu veröffentlichen, um den Nutzern die Möglichkeiten zu geben, eigene Tools nach ihren Bedürfnissen zu entwickeln.

Ecosystem

Google arbeitet bereits mit ein paar Partner darunter RightScale, Puppet Labs, OpsCode, Numerate, Cliqr und MapR zusammen, die in Zukunft die Google Compute Engine unterstützen und integrieren werden und weitere Management-Kapazitäten anbieten.

Kosten

Virtuelle Maschinen

Konfiguration Virtuelle Kerne Arbeitsspeicher GCEU Lokaler Speicherplatz Preis pro Stunde GCEU pro Stunde
n1-standard-1-d 1 3,75GB 2,75 420GB 0,145 Dollar 0,053 Dollar
n1-standard-2-d 2 7,5GB 5.5 870GB 0,29 Dollar 0,053 Dollar
n1-standard-4-d 4 15GB 11 1770GB 0,58 Dollar 0,053 Dollar
n1-standard-8-d 8 30GB 22 2 x 1770GB 1,16 Dollar 0,053 Dollar

GCEU steht für “Google Compute Engine Unit”. Dabei handelt es sich um eine Masseinheit, mit der Google die Rechenleistung seiner Instanzen, basierend auf einem Industriestandard, misst.

Netzwerk Kapazitäten

Eingehend Kostenlos
Ausgehend in derselben Zone Kostenlos
Ausgehend zu einem anderen Cloud Service in der selben Region Kostenlos
Ausgehend in eine andere Zone in derselben Region 0,01 Dollar pro GB
Ausgehend in eine andere Region innerhalb der USA 0,01 Dollar pro GB
Ausgehender Verkehr International siehe ausgehende Internetverbindungen

Ausgehende Internetverbindungen (Amerika, EMEA)

0-1 TB pro Monat 0,12 Dollar pro GB
1-10 TB pro Monat 0,11 Dollar pro GB
10+ TB pro Monat 0,08 Dollar pro GB

Ausgehende Internetverbindungen (APAC)

0-1 TB pro Monat 0,21 Dollar pro GB
1-10 TB pro Monat 0,18 Dollar pro GB
10+ TB pro Monat 0,15 Dollar pro GB

Persistenter Speicherplatz

Speicherplatz 0,10 Dollar pro GB pro Monat
Snapshot Speicher 0,125 Dollar pro GB pro Monat
IO Operationen 0,10 Dollar pro Millionen Operationen

IP-Adressen

Statische IP-Adresse 0,01 Dollar pro Stunde
Dynamische IP-Adresse kostenlos

Ein Amazon Web Services Killer?

In der Techwelt wird schon von einem Amazon Web Services (AWS) Killer gesprochen. Fakt ist, die Google Compute Engine ist ein IaaS Angebot und Google verfügt auf Grund seines Kerngeschäfts über die Expertise, hochskalierbare Infrastrukturen aufzubauen und diese hochverfügbar zu betreiben. Die Google App Engine zeigt darüber hinaus, dass Google es versteht, Entwickler anzusprechen, auch wenn sich der Markt hier mit zunehmend attraktiven Alternativen verengt.

Noch keine Konkurrenz zu AWS!

Schauen wir uns die Compute Engine an, dann sehen wir Instanzen und Speicherplatz, mehr nicht. Wer Google nun als DIE kommende Konkurrenz zu den Amazon Web Services sieht, ist erst einmal auf dem Holzweg. Amazon hat ein riesen Portfolio an Cloud Services, an die Google erst einmal anknüpfen muss. Ich gehe allerdings davon aus, dass in den kommenden Monaten mehr passieren wird. Unter http://cloud.google.com vereint Google mittlerweile seine sämtlichen Cloud Lösungen, darunter die App Engine, Cloud Storage, BigQuery und nun auch die Compute Engine. Google wird daher nicht die Compute Engine weiter ausbauen, sondern die Cloud Plattform im Laufe er Zeit mit weiteren Services erweitern.

Herausforderung Datenschutz

Es ist bei Google nicht klar, wo sich die Cloud Ressourcen befinden. Wo Amazon und Microsoft klar herausstellen und die Möglichkeit bieten, virtuelle Maschinen explizit in einem europäischen Rechenzentrum zu starten, verhält sich Google hier, wie immer, sehr bedeckt. Da ich bisher nur auf der Warteliste stehe, um einen ersten Blick auf die Compute Engine zu werfen, kann ich nicht sagen, ob man Instanzen explizit in einem EU Rechenzentrum starten kann. In der offiziellen Dokumentation zur Compute Engine habe ich allerdings nichts gefunden. Ich vermute allerdings, dass es nicht möglich ist, da alle Anwendungen, die sich auf der App Engine befinden, auch in den USA laufen. Erst mit der App Engine Version 1.7.0 bietet Google seinen Premium Kunden die Möglichkeit auch einen europäischen Cluster zu nutzen. Allerdings nichts aus dem Grund des Datenschutzes sondern auf Grund der Latenz.

Google scheint nicht zu verstehen, dass den Europäern das Thema Datenschutz scheinbar wichtiger ist als den Amerikanern. Google muss an dieser Stelle jedoch begreifen, dass, wenn Sie auch Unternehmen davon überzeugen wollen, die Google Cloud zu nutzen, sie es in diesem Umfeld mit einem anderen Klientel zu tun haben und nicht mit Entwicklern, die “nur” drauflos programmieren wollen.

Wie schon bei seinen Consumer Services denkt Google leider immer erst nur an die USA. Andere Länder/ Kontinente wie Europa bleiben da zunächst Außen vor, sehr schade.


Bildquelle: http://anandtech.com

Categories
News

Google präsentiert sein eigenes Infrastructure-as-a-Service Angebot offenbar während der Google I/O

Nachdem bereits Mitte Mai erste Gerüchte um ein Infrastructure-as-a-Service (IaaS) Angebot aus dem Hause Google aufkamen, spekuliert GigaOm weiter, dass der Suchmachinengigant den Service in dieser Woche während seiner jährlichen Entwicklerkonferenz Google I/O in San Francisco präsentieren wird.

Google präsentiert sein eigenes Infrastructure-as-a-Service Angebot offenbar während der Google I/O

Google steht im Markt zwei festen Größen gegenüber. Zum einen die Amazon Web Services, zum anderen Microsoft Windows Azure. Da auch Microsoft sein ursprüngliches Platform-as-a-Service Angebot mittlerweile zu einem vollständigen Cloud Stack mit IaaS ausgebaut hat, sieht es danach aus, dass sich ein Dreikampf um die Vorherrschaft in der Cloud entwickeln wird.

Wie Googles Strategie in der Cloud aussehen wird ist schwierig vorherzusagen. Auf der einen Seite gehört die Entwicklergemeinde zu Googles Zielgruppe, die wiederum auch zu Microsoft Schwerpunkt zählt und in dem die Redmonder wirklich sehr stark aufgestellt sind. Zum anderen wird sich Amazon als der größte Mitbewerber im IaaS Bereich herausstellen, die ebenfalls die Entwickler Communities beackern und sich zudem um Microsoft Entwickler bemühen.

Während Amazon derzeit noch verstärkt um die Startups dieser Welt bemüht ist und langsam versucht in die Unternehmen zu gelangen, bleibt der Markt für etablierte Unternehmenskunden den Public Cloud Playern dennoch weitestgehend verschlossen. Ob Google daran etwas ändern kann wird sich zeigen. Allerdings kristallisiert sich langsam der Trend heraus, dass Unternehmen sich vermehrt auf die Private Cloud konzentrieren und Entwickler sowie Startups sich zunächst die Public Cloud zu nutze machen. Letztendlich geht es immer um den Use Case.

Categories
News

Rackspace wird nervös! Offenheit als Argument gegen AWS und seine "Klone".

Tja, wenn man die Fälle davon schwimmen sieht, versucht man es halt mit Spitzen gegen die Konkurrenz. In diesem Fall Rackspace Präsident Lew Moorman gegen die Amazon Web Services (AWS) und alle Anbieter, die “Klone” der AWS Cloud aufbauen. Moorman ist auf dem Standpunkt, dass der Cloud Markt eine Open Source Alternative zum Platzhirsch AWS benötigt, so der Manager während seiner Präsentation auf der GigaOm Structure 2012. Rackspace gehört zu den größeren Mitbewerbern von AWS und den Initiatoren der Open Source Cloud Software OpenStack.

Rackspace wird nervös! Offenheit als Argument gegen AWS und seine

Moorman: Nicht auf den AWS Zug aufspringen

Moorman hält es für eine falsche Strategie, wenn sich andere Anbieter darauf konzentrieren einfach nur Interoperabilität zu der Amazon Cloud Infrastruktur zu bieten. Natürlich bringt Moorman in diesem Zusammenhang OpenStack ins Spiel, das Rackspace zusammen mit der NASA im Jahr 2010 gegründet hat und welches er als die Open Source Alternative am Markt sieht. Er vergleicht OpenStack sogar mit der Evolution von Linux. Allerdings widerspricht sich der Rackspace Präsident. OpenStack sei bemüht zu 100% im Einklang mit den Amazon Web Services zu sein, wird aber stetig in die Entwicklung und Wartung einer eigenen transparenten API investieren. Damit möchte OpenStack zwar kompatible zu AWS sein, seinen Kunden aber mehr Möglichkeiten bieten.

Eat Your Own Dog Food

Rackspace setzt alles auf OpenStack. So wird der Cloud Anbieter gegen Ende dieses Sommers seine Public Cloud Infrastruktur komplett auf die OpenStack Plattform umstellen. Moorman erwartet das Gleiche von anderen Anbietern, die dem OpenStack Projekt angehören. Beispielweise basiert das gesamte HP Converged Cloud Portfolio auf OpenStack.

Ein der Verzweiflung geschuldeter Schritt

Rackspace bzw. Moormans Vorstoß wirken wie ein verzweifelter Versuch, neben dem großen Rivalen AWS ein wenig Aufmerksamkeit zu bekommen. Insbesondere Rackspace ist seit Jahren das, was man nicht als offen bezeichnen kann. Erst mit OpenStack scheinen sie die Kurve zu bekommen. Aber was bedeutet hier offen? Reden wir von der Software oder den APIs? Reden wir hier im Sinne der Kunden als Endnutzer oder im Sinne der Kunden von OpenStack, also Service Anbieter? Wenn wir an dieser Stelle von Kunden sprechen sollten wir es im Sinne der Endkunden, also Unternehmen, die Cloud Infrastrukturen nutzen, machen.

Was ich sehr traurig finde ist, das sich Rackspace bzw. OpenStack selbst nicht treu sind. Auf der einen Seite argumentieren sie damit, dass der Cloud Markt eine Open Source Alternative zu den Amazon Web Services benötigt, auf der anderen Seite wollen sie zu 100% konform zu AWS sein. Was denn nun bitte Rackspace und OpenStack?

Eines ist klar, der Anbieter und das Projekt scheinen verstanden zu haben, dass AWS meilenweit entfernt ist. Zudem wird Rackspace meiner Einschätzung nach langsam nervös, da AWS sich mit Eucalyptus einen starken Open Source Partner an Land gezogen hat, mit dem Unternehmen ihre eigene AWS kompatible Private Cloud aufbauen können, wodurch sie ihre Instanzen, Workloads etc. zwischen der Amazon Cloud und der eigenen Eucalyptus Cloud verschieben können.

In meinem Artikel “Die Amazon Web Services und der Vendor Lock-in“, habe ich auf mögliche Lock-in Situationen in der Amazon Cloud hingewiesen. Diese beziehen sich auf die Amazon Services Amazon DynamoDB und Simple Workflow Services (SWF), die dazu führen, dass Unternehmen sich in eine Abhängigkeit begeben, da DynamoDB eine proprietäre Datenbank ist und mit SWF vollständige Geschäftsprozesse in der Amazon Cloud abgebildet werden können. Allerdings bin ich seit der Kooperation mit Eucalyptus hier entspannter geworden, da Eucalyptus in Zukunft immer mehr AWS Services adaptieren wird.

Rackspace kopiert die AWS Strategie

Nachdem AWS und Eucalyptus nun also kooperieren, um hybride Cloud Infrastrukturen aufzubauen und damit den Lockin aufweichen, muss Rackspace nachziehen. Mit der Umstellung der eigenen Public Cloud Infrastruktur auf OpenStack machen sie den ersten Schritt, um bei ihren Kunden dann zukünftig argumentieren zu können, dass diese mit einer eigenen Private Cloud auf Basis von OpenStack ebenfalls einen hybriden Ansatz verfolgen können.

Categories
News

Big Data: Jaspersoft geht in die GoGrid Cloud

Business Intelligence Anbieter Jaspersoft und Cloud Anbieter GoGrid gehen in Zukunft gemeinsame Wege. Die Open Source BI Plattform von Jaspersoft wird dazu auf dem GoGrid Exchange Ökosystem zur Verfügung gestellt. Mit GoGrid Exchange können Kunden Cloud-basierte Software als Teil ihrer IT-Infrastruktur einsetzen. Unter Einsatz der GoGrid Server Image (GSI) Technologie sind Unternehmen und Entwickler jetzt in der Lage die BI-Reporting-Funktionalitäten von Jaspersoft nutzen.

Big Data treibt Reporting und Analysen

Reporting und Analysen werden in aufkommenden Zeiten von Big Data immer wichtiger für die Entwicklung und den Einsatz von datengetriebenen Anwendungen. Cloud Angebote ermöglichen es, solche Lösungen überall performant und skalierbar verfügbar zu machen, um Unternehmen bspw. einen einfachen Zugriff auf BI-Technologie mit einer eine robusten Reporting-Lösung zu ermöglichen.

Jaspersoft und GoGrid auf einem Blick

Kunden sollen von der Partnerschaft wie folgt profitieren:

  • Zugang zu webbasierter Business Analytics – über jeden Browser, auch von mobilen Endgeräten aus
  • Umfassende Unterstützung für Mandantenfähigkeit bei dem Einsatz komplexer Anwendungen
  • Datenintegration aus jeglichen Datenquellen: aus der Cloud oder von on-Premise, einschließlich Jaspersoft BI for Big Data oder GoGrid Big Data Solution.

Infrastructure-as-a-Service ist Grundlage für Big Data

Infrastructure-as-a-Service (IaaS) gehört zu einer zentralen Cloud Strategie, wenn Unternehmen BI-Anwendungen einsetzen, aber nicht direkt für den operativen Ablauf, Storage, Hardware und Netzwerkkomponenten verantwortlich sein wollen. Zudem stellt IaaS auf Grund der massiven Skalierbarkeit der Infrastruktur die ideale Grundlage für Anwendungen und Analysen rund um das Thema Big Data dar.


Bildquelle: http://www.newelements.de

Categories
News

Die Amazon Web Services überarbeiten ihre Support Angebote

Nachdem mit HP und Oracle nun zwei große der Branche ebenfalls beim Cloud Computing mitspielen, haben die Amazon Web Services (AWs) ihre Support Angebote überarbeitet. AWS hat entsprechend die Preise für seinen Premium Support verringert und wird seinen Gratis Support ausweiten.

Neben den Startups versucht Amazon seit längerer Zeit vehement auch einen Fuß bei den Enterprise Kunden in die Tür zu bekommen. Allerdings haben etablierte Anbieter wie HP und Oracle bereits mehr Erfahrung im Support für Unternehmenskunden und werden das als ein Unterscheidungsmerkmal zu Amazon sehen und bewerben. Kein Wunder also, das AWS hier nachziehen muss.

Die neuen AWS Support Angebote gliedern sich in Zukunft wie folgt:

  • Basic: Kostenloser 24×7 Support für alle AWS Kunden. Das beinhaltet Kontakt zum Kundenservice bzgl. Problemen mit dem Account und der Abrechnung sowie einem technischem Support für Probleme des AWS Systems. Darüber hinaus stehen mit technischen FAQs, Best Practise Guidelines und dem AWS Service Health Dashboard, ebenfalls die offiziellen AWS Entwickler Foren offen.
  • Developer: Ist vergleichbar mit einem Bronze Support und bietet für 49 US-Dollar pro Monat einen 1:1 E-Mail Kontakt mit Experten von AWS während der normalen Geschäftszeiten. Dazu gehören die Hilfe bei der Konfiguration, dem Betrieb und der Wartung von Applikationen, welche die Kernfunktionen- und Services von AWS nutzen.
  • Business: Nannte sich vormals Gold Support und beinhaltet den Basic und Developer Support. Hinzukommen ein 24/7 Telefon-, E-Mail und Chat-Support inkl. einer Reaktionszeit von einer Stunde sowie die Unterstützung durch einen AWS Trusted Advisor, der für die Überwachung zuständig ist und bei einem optimalem Betrieb hilft. Der Support deckt zudem die Lösungen von Drittanbietern wie E-Mail- und Datenbanklösungen ab. Die Kosten betragen ab sofort 100 US-Dollar pro Monat (vormals 400 US-Dollar) plus 3%-10% von den monatlichen Kosten für die Nutzung der AWS Infrastruktur.
  • Enterprise: Nannte sich zuvor Platinum Support und wird nun pro Nutzung abgerechnet. AWS garantiert hier eine Reaktionszeit von 15 Minuten nach Eingang des Problems, einen persönlichen technischen Ansprechpartner sowie Zugang zu AWS Architekten und Beratern.

Die neue Kostenstruktur für den AWS Support

Die Amazon Web Services überarbeiten ihre Support Angebote


Bildquelle: http://www.activegarage.com/