Categories
News

Salesforce.com erhält TÜV Zertifizierung

Als erster Cloud Computing Anbieter in Deutschland hat Salesforce.com die Anforderungskriterien für das TÜV-Siegel “Geprüfter Datenschutz – Cloud Computing V1.0” erfüllt. Im Vordergrund des Audits stand die Gewährleistung des Schutzes personenbezogener Daten auf Grundlage deutscher Datenschutzgesetze. Zertifiziert wurden die CRM-Lösungen von salesforce.com für Marketing, Sales und Service, die Force.com Entwicklungsplattform sowie die Kollaborationslösung Chatter.

Im Rahmen des Zertifizierungsprozesses wurden folgende vier Kernelemente einer umfassenden Prüfung unterzogen:

    (1) Die Grundanforderung an eine Datenschutzorganisation.
    (2) Die Datenschutzkonformität von Prozessen mit personenbezogenen Daten.
    (3) Die Bewertung technischer und organisatorischer Maßnahmen.
    (4) Die Anforderungen an die Datensicherheit im Rahmen des Datenschutzes.

Salesforce.com erfüllt bereits seit mehreren Jahren die internationalen IT-Sicherheitsstandards, wie ISO 27001 und SYSTRUST.

Categories
Management @en

How can you identify true Cloud Computing?

People often ask me, how they can identify a true Cloud Computing offering. Often they say: “Hey, our data is processed by a service provider in his data center. Well, we are using the Cloud, right?”

Hm, Careful! Many marketing departments of webhosting provider abused Cloud Computing in the last month, whereby a dilution of the term has taken place. What you have known as a “Managed Server” before is now a “Cloud Server”. Eventually they just change the badge.

To identify a true Cloud Computing offering, you shall take care of the following characteristics:

  • On Demand:
    I obtain the resources at the moment, when I actually need them. Afterwards I just “give them back”.
  • Pay as you Go:
    I just pay for the resources which I am actually using, when I am using them. Thereby it will be deducted per user, per gigabyte or per minute/hour.
  • No basic fee:
    Using a Cloud Computing offering I do not have to pay a monthly/annual basic fee!
  • High Availability:
    When I need the resources I can use them exactly at this time.
  • High Scalability:
    The resources adapt to my needs. This means that they either grow with my needs, if I need more performance or they become smaller if the requirements decrease.
  • High Reliability:
    Resources I am using during a specific period of time are actually available when I need them.
  • Blackbox:
    I don’t have to care about the things inside the Cloud offering. I just use the service over an open, well documented API.
  • Automation:
    After the establishment regarding my needs, I do not have to take any interventions manually, while using the offering. That means, I do not have to change the performance of the Server or the size of the storage space manually. The Cloud provider allocates capabilities (like tools etc.) for automation.
  • Access via the Internet:
    This is discussible! However, the cost advantage which is obtained by Cloud Computing is obsolete if an expensive exclusive leased line is required, for example to use the resources of a provider.
Categories
Events

CloudOps Summit – Run your Cloud.

Im Laufe diesen Jahres hat das Thema Cloud Computing in atemberaubender Geschwindigkeit an Bedeutung gewonnen und steht kurz davor, die Bereitstellung von IT-Services nachhaltig zu prägen. Die neuen Möglichkeiten, die Cloud Computing in Form von öffentlichen Angeboten (Public Cloud) und Privaten Cloud-Verfahren (Private Cloud) bietet, äussern sich in einer bisher unvorstellbarer Flexiblität und Vielseitigkeit hinsichtlich Bereitstellung, Kapazitäten und Vergütungsmodellen. Für den Betrieb dieses derartiger Infrastrukturen ergeben sich für die Provider, Software-Hersteller, Endkunden ebenfalls eine Fülle neue Herausforderungen.

Der CloudOps Summit 2010 am 17.03.2011 will den Focus auf den Betrieb und die Architektur von Cloud Computing Infrastrukturen legen und eine Brücke zwischen den bislang oft Marketing-getriebenen Angeboten hin zum Betrieb und den Architekten solcher Lösungen schlagen.

Unter dem Motto “Run your Cloud” werden sich ca. 200 bis 300 Teilnehmer im neuen Hörsaalzentrum der Universität Frankfurt am Campus Westend treffen, um die Themen Cloud Computing und den Betrieb von dynamischen Infrastrukturen diskutieren.

Categories
News

T-Systems geht in die Cloud

Mit einer kostenlosen Testphase für bereits vorhandene Unternehmenskunden startet nun auch T-Systems als ein großes deutsches Unternehmen mit einem Infrastructure as a Service Angebot in die Cloud. Die Pilotphase beginnt noch im November 2010 und wird im Februar 2011 enden.

Mit diesem Angebot wird T-Systems in direkter Konkurrenz zu den Amazon Web Services stehen. Das könnte Erfolg versprechend sein, wird alleine die finanzielle Kraft von T-Systems betrachtet.

T-Systems stützt sich vor allem auf die oft diskutierten Bereiche Zugriffskontrolle, Datenschutz und Datensicherheit, sowie die Service Level Agreements (SLAs). Alles im Hinblick auf eine höchstmögliche Skalierbarkeit.

Alle Rechenzentren und damit sämtliche Daten des Kunden werden sich in Deutschland befinden und nach der ISO Sicherheitsnorm 27001 zertifiziert und können darüber hinaus ebenfalls von den Kunden selbst auditiert werden.

Categories
Management @de

Cloud Computing ist ein durch das Business getriebenes Konzept

Ich höre in Gesprächen oft, dass Cloud Computing ein rein technologischer Ansatz ist und dafür entwickelt wurde, Unternehmen in Zukunft zu helfen, skalierbarer, flexibler etc. zu agieren. Das ist auf der einen Seite auch richtig, allerdings vertrete ich die Meinung, dass Cloud Computing in erster Linie durch das Business und nicht durch die Technologien getrieben wird bzw. wurde. Aber warum ist das so?

Betrachten wir die Entwicklung der drei derzeitigen Player (Google, Amazon und Salesforce) im Cloud Computing Markt lässt sich daraus vieles ableiten, aber vor allem Gemeinsamkeiten erkennen, die zeigen, dass Cloud Computing ein vom Business getriebener Ansatz ist.

Wie viele vielleicht denken mögen, war Cloud Computing nicht plötzlich da. Nein, es ist historisch gewachsen! Google, wie auch Amazon hatten sich zu Beginn niemals das Ziel gesetzt: “Hey, wir machen jetzt Cloud Computing und bieten Services ‘on Demand’ und auf Basis von ‘Pay as you go’ über das Internet an”. Genau das machen die zahlreichen Anbieter, die derzeit auf den Cloud Computing Zug aufspringen. Nein, die Gründe von Google und Amazon sind einfacher und recht simpler Natur. Es ist jeweils ihr Kerngeschäft, was sie dazu “gezwungen” hat, Cloud Computing Technologien zu entwickeln und zu nutzen.

Warum benötigt Google Cloud Computing?

Betrachten wir das Kerngeschäft von Google, steht hier die Suche und Indizierung des Internets im Vordergrund. Der Ausbau der Infrastruktur hat es schließlich ermöglicht, immer weitere Anwendungen zu entwickeln.

Warum benötigt Amazon Cloud Computing?

Amazons Kerngeschäft ist zunächst der Webshop und die dahinter nachgelagerten Prozesse, wie bspw. die Logistik, das Datawarehouse etc. Durch den Ausbau der Infrastruktur, abgesehen von den Amazon Web Services, können weitere ressourcen hungrige Anwendungen in das Portfolio mit aufgenommen werden.

Warum benötigt Salesforce Cloud Computing?

Nun, Salesforce ist ein wenig spezieller, da sie ihr Businessmodell von Beginn an exakt darauf ausgerichtet haben, Software as a Service, ergo einen Cloud Computing Service als Kerngeschäft anzubieten.

Gemeinsamkeiten!

Schauen wir uns die Gemeinsamkeiten (Herausforderungen) an, denen alle drei zugleich Gegenüberstehen, um ihr Kerngeschäft zu betreiben, wird deutlich warum Cloud Computing in erster Linie durch die eigentlichen Kerngeschäfte, also durch das Business, der drei Unternehmen getrieben wurde.

  • Hohe Rechenleistung
  • Hohe Performance
  • Hohe Verfügbarkeit
  • Hohe Zuverlässigkeit
  • Hohe Skalierbarkeit

Fazit!

Cloud Computing ist in erster Linie ein durch das Business getriebenes Konzept, welches durch die Kombination technologischer Entwicklungen aus den vergangenen Jahren optimal unterstützt wird.

Categories
News

Amazon Web Services erhalten ISO 27001 Zertifizierung

Die Amazon Web Services haben die ISO 27001 Zertifizierung erhalten. Die ISO 27001 Zertifizierung umfasst die AWS Infrastruktur, die Rechenzentren und die Services. Zu den zertifizierten Services gehören Amazon Elastic Compute Cloud (Amazon EC2), Amazon Simple Storage Service (Amazon S3) und Amazon Virtual Private Cloud (Amazon VPC).

Die ISO 27001 Norm ist ein globaler Sicherheitsstandard, der bestimmte Anforderungen an ein Information Security Management System stellt. Um die Zertifizierung zu erreichen, muss ein Unternehmen versichern, dass es über ein systematisches und kontinuierliches Konzept zur Verwaltung der sensiblen Unternehmens- und Kundendaten verfügt.

Die Amazon Web Services und alle ihre AWS Regionen sind bzgl. dieses weltweiten Sicherheitsstandards nun vollständig kompatibel und somit weltweit anerkannt. Weiterhin hat AWS ein offizielles Programm für die Aufrechterhaltung dieser Zertifizierung etabliert.

Categories
News

Amazon EC2 stellt Cluster GPU Instanzen vor

Mit den Cluster GPU Instanzen für Amazon EC2 führt Amazon einen neuen Instanz Typ ein, mit dem die Rechenleistung der GPU Prozessoren nun auch in der Cloud genutzt werden können. Grafikprozessoren (GPU) werden zunehmend dafür genutzt, um die Leistung von vielen alltäglichen Berechnungen zu beschleunigen. Aufgrund der einzigartigen infrastrukturellen Herausforderungen und hohen Kosten für diese Technologie, haben viele Unternehmen jedoch nicht die Möglichkeit GPUs für ihre Berechnungen zu nutzen.

Amazon Cluster GPU Instanzen verfügen über 22 GB Arbeitsspeicher, 33,5 EC2 Compute Units und nutzen das Amazon EC2 Cluster Netzwerk, welches über einen hohen Durchsatz und eine niedrige Latenz verfügt. Ideal also für High Performance Computing (HPC) und datenintensive Anwendungen.

Jede GPU Instanz verfügt über zwei NVIDIA Tesla® M2050 GPUs, die eine Spitzenleistung von mehr als eine Billion Flops mit doppelter Genauigkeit liefert. Durch die Nutzung der parallelen Rechenleistung von Hunderten von Kernen in den neuen GPU-Instanzen können dadurch viele Workloads immens beschleunigt werden. Speziell das Rendering von Graphiken und konstruktive Entwicklungen können davon stark profitieren.

Spezifikation einer Cluster GPU Instanz:

  • 22 GB Arbeitsspeicher
  • 33,5 EC2 Compute Units (2 x Intel Xeon X5570, Quad-Core “Nehalem” Architektur)
  • 2 x NVIDIA Tesla “Fermi” M2050 GPUs
  • 1690 GB Instanzspeicher
  • 64-bit Plattform
  • I/O Leistung: 10 Gigabit Ethernet
  • API Name: cg1.4xlarge

Weitere Informationen sind unter http://aws.amazon.com/ec2/hpc-applications zu finden.

Categories
News

Amazon S3 stellt "Multipart Upload" vor

Die Amazon Web Services haben ihren Dienst Amazon S3 um die Funktion “Multipart Upload” erweitert. Dadurch können die Daten laut Amazon deutlich schneller und flexibler nach S3 hochgeladen werden.

Mittels “Multipart Upload” kann ein einzelnes Objekt in Teile zerlegt werden, welche anschließend separat hochgeladen werden. Jedes Teil ist ein Bestandteil der Daten des ganzen Objektes, wobei der Upload der einzelnen Teile unabhängig und in beliebiger Reihenfolge erfolgen kann.

Sollte die Übertragung eines einzelnen Teilstück fehlschlagen, kann dieses erneut übertragen werden, ohne dabei andere Teilstücke zu beeinflussen. Nachdem alle Teilstücke übertragen wurden, befindet sich das Objekt wieder als ein vollständiges, einzelnes Objekt innerhalb von Amazon S3.

Multipart Upload verfügt über folgende Funktionen:

  • Parallele Uploads: Paralleles Hochladen mehrerer Teile eines Objekts um den Durchsatz zu verbessern.
  • Anhalten: Ein Upload kann gestartet, zwischendurch auf unbestimmte Zeit angehalten und anschließend weiter ausgeführt werden.
  • Fortfahren: Ein Upload kann fortgeführt werden, nachdem er angehalten, unterbrochen oder nur teilweise Übertragen wurde.
  • Uploads unbekannter Größe: Der Upload von Daten kann beginnen, bevor die gesamte Größe des Objekts bekannt ist.

Weiterhin wurden die AWS Java, .NET und PHP SDKs aktualisiert, um die “Multipart Upload” Funktion zu unterstützen.

Categories
Kommentar

Are the Amazon Web Services the standard of the Cloud?

After the article The Amazon Web Services are the measure of all things in the Cloud Computing market! we should answer the question if the Amazon Web Services (AWS) are the standard of the Cloud as well.

The Amazon Web Services are actual and undisputed the market leader in the field of the Infrastructure as a Service (IaaS) provider and cover all segments and capabilities of Cloud Computing so far.

Due to the long-standing experience Amazon has a significant advance before all other provider in this segment. The expertise arosed by setting up a Private Cloud to fulfill the claims of their own infrastructure (scalability of the Amazon webshop etc.), from what finally the Public Cloud services (Amazon Web Services) originated.

First of all we can select from a variety of “standards”, because every provider attempt to seek his proprietary solution as a standard in the market. Therefore we cannot assume that the Amazon Web Services are the standard of the Cloud. Moreover a standard needs a certain period to become a standard.

So, what are the evidences, that the Amazon Web Services are already the standard respectively the coming standard of Cloud Computing?

A view on the current offerings of third-party suppliers in the Cloud Computing market shows that AWS has a high significance. Most of all Amazons storage service Amazon S3 is very popular. With JungleDisk, CloudBerry S3 Explorer, CloudBerry Backup or Elephant Drive are certain clients available to transfer the data from your local PC or server into the Amazon Cloud. Moreover, with S3 Curl, S3cmd or S3 Sync further open source solutions are available which implements the Amazon S3 API and can be use to store the data in the Amazon Cloud.

A further obvious evidence for the Amazon Web Services to become the Cloud Computing standard is the offering of the German Cloud Computing provider ScaleUp Technologies. They are offering a Cloud Storage, which fully implements and adopts the Amazon S3 API.

In addition, with Eucalyptus respectively the Ubuntu Enterprise Cloud “Clones” of the Amazon Elastic Compute Cloud (EC2) are available, with them it is possible to build an own Private Cloud along the lines of EC2. With the Euca2ools you already find an adaption of the EC2 API.

If you take a look on the list of the AWS Solution Provider, you also see the current importance of AWS.

Not each AWS product has the current potential to referred as a standard. In my mind, just the Amazon Simple Storage Service (Amazon S3) as well as the Amazon Elastic Compute Cloud (Amazon EC2) can be regarded as a standard.

Based on the current offerings and adoptions you can see that S3 is widely used and recognized and it must be assumed that further third-party suppliers will jump on the bandwagon. Moreover, most of the providers will refrain from reinventing the wheel. AWS was the first provider in the IaaS Cloud Computing market and had, as a result, enough time to popularize their proprietary standards. Furthermore, the remain big providers missed to trail quick and to present their own offerings. If they wait any longer, the time will decide for AWS’s benefit.

Amazon S3 is the current defacto standard in the field of Cloud storage. Probably Amazon EC2 will trace shortly and establish oneself. If and when the remaining AWS offerings also become a defacto standard remains to be seen.

Categories
Management @de

Woran erkennt man echtes Cloud Computing?

Ich werde oft gefragt, woran man ein echtes Cloud Computing Angebot erkennt. Oft heißt es: “Hey, wir lassen unsere Datenverarbeitung von einem Dienstleister in seinem Rechenzentrum machen. Dann nutzen wir doch die Cloud, oder?”

Hm, Vorsicht! Cloud Computing wurde in letzter Zeit von den Marketingabteilungen einiger Anbieter missbraucht, wodurch eine Verwässerung des Begriffs stattgefunden hat. Was damals z.B. ein “Managed Server” war ist nun ein “Cloud Server”. Letztendlich wurde aber nur der Aufkleber getauscht. Das wird auch als Cloudwashing bezeichnet.

Um ein echtes Cloud Computing Angebot zu identifizieren, sollte auf die folgenden Eigenschaften des Angebots geachtet werden:

  • On Demand:
    Ich beziehe die Ressourcen zu dem Zeitpunkt, wenn ich Sie auch tatsächlich benötige. Anschließend “gebe ich sie wieder zurück”.
  • Pay as you Go:
    Ich bezahle nur für die Ressourcen, die ich auch tatsächlich nutze, wenn ich sie nutze. Dabei wird entweder z.B. pro Benutzer, pro Gigabyte oder pro Minute/ Stunde abgerechnet.
  • Keine Grundgebühr:
    Bei einem Cloud Computing Angebot zahle ich keine monatliche/ jährliche Grundgebühr!
  • Hohe Verfügbarkeit:
    Wenn ich die Ressourcen benötige, kann ich sie zu diesem Zeitpunkt auch nutzen.
  • Hohe Skalierbarkeit:
    Die Ressourcen lassen sich automatisiert meinen Bedürfnissen anpassen. Das bedeutet, dass sie entweder mit meinen Ansprüchen wachsen, wenn ich mehr Leistung benötige oder sich verkleinern, wenn die Anforderungen wieder abnehmen.
  • Hohe Zuverlässigkeit:
    Die von mir genutzten Ressourcen sind zu dem Zeitpunkt wenn ich sie nutze tatsächlich verfügbar, worauf ich mich verlassen kann.
  • Blackbox:
    Ich muss mich nicht darum kümmern, wie es im Inneren des Cloud Angebots aussieht. Ich nutze einfach den Service über eine offene, gut dokumentierte Schnittstelle.
  • Automatisierung:
    Nachdem ich eine Grundeinrichtung bzgl. meiner Bedürfnisse vorgenommen habe, sind von mir keine weiteren manuellen Eingriffe während der Nutzung des Angebots notwendig. Ich muss z.B. die Leistung der Server oder die Größe des Speicherplatzes nicht manuell anpassen. Dafür werden mir Möglichkeiten zur Automation bereitgestellt.
  • Zugriff über das Internet:
    Darüber kann diskutiert werden. Allerdings ist der Kostenvorteil den man durch Cloud Computing erhält obsolet, wenn eine teure exklusive Mietleitung benötigt wird, um bspw. die Ressourcen eines Anbieters zu nutzen.
  • Keine zusätzlichen Installationen:
    Bei einem SaaS Angebot erfolgt die vollständige Nutzung über den Webbrowser ohne dabei eine weitere Softwarekomponenten wie z.B. Java (Umgebung) installieren zu müssen.