Categories
Management @de

Finanzielle Betrachtung: Cloud Computing vs. eigene IT-Infrastruktur

Cloud Computing Anbieter stellen Unternehmen erweiterbare, zuverlässige, flexible und kostengünstige Plattformen für Cloud Services zur Verfügung. Viele Unternehmen setzen bereits Cloud-Anwendungen erfolgreich ein. Andere befinden sich derzeit in der Bewertungsphase um die Kosten und Nutzen einer Umstellung der gesamten IT-Infrastruktur auf Cloud-Computing zu evaluieren. Dieser Artikel beschreibt die beim Cloud Computing entstehenden Kosten im Vergleich zu den Kosten der klassischen IT-Infrastrukturen.

Dazu wird ein Vergleich der Betriebskosten wie z.B. Hardware, Datenhaltung, Sicherheit, Strom und Personal angestellt. Neben den direkten Kosten werden ebenfalls die indirekten Kosten für den Betrieb eines Rechenzentrums diskutiert.

Direkte Kosten


Nutzung bestehender Hardware

Die Serverauslastung in klassischen unternehmenseigenen Rechnenzentren liegt im Jahresmittel bei einem Maximum von ca. 20%. Investitionen in Virtualisierungstechnologien (bspw. der Aufbau einer Private Cloud) können die Serverauslastung verbessern. Dennoch haben Unmfragen unter IT-Entscheidern ergeben, dass der maximale Nutzungsgrad durch Virtualisierung den Wert von 25% nicht übersteigt.

Die Nutzung bestehender Hardware gehört zu den Kernkompetenzen von Cloud Computing Anbietern, wodurch Unternehmen einen enorm Vorteil erhalten können. Auf Basis der Preismodelle des Cloud Computing, bei der die Abrechnung nach der tatsächlichen Nutzung erfolgt, kann eine Auslastung von 100% erreicht werden. Der Cloud Computing Anbieter erzielt wiederum seinen Benefit über einen großen Kundenstamm, um damit die Gesamtauslastung seiner eingesetzten Hardware zu optimieren.

Die Lastverteilung innerhalb der Systeme des Cloud Anbieters findet auf Basis von Kunden aus unterschiedlichen Branchen statt. Die Anforderungen der jeweiligen Kunden divergieren, wodurch sich Lastspitzen- und einbrüche über einen Tag gegenseitig ausgleichen. Bspw. gibt es Unternehmen, deren Webshop am Tag Hochkonjunktur hat. In der Nacht dagegen aber wenig besucht wird. Und Unternehmen, die in der Nacht ihre Batchverarbeitungen durchführen, dafür am Tag aber minimale Ressourcen benötigen.

Hinzu kommt, das Cloud Anbieter auf Grund einer hohen Kundenanzahl höhere Investitionen in ihre Infrastruktur vornehmen können, als es ein einzelnes Unternehmen tätigen könnte, was die Effizienz der Infrastruktur erhöht und wiederum allen Kunden zu gute kommt.

Mit Cloud Computing Konzepten wie das Auto Scaling oder das Elastic Load Balancing, wie es z.B. die Amazon Web Services anbieten, haben Unternehmen die Möglichkeit ihre genutzten Ressourcen je nach Bedarf automatisch zu skalieren und damit eine Auslastung von nahezu 100% zu erzielen.

Kosten der Hardware

Unternehmen investieren über Jahre hinweg viele Millionen Euro in die Erweiterung und Wartung ihrer Infrastruktur. Dazu gehören die Anfangsinvestitionen in die Rechenzentren und die zwingend erforderliche technologische Aufrüstung aller Systeme. Ab einem Zeitpunkt bleiben die Kosten zwar gleich, was sich aber ebenfalls auf die Leistung der Systeme auswirkt.

Cloud Anbieter machen sich das Skalierungskonzept des Cloud Computing zu nutze, indem sie sich eine immens große Hardwarelandschaft zu niedrigen Kosten aufbauen, von der ebenfalls die Kunden des Cloud Anbieters hinsichtlich der Kosten und Leistung profitieren. Weiterhin profitieren beide von dem Konzept des Pay-per-Use, da die Kosten für die Kühlung, sowie die Stromkosten eines einzelnen Systems von der Nutzung abhängig sind. Ein einzelnes Unternehmen hat in seinem eigenen Rechenzentrum nicht die Möglichkeit diese Kosten zu kontrollieren.

Wirtschaftliches Strommanagement

Um die Wirtschaftlichkeit des Strommanagement zu messen, wird die sogenannte Stromnutzungseffizienz betrachtet. Im Schnitt liegt diese in Rechenzentren bei ca. 2,5. Das bedeutet, dass jedes Watt an Strom das für die Server verbraucht wird, 1,5 Watt an Fixkosten benötigt wird. Damit Unternehmen allerdings Strom sparen, müssen sie dafür sorgen, dass alle technischen sowie IT-Ressourcen auch dementsprechend eingesetzt werden. Unternehmen die eigene Rechenzentren betreiben stehen daher vor der Herausforderung, die Investitionen zu erhöhen, um die Effizienz der Stromnutzung zu erhöhen. Allerdings sehen viele nicht den Nutzen dieser Investitionen.

Cloud Computing Anbieter hingegen investieren hohe Summen in ihre Rechenzentren, was dazu führt dass die Effizienz weit über den eigentlichen Durchschnitt liegt.

Redundanzeffekte

Unternehmen stehen immer mehr vor der Herausforderung, über eine zuverlässige und hochverfügbare IT-Infrastruktur zu verfügen. Dazu benötigen Sie neben zuverlässigen Sicherheits- und Speicherlsöungen ebenfalls eine zuverlässige Netzwerkinfrastruktur inkl. redundanter Hardware sowie Transitverbindungen und physikalischen (Backup)-Leitungen zwischen den einzelnen Rechenzentren.

Dieses Konzept ist nicht mit einer gewöhnlichen RAID Konfiguration zu vergleichen. Weiterhin müssen neben einer Sicherung und der Bereitstellung einer zuverlässigen Netzwerkinfrastruktur auch ein Konzept für ein Worst-Case Szenario vorhanden sein. Dazu gehört das Bereitstellen von Daten (Informationen) und Applikationen in mehreren verteilten Rechenzentren auf Basis einer hochverfügbaren Software oder bekannten Hot- oder Cold Standby Konzepten. Um ein vollständiges Backupkonzept zu realisieren ist es unumgänglich dazu alle aktiven vorhandenen Rechenzentren und die darin betriebenen Server ständig zu nutzen. Sollte ein Rechenzentrum nicht dauerhaft in Betrieb sein, wird es in dem Moment wo es benötigt wird, nicht wie erwartet zur Verfügung stehen und betriebsbereit sein. Die Kosten und die Komplexität hinter diesem Konzept dürfen dabei von den Unternehmen nicht vernachlässigt werden.

Cloud Computing Anbieter können das oben genannte Konzept auf Basis der breiten Kundenbasis bereitstellen und dazu mehrere Verfügbarkeitszonen anbieten. So verfügen bspw. die Amazon Web Services über die sogenannten Availability Zones.

Sicherheit

Ein beliebter Punkt der auf Grund von Kosten von Unternehmen gerne vernachlässigt wird, ist das Sicherstellen, der Schutz und die Verfügbarkeit der Unternehmensdaten, die im Regelfall unternehmenskritisch sind. Zu den Investitionen gehören dabei Netzwerkhardware und Softwarelizenzen zur Erhöhung der Sicherheit, Kosten für das Personal, Kosten durch Vorgaben von Behörden und physikalische Sicherheitsvorkehrungen wie Chipkarten etc.

Optimierte Bereitstellung

Klassische Rechenzentren sind nicht hinsichtlich der Skalierbarkeit konzipiert. Das führt zu Kapazitätsproblemen, die auf Grund zeitlicher Diskrepanzen, von der Bestellung der Hardware bis zur Installation und Bereitstellung, entstehen. Ein vollständiger Bereitstellungsprozess kann schon einmal mehrere Monate in Anspruch nehmen. Unternehmen “lösen” diese Probleme, indem sie ihre Infrastruktur überdimensionieren. Das führt allerdings zu höheren und Kosten und treibt die Uneffizienz des Rechenzentrums voran, da dadurch viele Systeme einfach nicht benötigt werden.

Cloud Computing Anbieter können sich auf Grund einer breiten Kundenbasis eine Überdimensionierung ihrer Kapazitäten leisten. Sie nutzen dazu Skaleneffekte und haben damit bessere Verhandlungsmöglichkeiten mit ihren Zulieferern und können damit ihre Investitionen amortisieren.

Mitarbeiter

Mitarbeiter in einem Rechenzentrum gehören, auch wenn es nicht offensichtlich ist, heutzutage zu den wichtigeren Personen im Unternehmen. Diese verursachen natürlich auch Kosten. Die Arbeit in einem Rechenzentrum sollte aber nicht unterbewertet werden. Das Personal ist hier neben der Verwaltung der heterogenen Serverlandschaft für das Sicherstellen neuer Systeme etc. und den Entwurf neuer Rechenzentrumskonzepte zuständig. Weiterhin müssen die Verträge mit Zulieferern immer wieder neue verhandelt und die Skalierbarkeit des Rechenzentrums sichergestellt werden.

Weiterhin muss 7x24x365 ein Team in jedem Rechenzentrum vor Ort sein, um den reibungsfreien Betrieb zu garantieren, der für ein Unternehmen heutzutage unerlässlich ist.

Indirekte Kosten


Wartung und Betrieb

Die Betrachtung der direkten Kosten sollte nicht vernachlässigt werden. Jedoch sollte nicht der Fehler gemacht werden, nicht die indirekten Kosten zu betrachten. Dazu gehören die Kosten für den Betrieb und die Wartung der Infrastruktur. Für die Verwaltung einer heute gängigen hochverfügbaren IT-Infrastruktur ist ein entsprechend ausgebildetes Personal notwendig. Das führt dazu, dass Unternehmen hier mehr in das Personal investieren müssen, um die Risiken zu minimieren, dabei aber den Fokus auf ihre Chancen zur Erweiterung ihres Kerngeschäfts verlieren.

Erweiterung

Die IT-Budgets vieler Unternehmen werden immer mehr gekürzt, wodurch nicht ausreichend Kapital zur Verfügung steht, um die Infrastruktur nach den gewünschten und eigentlich benötigten Bedürfnissen auszubauen. Aus diesem Grund werden die meisten Projekte nicht realisiert.

Neue Chancen

Auf Grund der Flexibilität einer Cloud Infrastruktur erhalten Unternehmen die Gelegenheit, ihre Kernkompetenzen direkt umzusetzen und neue Ideen und Projekte zu testen. Weiterhin sollte die Skalierbarkeit einer Cloud Infrastruktur nicht vernachlässigt werden. So können Webseiten Lastspitzen z.B. zu Weihnachten ohne bedenken überstehen. Forschungsunternehmen haben die Möglichkeit sich Rechnerleistungen für umfangreiche Simulationen zu mieten, ohne dabei in eigene Ressourcen zu investieren.

Fazit


Cloud Computing sollte nicht nur als ein Konzept betrachtet werden um Kosten zu minimieren. Unternehmen erhöhen damit deutlich ihre Produktivität und können im Vergleich zum eigenen Rechenzentrum flexibler und schneller Reagieren, indem sie Ressourcen on-Demand nutzen können.

Categories
How-tos

First steps with Amazon EC2 – Windows

This howto describes the set-up of a virtual instance with a Windows Server 2008 AMI (Amazon Machine Image) based on the Amazon Elastic Compute Cloud (Amazon EC2). This includes the entire setup of the instance an the following access via a remote desktop connection by a Windows 7 system.

Requirements

  • Amazon Web Service Account
  • Amazon EC2 is already activated
  • RDP Client

Selection, Setup und Running the instance

First we go to the Amazon Web Services website and log in.

Afterwards we start the AWS Management Console for EC2.

We click on Launch Instance.

A new window opens. There you will find fully pre-configured Amazon Machine Images (AMIs) by Amazon. We choose the first AMI – Getting Started on Microsoft Windows Server 2008 (AMI Id: ami-a4698bcd)

We choose the following configuration:

  • Number of Instances: 1
  • Availability Zone: No Preference
  • Instance Type: Small (m1.small 1.7 GB)

As an enhanced configuration we choose:

  • Kernel ID: Use Default
  • RAM Disk ID: Use Default
  • Monitoring: Nein

Afterwards we create a key pair. Here with the name clouduser_key and save it onto our lokal computer.

In the following steps we configure the firewall. Therefore we create a Security Group for the AMI. By default the external access on the ports 3389 (RDP), MS SQL Server (1433) and 80 (HTTP) is allowed. I removed the approval for the port 80 and 1433, because we do not need them in this case. We give the Security Group a name, in this case Security_Group_2, and write a description, here RDP_Only. We click continue.

Next we get a summary of our configuration. We can now run our instance using Launch.

Using Your instances are now launching we come back to the console.

There we see the just created active instance and could now connect to it. Therefore we note the name in the column Public DNS.

Connect to the instance

To connect to the instance we first open the file which includes our created Private Key and copy the entire content inclusive the comments —–BEGIN RSA PRIVATE KEY—– und —–END RSA PRIVATE KEY—–.

Now we go back to the AWS Management Console and click on the instance using the right mouse button and choose Get Windows Password

In the field Private Key* we insert the private key inclusive the comments —–BEGIN RSA PRIVATE KEY—– und —–END RSA PRIVATE KEY—–.

After clicking on Decrypt Password we will see the username and the password we need for connecting to the instance.

Now we open a Remote Desktop Connection and fill in the Public DNS name.

After clicking on connect we fill in the username and the password we got above.

The connection is established.

Now we just need to accept the certificate.

We are connected to our instance.

Terminate the instance

To terminate the instance we go back to the AWS Management Console. Using the right mouse button we click on the instance and choose Terminate.

After confirming the instance is terminated.

Looking at the AWS Management Console the yellow point shows us that the instance will be terminate. That will take some time.

Categories
Events

CloudUser | Expert ist offizieller Medienpartner der Amazon Web Services User Group Hamburg

Mit dem heutigen Tag ist CloudUser | Expert der offizielle Medienpartner der Amazon Web Services User Group Hamburg und wird die User Group medial tatkräftig unterstützen.

Categories
News

Chatter 2 verfügbar

München – Mit Chatter 2 kündigt salesforce.com die Weiterentwicklung und Funktionserweiterung ihrer Social Collaboration Anwendung für Unternehmen an. Der Technologiekonzern Dell setzt Chatter bereits unternehmensübergreifend in Vertriebs- und Marketingabteilungen ein. Aus Facebook, Google und Twitter bekannte Social Media-Funktionalitäten wie Profile, Statusupdates und Echtzeit-Feeds schaffen in Unternehmen die Grundlage für einen effektiveren Informationsaustausch. Mit Chatter können Mitarbeiter nicht nur gemeinsam Dokumente bearbeiten, sondern auch Kollegen, Geschäftsprozesse und Anwendungsdaten verfolgen.

Seit der allgemeinen Einführung von Chatter vor drei Monaten haben über 20.000 Unternehmen Chatter aktiviert, darunter conject, Hitachi, Misys, Reed Exhibitions und Softbank.

Die neuen Funktionalitäten von Chatter 2 sind:

  • Chatter Filters ermöglicht eine schnelle und fokussierte Suche nach relevanten Informationen. Chatter Feeds können nach Gruppen, Personen oder Vorgängen gefiltert werden.
  • Mit Chatter Topics können Nutzer ihre Updates mit anderen Nachrichten oder Kommentaren über einen Hashtag (#) assoziieren. In Kombination mit Chatter Search werden Informationen zu einen bestimmten Thema so besser gefunden.
  • Chatter Recommendations gibt Nutzern automatisch Empfehlungen welchen Gruppen sie beitreten oder welchen Personen sie folgen könnten. Personen werden auf Basis von Kriterien wie gemeinsame Verbindungen, Anzahl der Follower und Managementhierarchien ausgewählt, Gruppen empfiehlt Chatter auf Basis von Popularität und Relevanz.
  • Chatter Desktop ermöglicht, dass Nutzer über Chatter Desktop Nachrichten, Daten, Kommentare oder Links veröffentlichen können, ohne einen Webbrowser öffnen zu müssen. Chatter Desktop wurde mit dem Adobe Flash Builder über Force.com programmiert.
  • Chatter Analytics ermöglicht einen Einblick in die Chatter-Nutzung der Mitglieder und zeigen Best Practices auf.
  • Mit Chatter Files können Nutzer den Dateien von Kollegen folgen und sich durch eine Benachrichtigung jederzeit über Änderungen informieren lassen.
  • Dashboard Chatter ermöglicht Nutzern einen Einblick in Übersichtsgrafiken in Echtzeit. Sie können so immer über Updates und Diskussionen zu den Dashboards informiert bleiben und sich mit Kollegen austauschen.
  • Über Report Chatter können Nutzer Reports verfolgen, die für sie wichtig sind.
  • Über Activity Chatter können Nutzer den Fortschritt von wichtigen Aufträgen verfolgen und Benachrichtigungen zu Änderungen in Kalendereinträgen und Meetings bekommen. Chatter Central bietet neuen Nutzern eine einfache “How to get started”- Checkliste damit sie sich schnell im System zurecht finden.
  • In Chatter Search werden alle Chatter Feeds, Daten, Profile, Updates und Kommentare in Echtzeit durchsucht um einen umfassenden Überblick zu bestimmten Schlagworten oder Kunden zu bekommen.
  • Mit dem Chatter Email Manager können Email-Benachrichtigungen individuell eingestellt und deren Frequenz und Bandbreite bestimmt werden.
  • Chatter Email Digest bietet tägliche oder wöchentliche Reports aller persönlichen oder gruppenbezogenen Chatter-Nachrichten.
Categories
Management @de

Ökonomische Vorteile durch Cloud Computing

Mittels Cloud Computing erhalten Unternehmen Zugriff auf Rechen-, Speicher-, Datenbank- und andere in der Cloud verfügbare IT-Infrastrukturdienste je nach Bedarf. Dabei werden nur die Ressourcen berechnet, die auch tatsächlich verwenden werden. Das führt dazu, dass Kosten verringert, der Cashflow optimiert, Geschäftsrisiken minimiert und die Einnahmen maximiert werden.

Verringern der Kosten und optimieren des Cashflow

Durch die Nutzung zuverlässiger und skalierbarer Infrastruktur eines Cloud Anbieter werden hohe Investitionsausgaben für eigene Server oder Rechenzentren vermieden. Auf Basis des Cloud Computing Konzepts und der darin eingesetzten Technologien, können entsprechend der tatsächlichen Anforderungen der Anwendungen nach Bedarf Ressourcen hinzufügen oder entfernen werden. Die IT-Betriebskosten und der Cashflow wird dadurch verbessert, indem die Anschaffungskosten zum Aufbau einer Infrastruktur vermieden werden und nur für die Ressourcen gezahlt wird, die auch tatsächlich verwenden finden.

Minimieren der geschäftlichen Risiken

Der Einsatz einer elastischen und je nach Bedarf verfügbaren Cloud Infrastruktur führt zu einer vereinfachten Kapazitätsplanung und der Minimierung sowohl des finanziellen, eine zu große Anzahl von Servern zu besitzen, als auch das geschäftliche Risiko, nicht ausreichend Server zur Verfügung zu haben. Das Konzept hinter dem Cloud Computing geht davon aus, keine Verträge oder langfristige Bindungen einzugehen. Das führt zu einer maximalen Flexibilität.

Maximieren der Einnahmen

Cloud Computing bietet das Potential die Einnahmen zu maximieren, indem mehr Zeit, Ressourcen und Investitionen dafür eingesetzt werden können, um sich auf die eigenen Kernkompetenzen zu konzentrieren und sich damit vom Wettbewerb zu differenzieren. Die verwendete IT-Infrastruktur erledigt dafür einfach ihren Dienst. Mit Cloud Computing können IT-Ressourcen bei Bedarf innerhalb von Minuten bereitgestellt werden, um bspw. Geschäftsanwendungen in ein paar Tagen anstatt in Monaten zur Verfügung zu stellen. Weiterhin können Cloud Infrastrukturen als kostengünstige Testumgebungen genutzt werden, um neue Geschäftsmodelle auszuprobieren oder Projekte einmalig durchzuführen, um damit neue Einnahmen zu generieren.

Categories
Services @de

Oracle Cloud Office

Mit seinem Cloud Office stellte Oracle auf seiner OpenWorld seine Antwort für Webbasierte und mobile Collaboration Suites vor. Es basiert auf dem Open Document Format (ODF), wodurch ein Austausch mit lokalen OpenOffice Installationen stattfinden kann und ist zu Microsoft Office kompatibel.

Das Cloud Office richtet sich in erster Linie an Unternehmen, für die Oracle das Cloud Office in seiner eigenen Public Cloud hostet und an Service Provider (wie Telekommunikationsanbieter und Internet Service Provider), die ihren Geschäfts- und Privatkunden eigene Office-Lösungen anbieten möchten.

Link: www.oracle.com/office

Categories
News @en

Cloud Computing is the scapegoat!

While finding a definition of Cloud Computing from a security standpoint in just one word, each protagonist covered the exactly point of view. Cloud Computing is a scapegoat.

This definition results in many cases from bad press reports about supposed problems of Cloud Computing. For example the Sidekick disaster last year which did a disservice to Cloud Computing.

However, we are all agreed, the Sidekick disaster was not a Cloud Computing problem. Instead of that it was a problem with a different kind of nature. But as you know the media landscape needs to achieve their readers. And thriller headlines due to cloud security issues gets more readers! Ergo: Check the real background and the author and his expertise behind the article.

If we are honest, is our data in our sphere of influence like the local PC or the data center much more secure than in the Cloud? Do CIO’s really know what’s going on locally at the companies PCs or laptops. I do not mean the data in this case, but rather the software etc. which is installed by the user. Let us face it, how often are mobile devices actually stolen? If we count only these points – and there are still much more – traditional systems or solutions are not more secure than Cloud Computing solutions.

How can Cloud Computing help the CIO or CISO to protect and optimize their IT environment concerning data corruption, theft or loss of sensitive data, unauthorized access, compliance and system availability?

First of all check your business model. It doesn’t makes sense to adopt the Cloud if there is no benefit or support by the Cloud. Cloud Computing technologies using modern architectures with current standards and therefore are very sensitized in terms of traditionell security problems. However, building or adopt a Cloud is not easy and security must come first! A Cloud has to be designed to be compliant with local and global legal and general conditions and must also be strategically distributed. This means, data should be replicated over multiple locations and must not store centralized on a single location.

If you consider these characteristics amongst others while designing or adopting a Cloud, Cloud Computing increases the security holisticly due to it’s reliability and scalability.

Categories
Management @de

Cloud Computing ist eine Frage des Vertrauens, der Verfügbarkeit und Sicherheit!

Trotz der vielen Vorteile die uns Cloud Computing bietet, wie skalierbare Rechenleistung oder Speicherplatz, steht und fällt die Akzeptanz mit dem Vertrauen in die Cloud. Dazu greife ich drei grundlegende Fakten heraus, mit denen sich Anbieter auseinandersetzen müssen, wenn sie Services auf Basis von Cloud Computing anbieten wollen.

Verfügbarkeit

Durch den Einsatz z.B. der Amazon Web Services (AWS) oder Google Apps, kann nicht mit derselben Verfügbarkeit gerechnet werden, als wenn man die Anwendungen lokal auf einem System verwendet. AWS garantiert bspw. eine 99.9% Verfügbarkeit für die Simple Storage Services (S3) und 99,95% für die Elastic Compute Cloud (EC2). Google verspricht mit seine “Google Apps Premier Edition”, die u.a. Mail, Calendar, Docs, Sites und Talk enthält, ebenfalls eine Verfügbarkeit von 99,9%.

Im Februar 2008 war Amazon S3 während eines Ausfalls vollständig nicht erreichbar und Google hatte im Mai 2009 ebenso einen Ausfall zu verweisen.

Und blicken wir auf das durch einen Bagger zerstörte Unterseekabel zurück, dass für die Internetversorgung im mittleren Osten zuständig ist, können Google und Amazon ihre SLA Versprechen gar nicht einhalten. Ich weiß, dass SLAs immer nur bis zu bestimmten Übergangspunkten definiert werden. Aber dennoch, auf solche Probleme hat ein Anbieter nun einmal keinen Einfluss und das muss mit bedacht werden.

Unternehmen müssen behutsam ihre kritischen (Geschäfts)-Prozesse von den weniger kritischen identifizieren. Nach dieser Klassifizierung sollten sie sich überlegen, die Kritischen im eigenen Rechenzentrum zu verarbeiten und die weniger Kritischen zu einem Cloud Anbieter auszulagern. Das bedeutet sicherlich einen nicht unerheblichen Aufwand, nährt aber die Vorteile.

Cloud Anbieter müssen für eine dauerhafte und stabile Verfügbarkeit ihrer Services sorgen. Eine Verfügbarkeit von 99,9% ist derzeit der Standard und wird von jedem Cloud Anbieter beworben. Stellt sich natürlich die Frage, ob das für die meisten Unternehmen (psychologisch) ausreicht. Denn das Gefühl, eine 100% Verfügbarkeit zu erhalten, wenn man alles selber macht, überwiegt. Daher wird sich Cloud Computing gefallen lassen müssen, 100% Verfügbarkeit als Zielvorgabe zu haben! Das Stromnetz sollte hierbei erneut das Vorbild sein! Natürlich sieht sich die Cloud weiteren Schwierigkeiten gegenübergestellt, kein Frage. Innerhalb der Cloud sind die 100% leicht zu erreichen. Dabei sollte der Weg in die Cloud (siehe oben) aber nicht vernachlässigt werden. Ein Unternehmen wird keine Cloud Services oder Cloud Anwendungen für kritische Geschäftsprozesse einsetzen, wenn die Verfügbarkeit nicht eindeutig geklärt ist.

Sicherheit

Wichtige Dateien höchstmöglich gegen den Fremdzugriff zu schützen hatte schon immer einen besonderen Stellenwert im Bereich der Informationstechnologie. Durch den Einsatz von Cloud Computing lagern Unternehmen ihre Informationen außerhalb ihres eigenen Bereichs aus und übertragen dazu die Daten über ein öffentliches Datennetzwerk.

SLAs (Service Level Agreements) sind in diesem Zusammenhang essentiell wichtig, da sie bis ins Detail beschreiben sollten, welche Maßnahmen Cloud Computing Anbieter bzgl. der Planung und Organisation zum Schutz der Daten unternehmen. Das kann früher oder später natürlich zu Rechtsstreitigkeiten führen, wenn ein Anbieter sich nicht daran hält und nicht behutsam mit sensiblen Daten umgeht.

Um diese Problematiken zu umgehen ist eine Hybrid Cloud ein guter Ansatz. Das Unternehmen verfügt über eine Private Cloud, in der alle kritischen Unternehmensdaten verarbeitet und gespeichert werden und bindet bei Bedarf die Public Cloud eines Anbieters an, um weitere Services der Private Cloud hinzuzufügen. Dazu sind natürlich gesicherte Netzwerkverbindungen unverzichtbar, die heutzutage aber ein Standard sein sollten. Dieser Ansatz löst natürlich nicht die Problematik, was mit meinen Daten passiert, wenn ich sie in die “Blackbox” übertrage.

Vertrauen

Insbesondere Versicherungs- und Finanzdienstleister sehen bzgl. des Data Managements und lokalen Datenschutzgesetzen im Thema Cloud Computing eine riesige Hürde. Der Einsatz einer Private Cloud stellt keine Probleme dar. Allerdings stehen dem Nutzen einer Public Cloud zu viele Argumente entgegen. Versicherungsunternehmen arbeiten mit sehr sensiblen (sozialen) Daten, wodurch kein Brief auf einem externen System geschrieben oder gespeichert werden darf. Unter anderem ist es einem deutschen Versicherungsunternehmen gesetzlich nicht gestattet, seine Daten auf einem Server in Amerika zu speichern

Cloud Computing Anbieter müssen daher dafür Sorgen ihre Dienstleistungen und vor allem wie sie arbeiten transparent und offen zu zeigen. Transparenz ist im Cloud Computing enorm wichtig für ein Unternehmen, dass seine Daten einem Anbieter anvertraut und bei dem die Daten vermeintlich auf dem selben physikalischen System gespeichert sind wie die eines Mitbewerbers. Denn Transparenz schafft Vertrauen!

Categories
Events

CloudStorm @ Virtualization World Frankfurt

Am 27. Oktober findet im Rahmen der SNW Europe, Datacenter Technologies, Virtualization World, das erste CloudStorm Cloud Computing Summit in Frankfurt statt.

In 100 Minuten erhalten die Teilnehmer einen umfassenden Überblick zu aktuellen Themen aus dem Bereich des Cloud Computing. Im Anschluss an die Vorträge gibt es ein Panel, bei dem die Teilnehmer Gelegenheit haben, Fragen an die Vortragenden zu stellen. Der zweite Teil des Events ist vom Networking und der persönlichen Diskussion geprägt. In einer begleitenden ‘Mini-Ausstellung’ präsentieren die Firmenvertreter Ihre Lösungen und die Teilnehmer haben Gelegenheit, sich umfassend über die Angebote zu informieren.

Die Vorträge werden dabei sowohl in Deutsch als auch in Englisch gehalten:

CloudStorm Events umfassen:

  • 5 minütige Vorträge durch Cloud Anbieter zu aktuellen Trends aus dem Bereich des Cloud Computing.
  • Ein echter Einblick auf die aktuellen Produkte & Lösungen.
  • Ein Mix von Anbietern aus den Bereichen: Private Cloud, Public Cloud, Platform, Load Balancers, etc.
  • Getränke und ein kleiner Imbiss während und nach den Vorträgen.
  • Networking – als zentraler Punkt dieses Events!

Zum CloudStorm in Frankfurt haben sich folgende Redner angekündigt:

  • Sacha Vekeman, Business Development Manager, Zenith Infotech Europe
  • Alex Schoone, Business Development Manager Beemaster ICT
  • Nicolas Hecq, Sales Director Europe Racktivity
  • Wim De Wispelaere, CEO Amplidata

Categories
Management @de

Interview mit Philipp Strube von cloudControl

Wer ist cloudControl?

cloudControl sind meine beiden Mitgründer Tobias Wilken, Thomas Ruland, unser Team und ich. Nachdem ich im Oktober 2008 die Idee hatte eine Plattform wie cloudControl zu entwicklen konnte ich sehr schnell Tobias und später auch Thomas die ich beide bereits seit über 10 Jahren kenne für die Idee begeistern und als Mitgründer gewinnen.

Was ist cloudControl? Wie sieht euer Angebot aus?

cloudControl ist eine Platform-as-a-Service Lösung, die es Entwicklern, ohne sich um die zugrunde liegenden Hard- und Software kümmern zu müssen, erlaubt Webapplikationen zu entwickeln und zu hosten. Die Plattform unterstützt zur Zeit PHP als Programiersprache und lässt sich mittels einer ersten Auswahl an Add-ons entsprechend den Bedürfnissen des Entwicklers anpassen. In Zukunft wollen wir sowohl die verfügbaren Sprachen, als auch die Anzahl der Add-ons ausbauen.

Wie seid ihr auf die Idee gekommen. Was war bzw. was ist eure Motivation? Wie lange war die Realisierungsphase von der eigentlichen Idee bis zur ersten brauchbaren Implementierung.

Die Idee entstand aus eigenem Bedarf heraus. Vor cloudControl habe ich mit Tobias zusammen bereits ein anderes Startup gegründet. Hier hätten wir cloudControl gut gebrauchen können. Insbesondere die Möglichkeit sich voll auf die eigene Applikation zu konzentrieren ohne sich um die Administration der Infrastruktur kümmern zu müssen und die verbrauchsgenaue Abrechnung hätten uns damals sehr geholfen. Wie bereits beschrieben geht diese Idee auf den Oktober 2008 zurück. Von da an ist viel Zeit in die Teamfindung, Konkretisierung der Idee, Prototypenentwicklung und Investorensuche geflossen. Nach einer kurzen geschlossenen Beta konnten wir jetzt gerade vor kurzem den Einladungscode entfernen und sind nun für alle Entwickler geöffnet.

Was waren bisher eure größten Hindernisse?

Die meisten Hindernisse sind, wie zu erwarten, technischer Natur. Die cloudControl Plattform besteht um die verschiedenen Funktionen bereitzustellen aus unzähligen Komponenten. Hier alles unter einen Hut zu bringen und unter den verschiedensten Bedingungen funktionstüchtig zu halten hat uns einige schlaflose Nächte gekostet.

Als Platform as a Service Anbieter steht ihr im Wettbewerb u.a. mit der Google App Engine. Was hebt euch von Angeboten anderer Anbieter ab?

Gerade von Google App Engine unterscheidet sich unsere Plattform stark, da wir im Gegensatz zu Google auf einen offene Plattform ohne Lock-In Effekt setzen. Die zwingende Nutzung der verschiedenen Google APIs im eigenen Quelltext macht es insbesondere bei großen Applikationen zu einem späteren Zeitpunkt nahezu unmöglich den Anbieter zu wechseln. cloudControl hingegen setzt ausschliesslich auf Open Source Komponenten auf. PHP Entwickler zum Beispiel arbeiten bei cloudControl auf dem vertrauten und erprobten LAMP-Stack wie sie ihn kennen und lieben.

Cloud Computing steht weiterhin stark in der Kritik ein “Hype” zu sein. Der Sinn und Zweck wird von vielen weiterhin nicht verstanden. Merkt ihr etwas davon im Kontakt mit euren Kunden in Gesprächen? Wie ist die Resonanz auf euer Angebot?

Die Resonanz auf unser Angebot ist sehr positiv. Durch unseren klaren Nutzen für Webentwickler und unseren starken Fokus auf genau diese Zielgruppe halten wir uns aus dem allgemeinen Erklärungschaos raus. Die allgemeine Aufklärungsarbeit überlassen wir größtenteils den Googles, Microsofts und Amazons dieser Welt.

Cloud Computing hat speziell in den Bereichen Sicherheit und Datenschutz seine Kritiker. Wie steht ihr diesen Themen gegenüber?

In unserem speziellen Fall, dem Hosting von Webapplikationen (wenn auch endlich nicht mehr auf dem Technologiestand der letzten Dotcom-Blase) ändert sich für den Kunden so gut wie nichts. Die Applikationen laufen immernoch in Rechenzentren betrieben von Anbietern auf Hard- und Software. Neu am Cloud Computing ist nur die Art der Bereitstellung. Dass Rechenleistung und Speicherplatz bedarfsgerecht und jederzeit selbstständig genutzt werden können.

Wo wir beim Thema Datenschutz sind. Cloud Computing ist ein globaler Ansatz, wo die Daten weltweit verteilt sein können. Wo werden eure Daten gehosted?

Zur Zeit sind wir ausschliesslich auf den europäischen Markt fokussiert. Dementsprechend beziehen wir auch unsere Server von Anbietern mit europäischen Standorten.

Wie steht ihr zu der Idee, eine “Deutsche Cloud” zu entwickeln?

Schwachsinn. Eine deutsche Cloud zu entwickeln würde vorraussetzen, dass es dann mehrere Clouds gäbe. Da das Wort Cloud aber gleichbedeutend mit dem Wort Internet sein muss und es nicht mehrere Netze zwischen Netzen geben kann, weil es sonst immernoch nur einzelne Netze wären kann es auch nur eine Cloud geben. Deutsche Cloudanbieter, von mir aus. Alles andere halte ich für lächerliche Aufmerksamkeitshascherei von schlecht informierten Leuten.

Ich habe die These, dass nur eine transparente Cloud bzw. ein transparentes Cloud Angebot erfolgreich ist. Für wie transparent haltet ihr euer Angebot und warum?

Echte Cloud Angebote können nicht intransparent sein. Es ist zwingend erforderlich, dass der Nutzer des Angebots jederzeit selbstständig die Ressourcen des Angebots kontrollieren kann und dass der Verbrauch exakt abgerechnet wird. Dies setzt zwingend vorraus, dass der Nutzer damit auch vollen Zugriff auf die verschiedenen Eckdaten haben muss. Dementsprechend schliesen sich Intransparenz und Cloud schon in dem Moment aus, indem es sich um eine echte Cloud Lösung handelt. Im allgemeinen Hype und beim allgegenwärtigen Cloud Washing sind die aber manchmal garnicht so einfach zu finden.

Über Philipp Strube

Philipp Strube ist Gründer und Geschäftsführer von cloudControl. cloudControl entwickelt eine hochverfügbare und skalierbare Cloud Hosting Lösung für moderne Webapplikationen.