Categories
Services @en @de

The Future of Cloud Computing? Private Cloud Management-as-a-Service"

When companies thinking about Cloud Computing they are always faced with topics like security and data privacy. Their fear and the risk is to high to suffer from data loss or that trespassers get access to the business critical data. The way into the public cloud is therefore increasingly weighed. The swedish company Witsbits comes up with a new concept I would call “Private Cloud Management-as-a-Service”. Quasi the swedish solution to face Cloud Computing.

The idea is relatively easy to understand. Using a bootable USB-stick or CD-ROM – with a Witsbit cloud-key stored on it – the administrator is preparing the physical servers on which the virtual machines (KVM) will be hosted afterwards. Based on the cloud-key the servers automatically connect to the Witsbits Management Platform. From here the administrator can manage the private cloud in the own data center/ server room using a centralized and web based surface.

The target group of this solution are small and medium-sized enterprises. Whereby I see a huge potential for systems houses and consultants, which are going to offer their customers a private cloud (flexibilization of existing local resources) or just want to manage the servers remote.

For the establishment no installation is required whereby the start-up can be done relatively quick. At the moment, Witsbits offers two different billing options: Free and Premium. The option “Free” is, like the name means, free. However, the use is limited to 8 GB of VRAM (The maximum total amount of Virtual Machine primary memory (RAM) under management at any given time.). The option “premium” costs $ 3 per month per 1 GB of VRAM, where there is no limit to the VRAM.

Categories
Grundlagen

Die historische Entwicklung des Cloud Computing

Historisch betrachtet reichen die Ideen und Konzepte des Cloud Computing bis in die 1960er Jahre zurück. Bereits damals enstanden die Ideen, IT-Ressourcen wie Rechenleistung und Anwendungen als ein Utility einer breiten Masse gegen eine Nutzungsgebühr zur Verfügung zu stellen. Auf Grund der damals dafür notwendigen, aber noch nicht vorhandenen technischen Voraussetzungen wie schnelle und stabile Internetverbindungen sowie der Mehrbenutzerfähigkeit von IT-Systemen, war der Durchbruch nicht möglich.

Vor ca. 10 Jahren begannen IT-Dienstleister erneut damit, ihren Kunden IT-Ressourcen in Form von Anwendungen anzubieten, welche sie flexibel nach der tatsächlichen Verwendung abrechnen konnten, so wie es von der Nutzung des Strom- und Wassernetzes bekannt ist. Die zu verarbeitenden Daten befinden sich dabei im Rechenzentrum eines Drittanbieters. Der Kunde greift mittels seines Webbrowser über eine Webseite auf diese Daten zu. Ursprünglich hieß diese Art des Geschäftsmodells Application Service Providing (ASP). Heute hat es die Bezeichnung Software-as-a-Service (SaaS), ein Teilbereich des Cloud Computing.

Die bekanntesten Vertreter und Vorreiter der Technologien, Ideen und Konzepte des Cloud Computing sind Google, Salesforce und Amazon.

Google konzentriert sich neben seiner Cloud Office Suite (Google Apps) inkl. E-Mail, Kalender, Textverarbeitung und Tabellenkalkulation auf das Bereitstellen einer Entwicklungsinfrastruktur (Google AppEngine). Salesforce hat sich dagegen auf Unternehmenssoftware wie z.B. dem Customer Relationship Management (CRM) spezialisiert und steht damit in direkter Konkurrenz zu den klassischen Anbietern wie z.B. SAP. Weiterhin steht mit Force.com jedoch auch eine Entwicklungsinfrastruktur in deren Cloud bereit. Google und Salesforce gehören damit zu den Anbietern von SaaS und Platform-as-a-Service (PaaS) Diensten.

Amazon hingegen ist mit seinen Amazon Web Services (AWS) ein Anbieter aus dem Bereich der Infrastructure-as-a-Services (IaaS) sowie PaaS und stellt mit der Amazon Elastic Compute Cloud (EC2) Rechenleistung und den Amazon Simple Storage Services (S3) Speicherplatz in seiner Cloud zur Verfügung.

Um zu verstehen, warum diese drei Anbieter ihre eigenen Infrastrukturen nach den Prinzipien des Cloud Computing einer breiten Masse bereitstellen können, gilt es hinter die Kulissen zu schauen und deren Beweggründe zu verstehen.

Auf Basis dieses Verständnisses, lässt sich sehr gut verdeutlichen, wie es zu der Entwicklung des Cloud Computing gekommen ist.


Beweggründe von Google, Salesforce und Amazon

Um die Beweggründe zu verstehen, muss zunächst die triviale Frage erörtert werden, warum jeder der genannten Anbieter selbst nicht auf den Einsatz der Prinzipien und Technologien des Cloud Computing in seinen Infrastrukturen verzichten kann.

Abgesehen von Salesforce, hatte keiner dieser drei Anbieter das ursprüngliche Ziel gehabt Cloud Computing Dienste anzubieten. Vielmehr ist es aus einer Notwendigkeit entstanden. Um ihre Kerngeschäfte überhaupt effizient betreiben zu können, waren sie gezwungen, Cloud Computing Technologien zu entwickeln und selber einzusetzen.

Warum benötigt Salesforce Cloud Computing?
Wie bereits oben erwähnt, hat Salesforce von Anfang an sein Kerngeschäft darauf ausgerichtet, Unternehmensanwendungen auf Basis von Software-as-a-Service anzubieten. Sie mussten somit eine eigene hochskalierbare und hoch verfügbare IT-Infrastruktur aufbauen, um ihren Kunden die angebotenen Services jederzeit zuverlässig bereitzustellen. Sonst hätte das Geschäftsmodell nicht funktioniert.

Warum benötigt Google Cloud Computing?
Wird das Kerngeschäft von Google genauer betrachtet, steht hier die Suche und die damit zusammenhängende Indizierung des Internets im Vordergrund. Für beides wird eine enorme Rechenleistung benötigt, die nur durch den Aufbau einer entsprechend leistungsfähigen IT-Infrastruktur bereitgestellt werden kann. Zudem möchte Google seinen Nutzern einen zuverlässigen und vor allem schnellen Dienst während der Suche von Informationen im Internet bereitstellen, wodurch auch hier die Aspekte der Hochskalierbarkeit und Hochverfügbarkeit von besonderer Bedeutung sind.

Warum benötigt Amazon Cloud Computing?
Amazons Kerngeschäft ist der Webshop auf Amazon.com. Hierbei handelt es sich um die größte E-Commerce Plattform der Welt mit Millionen Kunden und Transaktionen pro Tag. Auf Grund dessen gilt es für Amazon über eine hochskalierbare und hochverfügbare IT-Infrastruktur zu verfügen, um seinen Kunden einen zuverlässigen Service zu bieten.
Nach Aussage von, CTO von Amazon, liegen Amazons Beweggründe für den Einstieg in das Cloud Computing darin, dass die Infrastuktur innerhalb eines Jahrzehnts immer weiterentwickelt wurde, um die Evolution der Amazon E-Commerce Plattform stetig voranzutreiben. Währenddessen wurden verteilte Software und Vorgehensweisen entwickelt, welche in einem großen Umfang zu hohen Leistungen, Zuverlässigkeit, Betriebsqualität und Sicherheit geführt haben. Zur selben Zeit wurde festgestellt, dass der programmatische Zugriff auf den Amazon Katalog und weitere E-Commerce Dienste zu einer enormen und unerwarteten Innovation durch ein sehr großes Ökosystem von Entwicklern führt. Dadurch entstand schließlich der Gedanke, eine Amazon Kompetenz – der Aufbau von hochskalierbarer Systemsoftware – über eine Service Schnittstelle anzubieten und darüber einfache Infrastrukturbausteine bereitzustellen. Das sollte auf der ganzen Welt zu Innovationen führen, da sich Entwickler somit nicht mehr um den Kauf, Aufbau und die Wartung einer Infrastruktur kümmern müssen. Da aus eigener Erfahrung die Kosten für die Wartung einer zuverlässigen und skalierbaren Infrastruktur in einem traditionellen, redundanten Rechenzentrumsmodell ca. 70% der Zeit und Aufwände betragen und die Investitionen des geistigen Kapitals ebenfalls erhebliche Kosten verursachen, bestanden die ersten Überlegungen darin, Services bereitzustellen, welche die Kosten auf 30% oder weniger reduzieren. Zudem wurde erkannt, dass die generelle Rechnerauslastung sowohl bei großen und mittelständischen Unternehmen als auch bei Startups dramatisch klein (weniger als 20%, oft sogar weniger als 10%) und oft einer erheblichen Periodizität ausgesetzt ist. Die Bereitstellung von Diensten auf Basis eines on-Demand Models unter der Nutzung eines Pay as you Go Preismodells sollte dieses radikal verändern. Die Geschichte über den Verkauf von Überkapazitäten soll demnach ein Mythos sein. Jedoch hätte Amazon zunächst ohne den Aufbau der Infrastruktur seine Amazon Web Services in der Form niemals anbieten können. Die für den Webshop entwickelte Infrastruktur diente dafür als die entscheidende Grundlage.


Gemeinsamkeiten zur Bewältigung der Herausforderungen

Betrachten wir nun die Gemeinsamkeiten bzw. Herausforderungen, die bewältigt werden müssen um das jeweilige Kerngeschäft zu betreiben, wird deutlich, wie es zu der Technologie bzw. dem Geschäftsmodell gekommen ist, das als Cloud Computing bezeichnet wird. Gleichzeitig gelten diese Gemeinsamkeiten als die drei typischen Charakteristika des Cloud Computing. Dazu gehören:

Hohe Skalierbarkeit

  • Salesforce
    Die Unternehmensanwendungen von Salesforce sind auf kleine Startups bis hin zu großen Unternehmen ausgelegt. Die Infrastruktur muss dementsprechend mit großen Anfragemengen umgehen können.
  • Google
    Die Menge an Suchanfragen für einen bestimmten Zeitraum sind nicht exakt vorhersagbar, daher muss die Infrastruktur auch mit einer unerwartet hohen Belastung zurechtkommen. Zudem ist eines von Googles Mottos schließlich, dass schneller besser als langsam ist.
  • Amazon
    Speziell in saisonal bedingten Zeiten wie z.B. Weihnachten steigen die Anfragen an den Webshop exponentiell, wodurch die Infrastruktur stetig mitwachsen muss.

Hohe Verfügbarkeit

  • Salesforce
    Kunden von Salesforce nutzen geschäftskritische Unternehmensanwendungen und speichern ihre Daten in der Cloud von Salesforce, auf die sie jederzeit zugreifen müssen.
  • Google
    Google ist zum Inbegriff der Suche im Internet geworden. Sollte die Webseite mal nicht erreichbar sein, würde das einen enormen Imageverlust bedeuten.
  • Amazon
    Ein Webshop wie Amazon.com ist nicht vergleichbar mit einem gewöhnlichen Einzelhandelsgeschäft. Kunden können hier rund um die Uhr einkaufen, was bedeutet, dass der Shop 24/7 erreichbar sein muss.

Hohe Zuverlässigkeit

  • Salesforce
    Kunden von Salesforce müssen sich auf die einwandfreie Datenhaltung und Funktion der genutzten Anwendungen verlassen können.
  • Google
    Nutzer der Google Suchmaschine müssen sich auf die Suchergebnisse verlassen können. Das impliziert ebenfalls eine zuverlässige Indizierung.
  • Amazon
    Ein Kunde muss sich während eines Bestellvorgangs darauf verlassen können, dass alle Transaktionen die zu dieser Bestellung gehören, zuverlässig abgeschlossen werden.

Fazit

Nur durch die Konzeption und den Aufbau einer hoch skalierbaren sowie äußerst zuverlässigen Infrastruktur, die jederzeit verfügbar ist, können Salesforce, Google und Amazon ihre Kerngeschäfte optimal und einwandfrei betreiben und Ihren Kunden damit den größtmöglichen Nutzen bieten.

Categories
Grundlagen

Cloud Computing – Das neue Paradigma

Cloud Computing bezeichnet in erster Linie ein Servicemodell, bei dem auf (theoretisch unbegrenzte) IT-Ressourcen wie Rechenleistung, Speicherplatz, Applikationen und andere Arten von Services on-Demand zugegriffen werden kann. Dabei werden auf Basis des Pay as you Go Konzeptes nur die Ressourcen berechnet, die zu diesem Zeitpunkt auch tatsächlich genutzt werden.

Die eigentliche Verarbeitung findet in den Rechenzentren auf den Servern der Cloud Computing Anbieter statt. Dadurch hat die Relevanz heutiger leistungsfähiger Endgeräte stark abgenommen, wodurch auch mittels Smartphones und Netbooks, die nur über beschränkte Ressourcen verfügen, komplexe Anwendungen genutzt werden können.

Die Umsetzung des On-Demand Modells, die dynamische Zuweisung von Ressourcen nach Bedarf, erfolgt über die Abstrahierung mittels einer weiteren Ebene, der Virtualisierung. Anstatt der Miete eines physikalischen Servers werden virtuelle Maschinen eingesetzt, deren Ressourcen wie Speicherkapazitäten und Rechenleistung je nach den aktuellen Anforderungen dynamisch mitwachsen oder sich verkleinern. Ressourcen wie bspw. der Langzeitspeicher werden dabei bewusst getrennt von den verarbeitenden Ressourcen gehalten und separat angebunden, um die Flexibilität und Verfügbarkeit der Daten zu erhöhen.

Die Ressourcen aus der Cloud eines Anbieters sind somit weitaus skalierbarer als es die klassischen IT-Infrastrukturen sein können. Müssen unerwartete Spitzenlasten über einen unbekannten Zeitraum überbrückt werden, stehen die dafür benötigten Ressourcen umgehend zur Verfügung und können anschließend wieder heruntergefahren werden. Abgerechnet werden hierbei nur die Ressourcen, die auch tatsächlich für diesen Zeitraum genutzt wurden.

Unternehmen sind die Probleme zur Bewältigung von Spitzenlasten bekannt. Um dem gerecht zu werden sind sie klassisch vorgegangen und haben ihre IT-Infrastrukturen überdimensionert, um immer ausreichend Ressourcen vorzuhalten, die nur für wenige Zeiträume im Jahr, wie z.B. Weihnachten oder dem Jahresabschluss, benötigt werden. Dies führt jedoch dazu, dass die Server im Jahresmittel zu 20% genutzt werden und die restlichen 80% dem Unternehmen nicht helfen das eigentliche Geschäftziel zu verfolgen. Im Gegenteil: Durch die hohen Investitionskosten für Hard- und Software sowie Wartung, Personal etc. wurden immense Summen in einen Bereich des Unternehmens investiert, der in den Führungsebenen seit jeher als klassischer Kostenfaktor betrachtet wird.

Im Cloud Computing werden die Ressourcen alle als “… as-a-Service” aus der Cloud angeboten. Dazu gehören Rechnerleistung und Speicher, Programmierungebungen und Software. Diese Bereiche werden weiter unten im Kapitel noch detaillierter beschrieben. Diese Dienste werden bei Bedarf aus der Cloud bezogen.

Das Wort der Cloud abstrahiert sich aus der Illustration der klassischen Netzwerktechnik. Um die Details eines unbekannten Netzwerkes, in der Regel das Internet, nicht genauer beschreiben zu müssen, wird sich hier an der Abbildung einer Wolke (Cloud) bedient. Abgebildet auf das Cloud Computing bedeutet dies für einen Cloud Computing Nutzer, dass er sich um die Details der IT-Infrastruktur bei dem Cloud Computing Anbieter nicht mehr kümmern muss. Er bezieht lediglich die Ressourcen, die er zu einem bestimmten Zeitpunkt benötigt und nur diese werden anschließend abgerechnet.

Categories
Services @en @de

"MARS-o-Matic" or design your (cloud) infrastructure the mobile way.

As you might have seen the world becomes more and more mobile. And even IT-infrastructure designer or should I better use the new paradigm “cloud designer” 😉 need new ways to work independently from a “fat” notebook and use new technologies like the iPad or Android tablets.

My friends from the automation experts arago aka Chris Boos and Roland Judas introduced me to their new idea of designing infrastructures on the go. A really convenient solution.

They call it “MARS-o-Matic” an App for the Apple iPad that allows you to design your IT-infrastructure and let benchmark it against industry standards or other automated best-practice environments. Whereby you can benchmark and optimize your or other infrastructure environments based on a lightweight and reusable model.

With this you are able to design everything visual and mobile while an XML-based data set is created in the background which you can export to other applications like a CMDB, a BSM dashboard or a service directory.

MARS-o-Matic is useful for project manager, IT-architects or consultants for planning IT infrastructures or if they want to know how much their IT operations will cost. Furthermore CIOs and IT operations manager can compare their current operation cost with industry best practices managed services offerings and other automated IT operations. And even CFOs or procurement manager have benefits if they want to benchmark a managed service against an outsourcing offer.

MARS-o-Matic is currently available as a private beta version. So if you would like to test it, just contact Chris and Roland at “Get@mars-o-matic.com”.

Categories
Events

Technische & Juristische Cloud Computing Sicherheit in der Mainmetropole! – Die SecTXL '11 kommt nach Frankfurt

Nach der ersten und erfolgreichen Veranstaltung in Hamburg im vergangenen August wird die SecTXL ’11 dieses Jahr am 22. November ebenfalls Halt in Frankfurt machen.

Der Hype um das Thema Cloud Computing hat sich mittlerweile auch in Deutschland gelegt und immer mehr Unternehmen entscheiden sich für den Einsatz dieses neuen Paradigma, womit die heiße Phase der Adaption begonnen hat. Neben technischen Herausforderungen stehen Unternehmen daher ebenfalls Fragen bzgl. der Datensicherheit, des Datenschutzes sowie rechtlicher Themen gegenüber. Aber auch in Bezug auf die Themen der IT-Governance sowie der IT-Compliance gilt es viele Fragestellungen zu klären.

Die SecTXL ‘11 | Frankfurt nimmt sich am 22.11.2011 in Frankfurt genau diesen Themen an und konzentriert sich mit ihrem Leitsatz “Juristische und Technische Sicherheit für die Cloud!” ganzheitlich auf den Bereich der Cloud Computing Sicherheit. Neben fachlichen Vorträgen von Rechtsanwälten und Experten aus den Bereichen des Datenschutzes und der Datensicherheit werden ebenfalls technische Probleme und deren Lösungen von IT-Architekten vorgestellt. Damit werden Möglichkeiten aufgezeigt, wie sich Unternehmen in Zeiten des Cloud Computing aus dem Blickwinkel der Sicherheit verhalten müssen.

Während themenspezifischer Q&A Panels erhalten die Teilnehmer die Gelegenheit mit den Referenten hautnah zu diskutieren und alle Ihre offenen Fragen beantworten zu lassen.

Die SecTXL ’11 | Frankfurt beginnt um 09:00 Uhr im “DE-CIX Convention Center”, Lindleystraße 12, 60314 Frankfurt am Main. Eine Karte kostet im Early Bird bis zum 31.Oktober 149 EUR exkl. Ust. und Gebühren. Ab dem 01. November dann zum Normalpreis für 249 EUR exkl. Ust. und Gebühren.

Referenten und Ihre Themen

  • Andreas Weiss (Director | EuroCloud Deutschland_eco e.V.)
  • “Cloud Computing ist die Zukunft – aber sicher!”

  • Eva Schlehahn (Assessorin jur. | ULD Schleswig-Holstein)
  • “Konzepte & Bedingungen für vertrauenswürdiges Cloud Computing”

  • Georg Meyer-Spasche (Rechtsanwalt/ Partner | Osborne Clarke)
  • “Datenschutz in der Cloud. So geht’s richtig!”

  • Dr. Dietmar Wiedemann (Senior Consultant | Proventa AG)
  • “Cloud Governance – die Wolke fest im Griff”

  • Jan Schneider (IT-Rechtsanwalt | SKW Schwarz Rechtsanwälte)
  • “Cloud-Compliance – Was Provider und Nutzer beachten müssen”

  • Ulf Feger (Competence Leader IBM Tivoli – Cloud & Cloud Security)
  • “Der Weg zur Cloud Security – ein Transformationsprozess!”

  • Markus Mertes (Director | Panda Security)
  • “Cloud-Security – Kollektive Intelligenz gegen die Cyber-Mafia”

Die kostenpflichtige Anmeldung und weitere Informationen sind unter http://sectxl.com zu finden.

Weitere Ressourcen

Webseite: http://sectxl.com
Agenda: http://sectxl.com/agenda
Twitter: @SecTXL
Facebook: https://www.facebook.com/pages/SecTXL/120006891387270

Categories
News

Weltwirtschaftskrise dämpft Investition in ERP-Systeme

Laut einer Studie des börsennotierten Marktforschungsunternehmens Forrester Research, veröffentlicht im Mai 2011, hat die Weltwirtschaftskrise die Neigung der Unternehmer, in Enterprise Resource Planning (ERP) – Systeme zu investieren, gedämpft. 75% der IT-Entscheider, die von Forrester befragt wurden, sagten, dass sie dieses Jahr keine Investition in ERP-Systeme planen. Die Untersuchung hat aber gezeigt, dass fast 2/3 der Unternehmen der Ansicht sind, ihre ERP-Systeme in derzeitigem Zustand gut genug sind für die nächsten zwei Jahre. Sie möchten aber auch abwarten, bis die andauernde Erneuerungen der Systeme stabilisiert haben und ihre Lieferanten die nächste Version der Produkte freigeben.

Dennoch erwartet die Studie, dass das gesamte Volumen des ERP-Markts von US$ 45.5 Milliarden in 2011 auf US$ 50.3 in 2015 wachsen wird. Die Einnahmequelle der Lieferanten wird sich allerdings ändern. Ihre Lizenzeinnahmen werden sinken. Dafür werden Einnahmen durch die jährlichen Wartungsverträge, die bereits im Jahr 2010 51% des Umsatzes betrugen, steigen. Die SaaS (Software as a Service)-basierte ERP-Lösungen, die zur Zeit mit US$1 Milliarde zum Gesamtumsatz beitragen, wird bis 2015 jedes Jahr um 21% wachsen.

Die Lieferanten von ERP-Systemen müssen ihre Vermarktungsstrategie erweitern, wenn sie den Kampf um den Marktanteil erfolgreich bestehen wollen. Cloud-basiertes Managed Hosting sowie die Erweiterbarkeit der Lösungen nach individuellem Bedarf der Anwender wird zu einer Anzahl von hybriden Varianten führen, die die Wünsche einer Vielzahl von Anwendern abdecken werden. Führend ERP-Anbieter wie SAP und ORACLE haben bereits damit begonnen. Die OnDemand Lösung von SAP, Business ByDesign ist dafür ein Bespiel, ebenso wie die künftigen Fusion-Anwendungen von ORACLE.

Die Studie erfasste 2403 IT-Entscheider aus USA, Kanada, Frankreich, Deutschland und Großbritannien.

Categories
Services @en @de

Development-as-a-Service is the future of Platform-as-a-Service

There is a basic opinion on the net that “PaaS Is The Future Of Cloud Services”. I also share this opinion but I go one step further: “Development-as-a-Service is the future of Platform-as-a-Service”!

Platform-as-a-Service (PaaS) helps you to host, debug and execute your application over its whole lifecycle. Therefore PaaS offers an infrastructure stack (like LAMP, WAMP, etc.) which generally implements the OS, a webserver like Apache, a database e.g. MySQL and the programming language e.g. PHP, Ruby, Python etc. Good examples for PaaS offerings are Google AppEngine or cloudControl.

For using PaaS solutions you have to develop your application on your local machine and upload it to the PaaS infrastructure afterwards. There you can execute it etc. That means you still need a local IDE (integrated development environment) like Eclipse and you are not able to work on the code parallel from different machines. Ergo: The PaaS offering is “just” useful for hosting and executing your application.

What developers really need is a Development-as-a-Service solution on which they can hack their code without using a local IDE. And because of the demand of working and developing things distributed still raises the need for hack on the code parallel from different locations growth.

Cloud9IDE goes this way and offers a commercial development environment for JavaScript which also supports HTML5 features and scripting languages ​​like Python, Ruby and PHP. Unlike conventional Platform-as-a-Service solutions applications are written using a fully browser-based development environment. This environment uses the open source project Ace, which implements an editor written in Javascript. In the background a NodeJS server provides the hosting and processing of online developed applications. Besides syntax highlighting the editor features automatic engagement and disengagement, and an optional command line. Furthermore, there is a vi and emacs mode and the environment is ready for handling up to 100,000 lines of code. Beside a built-in chat feature multiple developers can work simultaneously on the same program code and run and debug JavaScript applications. Another feature is the direct link to the web hosting service github.

Really cool is that you actually have a fully intergrated (best of) stack of IaaS + PaaS + SaaS. So you are able to deliver your application one-stop from one platform: code + debug + deliver + done (next loop)!

Image source: http://mb-c.pro

Categories
Comment

Wanted: A real SaaS pay as you go offering!

This goes to Salesforce, Google Apps and every other vendor on the cloud computing market who is offering a Software-as-a-Service solution. When do you try to provide a Software-as-a-Service (SaaS) solution that is based on a REAL pay per use base?

We all here a lot about the benefits of cloud computing like flexibility, scalibility and pay per use. That means you only pay for the resources or the service you actually use. Using Infrastructure-as-a-Service (IaaS) or Platform-as-a-Service (PaaS) solutions you really pay for what you use. For example per hour or per gigabytes. Well, using common SaaS solutions you do not pay for what you use. You pay per user and this per month or per year! Ist this pay per use when you pay per user even when the user do not use the service 3 days a week? NO, this is not pay per use.

Good examples for the big players on the cloud computing market are Salesforce or Google (Apps). Google offers two plans for using “Google Apps for Business”. An annual plan and a flexible plan. The annual plan means you pay $50 per user account per year AND you have an annual contract – duration 1 year! The flexible plan is – like the name – more flexible. You pay $5 per user account per month and you do not have an annual plan. But you have to pay even when your employees are, for example, on vacation!

Salesforce is just as bad! Looking on their Sales Cloud – Group offering you have to pay $15 per user per month and “All per user products require an annual contract.” So again, you have to pay for a service even when your employees do not use it!

But not only Salesforce or Google Apps go this NOT pay per use way! If you take a look on the whole SaaS market each vendor is offering this model! So, please tell me, where is the real SaaS pay per use model? Where is the real flexibility? Cloud Computing means that I just pay for the service when I am using it! Does that mean that Salesforce, Google Apps and any other SaaS vendor do not offering cloud computing services?

Offering a service over the internet using a webbrowser is not cloud computing per se!

During my research for an article I found an idea every SaaS vendor can use to offer a real pay per use solution. The idea comes from HP and is called SAPS (Application Performance Standard Meter). HP uses it to make a precise daily billing for the SAP systems they are hosting for their customers. On the base of SAPS the resource consumption of every SAP system is measured every five minutes. It’s comparable with a power meter. This requires two measured values: the required processing power and the input / output throughput. With a built-in matrix, the collected data is converted in kiloSAPS-hours and kiloIOPS-hours (IOPS = Input / Output Performance Standard). The customer receives an accurate breakdown of the resources he uses, and an exact assignment to the respective SAP system.

Right this is for SAP systems, but it shows that it is possible to make a precise daily billing for each resource a customer is using. The SaaS vendors just need to do it!

Categories
Comment

Is eyeOS the future of desktop services?

On the 14th of September ’11 eyeOS announced its first cloud desktop Professional Edition. In times of cloud computing you actually need to call it “DaaS” Desktop-as-a-Service, right?

Well, the idea behind eyeOS is easy. You just need a webbrowser to have access to your working space like spreadsheets, word processors, e-mail etc. You connect to a website, log-in and start to work. And you can do that from wherever you are. In the office, your home office, at Starbucks. Everything you need is a stable internet connection.

Well, after a closer look at the new Professional Edition the internet connection is the biggest problem. Honestly I just have a 2 Mbits connection, but the response time after clicking on something is not as you can “feel” on your local desktop. The look and feel is copied from the Linux world. This is not surprising, eyeOS started as an open source project and is still very active.

eyeOS is an own operating systems running in your webbrowser. For example it has a taskbar where you can switch between the open applications and an user management system. By default you’ll find applications like a calculator, calendar, chat tool, notepad, contacts manager, word processor, email client and a file explorer. That’s it. I know from previous versions that you can install other applications using the admin panel, but I couldn’t find anything in the test version.

The handling of the word processor (eyeDocs) reminds me on typical word processors of yesteryears. You do not have a lot of functions but actually they are enough for typical things like writing an article. You can compare the range of functions for example with Google Docs.

I would like to write something more about eyeOS. But there is nothing more to say. The range of functions is pretty low and you can do not really amazing things. It’s just an OS in your webbrowser.

Well, Desktop-as-a-Service like eyeOS is the future of desktop services, yes. But not eyeOS itself. Especially the Professional Edition is not business ready so far. It is to slow (ok, my internet connection) and the amount of functionality and applications are not acceptable for companies. Of course you can use eyeOS writing an article and normal things like managing your contacts and the calendar. But I couldn’t find any groundbreaking functionality why using eyeOS in my company. eyeOS is innovative because it runs in the webbrowser without installing everything locally but where is the added value?

Don’t get me wrong, I am a big fan of those kinds of DaaS, because you can work from everywhere and have all your data and applications on board. But eyeOS is not ready to replace common local desktop solutions.

Categories
Management @de

Schöne virtualisierte Welt der IT

In der heutigen IT-Welt findet man fast in allen Bereichen Virtualisierung, ganz gleich ob es sich um Hardware-, Software- oder Netz-Umgebung handelt. Das Hauptziel der Virtualisierung ist Rationalisierung und Leistungssteigerung der Rechenzentren. Ohne Virtualisierung muss in einem Rechenzentrum für jeden Anwender und jedes Anwendungsgebiet ein eigenes Serversystem aufgebaut werden, das in der Lage ist, eigenständig Anfragespitzen abzudecken. Daraus folgt logischerweise eine Überproportionalisierung der Serverkomponenten eines IT-Systems. Laut einer Studie der International Data Corporation (IDC), geht die durchschnittliche Serverauslastung in dieser Konstellation nicht über 25% hinaus. Das bedeutet eine enorme Vergeudung von Serverkapazitäten, Räumlichkeiten und Personalkapazitäten in Rechenzentren.

IBM konnte bereits vor über 30 Jahren den Mainframe-Computer in logisch getrennten virtuellen Maschinen partitionieren, um gleichzeitige Ausführung verschiedener Applikationen und Prozesse auf einem Rechner, d.h. Multi-Tasking, zu realisieren. Es ist ein wesentliches Merkmal der Virtualisierung, eine logische Abstraktionsschicht zu schaffen, zwischen dem Anwender und den Ressourcen – Hardware und Software – die er benutzt, um seine Aufgaben zu erledigen. Ihm wird der Eindruck vermittelt, er sei der alleinige Nutzer aller Ressourcen, obwohl er in der Tat sie mit vielen anderen teilt.

Für die Virtualisierung stehen heute diverse Virtualisierungssoftware zur Verfügung, die virtuelle Maschinen realisieren können. Die eigentliche Virtualisierung kann auf unterschiedlichen Ebenen stattfinden.

Ein Beispiel für die Virtualisierung auf der Betriebssystem-Ebene ist Linux-VServer. Diese Open Source-Software kann Teile eines IT-Systems so aufteilen und voneinander abgrenzen, dass einzelne Prozesse nicht außerhalb des ihnen zugeteilten Arbeitsbereiches zugreifen können. Damit können z.B. Dateisysteme, Hauptspeicher, Netzwerkadressen oder Prozessorzeiten für unterschiedliche Anwendungen partitioniert werden.

Ein Beispiel für die Virtualisierung auf einer abstrakten Verwaltungsebene, auch Paravirtualisierung genannt, ist das von IBM entwickelte Betriebssystem OS/400 (IBM i). Das konstruktionsprinzip von OS/400 ist die Objektbasiertheit. Alle Bestandteile des Betriebssystems sind als Objekte mit Eigenschaften und Funktionen zu betrachten. OS/400 stellt eine Reihe von schlüsselfertigen Lösungen zur Verfügung.

Ein Beispiel für die Virtualisierung auf der Hardware-Ebene ist Intel Virtualization Technology (Intel VT). Mit dieser Technologie hat der Chip-Hersteller Intel die Grundlage geschaffen für die Nutzung seiner Prozessoren für Server-Virtualisierung.

Ein schönes Beispiel für die praktische Nutzung der Virtualisierungssoftware, auch für die PC-Benutzer, ist die Freeware von Oracle / Sun VirtualBox. Mit diesem Tool kann man beliebige Betriebssysteme auf einem PC ausführen ohne zusatzinstallation. Man kann z.B. Linux unter Windows laufen lassen oder umgekehrt. Auf diese Art und Weise kann man seinen PC benutzen, um die Portabilität einer Anwendung zu testen.