Categories
Management @en

Data lines: the backbone of the cloud

During cloud talks there are always a lot of discussions about the providers, their availability, reliability and service level agreements (SLA). What is often not discussed is the main dependence number one: The backbone of the Internet carriers. The Submarine Cable Map 2013 nicely illustrates where which cables run worldwide, which are responsible for the data transfer between the different continents.

Data lines: the backbone of the cloud

Submarine Cable Map 2013 – The global backbone under the sea

The “Submarine Cable Map 2013” shows the backbone of the global submarine cable in the ocean. It shows where most of the data transfer takes place and which countries have the best interconnection.

Overall, the map illustrates 244 lines. Among those who were laid between the period 1992 to 2012, or those which are taken up in 2014. Existing lines are color-coded, gray cable are planned. Another twelve lines to be laid in the next two years.

At the bottom of the card it can also be seen how quick the respective connections between the different countries and continents are and how much the workload is. It can be seen, for example, that the available data connections from the United States to Colombia and Venezuela are fast, but to France and the UK, they are slower. The weakest data line, the U.S. has to South Africa and India.

Categories
Management @de

Netflix veröffentlicht weitere "Monkeys" als Open-Source – Eucalyptus Cloud wird es freuen

Wie GigaOM berichtet, wird Netflix in naher Zukunft weitere Services ähnlich zu seinem Chaos Monkey und der Simian-Army unter der Open-Source Lizenz auf Github veröffentlichen.

Der Chaos Monkey

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht und Instanzen (virtuelle Maschinen) pro Gruppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Weitere Informationen zum Chaos Monkey und der Simian Army gibt es unter “Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur“.

Weitere Services aus Netflix Monkey Portfolio

  • Denominator: Ein Tool für die Verwaltung mehrerer DNS-Provider.
  • Odin: Eine Orchestration API, die von Jenkins und Asgard, dem Netflix Deployment Tool, aufgerufen werden kann. Sie soll Entwicklern helfen bequemer zu deployen.
  • Recipes: Dabei handelt es sich um Blaupausen (blueprints), mit denen sich mehrere Netflix Komponenten zusammen einfacher ausrollen lassen.
  • Launcher: Soll per Knopfdruck die fertigen Blaupausen ausrollen.
  • Mehr Monkeys: Zu den weiteren Netflix Monkeys die noch in diesem Jahr folgen sollen, gehören der Conformity Monkey, der Latency Monkey und der Latency Howler Monkey. Der Conformity Monkey stellt sicher, dass alle relevanten Instanzen äquivalent aufgesetzt sind. Der Latency Monkey simuliert Latenzen und weitere Fehler. Der Latency Howler Monkey überwacht, ob ein Workload auf mögliche AWS Limitierungen trifft und meldet dies.

Der Chaos Gorilla, der wahllos den Absturz einer vollständigen AWS Availability Zone simuliert sowie der Chaos Kong, der eine ganze AWS Region simuliert abschießt, sollen ebenfalls bald folgen.

Kommentar

Zwar möchte Netflix seine “Monkeys” Cloud übergreifend anbieten, so dass z.B. auch OpenStack Nutzer darauf zurückgreifen können. Allerdings spielt Netflix mit der stetigen Veröffentlichung seiner HA-Testsuite Eucalyptus damit immer mehr in die Arme.

Eucalyptus Cloud ermöglicht den Aufbau einer Private Cloud auf Basis der grundlegenden Funktionen der Amazon Cloud Infrastruktur. Was Amazon bei sich z.B. als AWS Availiablty Zone bezeichnet, repräsentiert bei Eucalyptus ein “Cluster”. Die Netflix Tools ermöglichen somit auch ähnliche HA-Funktionalität Prüfung in der Private/ Hybrid Cloud, wie Netflix sie selbst bereits in der Amazon Public Cloud nutzt. Darüber hinaus wird Eucalyptus die Netflix Tools mittelfristig ganz sicher in die eigene Cloud Lösung integrieren, um eine eigene HA-Prüfung im Portfolio zu haben.

Die Veröffentlichung der Netflix Tools unter der Open-Source Lizenz wird nicht zuletzt die Kooperation der Amazon Web Services und Eucalyptus weiter stärken, sondern Eucalyptus für Amazon als Übernahmeobjekt immer attraktiver machen.

Categories
Management @de

Die Datenleitungen: Das Rückgrat der Cloud

Im Cloud Umfeld wird immer viel über die Anbieter, ihre Verfügbarkeit, Ausfallsicherheit und Service Level Agreements (SLA) gesprochen. Was sehr oft gar nicht angesprochen wird ist die Hauptabhängigkeit Nummer eins: Die Backbones der Internet Carrier. Die “Submarine Cable Map 2013” illustriert sehr schön, wo welche Kabel weltweit verlaufen, die für den Datentransfer zwischen den einzelnen Kontinenten verantwortlich sind.

Die Datenleitungen: Das Rückgrat des Cloud Computing

Submarine Cable Map 2013 – Das weltweite Backbone unter dem Meer

Die “Submarine Cable Map 2013” zeigt das weltweite Backbone der Unterwasserkabel im Meer. Sie zeigt, wo der meiste Datentransfer stattfindet und welche Länder über die beste Vernetzung verfügen.

Insgesamt illustriert die Karte 244 Leitungen. Darunter diejenigen die zwischen dem Zeitraum von 1992 bis 2012 verlegt wurden oder die, welche bis 2014 in Betrieb genommen werden. Bereits bestehende Leitungen sind farbig markiert, geplante sind Grau. Weitere zwölf Leitungen sollen in den kommenden zwei Jahren neu verlegt werden.

Am unteren Rand der Karte lässt sich zudem ablesen, wie schnell die jeweiligen Verbindungen zwischen den verschiedenen Ländern und Kontinenten sind und wie stark die Auslastung ist. Zu erkennen ist z.B., dass die USA nach Kolumbien und Venezuela über schnelle Datenverbindungen verfügen, nach Frankreich und Großbritannien ist es jedoch langsamer. Die schwächste Datenleitung haben die USA demnach nach Südafrika und Indien.

Categories
Comment

Is the channel in the cloud computing age still relevant?

During the Cloud EcoSystem Winter Meeting a panel discussed which relevants the channel still has in the cloud. Since the majority of the participants were part of the channel less critics were made. And even things about changes were not discussed, because some already delivered software over ASP and so they are since 1998 in the cloud.

ASP is not cloud computing

I will not discuss ASP (Application Service Providing) vs. SaaS (cloud). That ASP has nothing todo with SaaS (software-as-a-service) respectively cloud computing is not just propagade by me but also by other publications. (Btw, I was very thankful, that Stefan Ried cleaned up all the “cloud myths” during his talk and showed all attendees the true characteristics and benefits of the cloud, thanks Stefan!)

The channel have to change

Let’s come to the channel. It will be worse to say that it dies. On the one hand “something” is to sale everytime and the lobby behind that will do their best to keep this business model alive. But it will be worse to close the eyes and making things going on as they have been made for years. Sure, “You’ll always need hardware!” but even this amount? And are countless suppliers able to live just from selling hardware?

In my opinion, software reselling, a big part of the whole market, is dead. Just think about which type of software is shipped by media, I spontaneously just have operating systems in mind. Although it’s possible to download it from the website of the vendor as well. Just like other software which is not available as SaaS today. For example, Microsoft ships the new Office 365 Home Premium in a box with just a small card with a code on it. The software is downloaded or streamed afterwards from a Microsoft website.

From reseller to integrator

In my opinion the typical channel for software reseller is too late to save. Companies in this area should as soon as possible think about other options. One possibility is a partnership program with software vendors, to help customers migrate and integrate with consultation-intensive solutions (actually SaaS applications are intuitv to configure and use). That means, a software reseller needs to have more expertise than just sell software and become a systems integrator.

A further idea is to build an own marketplace for SaaS applications. Here the differentiation with existing offerings is necessary and besides offering solutions from different categories even integrate them (by standard) in order to have a central data management and no isolated solutions. Here you can see, that the reseller also becomes an integrator. Leaving just reselling software.

Sure, there are software reseller who even integrate. The classical systems houses. But even these needs to change, thanks to the cloud.

Categories
Kommentar

Hat der Channel in Zeiten des Cloud Computing noch eine Bedeutung?

Auf dem Cloud EcoSystem Winter Meeting wurde in einem Panel diskutiert, welche Bedeutung der Channel in der Cloud überhaupt noch hat. Da die Mehrzahl der Protagonisten jedoch ein Teil dieses Channels waren, gab es natürlich wenig Kritik. Allerdings war auch wenig von Veränderungen zu hören, da man ja auf Grund des ASP Modells schon selbst seit 1998 quasi in der Cloud sei.

ASP ist kein Cloud Computing

Auf die Diskussion ASP (Application Service Providing) vs. SaaS (Cloud) gehe ich hier nicht ein. Das ASP mit SaaS (Software-as-a-Service) respektive Cloud Computing nichts zu tun hat, wird nicht nur von mir, sondern vielen weiteren Publikationen propagiert. (Ich war übrigens sehr froh, dass Stefan Ried während seines Vortrags mit den “Cloud Mythen” noch einmal aufgeräumt hat und allen Beteiligten die echten Eigenschaften und Vorteile der Cloud präsentiert hat, danke Stefan!)

Der Channel muss sich verändern

Kommen wir zum Channel. Es wäre falsch zu sagen, dass er stirbt. Zum einen gibt es auch weiterhin “Dinge” für den Vertrieb und die Lobby dahinter wird auch alles menschenmögliche tun, um ihr Geschäftsmodell zu verteidigen. Aber es wäre vermessen, die Augen zu verschließen und so weiter zu machen wie bisher. Natürlich, “Hardware wird immer benötigt!”, aber auch in dieser Stückzahl? Und können zig Anbieter nur vom Vertrieb von Hardware leben?

Meiner Ansicht nach ist der Software-Vertrieb, ein sehr großer Teil vom gesamten Markt, tod. Überlegen wir uns, welche Art von Software in Zukunft noch auf Datenträger verschickt wird, fallen mir spontan nur die Betriebssysteme ein. Obwohl sich diese mittlerweile auch über die Webseiten der Hersteller herunterladen lassen, wie andere Softwarelösungen übrigens auch, die noch nicht als SaaS zur Verfügung stehen. Zum Beispiel liefert Microsoft für Office365 Home Premium trotz Verpackung nur noch einen Code aus, mit dem die Software von einer Microsoft Webseite heruntergeladen oder gestreamed wird.

Vom Reseller zum Integrator

Der typische Channel für Software-Reseller ist meiner Ansicht nach daher nicht mehr zu retten. Unternehmen aus diesem Bereich sollten sich möglichst schnell Gedanken über alternative Wege machen. Mögliche Ansätze bestehen in Partnerprogrammen mit den Softwareherstellern, um z.B. bei beratungsintensiven Lösungen (eigentlich sollten SaaS Anwendungen intuitiv zu konfigurieren und bedienen sein) dem Kunden zur Seite zu stehen und bei der Migration und Integration zu helfen. Ergo: Software-Reseller müssen sich mehr Expertise als das reine wiederverkaufen aneignen und zu Sytemintegratoren werden.

Eine weitere Möglichkeit besteht in dem Aufbau eines eigenen Marktplatz für SaaS-Applikationen. Hier gilt es jedoch sich direkt von den bestehenden Angeboten zu differenzieren und neben einer Vielzahl von Lösungen aus den unterschiedlichen Bereichen, ebenfalls dafür zu sorgen, dass die von dem Kunden genutzten Lösungen miteinander integriert sind und über eine zentrale Datenhaltung verfügen und somit keine Insellösungen entstehen. Gut zu erkennen: auch hier muss der Reseller wieder zum Integrator werden. Weg von dem reinen Zwischenhandel mit Software.

Selbstverständlich existieren Software-Reseller, die ebenfalls Integrationen vornehmen. Das sind die klassischen Systemhäuser. Aber auch diese müssen sich auf Grund der Cloud verändern.

Categories
Comment

Office 365 Home Premium – Microsoft does not rely on software-as-a-service

Yesterday Microsoft has introduced its new Office for the retail market. The new Office 365 Home Premium promises to deliver new capabilities for direct connection to social networks, SkyDrive and Skype to facilitate communication with family and friends. In addition, each user has his personal office anywhere. Use it on a PC, tablet or smartphone – and even on the Mac. The control is done in addition to keyboard by touch or pen input. But who thought that Microsoft offers its new office to the idea of the cloud as SaaS (software-as-a-service), is mistaken.

Cloud but not software-as-a-service

Office 365 Home Premium is not SaaS or a cloud service in the strict sense, because the office is not provided or used over the browser. (Although there are the completely free Office Web Apps, which have directly nothing to do with Office 365 Home Premium.) Microsoft gives the reason that not all Office functions can be operated performant in the browser. Instead, Microsoft is going an “interesting” way which is totally new. Microsoft Office becomes hybrid. Microsoft names this truly innovative technology as “Office streaming”. Through “Click 2 Run” an office suite can be installed in minutes. The interesting thing is that Microsoft initially installed the statistically most used basic functions, so you can quickly start working with Office. So you are able to work with Office already during the installation. In the background the rest is installed. The cluo: If a function is called, for example of Word, while Office is still in installation mode, this function is prioritized accurately and directly streamed. (Whether this type of installation, a user really needs is another question, but the idea is good.)

Cloud is just in the backend

Office 365 Home Premium syncs all personal settings and documents automatically to the cloud. Thus all data are available on all connected PCs. This also works on other PCs, if you log on there with a Microsoft account of hotmail.com, outlook.com or live.com. Based on the new technology “Office on Demand” the office is then streamed from the cloud for processing on the respective computer. “Office on Demand” installs Office on the local system in a virtual environment. When the session is closed, the virtual environment and the Office with all the data completely disappears from the system. Thus, Microsoft would ensure privacy when using on other computers.

Prices and goodies

Office 365 Home Premium includes Word, Excel, PowerPoint, OneNote, and also Outlook, Access and Publisher. By subscribing a user automatically has to have the latest Office solution on the hard drive or on the road via”Office on Demand”. Other goodies: 60 minutes per month with Skype to landlines, additional 20 GB SkyDrive storage and use rights for up to five devices, laptops, tablets and smartphones, for both Windows and Mac environments.

Prices

  • Office 365 Home Premium: 99 EUR per year
  • Office 365 University: 79 EUR for 4 years
  • Office Home & Student 2013 for 139 EUR
  • Office Home & Business 2013 for 269 EUR
  • Office Professional 2013 for 539 EUR

Office 365-Business

From 27 February 2013 also new Office 365 business services with new functions will be available, which will probably also include a SkyDrive Pro version.

The strategy is consistent with Windows 8

That Microsoft does not rely on SaaS is a little surprising, but it fits into the Windows 8 strategy. The applications are mostly held locally to ensure the speed and necessarily not have to rely on a data connection. All personal settings and documents, if the user wants, are stored in the cloud in order to ensure the location and platform independent access. This is ensured by “Office on Demand” and streaming.

Is the Microsoft Office suite still contemporary?

For me, the question arises, why Microsoft continued its commitment to this massive office suite and does not offer applications separately. I understand the strategy to give end users access to Outlook. Parents can e.g. organize the family. But who does that really? After Microsoft’s research probably some. So, reference customers were allowed to talk about their use cases during the launch event. I’m not so sure. If you look at the behavior of (young) users, who prefer to self assemble their productivity suite and do not want to get dictated by mom and dad. (The influence of their friends is much greater.) Dropbox for storage, Evernote for taking notes, Remember the Milk or Wunderlist for tasks, GMail or Outlook.com for e-mail are among the favorite candidates. The Cloud and Mobile apps make it possible.

Office is good, no question! But is this powerful solution still contemporary? Do users really want to get dictated what they should use or do they prefer to assemble their own solutions. Word and Excel are an added value for each personal productivity suite, but for that they must be offered separately, and I do not mean the Office Web Apps.

Categories
Services @en @de

Big Data in the Cloud: AWS Data Pipeline and Amazon Redshift

Amazon powerful upgraded its cloud infrastructure for big data. With the AWS Data Pipeline now a service (currently in beta) is available to automatically move and handle data across different systems. Amazon Redshift is a data warehouse in the cloud, which will be ten times faster than previously available solutions.

AWS Data Pipeline

With the AWS Data Pipeline Amazon wants to improve the access to the steady growing data on distributed systems and in different formats. For example, the service loads textfiles from Amazon EC2, processes it and saves them on Amazon S3. The main hub is represented by the AWS Management Console. Here the pipelines including the several sources, conditions, targets and commands are defined. Based on task plans it is defined when which job will be processed. The AWS Data Pipeline determines from which system based on which condition the data is loaded and processed and where it is stored afterwards.

The data processing can be conduct directly in the Amazon cloud on EC2 instances or in the own data center. Therefore the open source tool Task Runner is used which communicates with the AWS Data Pipeline. The Task Runner must run on each system that is processing data.

Amazon Redshift

Amazon’s cloud data warehouse Amazon Redshift helps to analyze huge amount of data in a short time frame. Within it’s possible to store 1.6 petabytes of data and request them using SQL queries. Basically the service is charged by pay as you use. But customers who sign a three years contract and giving full load on their virtual infrastructure pay from 1.000 USD per terabyte per year. Amazon compares with numbers from IBM. IBM charges a data warehouse from 19.000 USD to 25.000 USD per terabyte per year.
First Amazon Redshift beta users are Netflix, JPL and Flipboard who were able to improve their requests 10 till 150 times faster compared to their current systems.

Amazon Redshift can be used as a single cluster with one server and a maximum of 2 terabyte of storage or as a multi node cluster including at least two compute nodes and one lead node. The lead node is responsible for the connection management, parsing the requests, create task plans and managing the requests for each compute node. The main processing is done on the compute node. Compute nodes are provided as hs1.xlarge with 2 terabyte storage and as hs1.8xlarge with 16 terabyte storage. One cluster has the maximum amount of 32 hs1.xlarge and 100 hs1.8xlarge compute nodes. This results in a maximum storage capacity of 64 terabyte respectively 1.6 terabyte. All compute nodes are connected over a separate 10 gigabit/s backbone.

Comment

Despite from the competition Amazon expands its cloud services portfolio. As a result, you can sometimes get the impression that all the other IaaS providers mark time – considering the innovative power of Amazon Web Services. I can only stress here once again that Value added services are the future of infrastructure-as-a-service respectively Don’t compete against the Amazon Web Services just with Infrastructure.

If we take a look at the latest developments, we see a steadily increasing demand for solutions for processing large amounts of structured and unstructured data. Barack Obama’s campaign is just one use case, which shows how important the possession of quality information is in order to gain competitive advantages in the future. And even though many see Amazon Web Services “just” as a pure infrastructure-as-a-service provider (I don’t do that), is Amazon – more than any other (IaaS) provider – in the battle for Big Data solutions far up to play – which is not just the matter because of the knowledge from operating Amazon.com.

Categories
Services @de

Big Data in der Cloud: AWS Data Pipeline und Amazon Redshift

Amazon rüstet seine Cloud-Infrastruktur für Big Data mächtig auf. Mit der AWS Data Pipeline steht nun ein Dienst (zur Zeit in der Betaphase) zur Verfügung, mit sich Daten über verschiedene Systeme automatisch verschieben und verarbeiten lassen. Amazon Redshift stellt ein Datawarehouse in der Cloud dar, welches zehnmal schneller sein soll als bisher verfügbare Lösungen.

AWS Data Pipeline

Mit der AWS Data Pipeline sollen die stetig wachsenden Daten, welche auf verschiedenen Systemen und in unterschiedlichen Formaten vorhanden sind, einfacher zugänglich gemacht werden. Der Service lädt zum Beispiel Textdateien von Amazon EC2, verarbeitet sie und speichert diese in Amazon S3. Dreh und Angelpunkt ist dabei die AWS Management Console. Hier werden Pipelines definiert, die aus unterschiedlichen Quellen, Bedingungen, Zielen und Anweisungen bestehen. Über Zeitpläne wird festgelegt, wann welcher Job ausgeführt wird. Die AWS Data Pipeline legt fest, von welchem System welche Daten auf Basis von bestimmten Bedingungen geladen werden, unter welchen Bedingungen sie zu verarbeiten sind und wo diese am Ende gespeichert werden.

Die Verarbeitung der Daten kann entweder direkt in der Amazon Cloud auf EC2-Instanzen oder im eigenen Rechenzentrum durchgeführt werden. Dafür steht mit dem Task Runner ein Open-Source Tool bereit, dass mit der AWS Data Pipeline kommuniziert. Der Task Runner muss dafür auf den jeweiligen datenverarbeitenden Systemen gestartet sein.

Amazon Redshift

Amazons Cloud-Datawarehouse Amazon Redshift soll dabei helfen, große Datenmengen innerhalb kürzester Zeit zu analysieren. Darin lassen sich bis zu 1,6 Petabyte Daten speichern und per SQL abfragen. Zwar wird der Service, wie üblich, nach Verbrauch abgerechnet. Kunden, die allerdings einen Dreijahresvertrag unterschreiben und volle Last auf ihre virtuelle Infrastruktur bringen, zahlen ab 1.000 US-Dollar pro Terabyte pro Jahr. Amazon stellt dazu einen Vergleich mit Zahlen von IBM an. IBM berechnet für ein Datawarehouse zwischen 19.000 US-Dollar und 25.000 US-Dollar pro Terabyte pro Jahr,
Erste Beta-Tester von Amazon Redshift sind Netflix, JPL und Flipboard, deren Abfragen 10- bis 150-mal schneller waren als auf dem derzeit genutzten System.

Amazon Redshift kann als Single-Node-Cluster mit einem Server und maximal 2 TByte Speicherplatz oder als Multi-Node-Cluster, der aus mindestens zwei Compute-Nodes und einem Leader-Node besteht, genutzt werden. Der Leader-Node ist dabei für die Verwaltung der Verbindungen, das Parsen der Anfragen, das Erzeugen der Ausführungspläne und der Verwaltung der Anfragen auf den einzelnen Compute-Nodes zuständig. Die Berechnung findet auf den Compute-Nodes statt. Die Compute-Nodes stehen als hs1.xlarge mit 2 TByte Speicherkapazität und hs1.8xlarge mit 16 TByte Speicherkapazität zu Verfügung. Ein Cluster darf dabei maximal aus 32 hs1.xlarge und 100 hs1.8xlarge Compute-Nodes bestehen. Das ergibt eine maximale Speicherkapazität von 64 Terabyte beziehungsweise 1,6 Petabyte. Die Compute-Nodes sind über ein separates 10 Gigabit/s Backbone miteinander verbunden.

Kommentar

Amazon baut ungeachtet vom Mitbewerb sein Cloud Services Portfolio weiter aus. Dadurch kann man manchmal den Eindruck bekommen, dass alle anderen IaaS-Anbieter auf der Stelle treten – angesichts der Innovationskraft der Amazon Web Services. Ich kann es an dieser Stelle nur noch einmal betonen, Mehrwert-Services sind die Zukunft von Infrastructure-as-a-Service bzw. Wer als IaaS-Anbieter zu Amazon konkurrenzfähig sein will muss mehr als nur Infrastruktur im Portfolio haben.

Schauen wir uns die aktuellen Entwicklungen an, steigt der Bedarf an Lösungen für die Verarbeitung großer strukturierter und unstrukturierter Datenmengen stetig an. Barack Obamas Wahlkampf ist dafür nur ein Use Case, der zeigt, wie wichtig der Besitz qualitativ hochwertiger Informationen ist, um sich für die Zukunft Wettbewerbsvorteile zu verschaffen. Und auch wenn viele in den Amazon Web Services “nur” einen reinen Infrastructure-as-a-Services Anbieter sehen (ich tue das nicht), wird Amazon – mehr als jeder andere (IaaS)-Anbieter – im Kampf um Big Data Lösungen weit oben mitspielen – was letztendlich nicht nur an dem Wissen auf Grund des Betriebs von Amazon.com liegt.

Categories
Analysen

Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört

Software-as-a-Service ist der am schnellsten wachsende Bereich im Cloud Computing Markt. Immer mehr Anbieter traditioneller Softwarelösungen vollziehen den Wandel und bieten ihre Anwendungen aus der Cloud an. Erfahren Sie, warum auch Ihre Anwendung in die Cloud gehört und warum Ihre Kunden aber auch Sie als Anbieter davon profitieren.

Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört

Was bedeutet Software-as-a-Service?

Software-as-a-Service (SaaS) ist die oberste Schicht des Cloud Computing Servicemodells. Sie stellt dem Anwender vollständige Anwendungen zur Verfügung. Es kann als eine Art Distributionsmodell verstanden werden, bei dem die Nutzung von Software (Lizenzen) über das Internet von einem Drittanbieter angeboten wird. Der Drittanbieter übernimmt dabei u.a. die Wartung, Aktualisierung und das Hosting der Software. Für den Anbieter besteht der Vorteil darin, dass nur eine Instanz einer Software auf den Servern bereitgestellt werden muss, welche unzählige Anwender gleichzeitig nutzen können. Wird die Software auf einen aktuellen Stand gebracht, genügt ein Update Vorgang an zentraler Stelle und die Software ist für alle Anwender gleichzeitig aktuallisiert. Der Vorteil für den Anwender besteht darin, dass lediglich nur ein Endgerät mit einem Web-Browser und eine Internetverbindung ausreicht um z.B. Dienste wie E-Mail, Office Anwendungen oder ERP-Systeme nutzen zu können. Die Anschaffung und Wartung großer Serverlandschaften bzw. Softwarepakete entfällt ebenso wie das Updaten der lokalen Anwendungen. Der Drittanbieter sorgt immer für einen aktuellen Stand der Software und stellt die gesamte Infrastruktur für das Hosting der Software bereit. Dazu gehören auch das Speichern von Dateien und Dokumenten auf den Servern des Anbieters. Der Anbieter ist demnach für alle notwendigen Bereiche des Betriebs wie Verfügbarkeit, Backup, Redundanzen und auch die Stromversorgung verantwortlich. Die Abrechnung erfolgt mit dem pay per use Modell. Dabei werden die Kosten pro nutzenden Anwender der Software berechnet.

Was bedeutet SaaS für Ihre Kunden?

Kurzum, Software-as-a-Service macht Ihren Kunden das Leben einfacher und hilft diesen dabei, gezielt und nur bei Bedarf investieren zu müssen.

Überschaubare Investitionskosten

Zu einer IT-Infrastruktur zählen u.a. lokale Computersysteme, mit denen die Mitarbeiter ihre Arbeit verrichten. Auf diesen sind zum Teil zahlreiche Anwendungen installiert, die pro Computersystem oder Nutzer fest abgerechnet werden; egal ob der aktuelle Nutzer des Systems die Anwendung benötigt oder nicht. Weiterhin werden für das zentrale Speichern von Daten, Kommunikations- und Kollaborationslösungen wie E-Mail oder Systeme zur Zeiterfassung und Unternehmensplanung Serverhardware und Software im Backend benötigt. Vergessen sollte man auch nicht Server und Software für den Verzeichnisdienst, gegen den sich die Mitarbeiter autorisieren müssen. Alle aufgezählten Bereiche, und das ist nur ein Teil, führen zu hohen Investitionskosten. Dabei sollte zudem beachtet werden, dass dies alles auch gewartet und in regelmäßigen Abständen aktualisiert werden muss.

Software-as-a-Service verringert den größten Teil der oben genannten Nachteile einer lokalen IT-Infrastruktur. Hohe nicht haargenaue Investitionskosten in Lizenzen entfallen ebenso, wie ungenutzte Softwarelizenzen. Unternehmen haben in heutigen Zeiten verstärkt mit einer größer werdenden Mitarbeiterfluktuation zu tun. Hinzu kommt, dass viele auf Teilzeit- oder Aushilfskräfte zurückgreifen, um eine bestimmte Hochkonjunktur auszugleichen, die über dem Mittelwert im Jahr liegt. Dafür müssen entsprechende Lizenzen vorgehalten werden, damit jeder Mitarbeiter produktiv arbeiten kann. Das führt dazu, dass über das Jahr hinweg zu viele Softwarelizenzen im Unternehmen vorhanden und auf den Systemen installiert sind. Durch die nicht vorhersagbare Anzahl benötigter Mitarbeiter findet entweder eine Überinvestition statt oder es herrscht ein Mangel, der in der Regel durch Workarounds gelöst wird.

Mit einer Software-as-a-Service Lösung lassen sich je nach Bedarf weitere Nutzer innerhalb kürzester Zeit hinzufügen und auch wieder entfernen. Das bedeutet, das Unternehmen bezahlt tatsächlich nur für den Mitarbeiter, der auch eine bestimmte Software benötigt.

Ähnlich verhält es sich mit lokalen Computersystemen und den Servern im Backend. Die für E-Mail und ERP-Systeme notwendigen Server befinden sich innerhalb der Infrastruktur des Anbieters, der für deren Wartung, Aktualisierung und Administration zuständig ist. Eine Investition in diese Backendsysteme entfällt somit. Darüber hinaus werden keine performanten lokalen Computersysteme mehr benötigt. Da die Anwendung über einen Browser bereitgestellt und darüber ebenfalls genutzt wird, reichen in der Regel kostengünstige Terminals oder Thin-Clients.

Immer auf dem aktuellen Stand

Software muss ständig neuen Anforderungen genügen. Sei es auf Grund neuer gesetzlicher Vorschriften oder weil sich Fehler und Sicherheitslücken während des Entwicklungsprozesses eingeschlichen haben, die behoben werden müssen. Und natürlich erscheinen in regelmäßigen Abständen neue Softwareversionen, die neue Funktionen usw. mit sich bringen. All das erfolgt in einer klassischen IT-Infrastruktur normalerweise manuell durch einen vom Benutzer oder besser Administrator durchgeführten Installationsprozess oder durch automatisierte Systeme. So oder so ist das IT-Personal damit beschäftigt, zunächst Updates auf Testsystemen einzuspielen, um das Verhalten auf das Gesamtsystem zu überprüfen.

Eine Software-as-a-Service Anwendung ist ständig auf dem aktuellen Stand. Der Anbieter sorgt im Hintergrund dafür, dass Sicherheitslücken, Fehlerkorrekturen, Updates und neue Funktionen eingespielt werden, ohne das der Anwender oder Administrator aktiv daran beteiligt ist und in den meisten Fällen nichts davon bemerkt.

Orts- und plattformunabhängiges Arbeiten

Traditionelle Softwareapplikationen sind an ein lokales Computersystem gebunden, wodurch das orts- und plattformunabhängige Arbeiten erschwert wird. Mit mobilen Endgeräten wie Notebooks sind die Anwendungen zwar stückweit portabel, aber weiterhin an diesem einen Gerät gebunden. Zudem muss die jeweilige native Anwendung auch stets für das lokale Betriebssystem verfügbar sein, was nicht immer der Fall ist.

Software-as-a-Service Anwendungen werden über einen Standard-Webbrowser genutzt. Dadurch sind sie zu 100% orts- und plattformunabhängig. Steht einem Mitarbeiter mal nicht sein gewohntes System zur Verfügung, kann er über den Webbrowser dennoch auf die Anwendung zugreifen. Ein weiterer Vorteil besteht darin, dass der Zugriff auf wichtige Daten stets möglich ist, da diese zentral im Backend der SaaS Anwendung abgelegt werden und sich somit von jedem Mitarbeiter, der dazu berechtigt ist, aufrufen lassen.

Was bedeutet SaaS für Sie selbst?

Software-as-a-Service spart Ihnen Zeit, Geld und Nerven.

Kosten der Software

Ist eine klassische Anwendung fertig entwickelt, geht die eigentliche Arbeit erst los. Wie soll die Software vertrieben werden, wie werden Updates bereitgestellt und wie soll reagiert werden, wenn ein Bug entdeckt wird, dessen Korrektur immens wichtig ist? Das sind nur ein paar Fragen, die sich ein Anbieter stellten muss. Traditionell wird Software als Datenträger in Form einer CD ausgeliefert. Das bedeutet auf der einen Seite Kosten für die Datenträger, Verpackung, Logistik usw. Auf der anderen Seite aber ebenfalls einen statischen Stand der Softwareversion, der nach jeder Neuinstallation mit Updates (per CD) zusätzlich erweitert werden muss. Aber wie verhält es sich, wenn auch das Update wiederum einen Fehler beinhaltet oder nicht kompatible zu bestimmten anderen Applikationen ist? Der logistische Prozess beginnt von vorne. Im Laufe der Zeit ist man dazu übergegangen, Software und Updates als Downloads bereitzustellen. Dadurch konnten zwar Kosten eingespart werden, die Updateproblematik bleibt aber zum größten Teil bestehen. Ähnlich verhält es sich beim Release einer vollständig neuen Softwareversion mit neuen Funktionen und Design.

Software-as-a-Service hebt diese Problematiken vollständig auf. Die Anwendung wird online über einen Webbrowser zugänglich gemacht, wodurch sämtliche externe logistische Prozesse entfallen. Ebenso verhält es sich mit dem Bereitstellen von Updates. Dieses entfällt vollständig, da Sie als Anbieter alle Fäden der Software in der Hand halten und die Änderungen, Fehlerkorrekturen, Verbesserungen und völlig neue Versionen an einer zentralen Stelle pflegen.

Plattformunabhängigkeit

Manche Software steht ausschließlich für die bekannten Betriebssysteme zur Verfügung. Die Entwicklung und der Vertrieb lohnen sich für die vermeintlichen Kleinen nicht. Das schreckt nicht nur den einen oder anderen Nutzer ab, sondern lässt diesen zu Aussagen hinreißen, das der Anbieter nicht offen sei.

Software-as-a-Service sorgt für die Plattformunabhängigkeit der Anwendung und somit zu einer größeren Reichweite und Kundenzufriedenheit. Die Anwendung wird ausschließlich über einen Browser bereitgestellt und funktioniert ohne die Installationen weiterer Softwarekomponenten. Das hat zur Folge, dass Sie nur für die gängigen Standardbrowser entwickeln müssen und die lokalen Betriebssysteme und alle darauf installierten Applikationen keinen Einfluss auf Ihre Software nehmen.

Auch Ihre Anwendung gehört in die Cloud

Vergleichen wir den klassischen Softwaremarkt und wie hier Software entwickelt, bereitgestellt und konsumiert wird, mit dem Cloud Computing, wird eines sehr deutlich. Die Art wie Software an den Nutzer ausgeliefert wird, hat sich verändert. Das Verschicken von Datenträgern oder das Bereitstellen von Updates entfällt. Ebenso das Installieren der Software bzw. der Updates. Software wird aus der Cloud als Service, daher auch Software-as-a-Service (SaaS), bereitgestellt. Der Anbieter hat hier soweit alle Fäden in der Hand und der Nutzer bemerkt, rein äußerlich, z.B. ein Update nicht. Es sei denn, es werden Änderungen an der Oberfläche vorgenommen. Im Updateprozess selbst ist der Nutzer nicht involviert, denn er muss nichts herunterladen oder installieren. Er konsumiert die Software lediglich über einen Webbrowser.


Download

Sie können CloudUser.de auch unterstützen und den Artikel kostenpflichtig als PDF unter “Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört” herunterladen.


Bildquelle: Nicholas Thein / pixelio.de

Categories
Services @de

Mikogo Cloud-Desktop auf Basis von HTML5

Ich hatte den Cloud-Desktops vor kurzem eine rosige Zukunft ausgesprochen. Nun gibt es dazu auch Neuigkeiten aus Deutschland. Mikogo präsentiert mit seinem “Mikogo Cloud Desktop” vollwertige Betriebssysteminstallationen aus der Cloud. Mit EyeOS oder CloudON gibt es zwar seit längerer Zeit bereits ähnliche Lösungen am Markt. Wo EyeOS hingegen eine proprietäre Eigenentwicklung in der Cloud anbietet, stehen bei Mikogo bekannte Betriebssysteme aus dem Hause Microsoft zur Verfügung. Vor der Veröffentlichung stand für mich eine abgespeckte Instanz (Windows Server) des “Mikogo Cloud Desktop” bereit, mit der ich mir einen Überblick verschaffen konnte.

Mikogo Cloud Desktop auf Basis von HTML5

Erster Eindruck

Es ist einfach nur ein Betriebssystem was man nutzt. Nach Außen hin überhaupt kein Hexenwerk. Statt morgens den Power-Knopf zu drücken und sich anschließend anzumelden, wird nun der Browser geöffnet. Man tausche also quasi Power-Knopf gegen Browser. Wer hinter einem Cloud-Desktop “Magic” erwartet, wird enttäuscht sein. Ich kann leider nicht viel zu der Bedienung schreiben, da die Policy-Regeln des Test-Desktops sehr restriktiv eingestellt waren. Einen neuen Ordner auf dem Desktop konnte ich aber anlegen. Die Performance wirkte flüssig, wie es allerdings ausschaut wenn bspw. ein LibreOffice gestartet wird, kann ich nicht sagen.

Aber, die Vorteile stecken im Detail.

HTML5, Active Directory, VPN und Remote Printing

Das System hinter dem Cloud-Desktop setzt auf HTML 5 auf. Das ermöglicht einen Zugriff auf den eigenen Rechner direkt aus dem Browser heraus, ohne dafür vorher eine Software herunterladen zu müssen oder Plugins zu installieren. Das hat weiterhin den Vorteil, dass ein Betriebssystem über den Cloud-Desktop auch mit dem Browser eines Tablets genutzt werden kann. (Das kann ich so erst einmal nicht bestätigen, da die URL auf meinem iPad in einen Time-Out gelaufen ist.)

Mikogo schreibt darüber hinaus, wenn Unternehmen sich für den Cloud-Desktop entscheiden “… können sie ihren externen Dienstleistern alle notwendigen Softwareanwendungen zur Verfügung stellen, ohne dabei auch nur eine einzige Hardware zu benötigen.

Der Cloud-Desktop bietet, laut Mikogo, unterschiedliche Windows-Betriebssysteme inklusive Windows 8. Das bedeutet, ein Windows 8 Cloud Desktop kann z.B. auf einem Windows XP Rechner, einem Mac Notebook, einem iPad oder anderem mobilen Endgerät verwendet werden.

Für den professionellen Unternehmenseinsatz kann der Cloud-Desktop in die firmeneigene Active Directory integriert werden, um damit die Benutzer zu verwalten. Weiterhin besteht die Möglichkeit den Cloud-Desktop per VPN mit dem Firmennetzwerk zu verbinden und auf Ressourcen aus dem eigenen Netzwerk zuzugreifen. Das Drucken auf einen lokalen Drucker (Remote Printing) ist ebenfalls möglich.

Fazit

Der Mikogo Cloud Desktop macht auf dem ersten Blick einen guten Eindruck. Letztendlich arbeitet man aber nur mit einem Betriebssystem im Browser, was auch nicht anders zu erwarten war. Denn das Ziel der Cloud-Desktops muss es sein, die Nutzbarkeit für den Anwender so einfach und bequem wie möglich zu machen. Browser öffnen, anmelden, arbeiten und das ortsunabhängig und mit einer vollwertigen Arbeitsumgebung. Besonders interessant finde ich die Integration in eine bestehende Active Directory, wodurch auch ein erster Schritt hin zur Anbindung von weiteren Backend-Systemen gemacht wird.