Categories
Analysen

ProfitBricks unter der Haube: IaaS aus Deutschland – man darf gespannt sein

In der vergangenen Woche hatte ich ein Briefing mit ProfitBricks, um das Infrastructure-as-a-Service (IaaS) Angebot aus Deutschland besser kennenzulernen und konkrete Fragen zu stellen. Ich habe ProfitBricks in zwei Artikeln Nummer eins hier und Nummer zwei hier in der Vergangenheit bereits kritisch begutachtet. Zum einen, weil ich einfach nicht auf Marketingphrasen stehe, die viel mehr versprechen als eigentlich dahinter steckt und zum anderen, weil auch technische Versprechen eingehalten werden müssen.

Details zu ProfitBricks

ProfitBricks stellt sich als typischer Infrastructure-as-a-Service Anbieter auf. Über eine graphische Weboberfläche lassen sich maßgeschneiderte Server zu einem Rechenzentrum formen. Anhand von komplexen Vernetzungsstrukturen soll eine echte Isolation des Kundennetzwerks im virtuellen Rechenzentrum sichergestellt werden. Für Performance sorgt eine vermaschte redundante Vernetzung mit Infiniband sowie ein hochredundanter Storage (inkl. automatischem Backup) für die Verfügbarkeit der Daten.

Zudem verfügt ProfitBricks über ein eigenes Security-Team sowie langjährig erfahrene Systemadministratoren, die einen rund um die Uhr Support liefern.

Standorte

Rechenzentren bzw. Co-Location besitzt ProfitBricks in Deutschland (Karlsruhe) und in den USA (Las Vegas). Allerdings sind beide Rechenzentren in keinster Weise physikalisch oder virtuell miteinander verbunden, wodurch kein Datenaustausch zwischen Deutschland und den USA auf diesem Weg stattfinden kann.

Die Infrastruktur-Komponenten

Server lassen sich bei ProfitBricks mit Cores zwischen 1 und 48 Cores sowie 1 GB und 196 GB RAM ausstatten. Das Maximum liegt hier derzeit allerdings bei 60 Cores und 250 GB RAM pro Server, was man sich über den Support freischalten lassen kann. Storage gibt es zwischen 1 und 5000 GB. Allerdings kann dieser immer nur direkt einem Server zugewiesen werden. Es gibt somit keinen zentralen Speicher. Um dieses zu realisieren, muss man sich eine eigene zentrale Storage-Appliance bauen und den Speicher darüber verteilen.

Innerhalb eines selbst gestalteten Rechenzentrum (siehe unten) stehen zwei Zonen (ähnlich der Availability Zones von Amazon) zur Verfügung. Damit lassen sich z.B. zwei Server so konfigurieren, dass der eine von den Problemen in der Zone des zweiten Servers nichts mitbekommt.

Es gibt keine zentrale Firewall. Stattdessen können jeweils alle Netzwerkkarten eines Servers mit eigenen Regeln konfiguriert werden. Eine zentrale Firewall lässt sich hier z.B. durch den Aufbau einer eigenen Firewall-Appliance (Linux + IPTables oder eine fertige kommerzielle Firewall als ISO-Image) realisieren.

Ein Load Balancer steht zwar zur Verfügung, allerdings empfiehlt ProfitBricks an dieser Stelle lieber einen eigenen anhand einer Appliance zu bauen, da der ProfitBricks eigene u.a. über kein Monitoring verfügt.

Weitere eigene Mehrwertservices bietet ProfitBricks nicht an. Dies soll nach eigener Aussage auch nicht passieren. Stattdessen setzt der Anbieter auf ein Partnernetzwerk, das für die Infrastrukturplattform entsprechende Services anbieten soll.

Derzeit einmalig: Der Data Center Designer

Was mich bei ProfitBricks wirklich überzeugt hat ist der “Data Center Designer (DCD)”. So einen hat in dieser Form derzeit noch kein IaaS Anbieter weltweit.

Anhand dieser graphischen Weboberfläche ist man in der Lage ein komplettes virtuelles Rechenzentrum individuell zusammenzustellen und per Mausklick die Konfiguration zu aktivieren oder beliebig zu ändern – egal ob es sich um Server, Storage, Loadbalancer, Firewalls oder die entsprechende Vernetzung handelt.

Ist ein Rechenzentrum fertig designed, lässt es sich speichern und deployen. Zuvor erhält man noch Informationen über einen Check durch das System. Hier wird geschaut, ob alles korrekt konfiguriert wurde – z.B. ob alle Server auch ein Bootlaufwerk mit entsprechenden Image haben. Anschließend werden die Gesamtkosten pro Monat für dieses virtuelle Rechenzentrum aufgeschlüsselt.

Allerdings hat der DCD derzeit noch eine Schwachstelle. Ist ein Rechenzentrum deployed, lässt sich über die Weboberfläche kein einzelner Server mehr aus dem Design entfernen bzw. diesen darüber stoppen. Dazu muss zunächst das vollständige Rechenzentrum wieder un-deployed werden. Dann wird der Server entfernt und das Rechenzentrum anschließend wieder deployed. Mittels der proprietären SOAP API, die unter anderem Java und C# unterstützt, soll ein einzelner Server jedoch entfernt werden können. Diese Web-Funktion soll, ebenso wie eine REST API, in Zukunft folgen.

Der Kunde ist größtenteils auf sich alleine gestellt

Zunächst bietet ProfitBricks einen deutschsprachigen Support, der entweder selbst jahrelang als Administrator gearbeitet hat oder an der Entwicklung des Systems beteiligt war. Der Support ist darüber hinaus kostenlos enthalten. Auch dann, wenn man die Plattform nur mit einem Testaccount evaluiert.

Ansonsten ist ProfitBricks ein gewöhnlicher Self-Service wie ihn andere IaaS Anbieter auch bieten. Das bedeutet, dass man sich über das Design seiner virtuellen Infrastruktur und wie eine Applikation auf der Infrastruktur skaliert und hochverfügbar bereitgestellt wird, selbst kümmern.

Bei weitere Fragen und Lösungsansätze, z.B. bei der Konfiguration einer separaten Firewall-Appliance oder eines eigenen Loadbalancer, helfen Partner.

Preise

Die Abrechnung erfolgt minutengenau pro Stunde. Die Kosten schlüsseln sich dabei wie folgt auf:

  • 1 Core = 0,04 EUR pro Stunde
  • (Windows Server plus 0,01 EUR pro Stunde)
  • 1 GB RAM = 0,09 EUR pro Stunde
  • 1 GB Speicher = 0,09 EUR pro 30 Tage
  • 1 GB Traffic = 0,06 EUR pro GB Traffic

Das Live Vertical Scaling

ProfitBricks unterstützt das sogenannte Live Vertical Scaling. Das bedeutet, dass sich weitere Ressourcen wie CPU und RAM im laufenden Betrieb zu einem virtuellen Server hinzufügen lassen. Diese Funktion muss für jeden Server separat aktiviert und der Server anschließend einmal neu gestartet werden.

Allerdings, und das habe ich hier angemerkt und hat mir ProfitBricks während des Briefings bestätigt, muss das Betriebssystem, die Datenbank, Software und die eigene Applikation das auch unterstützen. Die Systeme müssen erkennen, dass plötzlich mehr Kerne und RAM zur Verfügung stehen und diese nutzen. Und im umgekehrten Fall ebenfalls damit umgehen können, wenn die Ressourcen wieder herunterskalieren.

ProfitBricks ist interessant

ProfitBricks ist ein interessantes Infrastructure-as-a-Service Angebot. Insbesondere im sehr Cloud-kargen (IaaS) Deutschland mit einem Rechenzentrum in Deutschland. Besonders hervorzuheben ist der Data Center Designer (einziger USP), der derzeit weltweit einmalig ist und die entsprechende Convenience bietet, die andere IaaS-Anbieter vernachlässigen. Zwar harkt der Designer an der einen oder anderen Stelle noch (Bsp.: Server entfernen), aber das wird sich in einer zeitnahen neuen Version sicherlich ändern.

Unterm Strich ist ProfitBricks ein reiner Infrastructure-as-a-Service Anbieter, der seine Stärken im Infrastrukturbetrieb hat. Das ergab auch das Briefing. Daher irritiert mich ein Interview mit CEO Achim Weiß, welches ich vor ein paar Wochen gelesen hatte. Darin gab er als Zielkunden neben Unternehmen, ebenfalls Internet-Startups an. Das erachte ich derzeit jedoch als eine Utopie. Ohne ein Service-Portfolio wie es die Amazon Web Services bieten ist diese Zielgruppe nicht zu erreichen. Die Service Lücke kann und soll durch Service Partner geschlossen werden. Ein anderer aber durchaus legitimer Ansatz, wenn die Stärken in einem anderen Bereich liegen.

Categories
Kommentar

Wettbewerb: Schule und Cloud Computing – Weil sich die Zeiten endlich ändern müssen

Wer kennt das Dilemma nicht – Schule und Informationstechnologie? Ich kann gar nicht beschreiben, wie sehr meine Mitschüler und ich damals unter schlecht ausgestatten Laboren und Lehrkräften, die sich als wahre IT-Muffel ausgezeichnet haben, leiden durften. Wer nicht ein wenig Eigeninitiative zeigte, ist dabei kläglich auf der Strecke geblieben. Aber es war damals ja auch nicht abzusehen, wohin sich unsere Gesellschaft entwickeln wird…

Zurück in die Zukunft

Ich selbst habe (damals) vor dem Studium eine Ausbildung zum Fachinformatiker Systemintegration gemacht. Man hätte meinen können, das man auch mit dementsprechenden Systemen ausgebildet(!) wird. Denn Schlosser usw. haben schließlich auch – meiner Einschätzung nach – sehr gut ausgestattete Werkstätten mit teuren Anlagen zum Fräsen, Bohren und Drehen. Also all das, was sie für ihr Handwerkszeug(!) benötigen!

Was ist denn das Handwerkszeug eines Fachinformatiker? Genau, Computer! Hardware, Software und Programmierkenntnisse. An ersten Beiden hat es an meiner Berufsschule sehr stark gemangelt, $$$. Letzteres war je nach Lehrkraft zu bewerten. Mein Schlüsselerlebnis war jedoch, als es im zweiten Lehrjahr dann endlich neue PCs gab. Die wurden als quasi Bausatz angeliefert. Bedeutete, den Schülern wurde ein “Projekt” verkauft, um das zusammenbauen eines Rechnersystems zu “lernen”. Fakt war, dass die Lehrkraft die Fragen an die Schüler weitergereicht hat, die ihre Ausbildungen in einem IT-Betrieb gemacht haben, dessen Kerngeschäft es war, PCs zu bauen. Wohlgemerkt geht es hier nicht um das ob sondern um das wie.

Fassen wir zusammen. IT in der Schule hat mit $$$ und den entsprechenden Kenntnissen der Lehrkräfte zu tun. Und nach ein paar Gesprächen scheint es an beiden weiterhin zu mangeln.

Cloud Computing bringt Schulen den notwendigen IT-Segen

Anhand von Cloud-Lösungen erhalten Schulen den flexiblen Zugriff auf die benötigten IT-Ressourcen. Seien es Software-as-a-Service Applikationen für bestimmte Anwendungsfälle in einem Unterrichtsfach oder für die gemeinsame aber verteilte Zusammenarbeit (auch nach der Schule) an einer Facharbeit oder sonstigen Projekten. Mittels Platform-as-a-Service aber auch Infrastructure-as-a-Service lassen sich Programmieraufgaben oder auch kleine IT-Gruppenprojekte zeitnah und kostengünstig umsetzen. Kombiniert mit Thin-Clients können auch die Hardwarekosten gering gehalten und die entsprechende physikalische Sicherheit der Systeme sichergestellt werden.

Wettbewerb: Schule und Cloud

Eine Initiative unter der Federführung der fat IT solutions GmbH zusammen mit Prof. Dr. Gunter Dueck von BlueForge, den Amazon Web Services und der Igel Technology GmbH will das nun ändern. Der Schulwettbewerb “Schule und Cloud” hat das Ziel, Berufsschulen den Nutzen von IT-Lösungen während des Unterrichts näher zu bringen. Die Idee besteht darin, den “… am besten gestalteten Cloudcomputer Deutschlands.. ” zu finden. Dazu sollen Lehrer in Gruppenprojekten oder AGs pädagogisch wertvolle Software auf kostenlos zur Verfügung gestellten Computern in der Cloud installieren. Dabei kann es sich z.B. um Bildbetrachter, Textverarbeitung oder Lernprogramme handeln. Anschließend soll das System so konfiguriert werden, wie es später weiter benutzt werden soll.

Der Wettbewerb richtet sich an Berufsschulen und hier nicht nur an Klassen der IT-Ausbildungsberufe. Die besten drei Projekte werden im Anschluss von einer Jury prämiert. Mehr Informationen zur Teilnahme gibt es unter http://schule-und-cloud.de/requirements.html.

Categories
Management @en

Data lines: the backbone of the cloud

During cloud talks there are always a lot of discussions about the providers, their availability, reliability and service level agreements (SLA). What is often not discussed is the main dependence number one: The backbone of the Internet carriers. The Submarine Cable Map 2013 nicely illustrates where which cables run worldwide, which are responsible for the data transfer between the different continents.

Data lines: the backbone of the cloud

Submarine Cable Map 2013 – The global backbone under the sea

The “Submarine Cable Map 2013” shows the backbone of the global submarine cable in the ocean. It shows where most of the data transfer takes place and which countries have the best interconnection.

Overall, the map illustrates 244 lines. Among those who were laid between the period 1992 to 2012, or those which are taken up in 2014. Existing lines are color-coded, gray cable are planned. Another twelve lines to be laid in the next two years.

At the bottom of the card it can also be seen how quick the respective connections between the different countries and continents are and how much the workload is. It can be seen, for example, that the available data connections from the United States to Colombia and Venezuela are fast, but to France and the UK, they are slower. The weakest data line, the U.S. has to South Africa and India.

Categories
Management @de

Netflix veröffentlicht weitere "Monkeys" als Open-Source – Eucalyptus Cloud wird es freuen

Wie GigaOM berichtet, wird Netflix in naher Zukunft weitere Services ähnlich zu seinem Chaos Monkey und der Simian-Army unter der Open-Source Lizenz auf Github veröffentlichen.

Der Chaos Monkey

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht und Instanzen (virtuelle Maschinen) pro Gruppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Weitere Informationen zum Chaos Monkey und der Simian Army gibt es unter “Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur“.

Weitere Services aus Netflix Monkey Portfolio

  • Denominator: Ein Tool für die Verwaltung mehrerer DNS-Provider.
  • Odin: Eine Orchestration API, die von Jenkins und Asgard, dem Netflix Deployment Tool, aufgerufen werden kann. Sie soll Entwicklern helfen bequemer zu deployen.
  • Recipes: Dabei handelt es sich um Blaupausen (blueprints), mit denen sich mehrere Netflix Komponenten zusammen einfacher ausrollen lassen.
  • Launcher: Soll per Knopfdruck die fertigen Blaupausen ausrollen.
  • Mehr Monkeys: Zu den weiteren Netflix Monkeys die noch in diesem Jahr folgen sollen, gehören der Conformity Monkey, der Latency Monkey und der Latency Howler Monkey. Der Conformity Monkey stellt sicher, dass alle relevanten Instanzen äquivalent aufgesetzt sind. Der Latency Monkey simuliert Latenzen und weitere Fehler. Der Latency Howler Monkey überwacht, ob ein Workload auf mögliche AWS Limitierungen trifft und meldet dies.

Der Chaos Gorilla, der wahllos den Absturz einer vollständigen AWS Availability Zone simuliert sowie der Chaos Kong, der eine ganze AWS Region simuliert abschießt, sollen ebenfalls bald folgen.

Kommentar

Zwar möchte Netflix seine “Monkeys” Cloud übergreifend anbieten, so dass z.B. auch OpenStack Nutzer darauf zurückgreifen können. Allerdings spielt Netflix mit der stetigen Veröffentlichung seiner HA-Testsuite Eucalyptus damit immer mehr in die Arme.

Eucalyptus Cloud ermöglicht den Aufbau einer Private Cloud auf Basis der grundlegenden Funktionen der Amazon Cloud Infrastruktur. Was Amazon bei sich z.B. als AWS Availiablty Zone bezeichnet, repräsentiert bei Eucalyptus ein “Cluster”. Die Netflix Tools ermöglichen somit auch ähnliche HA-Funktionalität Prüfung in der Private/ Hybrid Cloud, wie Netflix sie selbst bereits in der Amazon Public Cloud nutzt. Darüber hinaus wird Eucalyptus die Netflix Tools mittelfristig ganz sicher in die eigene Cloud Lösung integrieren, um eine eigene HA-Prüfung im Portfolio zu haben.

Die Veröffentlichung der Netflix Tools unter der Open-Source Lizenz wird nicht zuletzt die Kooperation der Amazon Web Services und Eucalyptus weiter stärken, sondern Eucalyptus für Amazon als Übernahmeobjekt immer attraktiver machen.

Categories
Management @de

Die Datenleitungen: Das Rückgrat der Cloud

Im Cloud Umfeld wird immer viel über die Anbieter, ihre Verfügbarkeit, Ausfallsicherheit und Service Level Agreements (SLA) gesprochen. Was sehr oft gar nicht angesprochen wird ist die Hauptabhängigkeit Nummer eins: Die Backbones der Internet Carrier. Die “Submarine Cable Map 2013” illustriert sehr schön, wo welche Kabel weltweit verlaufen, die für den Datentransfer zwischen den einzelnen Kontinenten verantwortlich sind.

Die Datenleitungen: Das Rückgrat des Cloud Computing

Submarine Cable Map 2013 – Das weltweite Backbone unter dem Meer

Die “Submarine Cable Map 2013” zeigt das weltweite Backbone der Unterwasserkabel im Meer. Sie zeigt, wo der meiste Datentransfer stattfindet und welche Länder über die beste Vernetzung verfügen.

Insgesamt illustriert die Karte 244 Leitungen. Darunter diejenigen die zwischen dem Zeitraum von 1992 bis 2012 verlegt wurden oder die, welche bis 2014 in Betrieb genommen werden. Bereits bestehende Leitungen sind farbig markiert, geplante sind Grau. Weitere zwölf Leitungen sollen in den kommenden zwei Jahren neu verlegt werden.

Am unteren Rand der Karte lässt sich zudem ablesen, wie schnell die jeweiligen Verbindungen zwischen den verschiedenen Ländern und Kontinenten sind und wie stark die Auslastung ist. Zu erkennen ist z.B., dass die USA nach Kolumbien und Venezuela über schnelle Datenverbindungen verfügen, nach Frankreich und Großbritannien ist es jedoch langsamer. Die schwächste Datenleitung haben die USA demnach nach Südafrika und Indien.

Categories
Comment

Is the channel in the cloud computing age still relevant?

During the Cloud EcoSystem Winter Meeting a panel discussed which relevants the channel still has in the cloud. Since the majority of the participants were part of the channel less critics were made. And even things about changes were not discussed, because some already delivered software over ASP and so they are since 1998 in the cloud.

ASP is not cloud computing

I will not discuss ASP (Application Service Providing) vs. SaaS (cloud). That ASP has nothing todo with SaaS (software-as-a-service) respectively cloud computing is not just propagade by me but also by other publications. (Btw, I was very thankful, that Stefan Ried cleaned up all the “cloud myths” during his talk and showed all attendees the true characteristics and benefits of the cloud, thanks Stefan!)

The channel have to change

Let’s come to the channel. It will be worse to say that it dies. On the one hand “something” is to sale everytime and the lobby behind that will do their best to keep this business model alive. But it will be worse to close the eyes and making things going on as they have been made for years. Sure, “You’ll always need hardware!” but even this amount? And are countless suppliers able to live just from selling hardware?

In my opinion, software reselling, a big part of the whole market, is dead. Just think about which type of software is shipped by media, I spontaneously just have operating systems in mind. Although it’s possible to download it from the website of the vendor as well. Just like other software which is not available as SaaS today. For example, Microsoft ships the new Office 365 Home Premium in a box with just a small card with a code on it. The software is downloaded or streamed afterwards from a Microsoft website.

From reseller to integrator

In my opinion the typical channel for software reseller is too late to save. Companies in this area should as soon as possible think about other options. One possibility is a partnership program with software vendors, to help customers migrate and integrate with consultation-intensive solutions (actually SaaS applications are intuitv to configure and use). That means, a software reseller needs to have more expertise than just sell software and become a systems integrator.

A further idea is to build an own marketplace for SaaS applications. Here the differentiation with existing offerings is necessary and besides offering solutions from different categories even integrate them (by standard) in order to have a central data management and no isolated solutions. Here you can see, that the reseller also becomes an integrator. Leaving just reselling software.

Sure, there are software reseller who even integrate. The classical systems houses. But even these needs to change, thanks to the cloud.

Categories
Kommentar

Hat der Channel in Zeiten des Cloud Computing noch eine Bedeutung?

Auf dem Cloud EcoSystem Winter Meeting wurde in einem Panel diskutiert, welche Bedeutung der Channel in der Cloud überhaupt noch hat. Da die Mehrzahl der Protagonisten jedoch ein Teil dieses Channels waren, gab es natürlich wenig Kritik. Allerdings war auch wenig von Veränderungen zu hören, da man ja auf Grund des ASP Modells schon selbst seit 1998 quasi in der Cloud sei.

ASP ist kein Cloud Computing

Auf die Diskussion ASP (Application Service Providing) vs. SaaS (Cloud) gehe ich hier nicht ein. Das ASP mit SaaS (Software-as-a-Service) respektive Cloud Computing nichts zu tun hat, wird nicht nur von mir, sondern vielen weiteren Publikationen propagiert. (Ich war übrigens sehr froh, dass Stefan Ried während seines Vortrags mit den “Cloud Mythen” noch einmal aufgeräumt hat und allen Beteiligten die echten Eigenschaften und Vorteile der Cloud präsentiert hat, danke Stefan!)

Der Channel muss sich verändern

Kommen wir zum Channel. Es wäre falsch zu sagen, dass er stirbt. Zum einen gibt es auch weiterhin “Dinge” für den Vertrieb und die Lobby dahinter wird auch alles menschenmögliche tun, um ihr Geschäftsmodell zu verteidigen. Aber es wäre vermessen, die Augen zu verschließen und so weiter zu machen wie bisher. Natürlich, “Hardware wird immer benötigt!”, aber auch in dieser Stückzahl? Und können zig Anbieter nur vom Vertrieb von Hardware leben?

Meiner Ansicht nach ist der Software-Vertrieb, ein sehr großer Teil vom gesamten Markt, tod. Überlegen wir uns, welche Art von Software in Zukunft noch auf Datenträger verschickt wird, fallen mir spontan nur die Betriebssysteme ein. Obwohl sich diese mittlerweile auch über die Webseiten der Hersteller herunterladen lassen, wie andere Softwarelösungen übrigens auch, die noch nicht als SaaS zur Verfügung stehen. Zum Beispiel liefert Microsoft für Office365 Home Premium trotz Verpackung nur noch einen Code aus, mit dem die Software von einer Microsoft Webseite heruntergeladen oder gestreamed wird.

Vom Reseller zum Integrator

Der typische Channel für Software-Reseller ist meiner Ansicht nach daher nicht mehr zu retten. Unternehmen aus diesem Bereich sollten sich möglichst schnell Gedanken über alternative Wege machen. Mögliche Ansätze bestehen in Partnerprogrammen mit den Softwareherstellern, um z.B. bei beratungsintensiven Lösungen (eigentlich sollten SaaS Anwendungen intuitiv zu konfigurieren und bedienen sein) dem Kunden zur Seite zu stehen und bei der Migration und Integration zu helfen. Ergo: Software-Reseller müssen sich mehr Expertise als das reine wiederverkaufen aneignen und zu Sytemintegratoren werden.

Eine weitere Möglichkeit besteht in dem Aufbau eines eigenen Marktplatz für SaaS-Applikationen. Hier gilt es jedoch sich direkt von den bestehenden Angeboten zu differenzieren und neben einer Vielzahl von Lösungen aus den unterschiedlichen Bereichen, ebenfalls dafür zu sorgen, dass die von dem Kunden genutzten Lösungen miteinander integriert sind und über eine zentrale Datenhaltung verfügen und somit keine Insellösungen entstehen. Gut zu erkennen: auch hier muss der Reseller wieder zum Integrator werden. Weg von dem reinen Zwischenhandel mit Software.

Selbstverständlich existieren Software-Reseller, die ebenfalls Integrationen vornehmen. Das sind die klassischen Systemhäuser. Aber auch diese müssen sich auf Grund der Cloud verändern.

Categories
Comment

Office 365 Home Premium – Microsoft does not rely on software-as-a-service

Yesterday Microsoft has introduced its new Office for the retail market. The new Office 365 Home Premium promises to deliver new capabilities for direct connection to social networks, SkyDrive and Skype to facilitate communication with family and friends. In addition, each user has his personal office anywhere. Use it on a PC, tablet or smartphone – and even on the Mac. The control is done in addition to keyboard by touch or pen input. But who thought that Microsoft offers its new office to the idea of the cloud as SaaS (software-as-a-service), is mistaken.

Cloud but not software-as-a-service

Office 365 Home Premium is not SaaS or a cloud service in the strict sense, because the office is not provided or used over the browser. (Although there are the completely free Office Web Apps, which have directly nothing to do with Office 365 Home Premium.) Microsoft gives the reason that not all Office functions can be operated performant in the browser. Instead, Microsoft is going an “interesting” way which is totally new. Microsoft Office becomes hybrid. Microsoft names this truly innovative technology as “Office streaming”. Through “Click 2 Run” an office suite can be installed in minutes. The interesting thing is that Microsoft initially installed the statistically most used basic functions, so you can quickly start working with Office. So you are able to work with Office already during the installation. In the background the rest is installed. The cluo: If a function is called, for example of Word, while Office is still in installation mode, this function is prioritized accurately and directly streamed. (Whether this type of installation, a user really needs is another question, but the idea is good.)

Cloud is just in the backend

Office 365 Home Premium syncs all personal settings and documents automatically to the cloud. Thus all data are available on all connected PCs. This also works on other PCs, if you log on there with a Microsoft account of hotmail.com, outlook.com or live.com. Based on the new technology “Office on Demand” the office is then streamed from the cloud for processing on the respective computer. “Office on Demand” installs Office on the local system in a virtual environment. When the session is closed, the virtual environment and the Office with all the data completely disappears from the system. Thus, Microsoft would ensure privacy when using on other computers.

Prices and goodies

Office 365 Home Premium includes Word, Excel, PowerPoint, OneNote, and also Outlook, Access and Publisher. By subscribing a user automatically has to have the latest Office solution on the hard drive or on the road via”Office on Demand”. Other goodies: 60 minutes per month with Skype to landlines, additional 20 GB SkyDrive storage and use rights for up to five devices, laptops, tablets and smartphones, for both Windows and Mac environments.

Prices

  • Office 365 Home Premium: 99 EUR per year
  • Office 365 University: 79 EUR for 4 years
  • Office Home & Student 2013 for 139 EUR
  • Office Home & Business 2013 for 269 EUR
  • Office Professional 2013 for 539 EUR

Office 365-Business

From 27 February 2013 also new Office 365 business services with new functions will be available, which will probably also include a SkyDrive Pro version.

The strategy is consistent with Windows 8

That Microsoft does not rely on SaaS is a little surprising, but it fits into the Windows 8 strategy. The applications are mostly held locally to ensure the speed and necessarily not have to rely on a data connection. All personal settings and documents, if the user wants, are stored in the cloud in order to ensure the location and platform independent access. This is ensured by “Office on Demand” and streaming.

Is the Microsoft Office suite still contemporary?

For me, the question arises, why Microsoft continued its commitment to this massive office suite and does not offer applications separately. I understand the strategy to give end users access to Outlook. Parents can e.g. organize the family. But who does that really? After Microsoft’s research probably some. So, reference customers were allowed to talk about their use cases during the launch event. I’m not so sure. If you look at the behavior of (young) users, who prefer to self assemble their productivity suite and do not want to get dictated by mom and dad. (The influence of their friends is much greater.) Dropbox for storage, Evernote for taking notes, Remember the Milk or Wunderlist for tasks, GMail or Outlook.com for e-mail are among the favorite candidates. The Cloud and Mobile apps make it possible.

Office is good, no question! But is this powerful solution still contemporary? Do users really want to get dictated what they should use or do they prefer to assemble their own solutions. Word and Excel are an added value for each personal productivity suite, but for that they must be offered separately, and I do not mean the Office Web Apps.

Categories
Services @en @de

Big Data in the Cloud: AWS Data Pipeline and Amazon Redshift

Amazon powerful upgraded its cloud infrastructure for big data. With the AWS Data Pipeline now a service (currently in beta) is available to automatically move and handle data across different systems. Amazon Redshift is a data warehouse in the cloud, which will be ten times faster than previously available solutions.

AWS Data Pipeline

With the AWS Data Pipeline Amazon wants to improve the access to the steady growing data on distributed systems and in different formats. For example, the service loads textfiles from Amazon EC2, processes it and saves them on Amazon S3. The main hub is represented by the AWS Management Console. Here the pipelines including the several sources, conditions, targets and commands are defined. Based on task plans it is defined when which job will be processed. The AWS Data Pipeline determines from which system based on which condition the data is loaded and processed and where it is stored afterwards.

The data processing can be conduct directly in the Amazon cloud on EC2 instances or in the own data center. Therefore the open source tool Task Runner is used which communicates with the AWS Data Pipeline. The Task Runner must run on each system that is processing data.

Amazon Redshift

Amazon’s cloud data warehouse Amazon Redshift helps to analyze huge amount of data in a short time frame. Within it’s possible to store 1.6 petabytes of data and request them using SQL queries. Basically the service is charged by pay as you use. But customers who sign a three years contract and giving full load on their virtual infrastructure pay from 1.000 USD per terabyte per year. Amazon compares with numbers from IBM. IBM charges a data warehouse from 19.000 USD to 25.000 USD per terabyte per year.
First Amazon Redshift beta users are Netflix, JPL and Flipboard who were able to improve their requests 10 till 150 times faster compared to their current systems.

Amazon Redshift can be used as a single cluster with one server and a maximum of 2 terabyte of storage or as a multi node cluster including at least two compute nodes and one lead node. The lead node is responsible for the connection management, parsing the requests, create task plans and managing the requests for each compute node. The main processing is done on the compute node. Compute nodes are provided as hs1.xlarge with 2 terabyte storage and as hs1.8xlarge with 16 terabyte storage. One cluster has the maximum amount of 32 hs1.xlarge and 100 hs1.8xlarge compute nodes. This results in a maximum storage capacity of 64 terabyte respectively 1.6 terabyte. All compute nodes are connected over a separate 10 gigabit/s backbone.

Comment

Despite from the competition Amazon expands its cloud services portfolio. As a result, you can sometimes get the impression that all the other IaaS providers mark time – considering the innovative power of Amazon Web Services. I can only stress here once again that Value added services are the future of infrastructure-as-a-service respectively Don’t compete against the Amazon Web Services just with Infrastructure.

If we take a look at the latest developments, we see a steadily increasing demand for solutions for processing large amounts of structured and unstructured data. Barack Obama’s campaign is just one use case, which shows how important the possession of quality information is in order to gain competitive advantages in the future. And even though many see Amazon Web Services “just” as a pure infrastructure-as-a-service provider (I don’t do that), is Amazon – more than any other (IaaS) provider – in the battle for Big Data solutions far up to play – which is not just the matter because of the knowledge from operating Amazon.com.

Categories
Services @de

Big Data in der Cloud: AWS Data Pipeline und Amazon Redshift

Amazon rüstet seine Cloud-Infrastruktur für Big Data mächtig auf. Mit der AWS Data Pipeline steht nun ein Dienst (zur Zeit in der Betaphase) zur Verfügung, mit sich Daten über verschiedene Systeme automatisch verschieben und verarbeiten lassen. Amazon Redshift stellt ein Datawarehouse in der Cloud dar, welches zehnmal schneller sein soll als bisher verfügbare Lösungen.

AWS Data Pipeline

Mit der AWS Data Pipeline sollen die stetig wachsenden Daten, welche auf verschiedenen Systemen und in unterschiedlichen Formaten vorhanden sind, einfacher zugänglich gemacht werden. Der Service lädt zum Beispiel Textdateien von Amazon EC2, verarbeitet sie und speichert diese in Amazon S3. Dreh und Angelpunkt ist dabei die AWS Management Console. Hier werden Pipelines definiert, die aus unterschiedlichen Quellen, Bedingungen, Zielen und Anweisungen bestehen. Über Zeitpläne wird festgelegt, wann welcher Job ausgeführt wird. Die AWS Data Pipeline legt fest, von welchem System welche Daten auf Basis von bestimmten Bedingungen geladen werden, unter welchen Bedingungen sie zu verarbeiten sind und wo diese am Ende gespeichert werden.

Die Verarbeitung der Daten kann entweder direkt in der Amazon Cloud auf EC2-Instanzen oder im eigenen Rechenzentrum durchgeführt werden. Dafür steht mit dem Task Runner ein Open-Source Tool bereit, dass mit der AWS Data Pipeline kommuniziert. Der Task Runner muss dafür auf den jeweiligen datenverarbeitenden Systemen gestartet sein.

Amazon Redshift

Amazons Cloud-Datawarehouse Amazon Redshift soll dabei helfen, große Datenmengen innerhalb kürzester Zeit zu analysieren. Darin lassen sich bis zu 1,6 Petabyte Daten speichern und per SQL abfragen. Zwar wird der Service, wie üblich, nach Verbrauch abgerechnet. Kunden, die allerdings einen Dreijahresvertrag unterschreiben und volle Last auf ihre virtuelle Infrastruktur bringen, zahlen ab 1.000 US-Dollar pro Terabyte pro Jahr. Amazon stellt dazu einen Vergleich mit Zahlen von IBM an. IBM berechnet für ein Datawarehouse zwischen 19.000 US-Dollar und 25.000 US-Dollar pro Terabyte pro Jahr,
Erste Beta-Tester von Amazon Redshift sind Netflix, JPL und Flipboard, deren Abfragen 10- bis 150-mal schneller waren als auf dem derzeit genutzten System.

Amazon Redshift kann als Single-Node-Cluster mit einem Server und maximal 2 TByte Speicherplatz oder als Multi-Node-Cluster, der aus mindestens zwei Compute-Nodes und einem Leader-Node besteht, genutzt werden. Der Leader-Node ist dabei für die Verwaltung der Verbindungen, das Parsen der Anfragen, das Erzeugen der Ausführungspläne und der Verwaltung der Anfragen auf den einzelnen Compute-Nodes zuständig. Die Berechnung findet auf den Compute-Nodes statt. Die Compute-Nodes stehen als hs1.xlarge mit 2 TByte Speicherkapazität und hs1.8xlarge mit 16 TByte Speicherkapazität zu Verfügung. Ein Cluster darf dabei maximal aus 32 hs1.xlarge und 100 hs1.8xlarge Compute-Nodes bestehen. Das ergibt eine maximale Speicherkapazität von 64 Terabyte beziehungsweise 1,6 Petabyte. Die Compute-Nodes sind über ein separates 10 Gigabit/s Backbone miteinander verbunden.

Kommentar

Amazon baut ungeachtet vom Mitbewerb sein Cloud Services Portfolio weiter aus. Dadurch kann man manchmal den Eindruck bekommen, dass alle anderen IaaS-Anbieter auf der Stelle treten – angesichts der Innovationskraft der Amazon Web Services. Ich kann es an dieser Stelle nur noch einmal betonen, Mehrwert-Services sind die Zukunft von Infrastructure-as-a-Service bzw. Wer als IaaS-Anbieter zu Amazon konkurrenzfähig sein will muss mehr als nur Infrastruktur im Portfolio haben.

Schauen wir uns die aktuellen Entwicklungen an, steigt der Bedarf an Lösungen für die Verarbeitung großer strukturierter und unstrukturierter Datenmengen stetig an. Barack Obamas Wahlkampf ist dafür nur ein Use Case, der zeigt, wie wichtig der Besitz qualitativ hochwertiger Informationen ist, um sich für die Zukunft Wettbewerbsvorteile zu verschaffen. Und auch wenn viele in den Amazon Web Services “nur” einen reinen Infrastructure-as-a-Services Anbieter sehen (ich tue das nicht), wird Amazon – mehr als jeder andere (IaaS)-Anbieter – im Kampf um Big Data Lösungen weit oben mitspielen – was letztendlich nicht nur an dem Wissen auf Grund des Betriebs von Amazon.com liegt.