Categories
Analysen

Enterprise Cloud Portal: T-Systems konsolidiert sein Cloud-Portfolio

Mit seinem Enterprise Cloud Portal präsentiert die Deutsche Telekom Tochter T-Systems sein erstes Cloud-Service übergreifendes Angebot für Großkunden. Auf dem Portal können sich Unternehmen über die Cloud-Lösungen von T-Systems informieren, diese testen und direkt bestellen. Zu den derzeit angebotenen Services gehören Lösungen für das Mobile Device Management, Dynamic Services for Infrastructure und der Enterprise Marketplace. Ein Blick auf das Portal zeigt, dass auf die Kompatibilität mit Tablets großer Wert gelegt wurde.

An der IT-Abteilung vorbei

T-Systems möchte mit seinem Cloud-Portal auch nicht-technischen Nutzern in Großunternehmen den Zugang zu speziellen Cloud-Lösungen ermöglichen. Der Cloud-Anbieter bezieht sich dabei auf eine Studie von Gartner, die besagt, dass bis zum Jahr 2015 in etwa 35 Prozent der IT-Ausgaben, außerhalb der IT-Abteilungen ausgewählt und verwaltet werden. Genannt seien hier zum Beispiel die Bereiche Marketing, Einkauf und das Rechnungswesen.

Mobile Device Management

Das Mobile Device Management aus der Cloud soll Unternehmen bei der Administration mobiler Endgeräte mit unterschiedlichen Betriebssystemen, z.B. iOS und Android, über eine standardisierte Web-Plattform helfen. Darüber lassen sich etwa Sicherheitseinstellungen vornehmen, Zugriffsrechte auf Funktionen sowie Applikationen regeln oder bei Verlust des Endgeräts die Daten per Fernzugriff löschen. Ein Test des Mobile Device Management ist in den ersten vier Wochen für bis zu drei mobile Endgeräte kostenlos.

Dynamic Services for Infrastructure

Für Infrastructure-as-a-Service (IaaS) stehen zwei Angebote bereit: Zum einen die “Dynamic Services for Infrastructure” (DSI) aus einer Hosted Private Cloud. Zum anderen die “DSI with vCloud Datacenter Services” als eine hybride Variante. Das Management der Ressourcen übernimmt der Kunde selbst über ein web-basiertes Portal beziehungsweise über seine eigene VMware Management Software. Übersichtliche Preismodelle sollen die Kosten für die Infrastruktur transparent machen. So kostet z.B. im Paket “Small” ein Server aus der Hosted Private Cloud ab 9 Cent pro Stunde. Bei der hybriden Lösung liegt der Paketpreis für ein Virtual Datacenter in der kleinsten Ausführung bei genau 999,84 Euro pro Monat.

Enterprise Marketplace

Der Enterprise Marketplace umfasst unter anderem weitere IaaS-Lösungen inkl. Betriebssysteme für Linux und Windows Server, Platform-as-a-Service (PaaS) Lösungen, u.a. Tomcat und Microsoft SQL Server sowie eine stetig steigende Zahl von Software-as-a-Service (SaaS) Angeboten wie Doculife, CA Nimsoft, TAXOR, TIS, WeSustain, Metasonic, ARAS, Tibco Tibbr, Sugar CRM, Microsoft Enterprise Search und Microsoft Lync. Darüber hinaus sollen Unternehmen damit die Möglichkeit erhalten, nicht nur eine Vielfalt an Anwendungen hochsicher in bedarfsgerechten Formaten zu beziehen, sondern auch eigene Anwendungen migrieren und hosten zu lassen. Die volle Verfügbarkeit des Enterprise Marketplace ist für diesen Sommer geplant. Derzeit steht auf dem Cloud Portal bereits eine Vorschau zur Verfügung.

Kommentar

Mit dem Enterprise Cloud Portal fasst T-Systems sein gesamtes Cloud-Portfolio unter einem einzigen Dach zusammen. Ich hatte in einem Artikel für die Computerwoche: “Das Cloud-Portfolio von T-Systems” im Jahr 2011 analysiert. Zu dem Zeitpunkt bestand das Angebot jedoch noch aus einzelnen unabhängigen Services. Allerdings bin ich bereits damals schon zu dem Ergebnis gekommen, dass T-Systems über ein sehr gut durchdachtes und abgerundetes Cloud-Portfolio verfügt.

Das zeigt sich nun auch im konsolidierten Enterprise Cloud Portal. Von SaaS über PaaS bis IaaS und weiteren Lösungen für mobile Endgeräte ist alles dabei. T-Systems verfügt damit als einer der wenigen Anbieter über einen vollständigen Cloud-Stack und das nun sogar noch gebündelt in einem einzigen Portal.

Insbesondere in dem Enterprise Marketplace steckt viel Potential. Auf der diesjährigen CeBIT konnte ich einen ersten Blick darauf werfen, der sich meiner Einschätzung nach zu diesem Zeitpunkt noch in einem Alpha-Status befand. Einige grundlegende und zwingend notwendige Funktionen für ein IaaS Angebot, genannt seien nur automatische Skalierbarkeit und Hochverfügbarkeit, fehlten noch. Aber das war im März und ich gehe davon aus, dass T-Systems hier schon weitere Fortschritte gemacht hat. Zudem habe ich bereits aus einer sicheren Quelle erfahren, dass T-Systems/ Telekom ihre Cloud-Infrastruktur sukzessive auf OpenStack umstellen wird, was auch dem Enterprise Marketplace einen weiteren Schub hinsichtlich Kompatibilität geben wird.

Was T-Systems als Vorteil für nicht-technische Nutzer in Unternehmen sieht, sollte bei IT-Verantwortlichen Sorgenfalten verursachen. Zwar bin ich auch auf dem Standpunkt, dass sich die IT-Abteilungen zu einem Service-Broker entwickeln werden und sogar müssen. Allerdings halte ich es für recht bedenklich, wenn jede Abteilung einfach loslaufen darf und sich nach belieben IT-Services extern einkauft. Die Schuld liegt natürlich bei den IT-Abteilungen selbst, da diese sich über die Jahre hinweg einen schlechten Ruf aufgebaut haben und als langsam und nicht innovativ gelten. Darüber habe ich hier bereits vor zwei Jahren ausführlich philosophiert (Cloud Computing und die Schatten-IT).

Eine gewisse Kontrollinstanz in der Form eines Service-Broker ist weiterhin notwendig, denn sonst kommt es zu einem unkontrollierten Wildwuchs von externen Services, über die man den Überblick verlieren wird. Das lässt sich selbstverständlich kontrollieren, wenn man die Services über einen einzigen Anbieter bezieht. Und das ist genau das Ziel von T-Systems und seinem umfangreichen Enterprise Cloud Portal. Ein Kunde soll explizit und abteilungsübergreifend die Services aus der T-Systems Cloud beziehen, um damit den Wildwuchs zu vermeiden und den Überblick behalten. Die Frage ist, ob sich das bei den Kunden intern auch so durchsetzen lässt. Denn auch andere Anbieter haben hübsche Services.

Am Ende möchte ich noch auf ein Thema eingehen, was im Endkunden-Umfeld derzeit für Aufregung sorgt, Unternehmenskunden aber einen großen Vorteil bietet. Das End-to-End Angebot von Services. T-Systems ist auf Grund seiner Situation, Tochter von der Deutschen Telekom zu sein, einer der wenigen Cloud-Anbieter, der ein Service-Level von den Services auf Applikations- oder sogar virtueller Maschinen Ebene im Rechenzentrum, inkl. der Datenleitung anbieten kann. Das ermöglicht es den Kunden einen ununterbrochenen Quality-of-Service (QoS) sowie ein umfangreiches Service Level Agreement (SLA) zu erhalten, was viele andere Cloud-Anbieter nicht leisten können.

Categories
Kommentar

Cloud Computing ist nicht einfach!

Cloud Computing verspricht vermeintlich einfach zu sein. Hier und da einen virtuellen Server starten und fertig ist die eigene virtuelle Cloud Infrastruktur. Wer nun meint, dass ich mit der Aussage recht habe, der liegt dermaßen falsch. Virtuelle Server sind nur ein kleiner Bestandteil einer virtuellen Infrastruktur bei einem Cloud Anbieter. Ein paar virtuelle Maschinen machen noch lange keine Cloud. Die Komplexität liegt in dem, wie die Architektur der Applikation geschaffen ist. Und somit in der Intelligenz, die der Architekt und der Softwareentwickler ihr vereinleibt. Das dies manchmal nicht so umgesetzt wird, haben uns die einen oder anderen Cloud Nutzer nicht nur einmal eindrucksvoll gezeigt. Regelmäßig fallen immer die selben Verdächtigen aus, wenn deren Cloud Anbieter mal wieder mit sich selbst zu kämpfen hat. Cloud Computing ist nicht einfach! Ich meine hiermit nicht simples Software-as-a-Service (SaaS). Ich spreche von Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS) und hier sogar noch granular von der Königsklasse namentlich Skalierbarkeit und Hochverfügbarkeit. Und genau das sollte man Abseits des Marketing der Cloud Anbieter verstehen und uneingeschränkt berücksichtigen, wenn man Cloud Computing erfolgreich einsetzen möchte.

Software-defined Scalability und Software-defined High-Availability

Derzeit kursieren wieder neue Begriffe durch die IT-Stratosphäre. Software-defined Networking (SDN) und auch Software-defined Datacenter (SDD). Ein SDN führt eine weitere Abstraktionsebene oberhalb der Netzwerkkomponenten ein. Typischerweise besitzt jeder Router und Switch seine eigene lokale Software, über die er per Programmierung mit Intelligenz versorgt wird. Der Netzwerkadministrator sagt dem Router somit bspw. welches Paket unter welchen Bedingungen wohin geleitet werden soll oder auch nicht. Innerhalb eines SDN entfällt die Aufgabe jeder einzelnen Komponente für sich eine lokale Intelligenz einzuverleiben. Die Intelligenz wandert eine Ebene höher in eine Managementschicht, in der das gesamte Netzwerk designed wird und die einzelnen Regeln für jede Komponente zentral festgelegt wird. Ist das Design fertiggestellt, wird es über die Netzwerkkomponenten ausgerollt und das Netzwerk ist konfiguriert. Mit SDN soll es daher möglich sein ein vollständiges Netzwerkdesign “per Knopfdruck” zu verändern, ohne jede einzelne Komponente direkt anfassen zu müssen.

Die Idee des SDN Konzepts muss bei der Nutzung einer Cloud-Infrastruktur ebenfalls zwingend in Betracht gezogen werden. Denn der Einsatz eines PaaS aber noch viel mehr eines IaaS bedeutet sehr viel Eigenverantwortung. Mehr als man auf dem ersten Blick denken mag. Eine oder zwei virtuelle Maschinen zu starten bedeutet nicht, dass man eine virtuelle Cloud Infrastruktur nutzt. Es sind und bleiben zwei virtuelle Server. Ein IaaS Anbieter stellt darüber hinaus nur die Komponenten, wie die genannten virtuellen Maschinen, Speicherplatz, weitere Services und zusätzlich APIs bereit, mit denen die Infrastruktur genutzt werden kann. Unterm Strich lässt sich vereinfacht sagen, dass ein IaaS Anbieter seinen Kunden nur die Ressourcen und entsprechenden Werkzeuge zur Verfügung stellt, um damit auf seiner Cloud Infrastruktur eine eigene virtuelle Infrastruktur respektive ein eigenes virtuelles Rechenzentrum aufzubauen.

Man muss daher per Software (die eigene Applikation) selbst dafür sorgen, dass die Cloud Infrastruktur bei Bedarf skaliert (Software-defined Scalability, SDS) und im Falle eines Ausfalls einer Cloud Infrastruktur-Komponente berücksichtigen, dass entsprechend eine Ersatzkomponente (z.B. virtuelle Maschine) gestartet wird und die Ausgefallene damit ersetzt wird (Software-defined High-Availability, SDHA). Die Software sorgt also für die Skalierbarkeit und Hochverfügbarkeit der genutzten virtuellen Cloud Infrastruktur, damit die Web-Applikation selbst skaliert und ausfallsicher ist und den Charakter der jeweiligen Cloud eines Anbieters nutzt und das Maximum aus ihr schöpft.

Wie eine Cloud Computing Infrastruktur quasi in Perfektion genutzt wird zeigt Netflix eindrucksvoll.

Cloud Computing ist nicht einfach! Begreif's doch endlich, ...

Quelle: Adrian Cockcroft

Netflix das Paradebeispiel

Netflix ist mit Abstand der größte Cloud Service weltweit. Der Video-Streaming Dienst ist während Spitzenzeiten mittlerweile für ein Drittel des gesamten Internetverkehrs verantwortlich. Diese Nutzeranfragen gilt es selbstverständlich performant und zu jedem Zeitpunkt zu beantworten. Dazu setzt Netflix schon seit seinem Start im Jahr 2009 auf Cloud Technologien und hat im November 2012 seinen vollständigen Technologie-Stack und die darauf basierende Infrastruktur in die Cloud zu den Amazon Web Services verlagert. Hier laufen rund 1.000 virtuelle auf Linux basierende Tomcat Java Server und NGINX Web-Server. Hinzu kommen weitere Services wie Amazon Simple Storage Service (S3) und die NoSQL Datenbank Cassandra in Verbindung mit Memcached sowie ein verteiltes Memory Object Caching.

Das ist jedoch nur die eine Seite der Medaille. Viel wichtiger ist die Nutzung mehrerer Availability Zones in der Amazon Cloud. Netflix nutzt insgesamt drei Availability Zones, um die Verfügbarkeit und Geschwindigkeit des eigenen Service zu erhöhen. Tritt in einer Availability Zone ein Problem auf, ist die Architektur der Netflix-Applikation so ausgelegt, dass der Service durch die anderen beiden weiterlaufen kann. Dabei hat Netflix sich nicht auf die reinen Marketing-Versprechen von Amazon verlassen, sondern mit dem Chaos Gorilla selbst eine eigene Software entwickelt, mit der die Stabilität der virtuellen Server Amazon Elastic Compute Cloud (EC2) getestet wird. Kurzum wird dabei der Ausfall einer kompletten EC2 Region bzw. Availability Zone simuliert, um sicherzustellen, dass der Netflix-Service im Ernstfall weiterhin funktioniert. Eine der größten Herausforderungen besteht dabei darin, dass im Falle eines Fehlers in einer Amazon Zone, das Domain Name System (DNS) automatisch neu konfiguriert wird, damit die Netflix Kunden von dem Ausfall nichts mitbekommen. Die unterschiedlichen APIs der DNS-Anbieter machen die Aufgabe hier allerdings nicht einfacher. Zudem sind die meisten so entwickelt worden, dass die Einstellungen noch manuell vorgenommen werden müssen, was es nicht einfacher macht, dies zu automatisieren.

Unterm Strich ist zu sagen, dass Netflix für den Fehlerfall vorausschauend plant und sich nicht auf die Cloud verlässt. Denn irgendwas läuft auch mal in der Cloud schief, wie in jedem gewöhnlichen Rechenzentrum auch. Mann muss nur darauf vorbereitet sein. Wer sich mehr dafür interessiert, was Netflix macht um diesen Zustand zu erreichen sollte “Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur” lesen.

Die Einfachheit zählt

Vielleicht verlange ich noch zu viel. Schließlich ist Cloud Computing in seiner Form ein relativ junges Konzept. Dennoch zeigt Netflix eindrucksvoll das es funktioniert. Wenn man jedoch bedenkt, was für einen Aufwand Netflix betreibt, um in der Cloud erfolgreich zu sein, muss man einfach sagen, dass Cloud Computing nicht einfach ist und eine Cloud Infrastruktur, egal bei welchem Anbieter, mit der entsprechenden Architektur aufgebaut werden muss. Das bedeutet im Umkehrschluss, dass die Nutzung der Cloud simpler werden muss, um auch die versprochenen Kostenvorteile zu erzielen. Denn wenn man Cloud Computing richtig nutzt, ist es zwangsläufig nicht günstiger. Neben den Einsparungen der Infrastrukturkosten die immer vorgerechnet werden, dürfen niemals die weiteren Kosten z.B. für das Personal mit den notwendigen Kenntnissen und die Kosten für die Entwicklung der skalierbaren und ausfallsicheren Applikation in der Cloud vernachlässigt werden.

Das erfreuliche ist, dass ich erste Startups am Horizont sehe, die sich der Problematik annehmen und den einfachen Bezug von fertigen Cloud Ressourcen, ohne als Nutzer selbst auf Skalierbarkeit und Hochverfügbarkeit achten zu müssen, zu ihrer Aufgabe gemacht haben.

Categories
Analysis

Windows Azure Infrastructure Services – Microsoft is not yet on par with Amazon AWS

That Microsoft, as one of the world’s leading IT companies eventually have to fight with an “online store” and a “search engine” for market share, probably, no one ever dared to dream in Redmond. But that is the reality. Amazon and its Amazon Web Services (AWS) are the engine of innovation in the cloud computing market. And even Google is catching up steadily. Google has specifically in the platform-as-a-service (PaaS) market with the App Engine and the software-as-a-service (SaaS) market with Google Apps already well positioned products. Amazon, however, is in the area of infrastructure-as-a-service (IaaS) the absolute market leader. Here also Microsoft attacks now. After Windows Azure was positioned as a pure PaaS on market at the beginning, more and more IaaS components were added successively. With the new release, Microsoft has now officially rolled out the Windows Azure infrastructure services. For many this step comes too late, as a large market share in this area already have been spent to AWS. However, where it initially looks disadvantageous also some benefits, that are overlooked by most, are hidden.

Windows Azure Infrastructure Services at a glance

Basically, the Azure infrastructure services are nothing new. In a public release preview this have already been presented in June 2012. According to Microsoft, “… more than 1.4 million virtual machines have been created and used by hundreds of millions of processor hours.” In addition, today already more than 50 percent of Fortune 500 companies use Windows Azure and thereby manage a total of more than four trillion data and information on Windows Azure. The capacity for compute and storage solutions double in about every six to nine months. According to Microsoft, every day nearly 1,000 new customers register on Windows Azure.

With the release of Windows Azure infrastructure services, Microsoft’s cloud computing stack has now officially completed. In addition to the operation of virtual machines, the update includes the associated network components. Furthermore, Microsoft now offers support for virtual machines and also the most common Microsoft server workloads such as Microsoft BizTalk or SQL Server 2012. In addition to Windows the Linux operating system is fully valid supported on the virtual machines. The Windows Azure Virtual Networks should also allow hybrid operations.

New instances and updated SLAs

In addition to new virtual instances, for example with more storage capacity of 28GB and 56GB, virtual images are also prepared, such as for BizTalk Server and SQL Server. Prepared Linux images, inter alia CentOS, Ubuntu and Suse Linux Enterprise Server (SLES), are provided by commercial vendors. Furthermore, there are numerous open source applications prepared in the VM Images depot on self-service basis. Microsoft server products including Microsoft Dynamics NAV 2013, SharePoint Server 2013, BizTalk Server 2013 have already been tested from Microsoft to run on the virtual machines.

Furthermore, the Service Level Agreements (SLAs) have been revised. Microsoft guarantees 99.95 percent availability including financial security, if there is a failure on Microsoft’s side. In addition to an SLA for cloud services Microsoft offers seven SLAs specifically for memory, SQL database, SQL Reporting, Service Bus, Caching, CDN and media services.

7/24/365 Support

A Microsoft support team is available every day around the clock. The support plans are divided into four levels from developer support through Premier Support.

Price reduction for virtual machines and cloud services

Such as Amazon AWS also Microsoft passes his savings through economies of scale to its customers. This immediately following new prices and extensions are available:

  • Virtual machines (Windows, default instances), are up to 31 May in reduced prices. The new general availability rates apply from 1 June 2013. For a small instance the new price is € 0.0671 per hour.
  • The prices for virtual machines (Linux) for default instances have been reduced by 25 percent. From 16 April 2013, prices for small, medium, large and extra large instances be reduced by 25 percent. The price for a small Linux instance will be reduced from € 0.0596 per hour to € 0.0447 per hour in all regions.
  • The prices for virtual networks start at € 0.0373 per hour, effective from 1 June 2013. Up to 1 June, customers can use the virtual network for free.
  • The prices of cloud services for Web and Worker roles were reduced by 33 percent for default instances. From 16 April 2013 the price drops for small, medium, large and extra large instances by 33 percent. The price for a small worker role will be reduced from € 0.0894 per hour to € 0.0596 per hour in all regions.

Not too late for the big part of the pie

Even though Microsoft is very late in the highly competitive market for infrastructure-as-a-service does not mean that they missed the boat. In many countries the adaptation of cloud computing just started. In addition, the big money is made at the established corporate clients and only then with the startups. Even Amazon has understood that and has taken the appropriate measures.

Furthermore, the importance of the private cloud, and thus the hybrid cloud increases worldwide. And here the hand already looks quite different. Microsoft has with its Windows Server 2012 a well-placed product for the private cloud, which can be seamlessly integrated with Windows Azure. Here Amazon AWS can just quickly be active with a possible acquisition of Eucalyptus. A first intensive cooperation between the two companies already exists.

However, the Windows Azure infrastructure services are primarily public cloud services. And here it must be said that the diversity of the service portfolio of the Amazon Web Services is still significantly greater than of Windows Azure. For example, services such as Elastic IP or CloudFormation are missing. Nevertheless, Microsoft with its portfolio is currently the only public cloud provider on the market, who can be seriously dangerous for Amazon AWS. Because “infrastructure means more than just infrastructure” and therefore it is about “making the infrastructure usable“.

See also: Amazon Web Services vs. Microsoft Windows Azure – A direct comparison (to be updated)

And what about Google?

Google should not be underestimated in any case. On the contrary, in a first performance comparison between the Google Cloud Platform and Amazon AWS, Google emerged as the winner. However, the current service portfolio of the Google Cloud Platform is confined in the core of computing power, storage and databases. Other value added services that rely on the platform, are still missing. In addition, Google can currently only be seen as a pure public cloud provider. In the private/ hybrid cloud environment are no products to be found yet. This needs to be improved with collaborations and acquisitions to meet the needs of conservative corporate customers in the future. Especially since Google still has a not to be underestimated reputation problem in data protection and data acquisitiveness. Here more transparency must be shown.

Microsoft is not yet on par with Amazon AWS

With the official release of the Windows Azure infrastructure services, Microsoft has begun to catch up with the Amazon Web Services in infrastructure-as-a-service market. But a game at eye level can not be mentioned here. Because something new, or even innovations can not be found in the new Azure release. Instead, Microsoft only tries to catch up the technology advantage of Amazon AWS with the extension of infrastructure resources, … but that’s it. The degree of innovation by Amazon should not be underestimate, who expand its cloud platform with other disruptive services and functions at regular intervals.

Nevertheless, in the attractive environment for enterprise customers Microsoft is in a good position and has expanded its portfolio with the Azure infrastructure services with another important component towards Amazon. In addition, Microsoft already has a very large on-premise customer base that needs to be transferred to the cloud now. Among them renowned and financially well-positioned companies. And this is precisely the area in which Amazon has still to build trust. Moreover, one should not neglect the ever-growing private cloud market. Here, the hands on both sides are equally quite different.

That Microsoft is not yet on par with Amazon in the IaaS area does not mean that they will not be successful. It is not necessarily decisive, to be the first on the market and have the best product, but to persuade its existing and potential customers expect to provide an added value. And it would not be the first time that Microsoft would do this.

Categories
Analysen

Windows Azure Infrastruktur Services – Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Das Microsoft, als eines der weltweit führenden IT-Unternehmen, irgendwann einmal mit einem “Online-Shop” und einem “Suchmaschinenanbieter” um Marktanteile kämpfen muss, hätte in Redmond wahrscheinlich auch niemand jemals zu träumen gewagt. Jedoch ist das die Realität. Amazon ist mit seinen Amazon Web Services (AWS) mit Abstand der Innovationsmotor im Cloud Computing Markt. Und auch Google holt stetig auf. Google hat speziell im Platform-as-a-Service (PaaS) Markt mit der App Engine und dem Software-as-a-Service (SaaS) Markt mit Google Apps bereits gut positionierte Produkte. Amazon ist hingegen im Bereich Infrastructure-as-a-Service (IaaS) der absolute Marktführer. Und hier greift nun auch Microsoft an. Nachdem Windows Azure zu Beginn als reiner PaaS am Markt positioniert wurde, sind sukzessive IaaS Komponenten hinzugefügt worden. Mit seinem neuen Release hat Microsoft nun offiziell die Windows Azure Infrastruktur Services ausgerollt. Für viele kommt dieser Schritt zu spät, da bereits große Marktanteile in diesem Bereich an AWS abgeflossen sind. Allerdings, wo es zunächst nachteilig ausschaut, verbergen sich auch einige Vorteile, die von den meisten übersehen werden.

Windows Azure Infrastruktur Services im Überblick

Grundsätzlich sind die Azure Infrastruktur Services nichts Neues. In einer öffentlichen Release Preview wurden diese bereits im Juni 2012 vorgestellt. Nach Aussage von Microsoft wurden seitdem “… mehr als 1,4 Millionen virtuelle Maschinen erstellt und mit mehreren hundert Millionen Prozessorstunden genutzt.” Zudem sollen heute schon mehr als 50 Prozent der Fortune 500 Unternehmen Windows Azure nutzen und dabei insgesamt mehr als vier Billionen Daten und Informationen auf Windows Azure verwalten. Die Kapazitäten für Compute- und Storage-Lösungen verdoppeln sich in etwa alle sechs bis neun Monate. Laut Microsoft melden sich inzwischen täglich fast 1.000 neue Kunden für Windows Azure an.

Mit dem Release der Windows Azure Infrastruktur Services hat Microsoft seinen Cloud Computing Stack nun auch offiziell vervollständigt. Neben dem Betrieb von virtuellen Maschinen umfasst das Update die dazugehörigen Netzwerkkomponenten. Weiterhin bietet Microsoft nun auch Support für virtuelle Maschinen und auch die gängigsten Microsoft Server Workloads wie zum Beispiel Microsoft BizTalk oder SQL Server 2012. Neben Windows wird auf den virtuellen Maschinen auch das Linux Betriebssystem vollwertig unterstützt. Die Windows Azure Virtual Networks sollen zudem einen echten Hybridbetrieb ermöglichen.

Neue Instanzen und aktualisierte SLAs

Neben neuen virtuellen Instanzen mit zum Beispiel mehr Speicherkapazität von 28GB und 56GB, stehen auch vorbereitete virtuelle Images, z.B. vom BizTalk Server und SQL Server zur Verfügung. Vorbereitete Linux-Images, u.a. CentOS, Ubuntu und Suse Linux Enterprise Server (SLES), werden von kommerziellen Händlern bereitgestellt. Weiterhin stehen zahlreiche Open-Source-Anwendungen als vorbereitete Images im VM Depot auf Self-Service-Basis zur Verfügung. Microsoft Server-Produkte einschließlich Microsoft Dynamics NAV 2013, SharePoint Server 2013, BizTalk Server 2013 wurden für die Ausführung auf den virtuellen Maschinen von Microsoft bereits getestet.

Weiterhin wurden die Service Level Agreements (SLAs) überarbeitet. Microsoft garantiert eine 99,95 prozentige Verfügbarkeit inkl. finanzieller Absicherung, wenn es zu einem Ausfall auf Microsofts Seite kommt. Neben einem SLA für die Cloud Services bietet Microsoft sieben weitere SLAs speziell für Speicher, SQL-Datenbank, SQL Reporting, Service Bus, Caching, CDN und die Medienservices.

7/24/365 Support

Ein Microsoft Support-Team steht jeden Tag rund um die Uhr zur Verfügung. Die Support-Pläne unterteilen sich in vier Stufen vom Entwicklersupport bis hin zum Premier Support.

Preissenkungen für virtuelle Maschinen und Cloud-Services

Wie Amazon AWS gibt auch Microsoft seine Ersparnisse durch den Economies of Scale an seine Kunden weiter. Dazu stehen ab sofort folgende neue Preise und Erweiterungen bereit:

  • Virtuelle Maschinen (Windows, Standardinstanzen) gibt es bis zum 31. Mai zu reduzierten Preisen. Die neuen allgemeinen Verfügbarkeitspreise gelten ab dem 1. Juni 2013. Für eine kleine Instanz gilt der neue Preis 0,0671 € pro Stunde.
  • Die Preise für virtuelle Maschinen (Linux) für Standardinstanzen wurden um 25 Prozent gesenkt. Ab dem 16. April 2013 werden die Preise für kleine, mittlere, große und sehr große Instanzen um 25 Prozent gesenkt. Der Preis für eine kleine Linux-Instanz beispielsweise wird von 0,0596 €pro Stunde auf 0,0447 € pro Stunde in allen Regionen gesenkt.
  • Die Preise für virtuelle Netzwerke starten bei 0,0373 € pro Stunde, gültig ab dem 1. Juni 2013. Bis zum 1. Juni können Kunden das virtuelle Netzwerk kostenlos nutzen.
  • Die Preise für Cloud-Services für Web- und Workerrollen wurden um 33 Prozent für Standardinstanzen gesenkt. Ab dem 16. April 2013 sinkt der Preis für kleine, mittlere, große und sehr große Instanzen um 33 Prozent. Der Preis für eine kleine Workerrolle beispielsweise wird von 0,0894 € pro Stunde auf 0,0596 € pro Stunde in allen Regionen gesenkt.

Nicht zu spät für den großen Teil vom Kuchen

Auch wenn Microsoft in dem mittlerweile sehr stark umkämpften Markt für Infrastructure-as-a-Service spät dran ist, bedeutet es nicht, dass der Zug abgefahren ist. In vielen Ländern beginnt gerade erst die Adaption des Cloud Computing. Darüber hinaus wird das große Geld bei den etablierten Unternehmenskunden verdient und erst dann bei den Startups dieser Welt. Das hat auch Amazon verstanden und entsprechende Maßnahmen eingeleitet.

Weiterhin nimmt die Bedeutung der Private Cloud und somit auch der Hybrid Cloud weltweit zu. Und hier sieht das Blatt dann bereits ganz anders aus. Microsoft hat mit seinem Windows Server 2012 ein gut platziertes Produkt für die Private Cloud, was sich nahtlos mit Windows Azure integrieren lässt. Hier kann Amazon AWS nur über eine mögliche Eucalyptus Acquisition schnell aktiv werden. Eine erste intensive Kooperation beider Unternehmen besteht bereits.

Allerdings, die Windows Azure Infrastruktur Services sind in erster Linie Public Cloud Services. Und hier muss man sagen, dass die Vielfalt des Service-Portfolios der Amazon Web Services noch deutlich größer ist als das von Windows Azure. Zum Beispiel fehlen Services wie Elastic IP oder CloudFormation. Dennoch, Microsoft ist mit seinem Portfolio derzeit der einzige Public Cloud Anbieter am Markt, der Amazon AWS ernsthaft gefährlich werden kann. Denn “Infrastruktur bedeutet mehr als nur Infrastruktur” und daher heißt es “die Infrastruktur nutzbar machen“.

Siehe: Amazon Web Services vs. Microsoft Windows Azure – Ein direkter Vergleich (wird aktualisiert)

Und was ist mit Google?

Google darf auf keinen Fall unterschätzt werden. Im Gegenteil, aus einem ersten Performance-Vergleich zwischen der Google Cloud Platform und Amazon AWS ging Google als Sieger hervor. Allerdings beschränkt sich das aktuelle Serviceportfolio der Google Cloud Platform im Kern auf Rechenleistung, Speicherplatz und Datenbanken. Weitere Mehrwertservices, die auf der Plattform aufsetzen, fehlen noch. Darüber hinaus ist Google derzeit als reiner Public Cloud Anbieter zu sehen. Im Private/ Hybrid Cloud Umfeld sind bisher keine Produkte zu finden. Hier müsste mit Kooperationen bzw. Akquisitionen nachgebessert werden, um auch in Zukunft die Bedürfnisse von konservativen Unternehmenskunden zu befriedigen. Zumal Google weiterhin ein nicht zu unterschätzendes Reputationsproblem hinsichtlich Datenschutz und Datensammelwut hat. Hier muss noch mehr Transparenz gezeigt werden.

Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Mit der offiziellen Veröffentlichung der Windows Azure Infrastruktur Services hat Microsoft damit begonnen zu den Amazon Web Services im Infrastructure-as-a-Service Markt aufzuschließen. Von einem Spiel auf Augenhöhe kann hier aber noch nicht die Rede sein. Denn etwas Neuartiges oder gar Innovationen lassen sich im neuen Azure Release nicht finden. Stattdessen wird lediglich versucht den Technologievorsprung von Amazon AWS mit der Erweiterung von Infrastruktur-Ressourcen aufzuholen, mehr aber nicht. Dabei darf man nicht den Innovationsgrad von Amazon unterschätzen, die in regelmäßigen Abständen ihre Cloud Plattform mit weiteren disruptiven Services und Funktionen ausbauen.

Dennoch, für das attraktive Umfeld für Unternehmenskunden ist Microsoft in einer guten Ausgangsposition und hat sein Portfolio mit den Azure Infrastruktur Services um eine weitere wichtige Komponente gegenüber Amazon erweitert. Darüber hinaus verfügt Microsoft bereits über eine sehr große on-Premise Kundenbasis, die nun in die Cloud überführt werden muss. Darunter renommierte und finanziell gut aufgestellte Unternehmen. Und das ist genau der Bereich in dem Amazon erst noch Vertrauen aufbauen muss. Zudem sollte man den stetig wachsenden Private Cloud Markt nicht vernachlässigen. Hier sehen die Karten auf beiden Seiten gleich ganz anders aus.

Das Microsoft im IaaS Bereich noch nicht auf Augenhöhe mit Amazon ist, bedeutet nicht, dass sie nicht erfolgreich sein werden. Es ist zwangsläufig nicht entscheidend, als erster am Markt zu sein und das beste Produkt zu haben, sondern seine bestehenden und potentiellen Kunden davon zu überzeugen, einen Mehrwert zu bieten. Und es wäre nicht das erste Mal, dass Microsoft dies schaffen würde.

Categories
Management @en

AWS OpsWorks: More PaaS functionality in Amazon's cloud portfolio

Correctly, we name the Amazon Web Services (AWS) as an infrastructure-as-a-service (IaaS). AWS Elastic Beanstalk splits the stock, whether the service should be counted as a platform-as-a-service (PaaS). Anyway, AWS provides various PaaS functionality in its cloud portfolio for some time and extends it now with AWS OpsWorks (still in beta).

What is AWS OpsWorks?

AWS OpsWorks is a solution for the flexible and automated application management. It addresses IT administrators and DevOps developers, who can use it to manage the complete lifecycle of an application, including resource provisioning, configuration management, software updates, monitoring and access control. AWS OpsWorks can be used for free. Costs emerge for the deployed virtual AWS infrastructure resources.

OpsWorks allows you to create a logical architecture, the provisioning of the required resources based on the architecture and providing the application and the necessary software packages for a specific configuration. OpsWorks then cares about the operation of the application and supports the life cycle including autoscaling and software updates.

AWS OpsWorks details

AWS OpsWorks supports different application architectures and works with any software whose installation is script-based. Based on the Chef framework you can use your own ready recipes or those from the community. An event-based configuration system helps during the application lifecycle management. These include customizable deployments, rollbacks, patch management, auto-scaling and auto healing. With that an update can be rolled out just by updating a single configuration file. Moreover OpsWorks has the ability to host AWS instances based on a precisely self specified configuration. This also includes the scale of an application based on the application load, or a time-based auto scaling as well as monitoring the application and the replacement of faulty instances.

With OpsWorks applications can be build in so-called “Layers”. A Layer defines how a set of together managed resources are configured. An example could be a web layer. This includes EC2 instances, EBS volumes including a RAID configuration and mount points and Elastic IP addresses. In addition for each layer, a software configuration can be created. This includes installation scripts and steps for initialization. Is an instance added to a layer, OpsWorks ensures that it will receive the corresponding configurations. OpsWorks provides pre-defined layers of technologies such as Ruby, PHP, HAProxy, Memcached and MySQL. These can be customized and extended.

Technology from Germany

OpsWorks was invented in Germany and is based on the technology Scalarium of the Berlin company Peritor. Scalarium was bought in 2012 by Amazon.

Comment

Indeed, AWS OpsWorks is not a concrete PaaS offering. This is due to the building blocks philosophy of the Amazon Web Services. This means that the offered services will be made ​​available as granular as possible. The customer then has the option to integrate the services for its use case and how it needs them. For that, of course, a lot of personal contribution and knowledge is required, which for the infrastructure of a typical PaaS is not required. However, AWS OpsWorks closes in terms of convenience the gap to the PaaS market and offers more and more PaaS functionality in the Amazon Cloud.

About one thing a customer should be aware of. And that applies not only to AWS OpsWorks but for the use of each AWS service. The lock-in in the AWS infrastructure becomes bigger and bigger with each service Amazon is releasing. This need not be a bad thing. A lock-in is necessarily anything negative and may even be beneficial, on the contrary, as long as the own needs are met, and not too large compromises have to be made ​​by the customer himself.

As a customer you just have to keep this in mind before the way into the AWS cloud, as well as in any other cloud, and consider possible exit strategies or multi-cloud approaches.

Categories
Management @de

AWS OpsWorks: Mehr PaaS-Funktionalität im Cloud-Portfolio von Amazon

Korrekterweise spricht man bei den Amazon Web Services (AWS) von einem Infrastructure-as-a-Service (IaaS). Bei AWS Elastic Beanstalk spalten sich die Lager, ob der Service zu den Platform-as-a-Services (PaaS) gezählt werden dürfe. Zumindest bietet AWS seit längerer Zeit diverse PaaS-Funktionalität in seinem Cloud-Portfolio und erweitert diese nun mit “AWS OpsWorks” (noch in der Beta).

Was ist AWS OpsWorks?

AWS OpsWorks ist eine Lösung für das flexible und automatisierte Applikationsmanagement. Es richtet sich an IT-Administratoren und DevOps Entwickler, die damit den vollständigen Lebenszyklus einer Anwendung inkl. Ressourcen-Provisionierung, Konfigurationsmanagement, Softwareupdates, Monitoring und Zugriffskontrolle verwalten können. AWS OpsWorks kann kostenlos genutzt werden. Kosten entstehen für die darunter eingesetzten virtuellen AWS Infrastrukturressourcen.

OpsWorks ermöglicht das Erstellen einer logischen Architektur, die Provisionierung der benötigten Ressourcen basierend auf der Architektur sowie das Bereitstellen der Applikation und die dafür benötigte Software und Pakete für eine bestimmte Konfiguration. OpsWorks sorgt dann für den Betrieb der Applikation und unterstützt deren Lebenszyklus inkl. Autoscaling und Softwareupdates.

AWS OpsWorks Details

AWS OpsWorks unterstützt unterschiedliche Applikations-Architekturen und arbeitet mit jeder Software zusammen, deren Installation skript-basiert verläuft. Basierend auf dem Chef Framework können bereits fertige eigene Rezepte oder welche aus der Community genutzt werden, um OpsWorks einzusetzen.

Ein Event-basiertes Konfigurationssystem hilft beim Lebenszyklus-Management einer Applikation. Dazu gehören anpassbare Deployments, Rollbacks, Patchmanagement, Autoscaling sowie Autohealing. So lässt sich z.B. ein Update über das Aktualisieren einer einzigen Konfigurationsdatei ausrollen. Zudem ist OpsWorks in der Lage, AWS Instanzen basierend auf einer selbst exakt spezifizierten Konfiguration zu hosten. Dazu gehört ebenfalls die Skalierung dieser Applikation anhand der jeweiligen Last auf der Anwendung oder einer zeitbasierten automatischen Skalierung sowie der Überwachung der Applikation und dem Austausch fehlerhafter Instanzen.

Mit OpsWorks lassen sich Applikationen in sogenannte “Layer” aufbauen. Layer definieren, wie ein Teil von Ressourcen, die zusammen verwaltet werden, konfiguriert werden sollen. Ein Beispiel könnte ein Web-Layer sein. Dieser beinhaltet EC2 Instanzen, EBS Volumes inkl. einer RAID Konfiguration und Mount Points sowie Elastic IP-Adressen. Für jeden Layer kann zudem eine Software-Konfiguration erstellt werden. Darin sind Installations-Skripte und Schritte für die Initialisierung enthalten. Wird nun eine Instanz zu einem Layer hinzugefügt, sorgt OpsWorks dafür, dass diese die entsprechenden Konfigurationen erhält. OpsWorks stellt vor-definierte Layer für Technologien wie Ruby, PHP, HAProxy, Memcached und MySQL bereit. Diese können angepasst und erweitert werden.

Technologie aus Deutschland

OpsWorks ist eine Erfindung aus Deutschland und basiert auf der Scalarium Technologie des Berliner Unternehmens Peritor. Scalarium wurde bereits 2012 von Amazon gekauft.

Kommentar

Bei AWS OpsWorks handelt es sich zwar um kein konkretes PaaS Angebot. Dieses liegt allerdings an der Building Blocks Philosophie der Amazon Web Services. Das bedeutet, dass die angebotenen Services so granular wie möglich bereitgestellt werden. Der Kunde hat anschließend die Möglichkeit, die Services für seinen Use Case so zu integrieren, wie er sie benötigt. Dafür wird natürlich dementsprechend viel Eigenleistung und Wissen benötigt, welches bei einem typischen PaaS für die Infrastruktur nicht erforderlich ist. Jedoch schließt AWS OpsWorks hinsichtlich der Convenience zu den PaaS am Markt immer weiter auf und bietet immer mehr PaaS-Funktionalität in der Amazon Cloud.

Über eines sollte man sich als Kunde dennoch bewusst sein. Und das gilt nicht nur für AWS OpsWorks, sondern für die Nutzung jedes AWS Service. Der Lock-in in die AWS-Infastruktur wird mit jedem Service den Amazon veröffentlicht immer größer. Das muss nichts Schlechtes bedeuten. Ein Lock-in ist zwangsläufig nichts Negatives und kann im Gegenteil sogar von Vorteil sein, solange die eigenen Anforderungen erfüllt werden und nicht zu große Kompromisse durch den Kunden selbst gemacht werden müssen.

Man muss sich als Kunde dies nur vor Augen halten und bereits vor dem Weg in die AWS Cloud, als auch in jede andere Cloud, über mögliche Exit-Strategien oder einen Multi-Cloud Ansatz nachdenken.

Categories
Analysis

ProfitBricks under the hood: IaaS from Germany – be curious

Last week I had a briefing with ProfitBricks to get a better understanding of the infrastructure-as-a-service (IaaS) offering from Germany and to ask specific questions. I examined ProfitBricks critically with two articles in the past, number one here and number two here. First, because I don’t like marketing phrases that just promise much more than really is behind it and secondly because even the technical promises must be kept.

ProfitBricks details

ProfitBricks presents itself as a typical infrastructure-as-a-service providers. A graphical web interface is used to form customized servers to an entire data center. A complex network structure shall ensure a real isolation of the customer’s network in the virtual datacenter. A meshed network with a redundant Infiniband connection and a highly redundant storage (including automatic backup) provides the performance and availability of data.

In addition, ProfitBricks has its own security team and highly experienced system administrators that provide a round the clock support.

Locations

ProfitBricks has data centers or co-locations in Germany (Karlsruhe) and the USA (Las Vegas). However, both data centers are not connected with each other – physical nor virtual. So no data exchange between Germany and the United States can take place in this way.

The infrastructure components

At ProfitBricks servers can be equip from 1 to 48 cores, and between 1 GB and 196 GB of RAM. The maximum is currently at 60 cores and 250 GB of RAM per server, which can be enabled through a support contact. Storage is available between 1 GB and 5000 GB. However, this can only be assigned to one server directly. So there is no central storage. To realize this, one has to build its own central storage appliance and distribute the storage over it.

Within a self-designed data center (see below), two zones (similar to Amazon Availability Zones) are available. This allows to configure two servers, whereby one of them will not notice about problems in the area of the second server.

There is no centralized firewall. Instead, each of all NICs in a server can be configured with their own rules. A central firewall can achieved by creating a dedicated firewall appliance (Linux + IPTables or a prepared commercial firewall as an ISO image).

Although a load balancer is available, ProfitBricks recommends to build an own one based on an appliance because among others the ProfitBricks one has no monitoring included.

ProfitBricks do not offer additional own value-added services. And on their own admission, this will never happen. Instead, the provider relies on a network of partners that will provide appropriate services for the infrastructure platform.

Currently unique: The Data Center Designer

What really convinced me at ProfitBricks is the “Data Center Design (DCD)”. Such a one no IaaS provider worldwide has it in this format.

Based on these graphical web interface one is able to create a complete virtual data center individually and activate the configuration or modify it with a mouse click – whether it’s about servers, storage, load balancers, firewalls, or the corresponding network.

Is a data center design ready, it can be saved and deployed. Previously the user obtained more information about a check through the system. Here is determined whether everything is configured correctly – e.g. that all servers have a boot drive with the corresponding image. Then the total cost per month for this virtual data center is itemized.

However, the DCD has still a weak point. Is a data center deployed, no single server can be removed from the design or stopped via the web interface. Therefore the entire data center must be un-deployed. Then the server is removed and the data center must be re-deployed. Using the proprietary SOAP API that supports, among other things Java and C #, a single server should be removed. This web feature is to follow, as well as a REST API, in the future.

The customer is mostly left on its own

ProfitBricks offers a German support, which has either worked for years as an administrator, or was involved in the development of the system. Support is included for free. Even if one evaluates the platform only with a test account.

Otherwise ProfitBricks is a common self-service like all the other IaaS providers. This means that a customer is self-responsible for the design of its virtual infrastructure and how an application on the infrastructure can scale and provided highly available.

With additional questions and approaches, for example for configuring a separate firewall appliance or a dedicated load balancer, external partners should help.

Prices

The billing follows exact to the minute per hour. The cost break down on this as follows:

  • 1 Core = 0,04 EUR per hour
  • (Windows Server plus 0,01 EUR per hour)
  • 1 GB RAM = 0,09 EUR per hour
  • 1 GB storage = 0,09 EUR per 30 days
  • 1 GB traffic = 0,06 EUR per GB traffic

For the US market:

  • 1 Core = 0,05 USD per hour
  • (Windows Server plus 0,02 USD per hour)
  • 1 GB RAM = 0,015 USD per hour
  • 1 GB storage = 0,09 USD per 30 days
  • 1 GB traffic = 0,08 USD per GB traffic

Live Vertical Scaling

ProfitBricks supports the so-called Live Vertical Scaling. This means that further resources such as CPU and RAM can be add to a virtual server during operation. This feature must be enabled separately for each server, and the server must then be restarted once.

However, what I have noted here and what has be confirmed by ProfitBricks during the briefing, the operating system, database, software and the own application must support it. The systems need to realize that suddenly more cores and RAM are available and use it. And in the opposite case also deal with, when the resources scale down again.

ProfitBricks is interesting

ProfitBricks is an interesting infrastructure-as-a-service offering. Especially in the very cloud-sparse (IaaS) Germany with a data center in Germany. Particularly noteworthy is the Data Center Designer (the only USP), which is currently unique in the world and provides convenience features, that the other IaaS providers are neglecting. Admittedly the designer rakes at one point or another (Example: removing server), but that will certainly change in a next version.

At the end of the day ProfitBricks is a pure infrastructure-as-a-service provider that has its strengths in infrastructure operations. This also showed the briefing. Therefore an interview with CEO Achim Weiss confuses me, which I had read a few weeks ago. Besides enterprises he called Internet startups as ProfitBricks target customers. Today, I consider this as an utopia. Without a services portfolio like the offering of the Amazon Web Services, this target group can not be achieved. The service gap can and should be closed by service partners. Another but quite legitimate approach if the strengths are in a different area.

Categories
Analysen

ProfitBricks unter der Haube: IaaS aus Deutschland – man darf gespannt sein

In der vergangenen Woche hatte ich ein Briefing mit ProfitBricks, um das Infrastructure-as-a-Service (IaaS) Angebot aus Deutschland besser kennenzulernen und konkrete Fragen zu stellen. Ich habe ProfitBricks in zwei Artikeln Nummer eins hier und Nummer zwei hier in der Vergangenheit bereits kritisch begutachtet. Zum einen, weil ich einfach nicht auf Marketingphrasen stehe, die viel mehr versprechen als eigentlich dahinter steckt und zum anderen, weil auch technische Versprechen eingehalten werden müssen.

Details zu ProfitBricks

ProfitBricks stellt sich als typischer Infrastructure-as-a-Service Anbieter auf. Über eine graphische Weboberfläche lassen sich maßgeschneiderte Server zu einem Rechenzentrum formen. Anhand von komplexen Vernetzungsstrukturen soll eine echte Isolation des Kundennetzwerks im virtuellen Rechenzentrum sichergestellt werden. Für Performance sorgt eine vermaschte redundante Vernetzung mit Infiniband sowie ein hochredundanter Storage (inkl. automatischem Backup) für die Verfügbarkeit der Daten.

Zudem verfügt ProfitBricks über ein eigenes Security-Team sowie langjährig erfahrene Systemadministratoren, die einen rund um die Uhr Support liefern.

Standorte

Rechenzentren bzw. Co-Location besitzt ProfitBricks in Deutschland (Karlsruhe) und in den USA (Las Vegas). Allerdings sind beide Rechenzentren in keinster Weise physikalisch oder virtuell miteinander verbunden, wodurch kein Datenaustausch zwischen Deutschland und den USA auf diesem Weg stattfinden kann.

Die Infrastruktur-Komponenten

Server lassen sich bei ProfitBricks mit Cores zwischen 1 und 48 Cores sowie 1 GB und 196 GB RAM ausstatten. Das Maximum liegt hier derzeit allerdings bei 60 Cores und 250 GB RAM pro Server, was man sich über den Support freischalten lassen kann. Storage gibt es zwischen 1 und 5000 GB. Allerdings kann dieser immer nur direkt einem Server zugewiesen werden. Es gibt somit keinen zentralen Speicher. Um dieses zu realisieren, muss man sich eine eigene zentrale Storage-Appliance bauen und den Speicher darüber verteilen.

Innerhalb eines selbst gestalteten Rechenzentrum (siehe unten) stehen zwei Zonen (ähnlich der Availability Zones von Amazon) zur Verfügung. Damit lassen sich z.B. zwei Server so konfigurieren, dass der eine von den Problemen in der Zone des zweiten Servers nichts mitbekommt.

Es gibt keine zentrale Firewall. Stattdessen können jeweils alle Netzwerkkarten eines Servers mit eigenen Regeln konfiguriert werden. Eine zentrale Firewall lässt sich hier z.B. durch den Aufbau einer eigenen Firewall-Appliance (Linux + IPTables oder eine fertige kommerzielle Firewall als ISO-Image) realisieren.

Ein Load Balancer steht zwar zur Verfügung, allerdings empfiehlt ProfitBricks an dieser Stelle lieber einen eigenen anhand einer Appliance zu bauen, da der ProfitBricks eigene u.a. über kein Monitoring verfügt.

Weitere eigene Mehrwertservices bietet ProfitBricks nicht an. Dies soll nach eigener Aussage auch nicht passieren. Stattdessen setzt der Anbieter auf ein Partnernetzwerk, das für die Infrastrukturplattform entsprechende Services anbieten soll.

Derzeit einmalig: Der Data Center Designer

Was mich bei ProfitBricks wirklich überzeugt hat ist der “Data Center Designer (DCD)”. So einen hat in dieser Form derzeit noch kein IaaS Anbieter weltweit.

Anhand dieser graphischen Weboberfläche ist man in der Lage ein komplettes virtuelles Rechenzentrum individuell zusammenzustellen und per Mausklick die Konfiguration zu aktivieren oder beliebig zu ändern – egal ob es sich um Server, Storage, Loadbalancer, Firewalls oder die entsprechende Vernetzung handelt.

Ist ein Rechenzentrum fertig designed, lässt es sich speichern und deployen. Zuvor erhält man noch Informationen über einen Check durch das System. Hier wird geschaut, ob alles korrekt konfiguriert wurde – z.B. ob alle Server auch ein Bootlaufwerk mit entsprechenden Image haben. Anschließend werden die Gesamtkosten pro Monat für dieses virtuelle Rechenzentrum aufgeschlüsselt.

Allerdings hat der DCD derzeit noch eine Schwachstelle. Ist ein Rechenzentrum deployed, lässt sich über die Weboberfläche kein einzelner Server mehr aus dem Design entfernen bzw. diesen darüber stoppen. Dazu muss zunächst das vollständige Rechenzentrum wieder un-deployed werden. Dann wird der Server entfernt und das Rechenzentrum anschließend wieder deployed. Mittels der proprietären SOAP API, die unter anderem Java und C# unterstützt, soll ein einzelner Server jedoch entfernt werden können. Diese Web-Funktion soll, ebenso wie eine REST API, in Zukunft folgen.

Der Kunde ist größtenteils auf sich alleine gestellt

Zunächst bietet ProfitBricks einen deutschsprachigen Support, der entweder selbst jahrelang als Administrator gearbeitet hat oder an der Entwicklung des Systems beteiligt war. Der Support ist darüber hinaus kostenlos enthalten. Auch dann, wenn man die Plattform nur mit einem Testaccount evaluiert.

Ansonsten ist ProfitBricks ein gewöhnlicher Self-Service wie ihn andere IaaS Anbieter auch bieten. Das bedeutet, dass man sich über das Design seiner virtuellen Infrastruktur und wie eine Applikation auf der Infrastruktur skaliert und hochverfügbar bereitgestellt wird, selbst kümmern.

Bei weitere Fragen und Lösungsansätze, z.B. bei der Konfiguration einer separaten Firewall-Appliance oder eines eigenen Loadbalancer, helfen Partner.

Preise

Die Abrechnung erfolgt minutengenau pro Stunde. Die Kosten schlüsseln sich dabei wie folgt auf:

  • 1 Core = 0,04 EUR pro Stunde
  • (Windows Server plus 0,01 EUR pro Stunde)
  • 1 GB RAM = 0,09 EUR pro Stunde
  • 1 GB Speicher = 0,09 EUR pro 30 Tage
  • 1 GB Traffic = 0,06 EUR pro GB Traffic

Das Live Vertical Scaling

ProfitBricks unterstützt das sogenannte Live Vertical Scaling. Das bedeutet, dass sich weitere Ressourcen wie CPU und RAM im laufenden Betrieb zu einem virtuellen Server hinzufügen lassen. Diese Funktion muss für jeden Server separat aktiviert und der Server anschließend einmal neu gestartet werden.

Allerdings, und das habe ich hier angemerkt und hat mir ProfitBricks während des Briefings bestätigt, muss das Betriebssystem, die Datenbank, Software und die eigene Applikation das auch unterstützen. Die Systeme müssen erkennen, dass plötzlich mehr Kerne und RAM zur Verfügung stehen und diese nutzen. Und im umgekehrten Fall ebenfalls damit umgehen können, wenn die Ressourcen wieder herunterskalieren.

ProfitBricks ist interessant

ProfitBricks ist ein interessantes Infrastructure-as-a-Service Angebot. Insbesondere im sehr Cloud-kargen (IaaS) Deutschland mit einem Rechenzentrum in Deutschland. Besonders hervorzuheben ist der Data Center Designer (einziger USP), der derzeit weltweit einmalig ist und die entsprechende Convenience bietet, die andere IaaS-Anbieter vernachlässigen. Zwar harkt der Designer an der einen oder anderen Stelle noch (Bsp.: Server entfernen), aber das wird sich in einer zeitnahen neuen Version sicherlich ändern.

Unterm Strich ist ProfitBricks ein reiner Infrastructure-as-a-Service Anbieter, der seine Stärken im Infrastrukturbetrieb hat. Das ergab auch das Briefing. Daher irritiert mich ein Interview mit CEO Achim Weiß, welches ich vor ein paar Wochen gelesen hatte. Darin gab er als Zielkunden neben Unternehmen, ebenfalls Internet-Startups an. Das erachte ich derzeit jedoch als eine Utopie. Ohne ein Service-Portfolio wie es die Amazon Web Services bieten ist diese Zielgruppe nicht zu erreichen. Die Service Lücke kann und soll durch Service Partner geschlossen werden. Ein anderer aber durchaus legitimer Ansatz, wenn die Stärken in einem anderen Bereich liegen.

Categories
Management @de

Netflix veröffentlicht weitere "Monkeys" als Open-Source – Eucalyptus Cloud wird es freuen

Wie GigaOM berichtet, wird Netflix in naher Zukunft weitere Services ähnlich zu seinem Chaos Monkey und der Simian-Army unter der Open-Source Lizenz auf Github veröffentlichen.

Der Chaos Monkey

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht und Instanzen (virtuelle Maschinen) pro Gruppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Weitere Informationen zum Chaos Monkey und der Simian Army gibt es unter “Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur“.

Weitere Services aus Netflix Monkey Portfolio

  • Denominator: Ein Tool für die Verwaltung mehrerer DNS-Provider.
  • Odin: Eine Orchestration API, die von Jenkins und Asgard, dem Netflix Deployment Tool, aufgerufen werden kann. Sie soll Entwicklern helfen bequemer zu deployen.
  • Recipes: Dabei handelt es sich um Blaupausen (blueprints), mit denen sich mehrere Netflix Komponenten zusammen einfacher ausrollen lassen.
  • Launcher: Soll per Knopfdruck die fertigen Blaupausen ausrollen.
  • Mehr Monkeys: Zu den weiteren Netflix Monkeys die noch in diesem Jahr folgen sollen, gehören der Conformity Monkey, der Latency Monkey und der Latency Howler Monkey. Der Conformity Monkey stellt sicher, dass alle relevanten Instanzen äquivalent aufgesetzt sind. Der Latency Monkey simuliert Latenzen und weitere Fehler. Der Latency Howler Monkey überwacht, ob ein Workload auf mögliche AWS Limitierungen trifft und meldet dies.

Der Chaos Gorilla, der wahllos den Absturz einer vollständigen AWS Availability Zone simuliert sowie der Chaos Kong, der eine ganze AWS Region simuliert abschießt, sollen ebenfalls bald folgen.

Kommentar

Zwar möchte Netflix seine “Monkeys” Cloud übergreifend anbieten, so dass z.B. auch OpenStack Nutzer darauf zurückgreifen können. Allerdings spielt Netflix mit der stetigen Veröffentlichung seiner HA-Testsuite Eucalyptus damit immer mehr in die Arme.

Eucalyptus Cloud ermöglicht den Aufbau einer Private Cloud auf Basis der grundlegenden Funktionen der Amazon Cloud Infrastruktur. Was Amazon bei sich z.B. als AWS Availiablty Zone bezeichnet, repräsentiert bei Eucalyptus ein “Cluster”. Die Netflix Tools ermöglichen somit auch ähnliche HA-Funktionalität Prüfung in der Private/ Hybrid Cloud, wie Netflix sie selbst bereits in der Amazon Public Cloud nutzt. Darüber hinaus wird Eucalyptus die Netflix Tools mittelfristig ganz sicher in die eigene Cloud Lösung integrieren, um eine eigene HA-Prüfung im Portfolio zu haben.

Die Veröffentlichung der Netflix Tools unter der Open-Source Lizenz wird nicht zuletzt die Kooperation der Amazon Web Services und Eucalyptus weiter stärken, sondern Eucalyptus für Amazon als Übernahmeobjekt immer attraktiver machen.

Categories
Analysis

Amazon Web Services vs. Microsoft Windows Azure – A direct comparison

Many companies are currently in the evaluation of public cloud services such as IaaS. The first thoughts brush the two large and supposedly known providers in the scene – Amazon Web Services and Microsoft Windows Azure. Both have an extensive and growing range of cloud services today. But, if you want to compare both portfolios the challenges increase with the number of services.

Amazon Cloud vs. Windows Azure

The following table shows the cloud service portfolio towards 1:1 and provides clarity. Who provides what in which area, what is the name of the respective service and under what URL to find more information about it.

Feature

Amazon Web Services

Microsoft Windows Azure

Computing power

Virtual machines Elastic Compute Cloud Role Instances
High Performance Computing Cluster Compute Instances HPC Scheduler
MapReduce Elastic Map Reduce Hadoop on Azure
Dynamic scaling Auto Scaling Auto Scaling Application Block

Storage

Unstructured storage Simple Storage Service Azure Blob
Flexible entities SimpleDB Azure Tables
Block Level Storage Elastic Block Store Azure Drive
Archiving Amazon Glacier
Storage Gateway AWS Storage Gateway

Databases

RDBMS Relational Database Service SQL Azure
NoSQL DynamoDB Azure Tables

Caching

CDN CloudFront CDN
In-Memory ElastiCache Cache

Network

Load Balancer Elastic Load Balancer Fabric Controller / Traffic Manager
Hybrid Cloud Virtual Private Cloud Azure Connect
Peering Direct Connect
DNS Route 53

Messaging & Applications

Async Messaging Simple Queue Service Azure Queues
Push Notifications Simple Notification Service Service Bus
Bulk Email Simple Email Service
Workflows Amazon Simple Workflow Service
Search Amazon CloudSearch

Monitoring

Resource monitoring CloudWatch System Center

Securiry

Identity Management Identity Access Management Azure Active Directory

Deployment

Resource creation CloudFormation
Web Application Container Elastic Beanstalk Web Role