Categories
News @en

Microsoft Windows Azure Storage experienced a global(!) outage due to an expired SSL certificate

Since Friday, 22. February, 12:44 PM PST Microsoft Windows Azure Storage suffers massive problems worldwide(!). This happened due to an expired SSL certificate. The outage has also affected Azure Storage dependent services (see screenshot). Currently, Microsoft is working to restore all services. First test deployments seem to show success. More to find on the Windows Azure Service Dashboard.

Microsoft Windows Azure Storage experienced a global(!) outage due to an expired SSL certificate

Pity, since Windows Azure Storage has recently won a Nasuni performance competition against Amazon S3.

Humor on

Humor off

Categories
News

Ein abgelaufenes SSL-Zertifikat zwingt Microsoft Windows Azure Storage weltweit(!) in die Knie

Seit Freitag, dem 22. Februar, 12:44 PM PST leidet Microsoft Windows Azure Storage weltweit(!) unter massiven Problemen. Grund hierfür ist ein abgelaufenes SSL-Zertifikat. Der Ausfall hat ebenfalls von Azure Storage abhängige Services in Mitleidenschaft gezogen (siehe Screenshot). Derzeit arbeitet Microsoft an der Wiederherstellung aller Services. Erste Test Deployments zeigen anscheinend Erfolg. Mehr unter dem Windows Azure Service Dashboard.

Ein abgelaufenes SSL-Zertifikat zwingt Microsoft Windows Azure Storage weltweit(!) in die Knie

Schade, wo Windows Azure Storage erst kürzlich einen Nasuni Performance Wettkampf gegen Amazon S3 gewonnen hat.

Humor an

Humor aus

Categories
Management @en

Google makes first serious steps into the enterprise

In a post on the Google Enterprise Blog, Google has announced support plans for its cloud platform solutions App Engine, Compute Engine, Cloud Storage, Cloud SQL and BigQuery. Google says, they understand that Google Groups or StackOverflow does not always provide the right answers, and sometimes the support by phone is required. That’s right, Google!

Support plans for the Google Cloud Platform

Google divides its support in four categories: Bronze, Silver, Gold and Platinum, with the following services:

  • Bronze
    Price: free
    Service: Access to the online documentation and forums, contact regarding questions about billing.
  • Silver
    Price: $150 per month
    Service: All benefits of Bronze. Plus: E-mail support regarding product features, best practices, and error messages.
  • Gold
    Price: from $400 per month
    Service: All benefits of Silver. Plus: 24×7 telephone support and consulting for application development and best practices and architecture support for a particular use case.
  • Platinum
    Price: Upon request.
    Service: All benefits of Gold. Plus: Very individual support. Direct access to a Technical Account Manager.

Comment

Google seems more and more to understand that the “old world” would be supported not only by boards and communities. In particular, enterprises expect a high quality and personal support. That Google also wants to make bigger steps into the business environment, I already had experienced personally. Following a request form to a Google Apps problem a few minutes later I received a call from a German Google employee who helped me out. That was a positive wow factor and a key experience. As a very early Google Apps user, I was used to times, where support pages were running on error pages and a telephone contact even to the United States was not possible.

Nevertheless, today Google is not on a par with the Amazon Web Services (AWS) or Microsoft Windows Azure and is likely to be found at number three. Indeed Google, in addition to the two mentioned plus Salesforce, belongs to the current cloud players in the market, however, the portfolio of Google’s cloud platform compared to AWS and Azure is very thin. With App Engine, Compute Engine, Cloud Storage, Cloud SQL, BigQuery, the Prediction API, and the Translation API at least seven encapsulated services are available, but which not nearly provide the scope of AWS. In addition, you should know that the Google Compute Engine is still in a closed beta and therefore not in active competition.

For Google I still see a problem of acceptance in terms of credibility and above all, the trust. In the core Google is and remains a search engine, which is financed by advertising. Therefore Google is not without a reason named as data kraken, what underpins numerous actions and decisions by Google’s executives even further. At this point Google must be much more open and show what happens to the data that companies but also ordinary users give in trust to Google.

Categories
Management @de

Google macht erste ernsthafte Schritte ins Enterprise Umfeld

In einem Beitrag auf dem Google Enterprise Blog hat Google Support Pläne für seine Cloud Plattform Lösungen App Engine, Compute Engine, Cloud Storage, Cloud SQL und BigQuery angekündigt. Auch Google habe nach eigener Aussage mittlerweile verstanden, dass Google Groups oder Stack Overflow nicht immer die passenden Antworten liefern und die Unterstützung durch einen telefonischen Ansprechpartner erfordert. Ja, so schauts aus Google!

Support Pläne für die Google Cloud Platform

Google unterteilt seinen Support in vier Kategorien: Bronze, Silver, Gold und Platinum, die je folgende Leistungen beinhalten:

  • Bronze
    Preis: Kostenlos
    Leistung: Zugriff auf die Online-Dokumentation und Foren sowie Kontakt bzgl. Fragen zur Abrechnung.
  • Silver
    Preis: $150 pro Monat
    Leistung: Alle Leistungen von Bronze. Plus: E-Mail Support bzgl. Produkt-Funktionen, Best Practice und Fehlermeldungen.
  • Gold
    Preis: ab $400 pro Monat
    Leistung: Alle Leistungen von Silver. Plus: 24×7 Telefon-Support und Beratung zur Applikationsentwicklung sowie Best Practices oder Architekturunterstützung für einen bestimmten Use Case.
  • Platinum
    Preis: Auf Anfrage.
    Leistung: Alle Leistungen von Gold. Plus: Sehr individuelle Unterstützung. Direkter Kontakt zu einem Technical Account Manager.

Kommentar

Google scheint immer mehr zu verstehen, dass die “Alte Welt” nicht nur durch Foren und Communities unterstützt werden möchte. Insbesondere Unternehmen erwarten einen hochwertigen und persönlichen Support. Dass Google auch im Unternehmensumfeld weiter ankommen möchte, durfte ich bereits persönlich erfahren. Nach einer Formularanfrage zu einem Google Apps Problem erhielt ich wenige Minuten später einen Anruf von einem deutschen Google Mitarbeiter, der sich mit mir auseinandersetze. Das war ein positiver Aha-Effekt und ein Schlüsselerlebnis. Als ein sehr früher Google Apps Nutzer war ich noch Zeiten gewohnt, wo Support-Seiten auf Fehlerseiten liefen und ein telefonischer Kontakt nicht einmal in die USA möglich war.

Dennoch, Google ist derzeit nicht auf Augenhöhe mit den Amazon Web Services (AWS) oder Microsoft Windows Azure zu sehen und ist eher auf Platz drei zu finden. Zwar gehört Google neben den beiden genannten plus Salesforce zu den aktuellen Cloud Playern am Markt, allerdings ist das Portfolio der Google Cloud Platform im Vergleich zu AWS und Azure sehr dünn. Mit der App Engine, Compute Engine, Cloud Storage, Cloud SQL, BigQuery, der Prediction API sowie der Translation API stehen immerhin insgesamt sieben für sich gekapselte Services zur Verfügung, die aber bei weitem nicht den Umfang von AWS bieten. Zudem sollte man wissen, dass sich die Google Compute Engine weiterhin in einer geschlossen Beta befindet und somit nicht zur aktiven Konkurrenz zählt.

Ich sehe bei Google weiterhin ein Akzeptanzproblem in Bezug auf die Glaubwürdigkeit und vor allem der Vertrauenswürdigkeit. Google ist und bleibt im Kern eine Suchmaschine, die sich über Werbung finanziert. Daher gilt Google nicht ohne Grund als Datenkrake, was zahlreiche Aktionen und Entscheidungen durch Googles Führungsetage selbst weiter untermauert. Google muss an dieser Stelle deutlich offener werden und zeigen, was mit den Daten passiert, die Unternehmen aber auch gewöhnliche Nutzer Google anvertrauen.

Categories
Kommentar

Big Data und Cloud Computing helfen nicht nur Obama

In meinem Gastbeitrag bei den Automatisierungs-Experten von arago bin ich vor zwei Wochen auf das Thema Big Data eingegangen und das Unternehmen aus dem US-Wahlkampf 2012 von Barack Obama lernen sollten, wie sie Echtzeit-Informationen in einen Vorsprung umwandeln. Neben Cloud Computing, Mobile und Social Media gehört Big Data zu den aktuellen Top-Themen im IT-Unternehmensumfeld. Dabei handelt es sich bei weitem nicht mehr nur um einen Trend sondern um die Realität. Und das mit einem weitreichenden Einfluss auf Unternehmen, ihre strategische Ausrichtung und der IT. Bekannte Technologien und Methoden haben mit der Analyse von Big Data ihre Grenzen erreicht und nur das Unternehmen, welches es schafft, aus den Datensilos einen Informationsvorsprung zu erzielen, wird dem Wettbewerb in Zukunft einen Schritt voraus sein.

Big Data: Kein Alter Wein in Schläuchen

Grundsätzlich ist die Idee hinter Big Data nichts Neues. Von Anfang bis Mitte der 1990er Jahre ging es bereits unter dem Begriff „Business Intelligence“ darum, anhand von Verfahren eine systematische Analysen von Daten vorzunehmen. Die Ergebnisse werden dazu verwendet, um neue Erkenntnisse zu gewinnen, die dabei helfen, die Ziele eines Unternehmens besser zu erreichen und strategische Entscheidungen zu treffen. Allerdings war die Datenbasis, die es zu analysieren galt, deutlich kleiner als heute und lies nur Analysen auf Daten aus der Vergangenheit zu, was zu unsicheren Prognosen für die Zukunft führte. Heute sammeln sämtliche Alltagsgegenstände jede Sekunde massive Datenmengen an Informationen. Dazu gehören Smartphones, Tablets, Autos, Stromzähler oder auch Kameras. Hinzu kommen Bereiche, die sich nicht in der unmittelbaren Umgebung eines Menschen befinden, wie vollautomatisierte Produktionslinien, Distributionslager, Messinstrumente, Flugzeuge und anderen Fortbewegungsmitteln. Und natürlich sind es wir Menschen, die Big Data mit unseren Verhalten im Internet nähren. Tweets auf Twitter, Kommentare auf Facebook, Suchanfragen mit Google, Stöbern mit Amazon und sogar die Vitalwerte während einer Jogging-Session liefern modernen Unternehmen heute unmengen an Daten, aus denen sich wiederum wertvolle Informationen gewinnen lassen.

Strukturierte und unstrukturierte Daten

Große Datensätze sind keine neue Erscheinung. Bereits seit Jahrzenten sammeln Handelsketten, Ölfirmen, Versicherungen oder Banken massiv Informationen über Warenbestände, Bohrdaten und Transaktionen. Weiterhin gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Bereichen von dem, was heute als Big Data bezeichnet wird. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, die Wettervorhersage und die Medizinbranche. Alle genannten Bereiche und Branchen haben mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen.

Doch nun wirkt sich die Problematik auch auf die “normalen” Branchen aus. Die heutigen Herausforderungen bestehen darin, dass Daten aus vielen unterschiedlichen Quellen stammen und zum Teil schnell, unverhersagbar und damit unstrukturiert aufkommen. Big Data soll daher insbesondere an den Stellen helfen, wo viele unterschiedliche Datenquellen miteinander kombiniert werden. Beispiele sind Tweets auf Twitter, das Surfverhalten oder Informationen über Abverkäufe, um auf dieser Basis neue Produkte und Dienstleistungen zu entwickeln. Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält. Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten beziehungsweise Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind. Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Warum Unternehmen sich für Big Data entscheiden

Doch wo kommen diese riesigen Datenmengen tatsächlich her und welche Motivation haben Unternehmen, sich mit der Thematik zu beschäftigen. Die Marktforscher der Experton Group haben versucht, die Fragen in Ihrer “Big Data 2012 – 2015” Client-Studie im Oktober 2012 zu klären. Demnach ist der wichtigste Treiber für den Einsatz von Big Data Technologien und Konzepten das rasante Datenwachstum inklusive dem dazugehörigen Qualitätsmanagement und der Automatisierung der Analysen und Reports. Die Themen Kundenbindung und Marketing nehmen circa ein Drittel der Unternehmen zum Anlass, um die Anaysen ihrer Datenbestände zu erneuern. Neue Datenbanktechnologien nennen 27 Prozent der Befragten Unternehmen als Motivation für neue Verfahren zur Datenalyse. Weiterhin zählen nahezu alle Eigenschaften von Big Data zu den Gründen für die Erweiterung des strategischen Datenmanagements. Das zeigt, dass Big Data bereits Realität ist, auch wenn es in vielen Fällen nicht unter diesem Begriff bekannt ist. Die Big Data Treiber selbst sind über alle Branchen und Unternehmensgrößen hinweg gleich. Der einzige Unterschied besteht in der Bedeutung und Intensität. Ein großer Unterschied bei der Unternehmensgröße besteht in der Verteilung der Daten und Informationen an die richtigen Mitarbeiter im Unternehmen. Hier sehen große Unternehmen ihre größten Herausforderungen. Wohingegen kleinere Unternehmen das Thema als sehr unkritisch einstufen.

Big Data: Ein Anwendungsfall für die Cloud

Die Öl-und Gasindustrie hat die Verarbeitung großer Datenmengen durch den Einsatz von traditionellen Storage-Lösungen (SAN und NAS) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

Big Data Verarbeitung gehört in die Cloud

Cloud Infrastrukturen helfen bei der Kostenreduzierung für die IT-Infrastruktur. Dadurch werden Unternehmen in die Lage versetzt, sich effizienter auf ihr Kerngeschäft zu konzentrieren und erhalten mehr Flexibilität und Agilität für den Einsatz neuer Lösungen. Damit wird ein Grundstein gelegt, sich auf die ständig verändernden Datenmengen einzustellen und für die notwendige Skalierbarkeit zu sorgen. Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit der Datenmenge

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Cloud Konzepte wie Infrastructure-as-a-Service (IaaS), vereinen beide Welten und nehmen dadurch eine einzigartige Position ein. Für diejenigen, die das SAN/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Eine passable Lösung kommt von Cloud Computing Pionier Amazon Web Services. Mit der AWS Data Pipeline steht bei Amazon ein Service (noch in der Betaphase) bereit, mit dem sich Daten automatisch zwischen verschiedenen Systemen verschieben und verarbeiten lassen. Die Systeme können sich dazu entweder direkt in der Amazon Cloud oder auf einem anderen System außerhalb befinden. Amazon macht damit die Handhabung der wachsenden Datenmengen auf verteilten System mit unterschiedlichen Formaten einfacher. Dazu lassen sich beliebig viele Pipelines erstellen, in denen die unterschiedlichen Datenquellen, Bedingungen, Ziele, Anweisungen und Zeitpläne definiert sind. Kurzum geht es darum, welche Daten von welchem System auf Basis welcher Bedingungen geladen, verarbeitet und die Ergebnisse anschließend wieder gespeichert werden. Die Pipelines selbst werden je nach Bedarf stündlich, täglich oder wöchentlich gestartet. Die Verarbeitung kann entweder direkt in der Amazon Cloud oder auf den Systemen im unternehmenseigenen Rechenezentrum stattfinden.

Big Data = Big Opportunities?

Nicht nur das Obama Beispiel zeigt, wie gewinnbringend die Verknüpfung von strukturierten und unstrukturierten Daten aus mobilen Endgeräten, Social Media Kanälen, der Cloud und vielen weiteren unterschiedlichen Quellen für ein Unternehmen sein kann. Allerdings muss man sich bei Big Data über eines im Klaren sein. Es geht letztendlich nicht um die Masse der Daten die gesammelt wird, sondern um deren Qualität und wofür die Daten letztendlich überhaupt genutzt werden sollen.

Entscheidend ist daher, ob und wie ein Unternehmen es schafft, aus den Massen an Daten, die durch menschliche und maschinelle Interaktionen entstehen, die qualitativ hochwertigsten Informationen zu analysieren und sich damit eine führende Position am Markt sichert. Qualifizierte Daten sind das neue Öl und werden in den Unternehmen, die den eigenen Vorteil darin erkennen, für den gewinnbringenden Antrieb sorgen.

Categories
Events

In eigener Sache: CeBIT 2013

Ich werde diese Jahr drei Tage, vom Dienstag 05.03 bis einschließlich Donnerstag 07.03, auf der CeBIT sein. Wie bereits im letzten Jahr werde ich eine Panel-Moderation zum Thema Public/ Private Cloud auf der Webciety übernehmen und zusätzlich einen Impulsvortrag halten. Weiterhin moderiere ich als kritische Stimme einen Workshop bei Microsoft zum Thema Shareconomy. Zeit für ein persönliches Treffen bleibt ebenfalls, wofür noch ein paar Termine offen sind.

Vortrag & Moderation Webciety – “Private & Public Cloud” Panel

Wann
05.03.2013 / 11:40 – 12:20 Uhr / Halle 6, Stand H32

Hintergrund
Die Nutzung von Cloud-Lösung in den Unternehmen ist auch in 2012 nachhaltig gewachsen. Dennoch gibt es weiterhin Unklarheiten, die das Panel diskutieren wird. Hierzu gehört – sind die Public-Cloud-Angebote beim Thema Datenschutzrichtlinien ausreichend? Welche zusätzlichen Maßnahmen sind vorzunehmen? Ab wann machen Private Cloud Ansätze Sinn?

Teilnehmer

  • René Büst [Impulsvortrag & Moderation], Cloud Computing & Technologie Analyst, renebuest research
  • Thomas Uhl, Initiator der Deutschen Wolke, Deutsche Wolke
  • Holger Dyroff, VP Sales & Marketing, Co-Founder, ownCloud
  • Kurt Rindle, Cloud Portfolio Leader, IBM Deutschland
  • Jürgen Spieß, Senior Account Manager, SHE Informationstechnologie

Weitere Informationen unter Webciety Private & Public Cloud.

Microsoft Workshop Moderation: Shareconomy

Wann
06.03.2013 / 10:00 – 11:00 Uhr / Halle 4, Stand A26, Treffpunkt: Pressetheke

Hintergrund
“Workshop mit René Büst und digitalSTROM: Wie die Idee hinter Shareconomy auch Microsoft treibt: Die Mauern müssen weg!”

Können IT Player noch länger Offenheit vom User fordern und selber dicht machen? Bedeutet teilen, dass der einzelne Nutzer seine Daten ungefragt preisgeben muss? Die Idee hinter Shareconomy treibt auch Microsoft: Wenn Technologie zunehmend Grenzen überwindet, dann geht es darum, dass sie sich dem Individuum öffnet. Shareconomy ist für denjenigen ein Wettbewerbsvorteil, der frei zwischen Plattformen von PC bis iPad, zwischen Programmiersprachen von C# und PHP, zwischen On Premise und Cloud, zwischen Open und Closed Source wählen kann. – Und Shareconomy ist ein Wettbewerbsvorteil für digitalSTROM, weil es die Microsoft Cloud als zentrale Zugriffs- und Verwaltungsplattform für die Linux-basierten digitalSTROM Server in den Sicherungskästen nutzt. Hat Microsoft seine Geschlossenheit von einst gegen einen entwaffnend offenen Ansatz eingetauscht? – Diskutieren Sie mit Heike Ritter, Technical Evangelist Microsoft, Stephan Jacquemot, Leiter der Gründerinitiative von Microsoft, Martin Vesper, CEO digitalSTROM und Rene Büst, CloudUser.de, wie sich IT Player für die Idee hinter Shareconomy verändern sollen.

Weitere Informationen unter “Workshop mit René Büst und digitalSTROM: Wie die Idee hinter Shareconomy auch Microsoft treibt. – Die Mauern müssen weg!

Teilnehmer

  • René Büst (Moderator), Cloud Computing & Technologie Analyst, renebuest research
  • Heike Ritter, Technical Evangelist, Microsoft Deutschland GmbH
  • Stephan Jacquemot, Emerging Business Team Lead Germany, Microsoft Deutschland GmbH
  • Martin Vesper, CEO digitalSTROM

Persönliches Treffen vereinbaren

Neben den oben genannten festen Terminen bin ich auf der CeBIT ansonsten soweit frei verfügbar und somit für ein persönliches Treffen greifbar. Wer mir in einem 1:1 Gespräch etwas erzählen möchte oder mich einfach nur mal persönlich kennenlernen möchte, sollte am besten eine E-Mail an “ping at clouduser dot org” schicken. Ein paar Zeitfenster sind derzeit noch offen.

Categories
Management @en

AWS OpsWorks: More PaaS functionality in Amazon's cloud portfolio

Correctly, we name the Amazon Web Services (AWS) as an infrastructure-as-a-service (IaaS). AWS Elastic Beanstalk splits the stock, whether the service should be counted as a platform-as-a-service (PaaS). Anyway, AWS provides various PaaS functionality in its cloud portfolio for some time and extends it now with AWS OpsWorks (still in beta).

What is AWS OpsWorks?

AWS OpsWorks is a solution for the flexible and automated application management. It addresses IT administrators and DevOps developers, who can use it to manage the complete lifecycle of an application, including resource provisioning, configuration management, software updates, monitoring and access control. AWS OpsWorks can be used for free. Costs emerge for the deployed virtual AWS infrastructure resources.

OpsWorks allows you to create a logical architecture, the provisioning of the required resources based on the architecture and providing the application and the necessary software packages for a specific configuration. OpsWorks then cares about the operation of the application and supports the life cycle including autoscaling and software updates.

AWS OpsWorks details

AWS OpsWorks supports different application architectures and works with any software whose installation is script-based. Based on the Chef framework you can use your own ready recipes or those from the community. An event-based configuration system helps during the application lifecycle management. These include customizable deployments, rollbacks, patch management, auto-scaling and auto healing. With that an update can be rolled out just by updating a single configuration file. Moreover OpsWorks has the ability to host AWS instances based on a precisely self specified configuration. This also includes the scale of an application based on the application load, or a time-based auto scaling as well as monitoring the application and the replacement of faulty instances.

With OpsWorks applications can be build in so-called “Layers”. A Layer defines how a set of together managed resources are configured. An example could be a web layer. This includes EC2 instances, EBS volumes including a RAID configuration and mount points and Elastic IP addresses. In addition for each layer, a software configuration can be created. This includes installation scripts and steps for initialization. Is an instance added to a layer, OpsWorks ensures that it will receive the corresponding configurations. OpsWorks provides pre-defined layers of technologies such as Ruby, PHP, HAProxy, Memcached and MySQL. These can be customized and extended.

Technology from Germany

OpsWorks was invented in Germany and is based on the technology Scalarium of the Berlin company Peritor. Scalarium was bought in 2012 by Amazon.

Comment

Indeed, AWS OpsWorks is not a concrete PaaS offering. This is due to the building blocks philosophy of the Amazon Web Services. This means that the offered services will be made ​​available as granular as possible. The customer then has the option to integrate the services for its use case and how it needs them. For that, of course, a lot of personal contribution and knowledge is required, which for the infrastructure of a typical PaaS is not required. However, AWS OpsWorks closes in terms of convenience the gap to the PaaS market and offers more and more PaaS functionality in the Amazon Cloud.

About one thing a customer should be aware of. And that applies not only to AWS OpsWorks but for the use of each AWS service. The lock-in in the AWS infrastructure becomes bigger and bigger with each service Amazon is releasing. This need not be a bad thing. A lock-in is necessarily anything negative and may even be beneficial, on the contrary, as long as the own needs are met, and not too large compromises have to be made ​​by the customer himself.

As a customer you just have to keep this in mind before the way into the AWS cloud, as well as in any other cloud, and consider possible exit strategies or multi-cloud approaches.

Categories
Cloud Computing

AWS OpsWorks: More PaaS functionality in Amazon’s cloud portfolio

Correctly, we name the Amazon Web Services (AWS) as an infrastructure-as-a-service (IaaS). AWS Elastic Beanstalk splits the stock, whether the service should be counted as a platform-as-a-service (PaaS). Anyway, AWS provides various PaaS functionality in its cloud portfolio for some time and extends it now with AWS OpsWorks (still in beta).

What is AWS OpsWorks?

AWS OpsWorks is a solution for the flexible and automated application management. It addresses IT administrators and DevOps developers, who can use it to manage the complete lifecycle of an application, including resource provisioning, configuration management, software updates, monitoring and access control. AWS OpsWorks can be used for free. Costs emerge for the deployed virtual AWS infrastructure resources.

OpsWorks allows you to create a logical architecture, the provisioning of the required resources based on the architecture and providing the application and the necessary software packages for a specific configuration. OpsWorks then cares about the operation of the application and supports the life cycle including autoscaling and software updates.

AWS OpsWorks details

AWS OpsWorks supports different application architectures and works with any software whose installation is script-based. Based on the Chef framework you can use your own ready recipes or those from the community. An event-based configuration system helps during the application lifecycle management. These include customizable deployments, rollbacks, patch management, auto-scaling and auto healing. With that an update can be rolled out just by updating a single configuration file. Moreover OpsWorks has the ability to host AWS instances based on a precisely self specified configuration. This also includes the scale of an application based on the application load, or a time-based auto scaling as well as monitoring the application and the replacement of faulty instances.

With OpsWorks applications can be build in so-called “Layers”. A Layer defines how a set of together managed resources are configured. An example could be a web layer. This includes EC2 instances, EBS volumes including a RAID configuration and mount points and Elastic IP addresses. In addition for each layer, a software configuration can be created. This includes installation scripts and steps for initialization. Is an instance added to a layer, OpsWorks ensures that it will receive the corresponding configurations. OpsWorks provides pre-defined layers of technologies such as Ruby, PHP, HAProxy, Memcached and MySQL. These can be customized and extended.

Technology from Germany

OpsWorks was invented in Germany and is based on the technology Scalarium of the Berlin company Peritor. Scalarium was bought in 2012 by Amazon.

Comment

Indeed, AWS OpsWorks is not a concrete PaaS offering. This is due to the building blocks philosophy of the Amazon Web Services. This means that the offered services will be made ​​available as granular as possible. The customer then has the option to integrate the services for its use case and how it needs them. For that, of course, a lot of personal contribution and knowledge is required, which for the infrastructure of a typical PaaS is not required. However, AWS OpsWorks closes in terms of convenience the gap to the PaaS market and offers more and more PaaS functionality in the Amazon Cloud.

About one thing a customer should be aware of. And that applies not only to AWS OpsWorks but for the use of each AWS service. The lock-in in the AWS infrastructure becomes bigger and bigger with each service Amazon is releasing. This need not be a bad thing. A lock-in is necessarily anything negative and may even be beneficial, on the contrary, as long as the own needs are met, and not too large compromises have to be made ​​by the customer himself.

As a customer you just have to keep this in mind before the way into the AWS cloud, as well as in any other cloud, and consider possible exit strategies or multi-cloud approaches.

Categories
Management @de

AWS OpsWorks: Mehr PaaS-Funktionalität im Cloud-Portfolio von Amazon

Korrekterweise spricht man bei den Amazon Web Services (AWS) von einem Infrastructure-as-a-Service (IaaS). Bei AWS Elastic Beanstalk spalten sich die Lager, ob der Service zu den Platform-as-a-Services (PaaS) gezählt werden dürfe. Zumindest bietet AWS seit längerer Zeit diverse PaaS-Funktionalität in seinem Cloud-Portfolio und erweitert diese nun mit “AWS OpsWorks” (noch in der Beta).

Was ist AWS OpsWorks?

AWS OpsWorks ist eine Lösung für das flexible und automatisierte Applikationsmanagement. Es richtet sich an IT-Administratoren und DevOps Entwickler, die damit den vollständigen Lebenszyklus einer Anwendung inkl. Ressourcen-Provisionierung, Konfigurationsmanagement, Softwareupdates, Monitoring und Zugriffskontrolle verwalten können. AWS OpsWorks kann kostenlos genutzt werden. Kosten entstehen für die darunter eingesetzten virtuellen AWS Infrastrukturressourcen.

OpsWorks ermöglicht das Erstellen einer logischen Architektur, die Provisionierung der benötigten Ressourcen basierend auf der Architektur sowie das Bereitstellen der Applikation und die dafür benötigte Software und Pakete für eine bestimmte Konfiguration. OpsWorks sorgt dann für den Betrieb der Applikation und unterstützt deren Lebenszyklus inkl. Autoscaling und Softwareupdates.

AWS OpsWorks Details

AWS OpsWorks unterstützt unterschiedliche Applikations-Architekturen und arbeitet mit jeder Software zusammen, deren Installation skript-basiert verläuft. Basierend auf dem Chef Framework können bereits fertige eigene Rezepte oder welche aus der Community genutzt werden, um OpsWorks einzusetzen.

Ein Event-basiertes Konfigurationssystem hilft beim Lebenszyklus-Management einer Applikation. Dazu gehören anpassbare Deployments, Rollbacks, Patchmanagement, Autoscaling sowie Autohealing. So lässt sich z.B. ein Update über das Aktualisieren einer einzigen Konfigurationsdatei ausrollen. Zudem ist OpsWorks in der Lage, AWS Instanzen basierend auf einer selbst exakt spezifizierten Konfiguration zu hosten. Dazu gehört ebenfalls die Skalierung dieser Applikation anhand der jeweiligen Last auf der Anwendung oder einer zeitbasierten automatischen Skalierung sowie der Überwachung der Applikation und dem Austausch fehlerhafter Instanzen.

Mit OpsWorks lassen sich Applikationen in sogenannte “Layer” aufbauen. Layer definieren, wie ein Teil von Ressourcen, die zusammen verwaltet werden, konfiguriert werden sollen. Ein Beispiel könnte ein Web-Layer sein. Dieser beinhaltet EC2 Instanzen, EBS Volumes inkl. einer RAID Konfiguration und Mount Points sowie Elastic IP-Adressen. Für jeden Layer kann zudem eine Software-Konfiguration erstellt werden. Darin sind Installations-Skripte und Schritte für die Initialisierung enthalten. Wird nun eine Instanz zu einem Layer hinzugefügt, sorgt OpsWorks dafür, dass diese die entsprechenden Konfigurationen erhält. OpsWorks stellt vor-definierte Layer für Technologien wie Ruby, PHP, HAProxy, Memcached und MySQL bereit. Diese können angepasst und erweitert werden.

Technologie aus Deutschland

OpsWorks ist eine Erfindung aus Deutschland und basiert auf der Scalarium Technologie des Berliner Unternehmens Peritor. Scalarium wurde bereits 2012 von Amazon gekauft.

Kommentar

Bei AWS OpsWorks handelt es sich zwar um kein konkretes PaaS Angebot. Dieses liegt allerdings an der Building Blocks Philosophie der Amazon Web Services. Das bedeutet, dass die angebotenen Services so granular wie möglich bereitgestellt werden. Der Kunde hat anschließend die Möglichkeit, die Services für seinen Use Case so zu integrieren, wie er sie benötigt. Dafür wird natürlich dementsprechend viel Eigenleistung und Wissen benötigt, welches bei einem typischen PaaS für die Infrastruktur nicht erforderlich ist. Jedoch schließt AWS OpsWorks hinsichtlich der Convenience zu den PaaS am Markt immer weiter auf und bietet immer mehr PaaS-Funktionalität in der Amazon Cloud.

Über eines sollte man sich als Kunde dennoch bewusst sein. Und das gilt nicht nur für AWS OpsWorks, sondern für die Nutzung jedes AWS Service. Der Lock-in in die AWS-Infastruktur wird mit jedem Service den Amazon veröffentlicht immer größer. Das muss nichts Schlechtes bedeuten. Ein Lock-in ist zwangsläufig nichts Negatives und kann im Gegenteil sogar von Vorteil sein, solange die eigenen Anforderungen erfüllt werden und nicht zu große Kompromisse durch den Kunden selbst gemacht werden müssen.

Man muss sich als Kunde dies nur vor Augen halten und bereits vor dem Weg in die AWS Cloud, als auch in jede andere Cloud, über mögliche Exit-Strategien oder einen Multi-Cloud Ansatz nachdenken.

Categories
Analysis

ProfitBricks under the hood: IaaS from Germany – be curious

Last week I had a briefing with ProfitBricks to get a better understanding of the infrastructure-as-a-service (IaaS) offering from Germany and to ask specific questions. I examined ProfitBricks critically with two articles in the past, number one here and number two here. First, because I don’t like marketing phrases that just promise much more than really is behind it and secondly because even the technical promises must be kept.

ProfitBricks details

ProfitBricks presents itself as a typical infrastructure-as-a-service providers. A graphical web interface is used to form customized servers to an entire data center. A complex network structure shall ensure a real isolation of the customer’s network in the virtual datacenter. A meshed network with a redundant Infiniband connection and a highly redundant storage (including automatic backup) provides the performance and availability of data.

In addition, ProfitBricks has its own security team and highly experienced system administrators that provide a round the clock support.

Locations

ProfitBricks has data centers or co-locations in Germany (Karlsruhe) and the USA (Las Vegas). However, both data centers are not connected with each other – physical nor virtual. So no data exchange between Germany and the United States can take place in this way.

The infrastructure components

At ProfitBricks servers can be equip from 1 to 48 cores, and between 1 GB and 196 GB of RAM. The maximum is currently at 60 cores and 250 GB of RAM per server, which can be enabled through a support contact. Storage is available between 1 GB and 5000 GB. However, this can only be assigned to one server directly. So there is no central storage. To realize this, one has to build its own central storage appliance and distribute the storage over it.

Within a self-designed data center (see below), two zones (similar to Amazon Availability Zones) are available. This allows to configure two servers, whereby one of them will not notice about problems in the area of the second server.

There is no centralized firewall. Instead, each of all NICs in a server can be configured with their own rules. A central firewall can achieved by creating a dedicated firewall appliance (Linux + IPTables or a prepared commercial firewall as an ISO image).

Although a load balancer is available, ProfitBricks recommends to build an own one based on an appliance because among others the ProfitBricks one has no monitoring included.

ProfitBricks do not offer additional own value-added services. And on their own admission, this will never happen. Instead, the provider relies on a network of partners that will provide appropriate services for the infrastructure platform.

Currently unique: The Data Center Designer

What really convinced me at ProfitBricks is the “Data Center Design (DCD)”. Such a one no IaaS provider worldwide has it in this format.

Based on these graphical web interface one is able to create a complete virtual data center individually and activate the configuration or modify it with a mouse click – whether it’s about servers, storage, load balancers, firewalls, or the corresponding network.

Is a data center design ready, it can be saved and deployed. Previously the user obtained more information about a check through the system. Here is determined whether everything is configured correctly – e.g. that all servers have a boot drive with the corresponding image. Then the total cost per month for this virtual data center is itemized.

However, the DCD has still a weak point. Is a data center deployed, no single server can be removed from the design or stopped via the web interface. Therefore the entire data center must be un-deployed. Then the server is removed and the data center must be re-deployed. Using the proprietary SOAP API that supports, among other things Java and C #, a single server should be removed. This web feature is to follow, as well as a REST API, in the future.

The customer is mostly left on its own

ProfitBricks offers a German support, which has either worked for years as an administrator, or was involved in the development of the system. Support is included for free. Even if one evaluates the platform only with a test account.

Otherwise ProfitBricks is a common self-service like all the other IaaS providers. This means that a customer is self-responsible for the design of its virtual infrastructure and how an application on the infrastructure can scale and provided highly available.

With additional questions and approaches, for example for configuring a separate firewall appliance or a dedicated load balancer, external partners should help.

Prices

The billing follows exact to the minute per hour. The cost break down on this as follows:

  • 1 Core = 0,04 EUR per hour
  • (Windows Server plus 0,01 EUR per hour)
  • 1 GB RAM = 0,09 EUR per hour
  • 1 GB storage = 0,09 EUR per 30 days
  • 1 GB traffic = 0,06 EUR per GB traffic

For the US market:

  • 1 Core = 0,05 USD per hour
  • (Windows Server plus 0,02 USD per hour)
  • 1 GB RAM = 0,015 USD per hour
  • 1 GB storage = 0,09 USD per 30 days
  • 1 GB traffic = 0,08 USD per GB traffic

Live Vertical Scaling

ProfitBricks supports the so-called Live Vertical Scaling. This means that further resources such as CPU and RAM can be add to a virtual server during operation. This feature must be enabled separately for each server, and the server must then be restarted once.

However, what I have noted here and what has be confirmed by ProfitBricks during the briefing, the operating system, database, software and the own application must support it. The systems need to realize that suddenly more cores and RAM are available and use it. And in the opposite case also deal with, when the resources scale down again.

ProfitBricks is interesting

ProfitBricks is an interesting infrastructure-as-a-service offering. Especially in the very cloud-sparse (IaaS) Germany with a data center in Germany. Particularly noteworthy is the Data Center Designer (the only USP), which is currently unique in the world and provides convenience features, that the other IaaS providers are neglecting. Admittedly the designer rakes at one point or another (Example: removing server), but that will certainly change in a next version.

At the end of the day ProfitBricks is a pure infrastructure-as-a-service provider that has its strengths in infrastructure operations. This also showed the briefing. Therefore an interview with CEO Achim Weiss confuses me, which I had read a few weeks ago. Besides enterprises he called Internet startups as ProfitBricks target customers. Today, I consider this as an utopia. Without a services portfolio like the offering of the Amazon Web Services, this target group can not be achieved. The service gap can and should be closed by service partners. Another but quite legitimate approach if the strengths are in a different area.