Categories
Comment

ProfitBricks opens price war with Amazon Web Services for infrastructure-as-a-service

ProfitBricks takes the gloves off. The Berlin-based infrastructure-as-a-service (IaaS) startup acts with a hard edge against the Amazon Web Services and reduced its prices in both U.S. and Europe by 50 percent. Furthermore, the IaaS provider has presented a comparison which shows that its own virtual server should have at least twice as high as the performance of Amazon Web Services and Rackspace. Thus ProfitBricks is trying to diversify on the price and the performance of the U.S. top providers.

The prices for infrastructure-as-a-service are still too high

Along with the announcement, CMO Andreas Gauger shows correspondingly aggressive. “We have the impression that the dominant occurring cloud companies from the U.S. are abusing their market power to exploit high prices. They expect deliberately opaque pricing models of companies and regularly announce punctual price cuts to awaken the impression of a price reduction.”, says Gauger (translated from German).

ProfitBricks has therefore the goal to attack the IaaS market from the rear on the price and let their customer directly and noticeably participate from technical innovations resulting in cost savings.

Up to 45 percent cheaper than Amazon AWS

ProfitBricks positioned very clearly against Amazon AWS and shows a price comparison. For example, an Amazon M1 Medium instance with 1 core, 3.75GB of RAM and 250GB of block storage is $0.155 per hour or $111.40 per month. A similar instance on ProfitBricks costs $0.0856 per hour or $61.65 per month. A saving of 45 percent.

Diversification just on the price is difficult

To diversify as IaaS provider just on price is difficult. We remember, Infrastructure is commodity! Vertical services are the future of the cloud, with which the customer receives an added value.

To defy the IaaS top dog this way is brave and foolhardy. However, one should not forget something. As hosting experts of the first hour Andreas Gauger and Achim Weiss have validated the numbers around their infrastructure and seek with this action certainly not the brief glory. It remains to be seen how Amazon AWS and other IaaS providers will react to this stroke. Because with this price reduction ProfitBricks shows that customer can actually get much cheaper infrastructure resources as is currently the case.

As an IaaS user there is something you should certainly do not lose sight of during this price discussion. In addition to the price of computing power and storage – which are held up again and again – there are more factors to take into account, that determine the price and which are actually just call to mind at the end of the month. This includes the cost of transferring data in and out of the cloud as well as costs for other services offered around the infrastructure that are charged per API call. In some respects there is a lack of transparency. Furthermore, a comparison of the various IaaS providers is difficult to represent as many operate with different units, configurations and/or packages.

Categories
Kommentar

ProfitBricks eröffnet Preiskampf mit den Amazon Web Services für Infrastructure-as-a-Service

ProfitBricks macht ernst. Das Berliner Infrastructure-as-a-Service (IaaS) Startup geht mit einer harten Kante gegen die Amazon Web Services vor und reduziert seine Preise sowohl in den USA als auch in Europa um 50 Prozent. Weiterhin hat der IaaS-Anbieter einen Vergleich vorgelegt, der zeigt, dass die eigenen virtuellen Server eine mindestens doppelt so hohe Performance haben sollen als die der Amazon Web Services und Rackspace. Damit versucht sich ProfitBricks über den Preis als auch über die Leistung von den US-amerikanischen Top Anbietern zu diversifizieren.

Die Preise für Infrastructure-as-a-Services sind noch viel zu hoch

Einhergehend mit der Ankündigung zeigt sich CMO Andreas Gauger entsprechend angriffslustig. „Wir haben den Eindruck, dass die regelrecht als Marktbeherrscher auftretenden Cloud Unternehmen aus den USA ihre Marktmacht für zu hohe Preise missbrauchen. Sie muten den Unternehmen bewusst undurchsichtige Tarifmodelle zu und verkünden regelmäßig punktuelle Preissenkungen, um den Eindruck einer Preisdegression zu wecken“, so Gauger.

ProfitBricks hat sich daher das Ziel gesetzt, den IaaS-Markt über den Preis von hinten aufzurollen und technische Innovationen und damit für einen Anbieter enstehende Kosteneinsparungen auch direkt und merkbar an den Kunden durchzureichen.

Bis zu 45 Prozent günstiger als Amazon AWS

ProfitBricks positioniert sich sehr deutlich gegen Amazon AWS und zeigt zwei Preisvergleiche. Kostet eine M1 Medium Instanz mit 1 Core, 3,75 GB RAM und 250 GB Block Storage bei Amazon AWS 0,1291 Euro pro Stunde bzw. 93,15 Euro pro Monat, enstehen bei ProfitBricks hierfür Kosten von 0,0694 EUR pro Stunde bzw. 49,95 Euro pro Monat. Eine Einsparung von 45 Prozent.

Werden 1 Core, 8 GB RAM und 1.000 GB redundanter Storage benötigt, ist der Unterschied noch größer. Die Kosten für eine M1 XLarge Instanz mit 4 Cores, 15 GB RAM und 1.680 GB temporärem Storage inkl. 1.000 GB Block Storage belaufen sich bei Amazon pro Monat auf 372,62 Euro. Bei ProfitBricks würden für die exakt geforderten Anforderungen 130,22 Euro pro Monat entstehen. Dabei handelt es sich um eine Einsparung von 65 Prozent pro Server.

Diversifikation allein über den Preis ist schwierig

Sich als IaaS-Anbieter alleine über den Preis zu diversifizieren ist schwierig. Wir erinnern uns, Infrastruktur ist Commodity und vertikale Services sind die Zukunft der Cloud, mit denen der Kunde einen Mehrwert erhält.

Auf diesem Weg dem IaaS Platzhirsch die Stirn zu bieten ist mutig und wirkt sehr tollkühn. Allerdings sollte man eines nicht vergessen. Als Hosting-Experten der ersten Stunde werden Andreas Gauger und Achim Weiß die Zahlen rund um ihre Infrastruktur validiert haben und suchen mit dieser Aktion sicherlich nicht den kurzen Ruhm. Es bleibt daher abzuwarten wie Amazon AWS und die anderen IaaS-Anbieter auf diesen Schlag reagieren werden. Denn ProfitBricks zeigt mit dieser Preisreduzierung, dass Kunden Infrastruktur tatsächlich deutlich günstiger bekommen können, als es derzeit der Fall ist.

Etwas sollte man als IaaS-Nutzer bei dieser Preisdiskussion allerdings nicht aus den Augen verlieren. Neben den Preisen für Rechenleistung und Speicherplatz – die immer wieder hochgehalten werden – gibt es weitere Faktoren zu berücksichtigen, die den Preis bestimmen und welche immer erst am Ende des Monats wirklich in Erinnerung gerufen werden. Dazu gehören die Kosten für den Datentransfer in die Cloud hinein und aus der Cloud heraus sowie Kosten für anderweitige Services die um die Infrastruktur herum angeboten und pro API Aufruf berechnet werden. Da fehlt in mancher Hinsicht die Transparenz. Weiterhin ist ein Vergleich der unterschiedlichen IaaS-Anbieter nur schwierig darzustellen, da viele mit unterschiedlichen Einheiten, Konfigurationen und/oder Paketen arbeiten.

Categories
Kommentar

Gefangen im goldenen Käfig. OpenStack Provider sitzen in der Falle.

OpenStack ist als Cloud-Software auf dem Vormarsch. Reihenweise mehren sich die Ankündigungen, dass immer mehr Unternehmen und Anbieter auf das nun mehr drei Jahre alte Open-Source Projekt zurückgreifen, um skalierbare Lösungen und eigene Infrastructure-as-a-Service (IaaS) Angebote zu präsentieren. Allerdings steckt die OpenStack-Gemeinde meiner Ansicht nach in einem großen Dilemma – Diversifizierung. Hinzu kommt, dass von Außen immer wieder unnötige Unruhen hinein getragen werden, die genau diese Problematik nicht betrachten. So sind zum Beispiel die Diskussionen über die Amazon API Kompatibilität durch Randy Bias genau so wenig förderlich wie Simon Wardleys Forderung, OpenStack müsse so sein wie die Amazon Web Services (quasi ein Klon). OpenStack muss seinen eigenen Weg finden. Allerdings ist OpenStack selbst nicht das Problem, es sind die Provider die OpenStack einsetzen. Diese stehen zu 100% in der Verantwortung sinnvolle Angebote zu präsentieren und OpenStack für sich gewinnbringend einzusetzen.

Amazon API Kompatibilität ist ein Mittel zum Zweck

Ich halte es für wichtig, dass OpenStack die Amazon API implementiert, um die Möglichkeit zu bieten, ggf. eine Hybrid Cloud zu den Amazon Web Services aufspannen zu können. OpenStack Service Provider sollten ihren Kunden zumindest die Option anbieten, um nicht nur theoretisch keinen Vendor lock-in zu versprechen, sondern diesen tatsächlich zu ermöglichen.

Das war es aber auch schon. Mehr Einfluss sollte Amazon auf die OpenStack-Gemeinde nicht haben dürfen. Um mal die Kurve zur “Linux der Cloud” zu bekommen. Hat Linux sich an Microsoft Windows orientiert? Nein. Und es ist trotzdem erfolgreich geworden. Meiner Ansicht liegt das Problem auch darin begründet, dass Linux aus einer Ideologie heraus von einer einzelnen Person entwickelt und dann von einer großen Community voran getrieben wurde. OpenStack hingegen wurde ins Leben gerufen um zu 100% einen kommerziellen Zweck für die OpenStack-Gemeinde zu erfüllen. Aus diesem Grund ist OpenStack nichts anderes als eine große Marketingmaschine aller beteiligten Provider. Die OpenStack-Gemeinschaft muss ihren eigenen Weg finden, selbst für Innovationen sorgen und sich von dem was Amazon macht nicht beeinflussen lassen.

Amazon Web Services sind NICHT der größte Konkurrent

Was ich in der ganzen Amazon Web Services vs. OpenStack Diskussion weiterhin nicht verstehe ist, dass hier ständig Äpfel mit Birnen verglichen werden. Wie kann man einen Public Cloud Anbieter mit einer Software für den Aufbau von Public/ Private Clouds vergleichen? Es muss viel mehr darum gehen, dass man die OpenStack Provider – und zwar jeden einzelnen – mit den Amazon Web Services vergleicht. Erst dann kann man eine echte Aussage treffen!

Allerdings wird man dann sehr schnell merken, dass der durch die OpenStack-Gemeinde selbst ernannte Konkurrent Amazon Web Services überhaupt nicht der Konkurrent ist! Das hört sich jetzt hart an, ist aber die Wahrheit. Es gibt derzeit keinen einzigen OpenStack Service Provider der den Amazon Web Services ansatzweise das Wasser reichen kann. Die Amazon Web Services sind der imaginäre Konkurrent, der Wunsch-Konkurrent in den Köpfen der Anbieter. Ich stelle dazu mal das Service-Angebot der beiden Top Public Cloud OpenStack Provider Rackspace und HP den Amazon Web Services gegenüber.

Amazon Web Services

Rackspace

HP

Amazon EC2 Cloud Servers Compute
Auto Scaling
Elastic Load Balancing Cloud Load Balancers Load Balancer
Amazon EMR
Amazon VPC
Amazon Route 53 Cloud DNS DNS
AWS Direct Connect
Amazon S3 Cloud Files Object Storage
Amazon Glacier Cloud Backup
Amazon EBS Cloud Block Storage Block Storage
AWS Import/Export
AWS Storage Gateway
Amazon CloudFront CDN
Amazon RDS Cloud Databases Relational Database
Amazon DynamoDB
Amazon ElastiCache
Amazon Redshift
Amazon CloudSearch
Amazon SWF
Amazon SQS Messaging
Amazon SES
Amazon SNS
Amazon FPS
Amazon Elastic Transcoder
AWS Management Console Management Console
AWS Identity and Access Management (IAM)
Amazon CloudWatch Cloud Monitoring Monitoring
AWS Elastic Beanstalk Application Platform as a Service
AWS CloudFormation
AWS Data Pipeline
AWS OpsWorks
AWS CloudHSM
AWS Marketplace
Cloud Sites
Managed Cloud
Mobile Stacks

Diese Gegenüberstellung zeigt, dass nicht die Amazon Web Services der größte Konkurrenz sind, sondern die Gefahr aus dem eigenen Lager kommt. Wo ist die Diversifizierung, wenn schon die beiden großen OpenStack Public Cloud Provider zu 90% exakt dieselben Services anbieten? Das Service-Portfolio sowohl von Rackspace als auch von HP ist bei weitem nicht in der Lage, eine Konkurrenz zu den Amazon Web Services darzustellen. Im Gegenteil, beide nehmen sich gegenseitig Marktanteile weg, indem das Angebot nahezu identisch ist.

Gefangen im goldenen Käfig

Die OpenStack Provider stecken in einem Dilemma, das ich als den goldenen Käfig betrachte. Hinzu kommt, dass sich alle Anbieter im Grunde genommen gegenseitig kannibalisieren, das zeigt die Gegenüberstellung der Services von Rackspace und HP, indem die Portfolios sich kaum unterscheiden.

Aber warum sitzen alle OpenStack Provider nun im goldenen Käfig. Nun, sie profitieren voneinander, indem jeder neue Ideen und Lösungen dem Projekt zur Verfügung stellt und alle gleichermaßen von einer gemeinsamen Code-Basis profitieren, um daraus ihr eigenes Angebot schnüren zu können. Das bedeutet im Umkehrschluss aber auch, dass niemand einen echten Wettbewerbsvorteil daraus ziehen kann, indem alle mit den selben Mitteln in diesem Käfig sitzen. Der Käfig selbst beinhaltet grundsätzlich etwas Wertvolles und bietet über die vorhanden Services seine Möglichkeiten. Allerdings hat jeder Anbieter nur eingeschränkte Freiheiten, indem alle über dieselbe Grundversorgung verfügen.

Rackspace versucht sich über einen erweiterten Support zu differenzieren. Piston Cloud hält sich ganz aus dem Public Cloud Wettbewerb heraus und bietet nur Private bzw. Hosted Private Clouds an.

Ich habe auf Twitter schon Diskussionen verfolgt, in denen es darum ging, sich mit Amazon mit einer OpenStack Hybrid Cloud zu duellieren. Da vergessen so manche allerdings Eucalyptus auf ihrer Rechnung, die eine exklusive Partnerschaft mit Amazon haben und in letzter Zeit immer mehr Services entwickelt haben, um die Service-Lücke zu Amazon zu schließen.

Weiterhin darf eines nicht außer Acht gelassen werden. Der Vergleich mit Linux scheint vom Ansatz her richtig zu sein. Allerdings können die meisten Linux Distributionen kostenlos genutzt werden. OpenStack Provider hingegen müssen ihre Services verkaufen, um rentabel zu sein. Das bedeutet ebenfalls, dass OpenStack Provider dazu verdammt sind, so viel Profit wie möglich aus ihrem Service-Angebot zu machen, um die laufenden Kosten für die Infrastruktur usw. zu decken.

Differenzierung geht nur über ein attraktives Service-Portfolio

Mit dem goldenen Käfig muss man sich als OpenStack Provider abfinden. Aber das bedeutet nicht, dass man deswegen nur einer von vielen Anbietern bleiben muss. Zum einen sollte man davon Abstand nehmen, Infrastructure-as-a-Services als tragendes Geschäftsmodell zu sehen, zumindest als kleiner Anbieter. Infrastruktur ist Commodity. Weiterhin sollte man nicht damit weitermachen oder gar damit anfangen, die Amazon Web Services nachzuahmen, der Zug ist abgefahren. Stattdessen sollte versucht werden, das Rad weiter zu entwickeln und über Innovationen die nächsten Amazon Web Services zu werden.

Vielmehr geht es allerdings darum, dass jeder OpenStack Provider das Beste für sich aus dem OpenStack Projekt machen muss und dabei die Innovationen nicht vergessen darf. In Zukunft wird nur derjenige Cloud-Anbieter erfolgreich sein, der Services anbietet, die den Kunden einen echten Mehrwert bieten. Dabei kann und wird OpenStack eine sehr große Rolle spielen, allerdings nicht im Mittelpunkt stehen sondern nur als Mittel zum Zweck dienen.

Die OpenStack Provider müssen damit anfangen, aus der Marketingmaschine OpenStack die Innovationsmaschine OpenStack zu machen. Dann kommt die Bewunderung von ganz alleine.

Categories
Services @en @de

Exclusive: openQRM 5.1 to be extended with hybrid cloud functionality and integrates Amazon AWS and Eucalyptus as a plugin

It’s happening soon. This summer openQRM 5.1 will be released. Project manager and openQRM-Enterprise CEO Matt Rechenburg already has told me some very interesting new features. In addition to a completely redesigned backend design the open source cloud infrastructure software from Cologne, Germany will be expanded with hybrid cloud functionality by integrating Amazon EC2, Amazon S3, and their clone Eucalyptus as a plugin.

New hybrid cloud features in openQRM 5.1

A short overview of the new hybrid cloud features in the next version of openQRM 5.1:

  • openQRM Cloud works transparently with Amazon EC2 and Eucalyptus.
  • Via a self-service end-user within a private openQRM Cloud can order by an administrator selected instance types or AMI’s which are then used by openQRM Cloud to automatically provision to Amazon EC2 (or Amazon compatible clouds).
  • User-friendly password login for the end-user of the cloud via WebSSHTerm directly in the openQRM Cloud portal.
  • Automatic applications deployment using Puppet.
  • Automatic cost accounting via the openQRM cloud billing system.
  • Automatic service monitoring via Nagios for Amazon EC2 instances.
  • openQRM high-availability at infrastructure-level for Amazon EC2 (or compatible private clouds). This means: If an EC2 instance fails or an error occurs in an Amazon Availability Zone (AZ) an exact copy of this instance is restarted. In case of a failure of an entire AZ, the instance starts up again in another AZ of the same Amazon region.
  • Integration of Amazon S3. Data can be stored directly on Amazon S3 via openQRM. When creating an EC2 instance a script that is stored on S3 can be specified, for example, that executes other commands during the start of the instance.

Comment: openQRM recognizes the trend at the right time

With its extension also openQRM-Enterprise shows that the hybrid cloud is becoming a serious factor in the development of cloud infrastructures and comes with the new features just at the right time. The Cologne based company are not surprisingly orientate at the current public cloud leader Amazon Web Services. Thus, in combination with Eucalyptus or other Amazon compatible cloud infrastructures, openQRM can also be used to build massively scalable hybrid cloud infrastructures. For this purpose openQRM focuses on its proven plugin-concept and integrates Amazon EC2, S3 and Eucalyptus exactly this way. Besides its own resources from a private openQRM Cloud, Amazon and Eucalyptus are used as further resource providers to get more computing power quickly and easily.

In my opinion, the absolute killer features include the automatic applications deployment using Puppet, with which the end-user to conveniently and automatically can provide EC2 instances with a complete software stack itself, as well as the consideration of the Amazon AZ-wide high-availability functionality, which is neglected by many cloud users again and again due to ignorance.

Much attention the team has also given the optics and the interface of the openQRM backend. The completely redesigned user interface looks tidier and easier in the handling and will positively surprise the existing customers.

Categories
Services @de

Exklusiv: openQRM 5.1 wird um Hybrid Cloud Funktionalität erweitert und bindet Amazon AWS und Eucalyptus als Plugin ein

Bald ist es soweit. Noch in diesem Sommer wird openQRM 5.1 erscheinen. Projektmanager und openQRM-Enterprise CEO Matt Rechenburg hat mir vorab bereits ein paar sehr interessante neue Features verraten. Neben einem vollständig überarbeiteten Backend-Design wird die Open-Source Cloud Infrastruktursoftware aus Köln um Hybrid-Cloud Funktionalität erweitert, indem Amazon EC2, Amazon S3 und deren Klon Eucalyptus als Plugin eingebunden werden.

Neue Hybrid-Cloud Funktionen in openQRM 5.1

Ein kleiner Überblick über die neuen Hybrid-Cloud Funktionen in der kommenden openQRM 5.1 Version:

  • openQRM Cloud spricht transparent mit Amazon EC2 und Eucalyptus.
  • End-User innerhalb einer privaten openQRM Cloud können sich per Self-Service vom Administrator ausgewählte Instanz-Typen bzw. AMI’s bestellen, die dann von openQRM Cloud in Amazon EC2 (oder Amazon kompatiblen Clouds) automatisch provisioniert werden.
  • Benutzerfreundliches Password-Login für den End-User der Cloud per WebSSHTerm direkt im openQRM Cloud Portal.
  • Automatisches Applications Deployment mittels Puppet.
  • Automatische Kostenabrechnung über das openQRM Cloud-Billingsystem.
  • Automatisches Service Monitoring via Nagios für die Amazon EC2 Instanzen.
  • openQRM High-Availability auf Infrastrukturebene für Amazon EC2 (oder kompatible Private Clouds). Das bedeutet: Fällt die EC2 Instanz aus oder tritt in einer Amazon Availability Zone (AZ) ein Fehler auf, wird eine exakte Kopie dieser Instanz neu gestartet. Im Falle eines Ausfalls einer AZ wird die Instanz sogar automatisch in einer anderen AZ derselben Amazon Region wieder hochgefahren.
  • Integration von Amazon S3. Daten lassen sich direkt über openQRM auf Amazon S3 speichern. Beim Erstellen einer EC2 Instanz kann ein Skript, welches auf S3 abgelegt ist mit angegeben werden, was z.B. weitere Befehle beim Start der Instanz ausführt.

Kommentar: openQRM erkennt den Trend genau zur richtigen Zeit

Auch openQRM-Enterprise zeigt mit dieser Erweiterung, dass die Hybrid Cloud ein immer ernst zunehmender Faktor beim Aufbau von Cloud-Infrastrukturen wird und kommt mit den neuen Features genau zur richtigen Zeit. Das Unternehmen aus Köln orientiert sich dabei nicht überraschend am aktuellen Public Cloud Marktführer Amazon Web Services. Damit lässt sich openQRM ebenfalls in Kombination mit Eucalyptus und anderen Amazon kompatiblen Cloud-Infrastrukturen nutzen, um eine massiv skalierbare Hybrid-Cloud Infrastruktur aufzubauen. Dabei setzt openQRM auf sein bewährtes Plugin-Konzept und bildet Amazon EC2, S3 und Eucalyptus genau so ab. Amazon und Eucalyptus werden, neben eigenen Ressourcen aus einer privaten openQRM Cloud, damit zu einem weiteren Ressourcen Provider, um schnell und unkompliziert mehr Rechenleistung zu erhalten.

Zu den absoluten Killerfeatures gehören meiner Ansicht nach das automatische Applications Deployment mittels Puppet, mit dem End-Nutzer sich bequem und automatisiert EC2 Instanzen mit einem vollständigen Softwarestack selbst bereitstellen können, sowie die Berücksichtigung der Amazon AZ-übergreifenden High-Availability Funktionalität, die von vielen Cloud-Nutzern aus Unwissenheit immer wieder vernachlässigt wird.

Viel Beachtung hat das Team ebenfalls der Optik und dem Interface des openQRM-Backends geschenkt. Die vollständig überarbeitete Oberfläche wirkt aufgeräumter und dadurch übersichtlicher in der Handhabung und wird die Bestandskunden positiv überraschen.

Categories
Services @en @de

Application Lifecycle Engine: cloudControl launched Private Platform-as-a-Service

Platform-as-a-Service (PaaS) provider cloudControl has published its Application Lifecycle Engine, a private PaaS based on the technologies of its public PaaS. With it the Berlin based company wants to give companies the ability to operate a self-managed PaaS in the own data center in order to get more control over the location of the data and to control access to the relevant data.

cloudControl Application Lifecycle Engine

The cloudControl Application Lifecycle Engine technology derived from its own public PaaS offering which serves since 2009 as the foundation for the cloud service.

The Application Lifecycle Engine is to be understood as a middleware between the basic infrastructure and the actual applications (PaaS concept) and provides a complete runtime environment for applications. It offers developers the opportunity to focus on developing their application and not to be uncomfortable with processes and the deployment.

The published Application Lifecycle Engine is designed to enable large companies their own private PaaS to operate in a self-managed infrastructure in order to get the benefits of the cloud in their own four walls. The platform sets on open standards and promises to avoid vendor lock-in. cloudControl also spans a hybrid bridge by running already on cloudControl’s public PaaS developed applications on the private PaaS, and vice versa.

Furthermore cloudControl addressed service providers who want to build a PaaS offering itself to combine their existing services and infrastructure services.

Trend towards private and hybrid solutions intensifies

cloudControl is not the first company that has recognized the trend towards the private PaaS. Nevertheless the current security situation shows that companies are much more confident in dealing with the cloud and consider where they can store and process their data. For this reason cloudControl comes at exactly the right time to make it possible for companies to regain more control over their data and to raise awareness about where their data is actually located. Concurrently cloudControl also allows companies to enhance their own self-managed IT infrastructure with a true cloud-DNA by IT departments can provide developers with an easy access to resources to deliver faster and more productive results. In addition, IT departments can use the Application Lifecycle Engine as an opportunity to position themselves as a service broker and partner for the departments within the company.

Not to disregard is the possibility using cloudControl in a hybrid operation. It may well, relatively quickly, come to the fact that not enough local resources (computing power, storage space) are available, which are needed for the private PaaS. In this case the homogeneous architecture of the Application Lifecycle Engine can be used to fall back on cloudControl’s public PaaS, not to interfere with the progress of the projects and development activities.

Categories
Services @de

Application Lifecycle Engine: cloudControl veröffentlicht Private Platform-as-a-Service

Der Platform-as-a-Service (PaaS) Anbieter cloudControl hat mit der Application Lifecycle Engine einen Private PaaS auf Basis der Technologien seines Public PaaS veröffentlicht. Das Unternehmen aus Berlin möchte damit Unternehmen die Möglichkeit geben, auch im eigenen Rechenzentrum einen selbstverwalteten PaaS zu betreiben, um damit mehr Kontrolle über den Speicherort der Daten zu bekommen und den Zugriff auf die jeweiligen Daten zu regeln.

cloudControl Application Lifecycle Engine

Die cloudControl Application Lifecycle Engine leitet sich technologisch aus dem eigenen Public-PaaS Angebot ab und dient seit 2009 als Grundlage für den Cloud-Service.

Die Application Lifecycle Engine ist als Middleware zwischen der grundlegenden Infrastruktur und der eigentlichen Applikationen zu verstehen (PaaS Konzept) und bietet eine vollständige Laufzeitumgebung für Anwendungen. Damit erhalten Entwickler die Möglichkeit, sich auf die Entwicklung ihrer Applikation zu konzentrieren und können unbequeme Prozesse und die Bereitstellung übernehmen lassen.

Die nun veröffentlichte Application Lifecycle Engine soll es großen Unternehmen ermöglichen, einen eigenen Private PaaS in einer selbstverwalteten Infrastruktur zu betreiben, um sich damit die Vorteile der Cloud auch in die eigenen vier Wände zu holen. Die Plattform setzt dazu auf offene Standards und verspricht damit einen Vendor-Lock-in zu vermeiden. cloudControl spannt zudem eine hybride Brücke, indem bereits auf cloudControls Public PaaS entwickelte Anwendungen im Private PaaS und umgekehrt betrieben werden können.

Weiterhin adressiert cloudControl mit der Application Lifecycle Engine Service Provider, die selber ein PaaS Angebot aufbauen möchten und damit ihre bestehenden Services und Infrastrukturleistungen bündeln können.

Trend zu Private und Hybrid Lösungen verstärkt sich

cloudControl ist nicht das erste Unternehmen, dass den Trend hin zum Private PaaS erkannt hat. Dennoch zeigt die aktuelle Sicherheitslage, dass Unternehmen viel bewusster im Umgang mit der Cloud werden und abwägen, wo sie ihre Daten speichern bzw. verarbeiten lassen. Aus diesem Grund kommt cloudControl genau zur richtigen Zeit, um Unternehmen die Möglichkeit zu bieten, mehr Kontrolle über ihre Daten zurückzugewinnen und das Bewusstsein zu stärken, wo sich ihre Daten tatsächlich befinden. Gleichzeitig ermöglicht cloudControl Unternehmen damit aber auch, die eigene selbstverwaltete IT-Infrastruktur mit einer echten Cloud-DNA aufzuwerten, indem IT-Abteilungen den Entwicklern einen unkomplizierten Zugriff auf Ressourcen gewähren können und damit schneller und produktiver Ergebnisse liefern können. Weiterhin können IT-Abteilungen die Application Lifecycle Engine als eine Chance nutzen, sich innerhalb des Unternehmens als partnerschaftlicher Service-Broker für die Fachabteilungen zu positionieren.

Nicht zu vernachlässigen ist die Möglichkeit, cloudControls Angebot im Hybrid-Betrieb zu nutzen. Es kann durchaus, relativ schnell, zu dem Umstand kommen, dass nicht mehr ausreichend lokale Ressourcen (Rechenleistung, Speicherplatz) zur Verfügung stehen, die für den Private PaaS benötigt werden. In diesem Fall kann über die homogene Architektur der Application Lifecycle Engine auf den Public PaaS von cloudControl ausgewichen werden, um Projekte und den Fortschritt der Entwicklungsaktivitäten nicht zu beeinträchtigen.

Categories
Analysis

Cloud computing is a good remedy against shadow IT

Cloud computing is always represented as a great promoter of shadow IT. This has still its accuracy and I also have always strongly advocated the topic. But, with the right IT strategy, shadow IT can preemptively be prevented, be controlled and even eliminated through cloud computing. This is no simple way for all involved but worthwhile.

Reasons for a shadow IT

Shadow IT is not a cloud computing phenomenon. In any larger company one or the other developer has its own server under the table or IT projects somewhere have self-installed MySQL databases, in the worst case outside the company at a hoster. Users have, as long as they have the appropriate rights to install, their own software solutions in use by which they can be more productive than with their prefixed solutions. What are the reasons for a shadow IT?

  • Employee dissatisfaction with used technologies.
  • IT technologies do not meet the desired purpose.
  • IT departments are too slow.
  • IT departments do not deliver according to the desired requirements.
  • Due to cost pressure resources are cancelled.

How a shadow IT does express?

  • Own server under the table.
  • Workstation becomes a server.
  • Use of cloud infrastructures.
  • Own credit card is used, and then charged over expenses.
  • Undeclared or approved self-installed software.
  • Use of cloud-services and -software.

How does cloud computing help?

One just have to look at the reasons of the employees to understand, why they recourse to the shadow IT. The rebels among us left aside, it’s primarily about the dissatisfaction and the helplessness of the people who want to do their work more productive. At the end of the day and regardless of the technology it is about communication and mutual understanding. That an IT department may not have the speed, such as a public cloud provider is quite normal and very easy to follow, otherwise the IT could be the provider instead of the consumer. But there are ways and means not to miss the market too fast.

  • Do not prohibit everything and be open to requests.
  • Communicate and demand of employees ideas.
  • Establish think tanks and innovation teams who drive constantly new trends in the business.
  • Offering own self-services.
  • Allowing quick access to resources similar to public cloud providers.
  • Middleware as a service portal for employees, over which access is granted to internal and external cloud services.

Cloud computing is not the non plus ultra solution for shadow IT and definitely a driver of this problem. But at the same time cloud computing can help to counteract this over the years grown phenomenon. The relevant concepts and technologies are available and need to be implemented.

A promising approach is to create an own service portal for employees, over which these get a controlled access to internal and external cloud services. This can be either used for infrastructure (virtual servers and storage) or software and platforms. The IT department becomes more and more a service broker and is able to ensure, through the use of external resources (hybrid model), that the employees can expect a high quality service. Thus, for example, a server can be provided to a developer within five minutes instead of several weeks.

Categories
Analysen

Cloud Computing ist ein gutes Mittel gegen die Schatten-IT

Cloud Computing wird immer als ein großer Förderer der Schatten-IT dargestellt. Das hat weiterhin seine Richtigkeit und auch ich habe das Thema immer wieder stark propagiert. Mit der richtigen IT-Strategie lässt sich die Schatten-IT aber sogar durch Cloud Computing präventiv verhindern, eindämmen und beseitigen. Das ist kein einfacher Weg, der sich aber für alle Beteiligen lohnt.

Gründe für eine Schatten-IT

Schatten-IT ist kein Phänomen des Cloud Computing. In jedem größeren Unternehmen hat der eine oder andere Entwickler seinen Server unterm Tisch stehen oder IT-Projekte haben irgendwo selbst installierte MySQL Datenbanken, im schlimmsten Fall außerhalb des Unternehmens bei einem Hoster. Nutzer haben, solange sie die entsprechenden Rechte für die Installation besitzen, eigene Softwarelösungen im Einsatz, mit denen sie produktiver arbeiten können, als mit den ihnen vorgesetzten Lösungen. Was sind Gründe für eine Schatten-IT?

  • Unzufriedenheit der Mitarbeiter mit eingesetzten Technologien.
  • IT-Technologien erfüllen nicht den gewünschten Zweck.
  • IT-Abteilungen sind zu langsam.
  • IT-Abteilungen liefern nicht entsprechend der gewünschten Anforderungen.
  • Aus Kostendruck werden Ressourcen gestrichen.

Wie kommt Schatten-IT zum Ausdruck?

  • Eigener Server unter dem Tisch.
  • Workstation wird zum Server.
  • Einsatz von Cloud Infrastrukturen
  • Eigene Kreditkarte wird genutzt und anschließend über Spesen verrechnet.
  • Nicht angemeldete oder genehmigte selbst installierte Software.
  • Nutzung von Cloud-Services und -Software.

Wie hilft Cloud Computing?

Man muss nur die Gründe der Mitarbeiter betrachten, um zu verstehen, warum zu Mitteln der Schatten-IT zurückgegriffen wird. Die Rebellen unter uns mal beiseite gelassen, geht es in erster Linie um die Unzufriedenheit und die Hilflosigkeit der Mitarbeiter, die ihre Arbeit produktiver erledigen möchten. Unterm Strich geht es, unabhängig von einer Technologie, um Kommunikation und Gegenseitiges Verständnis. Dass eine IT-Abteilung nicht die Geschwindigkeit haben kann wie zum Beispiel ein Public Cloud Anbieter ist ganz normal und sehr gut nachvollziehbar, sonst könnte die IT schließlich gleich der Anbieter sein und nicht der Konsument. Aber es gibt Mittel und Wege den Anschluss an den Markt nicht zu schnell zu verlieren.

  • Nicht alles verbieten und offen auf Wünsche eingehen.
  • Kommunizieren und von den Mitarbeitern Ideen einfordern.
  • Think Tanks und Innovations-Teams etablieren, die ständig neue Trends in das Unternehmen treiben.
  • Eigenen Self-service anbieten.
  • Ähnlich schnellen Zugriff auf Ressourcen ermöglichen wie Public Cloud Anbieter.
  • Middleware als Service Portal für Mitarbeiter, über die auf interne und externe Cloud Services Zugriff gewährt wird.

Cloud Computing ist für die Schatten-IT nicht die Non-plus Ultra Lösung und auf jeden Fall ein Treiber dieses Problems. Aber gleichzeitig kann Cloud Computing dabei helfen, diesem über die Jahre gewachsenen Phänomen entgegenzuwirken. Die entsprechenden Konzepte und Technologien stehen bereit und müssen nun umgesetzt werden.

Ein vielversprechender Ansatz ist der Aufbau eines eigenen Service Portals für die Mitarbeiter, über welches diese kontrolliert auf interne und externe Cloud Services zugreifen. Dabei kann es sich sowohl um Infrastruktur (virtuelle Server und Speicherplatz) als auch um Software und Plattformen handeln. Die IT-Abteilung wird dadurch immer mehr zum Service Broker und kann durch die Nutzung externer Ressourcen (hybrid Modell) sicherstellen, dass die Mitarbeiter mit einer hohen Servicegüte rechnen können. So lässt sich einem Entwickler zum Beispiel ein Server anstatt in mehreren Wochen, innerhalb von fünf Minuten bereitstellen.

Categories
Comment

Top Cloud Computing Washer – These companies don't tell the truth about their products

Since the beginning of cloud computing, the old hardware manufacturers are trying to save their business from sales slumps by selling their storage solutions, such as NAS (Network Attached Storage), or other solutions as “private cloud” products to position against real flexible, scalable and available solutions from the cloud. The Americans call this type of marketing “cloud-washing”. Of course, these providers use the current political situation (PRISM, Tempora, etc.) in order to promote their products with further strengthen. Tragically, young companies also jump on this train. Because what the ancients can, they may eventually can do, too. Wrong! What these providers not interested at all. They reckless ride roughshod over the real provider of cloud computing solutions. This is wrong and a distortion of competition, as they advertised with empty marketing phrases, that demonstrably can not be met. At the end of the day, not only the competition of these providers and the cloud is seen in a bad light, but also the customer buy a product with misconceptions. One or the other decision-makers will surely soon be experiencing a rude awakening.

Background: Cloud Computing vs. Cloud-Washing

In recent years many articles on the topic of cloud-washing have appeared here on CloudUser. A small selection, mostly in German:

What says Wikipedia?

Private Cloud according to Wikipedia

“Private cloud is cloud infrastructure operated solely for a single organization, whether managed internally or by a third-party and hosted internally or externally. Undertaking a private cloud project requires a significant level and degree of engagement to virtualize the business environment, and requires the organization to reevaluate decisions about existing resources. When done right, it can improve business, but every step in the project raises security issues that must be addressed to prevent serious vulnerabilities.

They have attracted criticism because users “still have to buy, build, and manage them” and thus do not benefit from less hands-on management, essentially “[lacking] the economic model that makes cloud computing such an intriguing concept”.”

Cloud characteristics according to Wikipedia

Cloud computing exhibits the following key characteristics:

  • Agility improves with users’ ability to re-provision technological infrastructure resources.
  • Application programming interface (API) accessibility to software that enables machines to interact with cloud software in the same way that a traditional user interface (e.g., a computer desktop) facilitates interaction between humans and computers. Cloud computing systems typically use Representational State Transfer (REST)-based APIs.
  • Cost is claimed to be reduced, and in a public cloud delivery model capital expenditure is converted to operational expenditure. This is purported to lower barriers to entry, as infrastructure is typically provided by a third-party and does not need to be purchased for one-time or infrequent intensive computing tasks. Pricing on a utility computing basis is fine-grained with usage-based options and fewer IT skills are required for implementation (in-house). The e-FISCAL project’s state of the art repository contains several articles looking into cost aspects in more detail, most of them concluding that costs savings depend on the type of activities supported and the type of infrastructure available in-house.
  • Device and location independence enable users to access systems using a web browser regardless of their location or what device they are using (e.g., PC, mobile phone). As infrastructure is off-site (typically provided by a third-party) and accessed via the Internet, users can connect from anywhere.
  • Virtualization technology allows servers and storage devices to be shared and utilization be increased. Applications can be easily migrated from one physical server to another.
  • Multitenancy enables sharing of resources and costs across a large pool of users thus allowing for:
    • Centralization of infrastructure in locations with lower costs (such as real estate, electricity, etc.)
    • Peak-load capacity increases (users need not engineer for highest possible load-levels)
    • Utilisation and efficiency improvements for systems that are often only 10–20% utilised.
  • Reliability is improved if multiple redundant sites are used, which makes well-designed cloud computing suitable for business continuity and disaster recovery.
  • Scalability and elasticity via dynamic (“on-demand”) provisioning of resources on a fine-grained, self-service basis near real-time, without users having to engineer for peak loads.
  • Performance is monitored, and consistent and loosely coupled architectures are constructed using web services as the system interface.
  • Security could improve due to centralization of data, increased security-focused resources, etc., but concerns can persist about loss of control over certain sensitive data, and the lack of security for stored kernels. Security is often as good as or better than other traditional systems, in part because providers are able to devote resources to solving security issues that many customers cannot afford. However, the complexity of security is greatly increased when data is distributed over a wider area or greater number of devices and in multi-tenant systems that are being shared by unrelated users. In addition, user access to security audit logs may be difficult or impossible. Private cloud installations are in part motivated by users’ desire to retain control over the infrastructure and avoid losing control of information security.
  • Maintenance of cloud computing applications is easier, because they do not need to be installed on each user’s computer and can be accessed from different places.

The National Institute of Standards and Technology’s definition of cloud computing identifies “five essential characteristics”:

  • On-demand self-service. A consumer can unilaterally provision computing capabilities, such as server time and network storage, as needed automatically without requiring human interaction with each service provider.
  • Broad network access. Capabilities are available over the network and accessed through standard mechanisms that promote use by heterogeneous thin or thick client platforms (e.g., mobile phones, tablets, laptops, and workstations).
  • Resource pooling. The provider’s computing resources are pooled to serve multiple consumers using a multi-tenant model, with different physical and virtual resources dynamically assigned and reassigned according to consumer demand. …
  • Rapid elasticity. Capabilities can be elastically provisioned and released, in some cases automatically, to scale rapidly outward and inward commensurate with demand. To the consumer, the capabilities available for provisioning often appear unlimited and can be appropriated in any quantity at any time.
  • Measured service. Cloud systems automatically control and optimize resource use by leveraging a metering capability at some level of abstraction appropriate to the type of service (e.g., storage, processing, bandwidth, and active user accounts). Resource usage can be monitored, controlled, and reported, providing transparency for both the provider and consumer of the utilized service.

Source: http://en.wikipedia.org/wiki/Cloud_computing

Top Cloud Computing Washer

Protonet

The latest stroke of genius comes from Hamburg’s startup scene in Germany. A NAS with a graphical user interface for social collaboration in a really(!) pretty orange box is marketed as a private cloud. Of course, the PRISM horse is ridden.

ownCloud

Except for the name basically there is not much cloud in ownCloud. ownCloud is a piece of software with which – not easily – a (real) cloud storage can be built. For this, of course, an operating system, hardware and much more is needed.

Synology

Synology writes itself, that they are “… a dedicated Network Attached Storage (NAS) provider.” Fine, but why to jump on the private cloud train? Sure, it’s currently selling well. If the cloud is soon the qloud, Synology will definitively sell private qlouds.

D-Link

D-Link is also not bad. In a press release from last year it said generously:

D-Link, the networking expert for the digital home, enhanced the cloud family by adding a new router: With the portable DIR-506L the personal data cloud can be easily stick in your pocket.

and

D-Link continuously invests in the development of cloud products and services. … Already available are the Cloud router … multiple network cameras and network video recorders …

D-Link now even cloudifies network cameras and network video recorders to increase sales over the cloud train. Mind you, at the back and costs of the customers.

Oracle

Oracle loves hardware and licenses. This initially one could see clearly. Preconfigured application servers to rent for a monthly fee and then be installed in the customer’s data center were marketed as infrastructure-as-a-service. However, slowly the vendor catches up. It remains to be seen what impact the cooperation with Salesforce will have on Larry Ellison. He will certainly still annoyed that he simply no longer observes the Sun cloud technology after the acquisition.

Further tips are welcome

These are only a few providers that use the cloud computing train to secure their existing or even new business model. Who has more tips like these can send them with the subject “cloud washer” to clouduser[at]newagedisruption[.]com.