Categories
Kommentar

Die Bedeutung von mobilen und cloud-basierten Arbeitsweisen wächst stetig

Die Vorteile flexibler Arbeitsweisen auf Grund mobiler und Cloud Technologien überwiegen die Bedenken und Risiken von 86 Prozent leitender Angestellter und Geschäftsführer von kleinen und mittelständischen Unternehmen (KMU). Zu diesem Ergebnis kommt eine weltweite Studie unter 1.250 Unternehmen aus Europa, Nordamerika und Australien von YouGov im Auftrag von Citrix.

Verbesserte Produktivität und Imagesteigerung

Eine Steigerung der Produktivität erwarten 48 Prozent und somit ungefähr die Hälfte der Befragten durch die Möglichkeit von flexiblen Arbeitsweisen. 32 Prozent erhoffen sich dadurch eine Verbesserung ihres Image als Arbeitgeber. In etwa ein Viertel (23 Prozent) sehen in mobilen Arbeitsmethoden einen besseren Ausgleich der Work-Life-Balance, die speziell berufstätigen Eltern (29 Prozent) entgegenkommen. Weiterhin sehen 39 Prozent eine verbesserte Integration externer Teams und 28 Prozent Vorteile in der Geschäftskontinuität.

Bedenken mit dem Privatleben

Dennoch verursachen mobile Arbeitsweisen auch Bedenken. Die größten beziehen sich auf die Trennung zwischen privatem und beruflichem (41 Prozent) und die Befürchtung, dass sich die Mitarbeiter dadurch zu sehr verpflichtet fühlen können, Überstunden zu machen. Zwar haben bereits die Hälfte der befragten Unternehmen mobile Arbeitsweisen umgesetzt, begegnen aber dennoch Befürchtungen mit mündlichen oder schriftlich fixierten Regelungen. Stichwort: Kontrolle der Mitarbeiter. Allerdings stehen diese Einschränkungen im Widerspruch zum Wunsch die Arbeit in Eigenverantwortung zu organisieren. Dazu lehnt die Mehrheit von 73 Prozent Regeln ab, die flexibles und mobiles Arbeiten in Zeitfenstern organisieren, da hiermit die grundsätzliche Idee mobiler und flexbiler Arbeitsweisen eingeschränkt werden. Ansonsten wären Mitarbeiter nicht mehr in der Lage, den Ort und die Zeit selbst zu wählen um für sich am produktivsten zu sein und ihr Berufs- und Privatleben in Einklang zu bringen.

Mobile und cloud-basierte Arbeitsmethoden sind wichtig

Unser Arbeitsleben findet für viele schon lange nicht mehr in einem lokalen begrenzten Bereich statt. Stattdessen leben wir in einer globalen, vernetzten und vor allem mobilen Welt, aus der jeder die Vorteile für sich ziehen sollte, um produktiver, somit gewinnbringender für das Unternehmen zu sein und gleichzeitig ein ausgeglichenes Privatleben führen kann.

Moderne Unternehmen müssen ihren Mitarbeitern heutzutage die Möglichkeiten/ Freiheiten geben, von dort aus zu arbeiten wo sie möchten. Dabei muss es sich nicht immer um den Starbucks um die Ecke handeln. Aber es bietet die Gelegenheit, sich in kreative Bereiche wie bspw. Co-Working Spaces zurückzuziehen und somit andere Eindrücke und Meinungen zu gewinnen und von potentiellen Kunden oder Partnern Rückmeldungen zu erhalten. Der größte Vorteil besteht aber in der Möglichkeit, aus dem Routinealltag im Büro des Unternehmens zu entfliehen und sich somit weiterzuentwickeln. Cloud- und mobile Technologien ermöglichen dies wie keine anderen Technologien zuvor.

Die Gefahr sich zu überarbeiten oder gar in einen Burnout zu enden spielt in unserer heutigen Arbeitswelt ständig mit. Aber dafür sind keine flexiblen bzw. mobilen Arbeitsweisen verantwortlich. Im Gegenteil, ein Mitarbeiter erhält damit mehr Freiheiten, sich auch mal eine “Auszeit” in einer privaten oder in dem Moment gewünschten Umgebung zu verschaffen, um damit einen Ausgleich zu finden. Dennoch müssen Mitarbeiter damit mehr Eigenverantwortung übernehmen, um ihre vereinbarten Ziele zu erreichen und gleichzeitig sich selbst in Schutz zu nehmen und so zu organisieren, um weiterhin ein Privatleben zu haben, wobei ebenfalls der Arbeitgeber helfen sollte, um dafür die Aufmerksamkeit zu wecken.

Categories
Kommentar

Die Google Compute Engine scheint keine langfristige Lösung zu sein

In einem Interview mit GigaOM hat Googles Cloud Platform Manager Greg DeMichillie eine seltsame Aussage über die Zukunft von der Google Compute Engine gemacht, welche erneut zu einer Diskussion führen muss, wie zukunftssicher dass Google Cloud Service Portfolio tatsächlich ist und wie sehr man sich auf den Suchmaschinenanbieter in seinen nicht Kernbereichen verlassen sollte.

Google ist zu agil für seine Kunden

Nachdem Google angekündigt hatte, den Google Reader einzustellen, hatte ich bereits die Zukunftssicherheit des Google Cloud Portfolio in Frage gestellt. Insbesondere wegen dem Hintergrund, dass Google immer mehr Services monetarisiert, diese mit dem Umsatz dadurch eine weitere KPI erhalten und damit noch schneller von einer Schließung bedroht sein können. Google Cloud Platform Manager Greg DeMichillie ging in einem Interview mit GigaOM genau auf diese Frage ein und antwortete unerwartet und nicht im Sinne des Kunden.

„DeMichillie wouldn’t guarantee services like Compute Engine will be around for the long haul, but he did try to reassure developers by explaining that Google’s cloud services are really just externalized versions of what it uses internally. ”There’s no scenario in which Google suddenly decides, ‘Gee, I don’t think we need to think about storage anymore or computing anymore.“

Zwar relativiert DeMichillie am Ende, dass Google seine Cloud Services wohl nicht in einer Kamikaze-Aktion schließt. Dennoch handelt es sich um eine verwirrende Aussage, über einen Service, welcher erst seit relativ kurzer am Markt ist.

Das sind Dinge die ein Kunde nicht hören sollte

Die entscheidende Frage ist, warum sich ein potentieller Kunde überhaupt noch langfristig für die Google Compute Engine entscheiden sollte? Auf Grund dieser Aussage muss man von einer langfristigen Planung mit der Nutzung der Google Compute Engine abraten und sich stattdessen lieber auf Cloud Computing Anbieter konzentrieren, die ihr Kerngeschäft tatsächlich im Infrastructure-as-a-Service Bereich haben und nicht so gutmütig sind ihre Überkapazitäten zu verkaufen, sondern ein ernsthaftes Cloud Computing Geschäft betreiben.

Ich möchte nicht den Teufel an die Wand malen. Aber Neuigkeiten wie die plötzliche Schließung von Nirvanix – einem Enterprise Cloud Storage Anbieter – schlagen große Wellen und verunsichern die Nutzer. Das sollte auch Google langsam verstehen, wenn sie ein ernsthafter Anbieter von Cloud Computing Ressourcen werden wollen!

Categories
Kommentar

Gefährlich: VMware unterschätzt OpenStack

Langsam sollte man sich ernsthaft Sorgen machen, wer den Verantwortlichen von VMware diktiert, was sie zu sagen haben. Anfang März diesen Jahres sagt COO Carl Eschenbach, dass es für ihn schwer vorstellbar ist, dass VMware mit seinen Partnern nicht gegen ein Unternehmen das Bücher verkauft (Anmerkung: Amazon) bestehen kann. Naja, die Realität sieht derzeit anders aus. Dann kommt Ende März ein VMware Mitarbeiter aus Deutschland zum dem Schluss, dass VMware der Technologie-Enabler der Cloud sei und er derzeit keinen anderen sehe. Das dies bei weitem gefehlt ist, wissen wir auch. Nun setzt CEO Pat Gelsinger noch einen obendrauf und behauptet, dass OpenStack nicht für Unternehmen gedacht sei. Zeit für eine Aufklärung.

Augen zu und durch!

In einem Interview mit Network World äußerte sich VMware CEO Pat Gelsinger zu OpenStack und erwartet nicht, dass das Open-Source Projekt eine erhebliche Reichweite im Unternehmensumfeld haben wird. Stattdessen halte er es für ein Framework das Services Provider nutzen können, um Public Clouds aufzubauen. Im Gegenteil dazu habe VMware eine sehr große Verbreitung mit extrem großen VMware Umgebung. Die Kosten für einen Wechsel und weitere Themen seien daher nicht besonders effektiv. Allerdings sieht Gelsinger bei Cloud- und Service-Anbietern, also in Bereichen in denen VMware in der Vergangenheit nicht erfolgreich Geschäfte gemacht hat, viel Potential für OpenStack.

Weiterhin betrachtet Gelsinger OpenStack für VMware aber als eine strategisch wichtige Initiative, welche VMware gerne unterstützt. VMware wird sicherstellen, dass seine Produkte und Services innerhalb von Cloud-Umgebungen auf Basis der Open-Source Lösung funktionieren. In diesem Zusammenhang eröffnet OpenStack für VMware ebenfalls neue Möglichkeiten, um in den Markt für Service Provider einzusteigen, ein Bereich, den VMware in der Vergangenheit vernachlässigt hat. VMware und Gelsinger sehen OpenStack daher als eine Möglichkeit, um sich breiter aufzustellen.

Hochmut kommt vor dem Fall

Pat Gelsinger hat Recht wenn er sagt, dass OpenStack für Service Provider gedacht ist. Auch gehört VMware weiterhin zu den führenden Virtualisierungsanbietern im Unternehmensumfeld. Jedoch ist diese Art von Schubladendenken gefährlich für VMware. Denn das Blatt kann sich sehr schnell wenden. Gelsinger mag zwar die hohen Wechselkosten als Grund sehen, warum Unternehmen weiterhin auf VMware setzen sollten. Allerdings sollte man eins nicht vergessen. VMware ist nur(!) beim Thema Virtualisierung stark – beim Hypervisor. In Bezug auf das Thema Cloud Computing, wo OpenStack seinen Schwerpunkt hat, sieht es nicht so rosig aus, wie es aussehen könnte. Man muss ehrlich sagen, dass VMware hier den Trend verschlafen hat, frühzeitig Lösungen zu bringen, die es ermöglichen, die virtualisierte Infrastruktur auch Cloud-fähig zu machen. Und über höherwertige Services und Self-Service es der IT-Abteilung zu erlauben zu einem Service-Broker zu werden. Mittlerweile stehen Lösungen bereit, allerdings wächst der Mitbewerb, nicht nur aus dem Open-Source Umfeld, stetig weiter.

Das sehen auch IT-Einkäufer und Entscheider. Ich habe schon mit mehr als einem IT-Manager gesprochen der plant, seine VMware Infrastruktur gegen etwas Offenes, in den meisten Fällen wurde KVM genannt, und Kostengünstigeres auszutauschen. Das ist erst einmal nur die Virtualisierungsebene die wegbrechen kann. Weiterhin gibt es mittlerweile einige Anwendungsfälle auch großer Unternehmen (siehe On-Premise Private Cloud), die OpenStack für den Aufbau einer eigenen Cloud-Infrastruktur nutzen. Was ebenfalls nicht vergessen werden darf ist, dass immer mehr Unternehmen in Richtung Hosted Private Cloud oder Public Cloud Anbieter wechseln und das eigene Rechenzentrum im Laufe der Zeit an Bedeutung verlieren wird. In diesem Zusammenhang spielt auch die Hybrid Cloud eine immer größere Rolle, um den Transfer und Migration von Daten und Systemen bequemer zu gestalten. Bereits hier hat sich OpenStack auf Grund seiner Verbreitung im Hosted Private Cloud und Public Cloud Umfeld einen großen Vorteil gegenüber VMware verschafft.

Mit solchen Aussagen versucht VMware natürlich OpenStack aus dem eigenen Hoheitsgebiet – on-Premise Unternehmenskunden – wegzureden, um dort seine eigenen Lösungen zu platzieren. Dennoch sollte VMware nicht den Fehler machen und OpenStack unterschätzen.

Categories
Kommentar

ProfitBricks eröffnet Preiskampf mit den Amazon Web Services für Infrastructure-as-a-Service

ProfitBricks macht ernst. Das Berliner Infrastructure-as-a-Service (IaaS) Startup geht mit einer harten Kante gegen die Amazon Web Services vor und reduziert seine Preise sowohl in den USA als auch in Europa um 50 Prozent. Weiterhin hat der IaaS-Anbieter einen Vergleich vorgelegt, der zeigt, dass die eigenen virtuellen Server eine mindestens doppelt so hohe Performance haben sollen als die der Amazon Web Services und Rackspace. Damit versucht sich ProfitBricks über den Preis als auch über die Leistung von den US-amerikanischen Top Anbietern zu diversifizieren.

Die Preise für Infrastructure-as-a-Services sind noch viel zu hoch

Einhergehend mit der Ankündigung zeigt sich CMO Andreas Gauger entsprechend angriffslustig. „Wir haben den Eindruck, dass die regelrecht als Marktbeherrscher auftretenden Cloud Unternehmen aus den USA ihre Marktmacht für zu hohe Preise missbrauchen. Sie muten den Unternehmen bewusst undurchsichtige Tarifmodelle zu und verkünden regelmäßig punktuelle Preissenkungen, um den Eindruck einer Preisdegression zu wecken“, so Gauger.

ProfitBricks hat sich daher das Ziel gesetzt, den IaaS-Markt über den Preis von hinten aufzurollen und technische Innovationen und damit für einen Anbieter enstehende Kosteneinsparungen auch direkt und merkbar an den Kunden durchzureichen.

Bis zu 45 Prozent günstiger als Amazon AWS

ProfitBricks positioniert sich sehr deutlich gegen Amazon AWS und zeigt zwei Preisvergleiche. Kostet eine M1 Medium Instanz mit 1 Core, 3,75 GB RAM und 250 GB Block Storage bei Amazon AWS 0,1291 Euro pro Stunde bzw. 93,15 Euro pro Monat, enstehen bei ProfitBricks hierfür Kosten von 0,0694 EUR pro Stunde bzw. 49,95 Euro pro Monat. Eine Einsparung von 45 Prozent.

Werden 1 Core, 8 GB RAM und 1.000 GB redundanter Storage benötigt, ist der Unterschied noch größer. Die Kosten für eine M1 XLarge Instanz mit 4 Cores, 15 GB RAM und 1.680 GB temporärem Storage inkl. 1.000 GB Block Storage belaufen sich bei Amazon pro Monat auf 372,62 Euro. Bei ProfitBricks würden für die exakt geforderten Anforderungen 130,22 Euro pro Monat entstehen. Dabei handelt es sich um eine Einsparung von 65 Prozent pro Server.

Diversifikation allein über den Preis ist schwierig

Sich als IaaS-Anbieter alleine über den Preis zu diversifizieren ist schwierig. Wir erinnern uns, Infrastruktur ist Commodity und vertikale Services sind die Zukunft der Cloud, mit denen der Kunde einen Mehrwert erhält.

Auf diesem Weg dem IaaS Platzhirsch die Stirn zu bieten ist mutig und wirkt sehr tollkühn. Allerdings sollte man eines nicht vergessen. Als Hosting-Experten der ersten Stunde werden Andreas Gauger und Achim Weiß die Zahlen rund um ihre Infrastruktur validiert haben und suchen mit dieser Aktion sicherlich nicht den kurzen Ruhm. Es bleibt daher abzuwarten wie Amazon AWS und die anderen IaaS-Anbieter auf diesen Schlag reagieren werden. Denn ProfitBricks zeigt mit dieser Preisreduzierung, dass Kunden Infrastruktur tatsächlich deutlich günstiger bekommen können, als es derzeit der Fall ist.

Etwas sollte man als IaaS-Nutzer bei dieser Preisdiskussion allerdings nicht aus den Augen verlieren. Neben den Preisen für Rechenleistung und Speicherplatz – die immer wieder hochgehalten werden – gibt es weitere Faktoren zu berücksichtigen, die den Preis bestimmen und welche immer erst am Ende des Monats wirklich in Erinnerung gerufen werden. Dazu gehören die Kosten für den Datentransfer in die Cloud hinein und aus der Cloud heraus sowie Kosten für anderweitige Services die um die Infrastruktur herum angeboten und pro API Aufruf berechnet werden. Da fehlt in mancher Hinsicht die Transparenz. Weiterhin ist ein Vergleich der unterschiedlichen IaaS-Anbieter nur schwierig darzustellen, da viele mit unterschiedlichen Einheiten, Konfigurationen und/oder Paketen arbeiten.

Categories
Kommentar

Gefangen im goldenen Käfig. OpenStack Provider sitzen in der Falle.

OpenStack ist als Cloud-Software auf dem Vormarsch. Reihenweise mehren sich die Ankündigungen, dass immer mehr Unternehmen und Anbieter auf das nun mehr drei Jahre alte Open-Source Projekt zurückgreifen, um skalierbare Lösungen und eigene Infrastructure-as-a-Service (IaaS) Angebote zu präsentieren. Allerdings steckt die OpenStack-Gemeinde meiner Ansicht nach in einem großen Dilemma – Diversifizierung. Hinzu kommt, dass von Außen immer wieder unnötige Unruhen hinein getragen werden, die genau diese Problematik nicht betrachten. So sind zum Beispiel die Diskussionen über die Amazon API Kompatibilität durch Randy Bias genau so wenig förderlich wie Simon Wardleys Forderung, OpenStack müsse so sein wie die Amazon Web Services (quasi ein Klon). OpenStack muss seinen eigenen Weg finden. Allerdings ist OpenStack selbst nicht das Problem, es sind die Provider die OpenStack einsetzen. Diese stehen zu 100% in der Verantwortung sinnvolle Angebote zu präsentieren und OpenStack für sich gewinnbringend einzusetzen.

Amazon API Kompatibilität ist ein Mittel zum Zweck

Ich halte es für wichtig, dass OpenStack die Amazon API implementiert, um die Möglichkeit zu bieten, ggf. eine Hybrid Cloud zu den Amazon Web Services aufspannen zu können. OpenStack Service Provider sollten ihren Kunden zumindest die Option anbieten, um nicht nur theoretisch keinen Vendor lock-in zu versprechen, sondern diesen tatsächlich zu ermöglichen.

Das war es aber auch schon. Mehr Einfluss sollte Amazon auf die OpenStack-Gemeinde nicht haben dürfen. Um mal die Kurve zur “Linux der Cloud” zu bekommen. Hat Linux sich an Microsoft Windows orientiert? Nein. Und es ist trotzdem erfolgreich geworden. Meiner Ansicht liegt das Problem auch darin begründet, dass Linux aus einer Ideologie heraus von einer einzelnen Person entwickelt und dann von einer großen Community voran getrieben wurde. OpenStack hingegen wurde ins Leben gerufen um zu 100% einen kommerziellen Zweck für die OpenStack-Gemeinde zu erfüllen. Aus diesem Grund ist OpenStack nichts anderes als eine große Marketingmaschine aller beteiligten Provider. Die OpenStack-Gemeinschaft muss ihren eigenen Weg finden, selbst für Innovationen sorgen und sich von dem was Amazon macht nicht beeinflussen lassen.

Amazon Web Services sind NICHT der größte Konkurrent

Was ich in der ganzen Amazon Web Services vs. OpenStack Diskussion weiterhin nicht verstehe ist, dass hier ständig Äpfel mit Birnen verglichen werden. Wie kann man einen Public Cloud Anbieter mit einer Software für den Aufbau von Public/ Private Clouds vergleichen? Es muss viel mehr darum gehen, dass man die OpenStack Provider – und zwar jeden einzelnen – mit den Amazon Web Services vergleicht. Erst dann kann man eine echte Aussage treffen!

Allerdings wird man dann sehr schnell merken, dass der durch die OpenStack-Gemeinde selbst ernannte Konkurrent Amazon Web Services überhaupt nicht der Konkurrent ist! Das hört sich jetzt hart an, ist aber die Wahrheit. Es gibt derzeit keinen einzigen OpenStack Service Provider der den Amazon Web Services ansatzweise das Wasser reichen kann. Die Amazon Web Services sind der imaginäre Konkurrent, der Wunsch-Konkurrent in den Köpfen der Anbieter. Ich stelle dazu mal das Service-Angebot der beiden Top Public Cloud OpenStack Provider Rackspace und HP den Amazon Web Services gegenüber.

Amazon Web Services

Rackspace

HP

Amazon EC2 Cloud Servers Compute
Auto Scaling
Elastic Load Balancing Cloud Load Balancers Load Balancer
Amazon EMR
Amazon VPC
Amazon Route 53 Cloud DNS DNS
AWS Direct Connect
Amazon S3 Cloud Files Object Storage
Amazon Glacier Cloud Backup
Amazon EBS Cloud Block Storage Block Storage
AWS Import/Export
AWS Storage Gateway
Amazon CloudFront CDN
Amazon RDS Cloud Databases Relational Database
Amazon DynamoDB
Amazon ElastiCache
Amazon Redshift
Amazon CloudSearch
Amazon SWF
Amazon SQS Messaging
Amazon SES
Amazon SNS
Amazon FPS
Amazon Elastic Transcoder
AWS Management Console Management Console
AWS Identity and Access Management (IAM)
Amazon CloudWatch Cloud Monitoring Monitoring
AWS Elastic Beanstalk Application Platform as a Service
AWS CloudFormation
AWS Data Pipeline
AWS OpsWorks
AWS CloudHSM
AWS Marketplace
Cloud Sites
Managed Cloud
Mobile Stacks

Diese Gegenüberstellung zeigt, dass nicht die Amazon Web Services der größte Konkurrenz sind, sondern die Gefahr aus dem eigenen Lager kommt. Wo ist die Diversifizierung, wenn schon die beiden großen OpenStack Public Cloud Provider zu 90% exakt dieselben Services anbieten? Das Service-Portfolio sowohl von Rackspace als auch von HP ist bei weitem nicht in der Lage, eine Konkurrenz zu den Amazon Web Services darzustellen. Im Gegenteil, beide nehmen sich gegenseitig Marktanteile weg, indem das Angebot nahezu identisch ist.

Gefangen im goldenen Käfig

Die OpenStack Provider stecken in einem Dilemma, das ich als den goldenen Käfig betrachte. Hinzu kommt, dass sich alle Anbieter im Grunde genommen gegenseitig kannibalisieren, das zeigt die Gegenüberstellung der Services von Rackspace und HP, indem die Portfolios sich kaum unterscheiden.

Aber warum sitzen alle OpenStack Provider nun im goldenen Käfig. Nun, sie profitieren voneinander, indem jeder neue Ideen und Lösungen dem Projekt zur Verfügung stellt und alle gleichermaßen von einer gemeinsamen Code-Basis profitieren, um daraus ihr eigenes Angebot schnüren zu können. Das bedeutet im Umkehrschluss aber auch, dass niemand einen echten Wettbewerbsvorteil daraus ziehen kann, indem alle mit den selben Mitteln in diesem Käfig sitzen. Der Käfig selbst beinhaltet grundsätzlich etwas Wertvolles und bietet über die vorhanden Services seine Möglichkeiten. Allerdings hat jeder Anbieter nur eingeschränkte Freiheiten, indem alle über dieselbe Grundversorgung verfügen.

Rackspace versucht sich über einen erweiterten Support zu differenzieren. Piston Cloud hält sich ganz aus dem Public Cloud Wettbewerb heraus und bietet nur Private bzw. Hosted Private Clouds an.

Ich habe auf Twitter schon Diskussionen verfolgt, in denen es darum ging, sich mit Amazon mit einer OpenStack Hybrid Cloud zu duellieren. Da vergessen so manche allerdings Eucalyptus auf ihrer Rechnung, die eine exklusive Partnerschaft mit Amazon haben und in letzter Zeit immer mehr Services entwickelt haben, um die Service-Lücke zu Amazon zu schließen.

Weiterhin darf eines nicht außer Acht gelassen werden. Der Vergleich mit Linux scheint vom Ansatz her richtig zu sein. Allerdings können die meisten Linux Distributionen kostenlos genutzt werden. OpenStack Provider hingegen müssen ihre Services verkaufen, um rentabel zu sein. Das bedeutet ebenfalls, dass OpenStack Provider dazu verdammt sind, so viel Profit wie möglich aus ihrem Service-Angebot zu machen, um die laufenden Kosten für die Infrastruktur usw. zu decken.

Differenzierung geht nur über ein attraktives Service-Portfolio

Mit dem goldenen Käfig muss man sich als OpenStack Provider abfinden. Aber das bedeutet nicht, dass man deswegen nur einer von vielen Anbietern bleiben muss. Zum einen sollte man davon Abstand nehmen, Infrastructure-as-a-Services als tragendes Geschäftsmodell zu sehen, zumindest als kleiner Anbieter. Infrastruktur ist Commodity. Weiterhin sollte man nicht damit weitermachen oder gar damit anfangen, die Amazon Web Services nachzuahmen, der Zug ist abgefahren. Stattdessen sollte versucht werden, das Rad weiter zu entwickeln und über Innovationen die nächsten Amazon Web Services zu werden.

Vielmehr geht es allerdings darum, dass jeder OpenStack Provider das Beste für sich aus dem OpenStack Projekt machen muss und dabei die Innovationen nicht vergessen darf. In Zukunft wird nur derjenige Cloud-Anbieter erfolgreich sein, der Services anbietet, die den Kunden einen echten Mehrwert bieten. Dabei kann und wird OpenStack eine sehr große Rolle spielen, allerdings nicht im Mittelpunkt stehen sondern nur als Mittel zum Zweck dienen.

Die OpenStack Provider müssen damit anfangen, aus der Marketingmaschine OpenStack die Innovationsmaschine OpenStack zu machen. Dann kommt die Bewunderung von ganz alleine.

Categories
Kommentar

Top Cloud Computing Washer – Diese Unternehmen sagen die Unwahrheit über ihre Produkte

Seit Beginn des Cloud Computing versuchen die alten Hardwarehersteller ihr Geschäft vor Umsatzeinbrüchen zu retten, indem sie ihre Speicherlösungen wie NAS (Network Attached Storage) oder anderweitige Lösungen als “Private Cloud” Produkte verkaufen, um sich damit gegen echte flexible, skalierbare und verfügbare Lösungen aus der Cloud zu positionieren. Der Amerikaner nennt diese Art des Marketing “Cloud-Washing”. Selbstverständlich nutzen diese Anbieter die aktuelle politische Lage (PRISM, Tempora, usw.), um das Marketing um ihre Produkte weiter zu verstärken. Tragischerweise springen auch junge Unternehmen auf diesen Zug mit auf. Denn was die Alten können, dürfen sie schließlich auch. Falsch gedacht. Was diese Anbieter jedoch überhaupt nicht interessiert ist, dass sie echte Anbieter von Cloud Computing Lösungen damit rücksichtslos mit Füßen treten. Das ist falsch und eine Wettbewerbsverzerrung, da mit Marketingfloskeln geworben wird, die nachweislich nicht erfüllt werden können. Unterm Strich wird also nicht nur der Mitbewerb und die Cloud von diesen Anbietern in ein falsches Licht gerückt, sondern ebenfalls dem Kunden ein Produkt mit falschen Vorstellungen verkauft. Der eine oder andere Entscheider wird mit Sicherheit bald sein böses Erwachen erleben.

Hintergrund: Cloud Computing vs. Cloud-Washing

Auf CloudUser sind in den letzten Jahren viele Artikel zum Thema Cloud-Washing erschienen. Hier eine kleine Auswahl:

Was sagt denn Wikipedia?

Private Cloud, laut Wikipedia

“Private Cloud – die private Rechnerwolke – bietet Zugang zu abstrahierten IT-Infrastrukturen innerhalb der eigenen Organisation (Behörde, Firma, Verein).”

Nach der NIST Definition, laut Wikipedia

Das NIST listet fünf essenzielle Charakteristika für Cloud-Computing

  • Selbstzuweisung von Leistungen aus der Cloud durch den oder die Nutzer, die bei Bedarf bereitstehen soll (“Self-service provisioning” und “As-needed availability”).
  • Skalierbarkeit bietet die Entkopplung von Nutzungsschwankungen und Infrastrukturbeschränkungen (Scalability).
  • Zuverlässigkeit (“reliability”) und Ausfalltoleranz (“fault-tolerance”) garantieren permanent definierte Qualitätsstandards der IT-Infrastruktur für den Nutzer.
  • Optimierung und Konsolidierung bietet Effizienz und Ökonomie in Anpassung an fortlaufende Umweltschutzstandards, die sukzessive vom Cloud-Diensteanbieter optimiert werden können (Optimization/Consolidation).
  • Qualitätssicherung und -kontrolle kann fortlaufend durch den Diensteanbieter überwacht und sichergestellt werden, ohne dass die Nutzer belastet werden müssten (QoS – Quality of Service).

Quelle: http://de.wikipedia.org/wiki/Cloud-Computing

Top Cloud Computing Washer

Protonet

Der neueste Geniestreich aus der Hamburger Startup-Szene. Ein NAS mit einer graphischen Oberfläche für Social Collaboration in einer wirklich(!) hübschen orangen Box wird als Private Cloud vermarktet. Dabei wird selbstverständlich das PRISM-Pferd geritten.

ownCloud

Bis auf den Namen steckt grundsätzlich erst einmal nicht viel Cloud in ownCloud. ownCloud ist ein Stück Software mit der sich – nicht ohne großen Aufwand – ein (echter) Cloud-Storage aufbauen lässt. Dafür wird natürlich auch ein Betriebssystem, Hardware und vieles mehr benötigt.

Synology

Synology schreibt selbst, dass sie “… ein Anbieter von dedizierten Network Attached Storage (NAS)-Produkten.” sind. Fein, warum dann auf den Private Cloud Zug aufspringen? Klar, verkauft sich derzeit gut. Wenn aus der Cloud bald Qloud werden sollte, dann verkauft Synology bestimmt auch Private Qlouds.

D-Link

D-Link ist auch nicht von schlechten Eltern. In einer Pressemitteilung aus dem vergangenen Jahr hieß es großzügig:

D-Link, der Netzwerkexperte für das digitale Zuhause, erweitert die Cloud-Familie um einen neuen Router: Mit dem tragbaren DIR-506L lässt sich die persönliche Datenwolke bequem in die Tasche stecken.

und

D-Link investiert konsequent in die Entwicklung von Cloud Produkten sowie Services. … Bereits verfügbar sind die Cloud Router … mehrere Netzwerkkameras sowie der Netzwerk-Videorekorder …

D-Link cloudifiziert mittlerweile sogar Netzwerkkameras und Netzwerk-Videorekorder, nur um über den Cloud-Zug den Absatz zu erhöhen. Wohlgemerkt auf Kosten und dem Rücken der Kunden.

Oracle

Oracle liebt Hardware und Lizenzen. Das war auch anfangs deutlich zu merken. Vorkonfigurierte Applikationsserver, die für eine monatliche Gebühr anzumieten waren und dann im Rechenzentrum des Kunden installiert werden sollten, wurden als Infrastructure-as-a-Service vermarket. Langsam fängt sich der Anbieter jedoch. Es bleibt abzuwarten, welchen Einfluss die Kooperation mit Salesforce auf Larry Ellison haben wird. Er wird sich bestimmt immer noch ärgern, dass er die Sun Cloud Technologie nach der Übernahme einfach nicht mehr beachtet hat.

Weitere Tipps sind erwünscht

Das sind nur ein paar Anbieter, die den Cloud Computing Zug nutzen, um ihr bestehendes oder sogar neues Geschäftsmodell zu sichern. Wer weitere Tipps hat, darf diese mit dem Betreff “Cloud-Washer” gerne an clouduser[at]newagedisruption[.]com senden.

Categories
Kommentar

Die IT-Abteilung stirbt nicht aus – Aber sie wird sich verändern müssen

Vor kurzem machte ein Artikel in der englischen Computerworld die Runde, in der die These aufgestellt wurde, dass die IT-Abteilungen bis zum Ende dieser Dekade verschwinden könnten. Ingo Notthoff von T-Systems stellte daraufhin auf Facebook die Frage zur Debatte, ob “Die IT-Abteilungen aussterben werden.”. Ich hatte dazu eindeutig geantwortet, dass sie nicht aussterben, sondern sich zum Service Broker wandeln. Diese Diskussion hat Ingo wiederum in einem Blogbeitrag niedergeschrieben. Ich möchte an dieser Stelle das Thema noch einmal aufgreifen und meinen Standpunkt ausführlich darlegen.

Trotz Consumerization of IT fehlen die wichtigen Kenntnisse

Auch wenn ich alles sehr begrüße, was in jeder Form verspricht disruptiv zu sein. Es gibt Dinge, die werden auch in Zeiten des massiven Einsatzes von Technologien und Self-Services benötigt. Ich rede vom Menschen.

Ich weiß und es ist richtig, dass Cloud-Services per Self-Service quasi von jedem im Unternehmen genutzt werden können, um die Ziele nach den persönlichen Anforderungen zu erreichen ohne jedes Mal auf die IT-Abteilung warten zu müssen. Aber ist das auch vernünftig? Kann jeder, nur weil er ein iPhone oder eine SaaS-Applikation bedienen kann, ebenfalls darüber entscheiden, welche Services wertvoll und wichtig für das Unternehmen sind. Im Zweifelsfall wird das Wissen dann zu 100% von externen Beratern eingeholt, was nicht zwangsläufig immer von Vorteil ist. Kosten für Personal sparen ist schön und gut, aber irgendwann hört es auf. Denn wo hierfür Kosten eingespart werden, müssen andere dafür mehr arbeiten. Die Line of Business Manager werden sich bedanken.

Außerdem muss man einfach mal in die Unternehmen reinhören. Selbstverständlich möchten die meisten, dass die IT schneller funktioniert, aber möchten sie neben ihren Hauptaufgaben auch noch dafür die Verantwortung übernehmen? Nein. Das funktioniert sicherlich für ein paar Bereiche im Unternehmen, aber den meisten Mitarbeitern werden die Kenntnisse, Lust und Zeit dafür fehlen.

IT-Abteilungen müssen sich neu erfinden

Nachdem ich meine Lanze für die IT-Abteilungen gebrochen habe, muss auch hier Kritik geäußert werden. Hat sich nicht jeder schon über die langsame, der Zeit hinterherhängende IT-Abteilung geärgert? Wie kann es sein, dass man auf die Hardware für ein Testsystem(!) bis zu 3 Monate warten muss und am Ende stellt sich heraus, dass es doch nur eine virtuelle Maschine ist. Solche Erfahrungen füttern natürlich diejenigen, welche die IT-Abteilungen am liebsten von heute auf morgen abschaffen möchten. In diesem Fall sogar zurecht.

Trotzdem ist jede gute IT-Abteilung sehr wertvoll für jedes Unternehmen. Die Extrembeispiele bestätigen glücklicherweise nicht die Regel. Allerdings darf keine IT-Abteilung so weitermachen, sondern sich über einen strukturellen Wandel Gedanken machen und diesen letztendlich auch umsetzen. Durch die Cloud hat sie ihre zentrale Position für den Einkauf und Betrieb von IT-Lösungen verloren. Schatten-IT ist hier das bislang bewährte Mittel der Mitarbeiter, um sich an der IT-Abteilung vorbei, schnell und nach Bedarf IT-Services zu besorgen.

Diesen Umstand gilt es zu beseitigen. Schatten-IT ist nicht unbedingt etwas sehr schlechtes. Zumindest hilft sie dabei, dass Mitarbeiter ihre Aufgaben schnell und auf ihre Art zu arbeiten erledigen. Für jeden Entscheider und IT-Verantwortlichen ist sie allerdings vergleichbar mit einem Gang über glühende Kohlen. Es gibt in einem Unternehmen nichts Schlimmeres, wenn die linke Hand nicht weiß was die rechte macht oder wenn IT-Lösungen zu einem unkontrollierten Wildwuchs ausufern. Das lässt sich nur durch eine zentrale Organisation handhaben. Bei der sich die IT-Abteilungen nicht wieder in ihren Elfenbeinturm zurückbegeben sollen, sondern pro-aktiv mit den Mitarbeiten der Fachabteilungen kommunizieren, um deren Bedürfnisse und Anforderungen zu verstehen. Die IT-Abteilung ist der interne IT-Dienstleister der Mitarbeiter und Fachabteilungen und so gehört sie auch ins Unternehmen eingeordnet. Broker-Plattformen sind in Zeiten von internen und externen (Cloud)-Services die Werkzeuge mit denen sie die Koordination für die Mitarbeiter regeln.

Koordination ist enorm wichtig

Wo wir abschließend noch einmal zu dem Thema IT-Verantwortung innerhalb des Unternehmens kommen. Je nachdem welcher Studie man Glauben schenken soll, ist die Private Cloud derzeit die bevorzugte Cloud-Form im Unternehmen. Immerhin sagen das 69 Prozent der Befragten. Darüber hinaus treffen in 80 Prozent aller Fälle die IT-Abteilungen die Entscheidungen über den Einkauf von IT-Lösungen. Das hört sich im ersten Moment nach dem Erhalt des Status Quo an. Wird auf Grund der aktuellen politischen Entwicklungen aber wohl vorerst die Realität bleiben. Nichts desto trotz ermöglichen auch echte Private Cloud Lösungen den Unternehmen eine flexible Zuweisung von Ressourcen über einen Self-Service an ihre Mitarbeiter.

Doch wer soll diese Private Cloud Infrastrukturen aufbauen und wer soll sie koordinieren? Es können nur die IT-Abteilungen machen. Allen anderen Mitarbeitern fehlen dazu die notwendigen Kenntnisse und die Zeit. IT-Abteilungen müssen von den Anbietern in der Public Cloud lernen und den Fachabteilungen auf einem ähnlichen Weg einen schnellen und vor allem unkomplizierten Zugriff auf IT-Ressourcen ermöglichen. Das funktioniert nur, wenn sie sich als Service-Broker für interne und externe IT-Services aufstellen und sich als partnerschaftlicher Dienstleister verstehen.

Categories
Kommentar

Erbärmlich: Protonet und sein Cloud Marketing

Erst einmal herzlichen Glückwunsch Protonet. 200.000 EUR auf Seedmatch zu erzielen, das muss man erst einmal schaffen. Meinen Artikel über euch scheint ihr ja gelesen zu haben. Er wurde sogar auf Seedmatch verlinkt aber dennoch verkauft ihr euer Produkt als Cloud Computing Produkt? “Protonet revolutioniert den Cloud Computing Markt mit dem einfachsten Server der Welt, der das Beste der Cloud mit den Vorteilen lokaler Hardware verbindet.” Tut mir leid, auch wenn ich eure Box tatsächlich interessant finde, aber dass ihr diese an Stelle eines “NAS” am Markt positioniert, lieber auf den Cloud Computing Zug aufspringt und Cloud-Washing betreibt, finde ich erbärmlich.

Protonet sagt die Unwahrheit!

Ich hatte mich mit Ali Jelveh auf der CeBIT 2012 kurz nach der Protonet Veröffentlichung darüber unterhalten. Und er hat in diesem Gespräch zugegeben, dass Protonet mit Cloud nichts zu tun hat, sich aber gut anhört, weil gerade jeder über die Cloud spricht.

Protonet täuscht gezielt Investoren

Auf Seedmatch schreibt Protonet:

“Glaubwürdigkeit
Wir erzählen eine ehrliche, authentische Geschichte. Wir müssen unser Produkt nicht künstlich schön reden. Unabhängigkeit und Freiheit im digitalen Zeitalter betreffen jeden. Und wir bieten das notwendige Werkzeug zum Erhalt dieser Grundwerte.”

Dann stellt sich mir aber die Frage, warum ihr eure Lösung für etwas verkauft, was es gar nicht ist? Glaubwürdigkeit ist etwas anderes.

Für die Investoren wird natürlich schön auf den Cloud Zug aufgesprungen:

“In Bezug auf die einzelnen Nutzenaspekte der Protonet-Box konkurrieren wir jeweils mit einer Reihe von Wettbewerbern. Im Homeserver-Bereich konkurrieren wir mit Anbietern wie Synology, Iomega, Western Digital und Buffalo. Im Social Collaboration Markt machen wir Diensten wie Yammer, Dropbox, TeamBox oder Campfire künftig Marktanteile strittig. Unsere innovative Kombination aus Hardware und Kollaborationsplattform in einem Designprodukt bietet momentan kein anderes Unternehmen.”

“Kurzum: Alle Vorteile der Cloud – ohne die Nachteile. Unsere Kunden erlangen ihre Informationshoheit und Datenkontrolle zurück und genießen höchstmögliche Datensicherheit.”

Weiterhin hat Protonet die Wachstumszahlen des Cloud Computing Markt genutzt, um sich attraktiver zu machen, obwohl Protonet mit Cloud Computing nichts zu tun hat!

Cloud Computing Eigenschaften

Ich hatte hier bereits 2010 beschrieben, worauf man bei einem echten Cloud Service achten sollte.

  • On Demand:
    Ich beziehe die Ressourcen zu dem Zeitpunkt, wenn ich Sie auch tatsächlich benötige. Anschließend “gebe ich sie wieder zurück”.
  • Pay as you Go:
    Ich bezahle nur für die Ressourcen, die ich auch tatsächlich nutze, wenn ich sie nutze. Dabei wird entweder z.B. pro Benutzer, pro Gigabyte oder pro Minute/ Stunde abgerechnet.
  • Keine Grundgebühr:
    Bei einem Cloud Computing Angebot zahle ich keine monatliche/ jährliche Grundgebühr!
  • Hohe Verfügbarkeit:
    Wenn ich die Ressourcen benötige, kann ich sie zu diesem Zeitpunkt auch nutzen.
  • Hohe Skalierbarkeit:
    Die Ressourcen lassen sich automatisiert meinen Bedürfnissen anpassen. Das bedeutet, dass sie entweder mit meinen Ansprüchen wachsen, wenn ich mehr Leistung benötige oder sich verkleinern, wenn die Anforderungen wieder abnehmen.
  • Hohe Zuverlässigkeit:
    Die von mir genutzten Ressourcen sind zu dem Zeitpunkt wenn ich sie nutze tatsächlich verfügbar, worauf ich mich verlassen kann.
  • Blackbox:
    Ich muss mich nicht darum kümmern, wie es im Inneren des Cloud Angebots aussieht. Ich nutze einfach den Service über eine offene, gut dokumentierte Schnittstelle.
  • Automatisierung:
    Nachdem ich eine Grundeinrichtung bzgl. meiner Bedürfnisse vorgenommen habe, sind von mir keine weiteren manuellen Eingriffe während der Nutzung des Angebots notwendig. Ich muss z.B. die Leistung der Server oder die Größe des Speicherplatzes nicht manuell anpassen. Dafür werden mir Möglichkeiten zur Automation bereitgestellt.
  • Zugriff über das Internet:
    Darüber kann diskutiert werden. Allerdings ist der Kostenvorteil den man durch Cloud Computing erhält obsolet, wenn eine teure exklusive Mietleitung benötigt wird, um bspw. die Ressourcen eines Anbieters zu nutzen.
  • Keine zusätzlichen Installationen:
    Bei einem SaaS Angebot erfolgt die vollständige Nutzung über den Webbrowser ohne dabei eine weitere Softwarekomponenten wie z.B. Java (Umgebung) installieren zu müssen.

Frage, kann ein NAS diese Eigenschaften erfüllen? Nein!

Selbst international steht Protonet in der Kritik

Unabhängig davon, dass ich mit Ihm jemals über Protonet gesprochen habe, hat mein Freund und Analysten-Kollege Ben Kepes aus Neuseeland die Lösung kritisch aufgefasst und ebenfalls in die Kategorie Cloud-Washing abgelegt.

Zwei Bereiche die auch Ben sehr deutlich hervorhebt:

Protonet makes total sense, it’s a great solution. But it isn’t in any way cloud.

Let’s use the age old acronyms to run a check on this, firstly Cloudcamp founder Dave Nielsen’s OSSM that states that a cloud service should be:

  • On demand
  • Scalable
  • Self service
  • Metered

Well Protonet isn’t scalable (beyond the obvious ability to swap out drives for bigger ones, its service isn’t metered and while some might call it self-service, driving down to your local computer supplies retailer for a new drive doesn’t really cut it when compared to true programmatical access.

So let’s take another try, this time using the father of Cloudonomics, Joe Weinman’s, CLOUD mnemonic. According to Weinman, a cloud service should be;

  • Common infrastructure
  • Location independence
  • Online accessibility
  • Utility pricing
  • On-demand resources

So Protonet scores even lower using this test. Sadly.

Herzlichen Glückwunsch Protonet, ihr habt es bei Ben auf einen der einflussreichsten Cloud Blogs der Welt geschafft, allerdings hat auch er euch durchschaut!

Journalisten hinterfragen nicht kritisch genug

Das beste ist, dass selbst deutsche Journalisten sich von diesem Marketing ins Bockshorn jagen lassen. Auf CIO.de ist ein lobender Artikel erschienen und exakt in der Mitte ist eine Info-Box mit dem Titel:

“Die Vorteile des Cloud Computings”.

Darin steht

“Speziell für kleine und mittelständische Betriebe stellen Anfangsinvestitionen in die IT eine enorme Hürde dar. Cloud-Modelle bieten als Alternative nicht nur die Chance, Kapitalkosten in Betriebskosten umzuwandeln, sondern auch unter dem Strich zu sparen.”

Der krasse Gegensatz auf einer einzigen Seite.

Update: CIO.de hat den oben genannten Artikel nach Veröffentlichung dieses Beitrags berechtigterweise wieder von Ihrer Webseite entfernt. Daher leitet der Link auf die Homepage des Magazins.

Ehrlichkeit, Ehrlichkeit, Ehrlichkeit

Zusammenfassende Frage: Was hat Protonet mit Cloud Computing oder einer Private Cloud zu tun? Zusammenfassende und einfache Antwort: Gar nichts.

Ich finde es ganz ehrlich, lächerlich, auf den Cloud Computing Zug aufzuspringen, die Investoren, Journalisten und den Rest der Öffentlichkeit mit so einer Marketingblase zu verwirren und dann noch Geld einzukassieren. Dabei hat Protonet es nicht einmal nötig. Das aufgebohrte NAS mit Chatter Kopie ist grundsätzlich eine gute Idee. Und ganz im Ernst, ich gönne Protonet den bisherigen Erfolg. Aber sein Geschäft auf Unwahrheiten und Täuschungen aufzubauen ist schon bei vielen nach hinten losgegangen.

Dieser Beitrag ist mit viel Emotion geschrieben und hört sich böse an. Aber jedes einzelne Wort meine ich ernst, weil Unwahrheiten für den eigenen Vorteil verbreiten keine Kavaliersdelikte sind!

Categories
Kommentar

Infrastruktur ist Commodity! Vertikale Services sind die Zukunft der Cloud.

Im Jahr 2014 erwartet der Infrastructure-as-a-Service Markt weltweit ein Gesamtumsatz von geschätzten 6 Milliarden Dollar. Ein guter Grund in diesem Cloud Segment sein Glück zu versuchen. Zahlreiche Anbieter sind in den letzten Jahren auf diesen Zug aufgesprungen und versuchen dem Platzhirsch Amazon Web Services (AWS) Marktanteile abzunehmen. Keine leichte Aufgabe, da sich die Innovationskurve der meisten Verfolger im Vergleich zu AWS eher flach verhält. Ein Grund besteht in dem versteiften Festhalten an dem Wort Infrastruktur in Infrastructure-as-a-Services. Argumente, wegen einer deutlich höheren Performance von AWS zu einem Mitbewerber zu wechseln hören sich im ersten Moment verlockend an. Aber unterm Strich zählt der Reifegrad des Portfolios und der Blick über das gesamte Angebot und nicht nur ein kleiner Bereich, in dem man sich einen technologischen Vorsprung verschafft hat.

Infrastructure-as-a-Services meinen tatsächlich Services

Auch wenn die Amazon Web Services der erste IaaS Anbieter am Markt war, nimmt das Wort „Web-Services“ eine zentrale Rolle in der Philosophie des Unternehmens ein. Gestartet mit den grundlegenden und zentralen Services Amazon EC2 (Rechenleistung, virtuelle Maschine) und Amazon S3 (Speicherplatz) wurden in sehr kurzen Zeiträumen immer weitere neue Services ausgerollt, die mit Infrastruktur nur im weitesten Sinne etwas zu tun haben. Services wie Amazon SQS, Amazon SNS, Amazon SWF oder Amazon SES helfen AWS-Kunden dabei, die Infrastruktur zu nutzen. Das Starten einer einzigen Amazon EC2 Instanz ist nämlich genauso viel Wert, wie ein virtueller Server bei einem klassischen Webhoster. Nicht mehr und nicht weniger – und ist im Endeffekt monatlich sogar noch teurer. Wer also hofft, in Zukunft weiterhin mit Infrastrukturkomponenten – virtueller Rechenleistung, Speicherplatz, Gateway usw. – auf die Party eingeladen zu werden, wird wohl draußen bleiben müssen.

Sich aus dem Preiskampf, den sich Amazon, Microsoft und Google derzeit liefern, weitestgehend herauszuhalten ist ebenfalls ratsam. Dieser erfreut zwar die Kunden, wird früher oder später aber zu einer Marktbereinigung führen. Außerdem, wenn man sich anschaut wie Jeff Bezos Amazon führt (bspw. Kindle Strategie), lässt er sich auf jede Preisschlacht ein, nur um Marktanteile zu gewinnen. Daher sollten IaaS Anbieter das Kapital lieber nutzen, um die Attraktivität des Portfolios zu erhöhen. Kunden sind bereit für Innovationen und Qualität zu bezahlen. Darüber hinaus sind Entscheider bereit für Lösungen aus der Cloud teilweise dasselbe und sogar mehr auszugeben wie für on-Premise Angebote. Die Bedeutung liegt verstärkt auf der Flexibilisierung der Unternehmens-IT, um dem Unternehmen damit mehr Agilität zu verschaffen.

Hierzu ein Tweet von meinem Freund und Analysten-Kollegen Ben Kepes aus Neuseeland, der den Nagel ironisch auf den Kopf trifft.

Vertikale Services sind die Zukunft der Cloud

Der Infrastructure-as-a-Services Markt hat bei weitem noch nicht seinen Zenit erreicht. Dennoch ist Infrastruktur zur Commodity geworden und ist nichts Innovatives mehr. Wir sind an einem Punkt in der Cloud angekommen, wo es darum geht, die Cloud Infrastrukturen zu nutzen, um darauf Services vertikal aufzubauen. Dafür sind Unternehmen und Entwickler neben virtueller Rechenleistung und Speicherplatz auf Services von dem Anbieter angewiesen, um das eigene Angebot performant, skalierbar und ausfallsicher zu betreiben. Trotz des mittlerweile umfangreichen Service-Portfolios von Anbietern wie Amazon, Microsoft und Google ist weiterhin viel Zeit, Wissen, Aufwand und somit auch Kapital notwendig, um diesen Zustand zu erreichen. Weiterhin werden von den Anbietern nur proprietäre infrastrukturnahe Services angeboten, um mit der Infrastruktur zu arbeiten. Alles Weitere muss selbst unter Zuhilfenahme dieser Services entwickelt werden.

Aus diesem Grund fehlen dem Markt Anbieter von externen Service-Portfolios, die von Unternehmen und Entwicklern genutzt werden können, um fertige Services, die auf den Infrastrukturen und Plattformen selbst entwickelt werden müssten, on-Demand einzusetzen. Solche Mehrwertdienste lassen sich für ein bestimmtes Geschäftsszenario horizontal in die vertikalen Services integrieren und bei Bedarf nutzen. Diese BBaaS (Business-Bricks-as-a-Services) fügen sich anbieterunabhängig in bestehende Infrastructure-as-a-Services und Platform-as-a-Services ein und schaffen für den Nutzer einen Mehrwert. Die einzelnen Geschäftsbausteine sind standardisiert und bereits hochskalierbar und hochverfügbar als Web-Services implementiert und lassen sich einfach und ohne großen Aufwand integrieren.

Mehr zu dem BBaaS Konzept gibt es unter: Business-Bricks-as-a-Service (BBaaS) – Geschäftsbausteine in der Cloud.

Categories
Kommentar

Cloud Rockstar 2013: Netflix ist der unangefochtene König des Cloud Computing

Ich denke es ist an der Zeit ein Unternehmen für seine Arbeit in der Cloud zu adeln. Anders als man nun vielleicht vermutet, handelt es sich nicht um einen der Anbieter. Nein! Auch wenn es die Anbieter sind, die erst die Möglichkeiten schaffen, sind es die Kunden, die letztendlich etwas daraus machen und der Öffentlichkeit die Macht der Cloud zeigen. Dabei muss man selbstverständlich die gewöhnlichen Kunden von denjenigen unterschieden, die sehr viel Engagement zeigen und sich von der Denkweise und damit auch architektonisch der Cloud angepasst haben. Um es vorweg zu nehmen, bei dem König der Cloud handelt es sich um Netflix und hier insbesondere um Adrian Cockroft, den Vater der Netflix Cloud-Architektur.

Geboren für die Cloud

Bevor sich Netflix für den Einsatz seines Systems in der Cloud entschieden hat (Migration von einer eigenen Infrastruktur), verbrachte das Unternehmen viel Zeit damit, um die Cloud zu verstehen und ein Test-System innerhalb der Cloud-Infrastruktur aufzubauen. Dabei wurde insbesondere darauf geachtet, soviel realistischen Traffic bzw. Traffic Szenarien wie möglich zu erzeugen, um damit das Test-System auf seine Stabilität hin zu prüfen.

Anfangs entwickelte Netflix dazu einen einfachen Repeater, der die echten und vollständigen Kundenanfragen auf das System innerhalb der Cloud Infrastruktur kopierte. Damit identifizierte Netflix die möglichen Engpässe seiner Systemarchitektur und optimierte im Zuge dessen die Skalierbarkeit.

Netflix selbst bezeichnet seine Software Architektur gerne auch als Rambo Architektur. Das hat den Hintergrund, dass jedes System unabhängig von den anderen Systemen einwandfrei funktionieren muss. Dazu wurde jedes System innerhalb der verteilten Architektur so entwickelt, dass es darauf vorbereitet ist, dass andere Systeme zu denen eine Abhängigkeit besteht, ausfallen können und das dieses toleriert wird.

Sollte das Bewertungssystem ausfallen, verschlechtert sich zwar die Qualität der Antworten, aber es wird dennoch eine Antwort geben. Statt personalisierten Angeboten werden dann nur bekannte Titel angezeigt. Sollte das System, dass für die Suchfunktion zuständig ist, unerträglich langsam sein, muss das Streaming der Filme trotzdem einwandfrei funktionieren.

Chaos Monkey: Der heimliche Star

Eines der ersten Systeme das Netflix auf bzw. für die Cloud entwickelt hat, nennt sich “Chaos Monkey”. Sein Job ist es, zufällig Instanzen und Services innerhalb der Architektur zu zerstören. Damit stellt Netflix sicher, dass alle Komponenten unabhängig voneinander funktionieren, selbst dann wenn Teil-Komponenten ein Problem haben.

Neben dem Chaos Monkey hat Netflix viele weitere Monitoring und Test-Tools für den Betrieb seines Systems in der Cloud entwickelt, die das Unternehmen als “The Netflix Simian Army” bezeichnet.

Netflix Simian Army: Das Vorbild

Die Simian Army von Netflix ist ein Extrembeispiel, wie eine Cloud Architektur auszusehen hat. Das Unternehmen hat viel Zeit, Anstrengungen und Kapital in die Entwicklung seiner Systemarchitektur investiert, die auf der Cloud Infrastruktur der Amazon Web Services läuft. Aber es lohnt sich und jedes Unternehmen, das die Cloud ernsthaft nutzen möchte und ein hochverfügbares Angebot präsentieren will, sollte sich Netflix unbedingt zum Vorbild nehmen.

Der Aufwand zeigt die Komplexität der Cloud

Unterm Strich ist zu sagen, dass Netflix für den Fehlerfall vorausschauend plant und sich nicht auf die Cloud verlässt. Denn irgendwas läuft auch mal in der Cloud schief, wie in jedem gewöhnlichen Rechenzentrum. Mann muss nur darauf vorbereitet sein.

Netflix zeigt sehr eindrucksvoll das es funktioniert. Wenn man jedoch bedenkt, was für einen Aufwand Netflix betreibt, um in der Cloud erfolgreich zu sein, muss man einfach sagen, dass Cloud Computing nicht einfach ist und eine Cloud Infrastruktur, egal bei welchem Anbieter, mit der entsprechenden Architektur aufgebaut werden muss. Das bedeutet im Umkehrschluss, dass die Nutzung der Cloud simpler werden muss, um auch die versprochenen Kostenvorteile zu erzielen. Denn wenn man Cloud Computing richtig nutzt, ist es zwangsläufig nicht günstiger. Neben den Einsparungen der Infrastrukturkosten die immer vorgerechnet werden, dürfen niemals die weiteren Kosten z.B. für das Personal mit den notwendigen Kenntnissen und die Kosten für die Entwicklung der skalierbaren und ausfallsicheren Applikation in der Cloud vernachlässigt werden.

Erfolgreich und sozial zugleich

Die meisten Unternehmen behalten ihren Erfolg für sich. Der Wettbewerbsvorteil wird ungerne aus der Hand gegeben. So nicht Netflix. In regelmäßigen Abstand werden Teile aus der Simian Army unter der Open-Source Lizenz veröffentlicht, mit denen jeder Cloud Nutzer die Möglichkeit erhält eine Cloud-Applikationen mit der Architektur DNA von Netflix zu entwickeln.

Cloud Rockstar 2013

Auf Grund seines Erfolgs und insbesondere seines Engagement in und für die Cloud, ist es an der Zeit, Netflix öffentlich zu adeln. Netflix hat es verstanden, die Cloud quasi in Perfektion zu nutzen und den Erfolg nicht für sich zu behalten. Stattdessen gibt das Unternehmen anderen Cloud-Nutzern die Möglichkeit, mit denselben Tools und Services eine ähnlich hochskalierbare und hochverfügbare Cloud-Applikationen aufzubauen.

Netflix wird damit von den Analysten von New Age Disruption und CloudUser.de zum “Cloud Rockstar 2013” in der Kategorie “Bester Cloud Nutzer” ernannt. Dieser unabhängige Award von New Age Disruption wird in diesem Jahr zum ersten Mal vergeben und zeichnet Anbieter als auch Anwender für ihre Innovationen und das außergewöhnliche Engagement im Cloud Computing aus.

Herzlichen Glückwunsch Netflix und Adrian Cockroft!

René Büst

Cloud Rockstar 2013 - Netflix

Weitere Informationen: Cloud Rockstar Award