Categories
Analysen

Amazon EBS: Wann beseitigen die Amazon Web Services ihren Single Point of Failure?

Innerhalb kürzester Zeit standen die Amazon Web Services in der Region US-EAST-1 in North Virginia wieder still. Zum einen am 19. August 2013, wobei anscheinend ebenfalls Amazon.com mit in die Tiefe gezogen wurde und zuletzt am 25. August 2013. Ursachen sollen wieder Unwetter gewesen sein. Dabei hat es dann natürlich auch wieder die üblichen Verdächtigen, allen voran Instagram und Reddit, erwischt. Instagram scheint vehement auf seine Cloud-Architektur zu vertrauen, die ihnen regelmäßig um die Ohren fliegt, wenn in North Virginia der Blitz einschlägt. Allerdings muss auch Amazon AWS scheinbar langsam etwas an seiner Infrastruktur verändern, denn so darf es nicht weitergehen.

US-EAST-1: Alt, günstig und brüchig

Die Amazon Region US-East-1 ist die älteste und meist genutzte Region in Amazons Cloud Computing Infrastruktur. Das hängt zu einem damit zusammen, das die Kosten im Vergleich zu anderen Regionen hier deutlich günstiger sind, wobei die Region Oregon mittlerweile preislich angepasst wurde. Zum anderen befinden sich hier auf Grund des Alters auch viele ältere Kunden mit vermutlich nicht für die Cloud optimierten Systemarchitekturen.

Alle Eier in einem Nest

Den Fehler, den die meisten Nutzer begehen ist, dass sie sich nur auf eine Region, in diesem Fall US-East-1, verlassen. Fällt diese aus, ist auch der eigene Service natürlich nicht mehr erreichbar. Das gilt für alle weltweiten Amazon Regionen. Um diese Situation zu umgehen, sollte ein Multi-Regionen Konzept gewählt werden, indem die Anwendung skalierbar und hochverfügbar über mehrere Regionen verteilt wird.

Amazon EBS: Single Point of Failure

Ich habe bereits im vergangenen Jahr die These aufgestellt, dass die Amazon Web Services über einen Single Point of Failure verfügen. Im Folgenden sind die Statusmeldungen vom 25. August 2013 zu sehen, die meine These unterstreichen. Das erste Mal bin ich durch einen Blogeintrag vom Amazon AWS Kunden awe.sm darauf aufmerksam geworden, die von ihren Erfahrungen in der Amazon Cloud berichten. Die fett markierten Stellen sind von entscheidender Bedeutung.

EC2 (N. Virginia)
[RESOLVED] Degraded performance for some EBS Volumes
1:22 PM PDT We are investigating degraded performance for some volumes in a single AZ in the US-EAST-1 Region
1:29 PM PDT We are investigating degraded performance for some EBS volumes and elevated EBS-related API and EBS-backed instance launch errors in a single AZ in the US-EAST-1 Region.
2:21 PM PDT We have identified and fixed the root cause of the performance issue. EBS backed instance launches are now operating normally. Most previously impacted volumes are now operating normally and we will continue to work on instances and volumes that are still experiencing degraded performance.
3:23 PM PDT From approximately 12:51 PM PDT to 1:42 PM PDT network packet loss caused elevated EBS-related API error rates in a single AZ, a small number of EBS volumes in that AZ to experience degraded performance, and a small number of EC2 instances to become unreachable due to packet loss in a single AZ in the US-EAST-1 Region. The root cause was a “grey” partial failure with a networking device that caused a portion of the AZ to experience packet loss. The network issue was resolved and most volumes, instances, and API calls returned to normal. The networking device was removed from service and we are performing a forensic investigation to understand how it failed. We are continuing to work on a small number of instances and volumes that require additional maintenance before they return to normal performance.
5:58 PM PDT Normal performance has been restored for the last stragglers of EC2 instances and EBS volumes that required additional maintenance.

ELB (N. Virginia)
[RESOLVED] Connectivity Issues
1:40 PM PDT We are investigating connectivity issues for load balancers in a single availability zone in the US-EAST-1 Region.
2:45 PM PDT We have identified and fixed the root cause of the connectivity issue affecting load balancers in a single availability zone. The connectivity impact has been mitigated for load balancers with back-end instances in multiple availability zones. We continue to work on load balancers that are still seeing connectivity issues.
6:08 PM PDT At 12:51 PM PDT, a small number of load balancers in a single availability zone in the US-EAST-1 Region experienced connectivity issues. The root cause of the issue was resolved and is described in the EC2 post. All affected load balancers have now been recovered and the service is operating normally.

RDS (N. Virginia)
[RESOLVED] RDS connectivity issues in a single availability zone
1:39 PM PDT We are currently investigating connectivity issues to a small number of RDS database instances in a single availability zone in the US-EAST-1 Region
2:07 PM PDT We continue to work to restore connectivity and reduce latencies to a small number of RDS database instances that are impacted in a single availability zone in the US-EAST-1 Region
2:43 PM PDT We have identified and resolved the root cause of the connectivity and latency issues in the single availability zone in the US-EAST-1 region. We are continuing to recover the small number of instances still impacted.
3:31 PM PDT The majority of RDS instances in the single availability zone in the US-EAST-1 Region that were impacted by the prior connectivity and latency issues have recovered. We are continuing to recover a small number of remaining instances experiencing connectivity issues.
6:01 PM PDT At 12:51 PM PDT, a small number of RDS instances in a single availability zone within the US-EAST-1 Region experienced connectivity and latency issues. The root cause of the issue was resolved and is described in the EC2 post. By 2:19 PM PDT, most RDS instances had recovered. All instances are now recovered and the service is operating normally.

Amazon EBS bildet die Basis vieler anderer Services

Die fett markierten Stellen sind aus diesem Grund von entscheidender Bedeutung, da alle diese Services gleichzeitig von einem einzigen Service abhängig sind: Amazon EBS. Zu dieser Erkenntnis ist awe.sm während seiner Analyse gekommen. Wie awe.sm festgestellt hat, ist EBS so gut wie immer das Hauptproblem größerer Ausfälle bei Amazon. So auch in dem obigen Ausfall. Mehr zum Amazon Elastic Block Store.

Zu den Services die von Amazon EBS abhängig sind gehören u.a. der Elastic Load Balancer (ELB), die Relational Database Service (RDS) oder Elastic Beanstalk.

Q: What is the hardware configuration for Amazon RDS Standard storage?
Amazon RDS uses EBS volumes for database and log storage. Depending on the size of storage requested, Amazon RDS automatically stripes across multiple EBS volumes to enhance IOPS performance.

Quelle: http://aws.amazon.com/rds/faqs/

EBS Backed
EC2: If you select an EBS backed AMI
ELB: You must select an EBS backed AMI for EC2 host
RDS
Elastic Beanstalk
Elastic MapReduce

Quelle: Which AWS features are EBS backed?

Load balancing across availability zones is excellent advice in principle, but still succumbs to the problem above in the instance of EBS unavailability: ELB instances are also backed by Amazon’s EBS infrastructure.

Quelle: Kommentar – How to work around Amazon EC2 outages

Wie man sieht hängen nicht wenige Services von Amazon EBS ab. Das bedeutet im Umkehrschluss, fällt EBS aus, sind diese Services ebenfalls nicht mehr verfügbar. Besonders tragisch verhält es sich mit dem Amazon Elastic Load Balancer (ELB), der dafür zuständig ist, im Fehlerfall oder bei großer Last den Datenverkehr zu leiten. Fällt also Amazon EBS aus und soll der Datenverkehr daraufhin in eine andere Region übertragen werden, funktioniert das nicht, da der Load Balancer ebenfalls von EBS abhängig ist.

Ich kann mich irren. Schaut man sich jedoch die vergangenen Ausfälle an, sprechen die Indizien dafür, dass Amazon EBS die zentrale Fehlerquelle innerhalb der Amazon Cloud ist.

Es darf daher die Frage erlaubt sein, ob einem Leader ständig dieselbe Komponente seiner Infrastruktur um die Ohren fliegen darf, die im Prinzip sogar als Single Point of Failure zu betrachten ist? Und ob ein Infrastructure-as-a-Service (IaaS) Anbieter, der die meisten Ausfälle von allen Anbietern am Markt zu verzeichnen hat, unter diesem Gesichtspunkt als Leader zu bezeichnen ist. Auch wenn ich immer wieder propagiere, dass man als Nutzer eines Public IaaS selbst für die Skalierbarkeit und Hochverfügbarkeit sorgen muss, hat der Anbieter selbst dennoch die Pflicht dafür zu sorgen, dass die Infrastruktur zuverlässig funktioniert.

Categories
Events

Der CloudOps Summit 2013 startet mit "Facing Complexity" in sein drittes Jahr

Am 25. September 2013 startet der CloudOps Summit 2013 in sein drittes Jahr. Mit dem Leitthema “Facing Complexity” bestätigt die führende Cloud Computing Veranstaltung in Deutschland ihren Ruf, indem Sie über den Telerrand hinausschaut, und die Cloud als Auslöser für den derzeit stattfindenden Wandel in der IT sieht. Auch ich werde in diesem Jahr wieder vor Ort sein und in meinem Vortrag auf die versteckte Komplexität des Cloud Computing hinweisen, die immer wieder gerne übersehen wird. Alle Leser haben darüber hinaus die Chance auf eine von fünf Freikarten oder können kostengünstiger am CloudOps Summit teilnehmen.

Facing Complexity

Der CloudOps Summit hat in diesem Jahr das Leitthema “Facing Complexity” gewählt, da sich Cloud Computing im Alltag vieler Unternehmen fest etabliert hat und zur Neudefinition der Wertschöpfungsbeziehungen beiträgt. Daher ist es umso wichtiger, sich mit dem derzeit stattfindenden Wandel in der IT auseinanderzusetzen, der weitaus tiefgreifender ist als „nur” Cloud Computing. Seit jeher wird versucht mit herkömmlichen IT-Konzepten die Komplexität zu verhindern oder zu minimieren. Doch spätestens seit den erfolgreichen Cloud-Implementierungen im High-Tech-Bereich hat sich gezeigt, dass der Schlüssel zum Erfolg im gezielten Umgang mit der unvermeidlichen Komplexität liegt.

In drei Tracks zeigen Referenten, wie sich der IT-Betrieb aufstellen muss, damit er mit dem stetigen Wandel und den schier unendlichen Abhängigkeiten umgehen kann (Operating Complexity). Weitere Themen sind der Wandel in der IT und seine Auswirkungen auf die Enterprise-IT (Changing Business) – z. B. durch neuartige Wertschöpfungsverhältnisse oder die sich verändernde Rollenverteilung zwischen Kunden und Anbietern – sowie das Zusammenwachsen von Entwicklung und Betrieb im Enterprise-Umfeld und den daraus resultierenden Herausforderungen für die IT (DevOps). Eine Schlüsselrolle fällt in allen drei Tracks den Themen Analytics und Knowledge Management zu, die das Rückgrat für extrem automatisierte Service-Konzepte bilden.

Cloud: Die Komplexität steckt im Detail

Mein Vortrag “Cloud Computing muss einfacher werden – Die Komplexität steckt im Detail” orientiert sich am Claim und wird verdeutlichen, dass die Komplexität des Cloud Computing mit der richtigen Nutzung zunimmt und zeigt Ideen und Konzepte, wie damit in Zukunft umgegangen werden muss.

Freikarten und Rabattcode

Bei den Freikarten greife ich ganz unkompliziert auf First-come, first-served zurück. Wer Interesse hat kostenlos zum CloudOps Summit zu kommen, der schickt mir einfach eine E-Mail mit dem Betreff “CloudOps Summit Freikarte” und begründet, warum er diese haben möchte.

Wer nicht in den Genuss einer Freikarte kommen sollte, der hat die Chance über den Rabattcode: COS-DOLYNZJ9 mit einer Ermäßigung von 30 Prozent am CloudOps Summit 2013 teilzunehmen. Weitere Informationen gibt es unter www.cloudops.de.

Categories
Analysis

Cloud storage Box could become a threat for Dropbox and Microsoft SkyDrive

To become more attractive for private users and small businesses, the cloud storage provider Box has expanded its pricing model. Immediately in addition to the existing plans for private, business and enterprise customers a Starter plan can be selected as well, which is interesting for both small businesses and freelancers as well as private customers.

Private customers get more free storage, small businesses a new plan

The offer for private users has been increased from formerly free 5GB to 10GB. In addition, the portfolio was extended with a new Starter plan, which should be target at smaller companies. This offers 100GB disk space for 1 to max. 10 users per company account for $ 5 per user per month.

Box, that addressed large companies in the first place, thus hoped that smaller enterprise customers and consumers increased to store their data in the cloud, rather than save it to error-prone local media. According to CEO Aaron Levie, Box is particularly driven by the issues of information and collaboration. Whether it is a global corporation, a small business or a freelancer, in the end it is important that you are able to share content and access it securely and reliably from anywhere, so Levie.

The new Starter plan is just a hook

To be honest, the new Starter plan is very interesting as it meets the needs of a specific target group. However, these are not small companies, but definitely private users and freelancers. The features that are offered around the storage are definitely on enterprise level. In addition to various safety features (no end-to-end encryption) at different levels, integration options over apps on the basis of an ecosystem of third party developers are available. However, 100GB are far too little for small businesses, especially since this account is designed for 1 to 10 users. 10 GB per user is very scarce very quickly. In addition, many other interesting and important features for businesses are offered just with the next plan “Business” for $15 per user per month. Where at least three users are need to set up. This will include 1000GB storage and other security functions on folder and file level per user, integration into an Active Directory, Google Apps and Salesforce, an advanced user management, etc. So, at the end of the day, the Starter plan just serves as a hook to drum up business customer.

On the other hand, this plan is a very interesting deal for private users and freelancers who need more features at a cheaper price and a similar performance like Dropbox. Since, although the free plan was extended to 10GB, but the free limit of 50GB has been dropped. Who now needs more than 10GB must buy 100GB for $10 per month. It therefore makes a lot more sense for private users to opt for a Starter plan and only pay $5 per month or $60 per year.

The Starter plan may well ensure that Dropbox and Microsoft SkyDrive losing market share if this renewal gets around. Particular SkyDrive should dress up warmly. Although Microsoft’s cloud storage is well integrated with the Windows operating systems and continues to be the cheapest on the market. However, SkyDrive is very slow and the user experience is below average. Just to highlight a tiny but crucial detail that makes Box simply better. Transparency, what is happening in the background. By way of comparison: Box has a small app for Windows in which the status is displayed. Here you can see: the progress in percent; the approximate time until the upload is completed; the file that is being processed; how many files need to be processed; how many files are processed in total. Microsoft SkyDrive shows nothing of this. The user is completely left in the dark.

Dropbox is known as performance king. Also the ease of use is good. Nevertheless, the Box Starter plan, due to its extended functional possibilities at a cheaper price and a similar performance, has certainly the potential to compete Dropbox.

Note: Due to the current security situation, it is pointed out that Box is a U.S. based provider and the data is stored in the United States. Although, the data is stored server side encrypted. However, Box doesn’t offer an end-to-end encryption (only SSL during transmission). The key for on Box’ infrastructure encrypted data are owned by Box and not by the user. For this reason, Box has the opportunity to decode the data independent to allow third parties access it anytime.

Categories
Analysen

Cloud Storage Box könnte Dropbox und Microsoft SkyDrive Marktanteile kosten

Um für private Anwender und kleine Unternehmen attraktiver zu werden, hat der Cloud Storage Anbieter Box sein Preismodell erweitert. Ab sofort kann neben den bestehenden Tarifen für Privatanwender, Business- und Enterprise-Kunden ebenfalls ein Starter-Tarif gewählt werden, der sowohl für kleine Unternehmen und Freelancer aber auch Privatkunden interessant ist.

Privatkunden bekommen mehr kostenlosen Speicherplatz, kleine Unternehmen einen eigenen Tarif

Das Angebot für private Nutzer wurde von ehemals kostenlosen 5GB auf 10GB erhöht. Zudem wurde das Portfolio um einen neuen Starter-Tarif erweitert, der sich insbesondere an kleinere Unternehmen richten soll. Dieser bietet 100GB Speicherplatz für 1 bis max. 10 Benutzer pro Unternehmensaccount für 4EUR pro Benutzer pro Monat.

Box, die in erster Linie große Unternehmen ansprechen, erhofft sich damit, dass kleinere Unternehmenskunden und Endkunden verstärkt ihre Daten in der Cloud speichern, anstatt diese auf fehleranfälligen lokalen Datenträgern speichern bzw. sichern. Nach Aussage von CEO Aaron Levie wird Box insbesondere durch die Themen Informationen und Collaboration vorangetrieben. Ob es sich nun um einen global agierenden Konzern, ein kleines Unternehmen oder einen Freelancer handelt, am Ende geht es darum, dass man in der Lage ist, Inhalte zu teilen und von überall darauf zuverlässig und sicher zuzugreifen, so Levie.

Der neue Starter-Tarif ist nur ein Haken

Man muss ehrlich sagen, dass der neue Start-Tarif sehr interessant ist, da er die Bedürfnisse einer bestimmten Zielgruppe erfüllt. Allerdings handelt es sich dabei nicht um kleine Unternehmen, sondern Freelancer und auf jeden Fall Privatanwender. Die Funktionen die um den Speicherplatz herum angeboten werden sind definitiv auf Unternehmenslevel. Neben diversen Sicherheitsfunktionen (keine Ende-zu-Ende Verschlüsselung) auf unterschiedlichen Ebenen, stehen Integrationsmöglichkeiten über Apps auf Basis eines Ökosystems von externen Entwicklern zur Verfügung. Jedoch sind 100GB für kleine Unternehmen viel zu wenig, zumal dieses Konto für 1 bis 10 Benutzer ausgelegt ist. 10 GB pro Nutzer wird sehr schnell sehr eng. Hinzu kommt, dass viele weitere interessante und wichtige Funktionen für Unternehmen erst mit der nächsten Tarifstufe “Business” für 12 EUR pro Benutzer pro Monat angeboten werden. Wobei mindestens drei Benutzer einzurichten sind. Dazu gehören dann 1000GB Speicherplatz sowie weitere Sicherheitsfunktionen auf Ordner- und Dateiebene pro Benutzer, Integrationsmöglichkeiten in eine Active Directory, Google Apps und Salesforce, eine erweiterte Benutzerverwaltung usw. Daher muss man zusammenfassend sagen, dass der Starter-Tarif einzig und alleine als Haken dient, um Unternehmen an Land zu ziehen.

Auf der anderen Seite ist dieser Tarif für Privatnutzer und Freelancer sehr interessant, die mehr Funktionen zu einem günstigeren Preis und zu einer ähnlichen Performance benötigen wie bei Dropbox. Denn, zwar wurde der kostenlose Privatkundentarif auf 10GB erweitert, dafür ist aber die kostenlose Obergrenze von 50GB weggefallen. Wer nun mehr als die 10GB benötigt, muss 100GB für 9 EUR pro Monat kaufen. Es macht daher also ebenfalls als Privatnutzer viel mehr Sinn, sich für einen Starter Tarif zu entscheiden und nur 4 EUR pro Monat bzw. 48 EUR pro Jahr zu bezahlen.

Der Starter Tarif kann durchaus dafür sorgen, dass Dropbox und Microsoft SkyDrive Marktanteile verlieren, wenn sich diese Erneuerung herum spricht. Insbesondere SkyDrive sollte sich warm anziehen. Zwar ist Microsofts Cloud Storage gut in die Windows Betriebsysteme integriert und weiterhin der preisgünstigste am Markt. Allerdings ist SkyDrive sehr langsam und die Benutzerfreundlichkeit ist unterdurchschnittlich. Nur um ein winziges aber entscheidendes Detail hervorzuheben, was Box ganz einfach besser macht. Die Transparenz, das was gerade im Hintergrund passiert. Zum Vergleich: Box hat eine kleine App unter Windows in welcher der Status angezeigt wird. Hier ist zu sehen: Der Fortschritt in Prozent; die ungefähre Zeit die noch verbleibt bis der Upload abgeschlossen ist; die Datei die gerade verarbeitet wird; wie viele Dateien noch verarbeitet werden müssen; wie viele Dateien insgesamt verarbeitet werden. Microsoft SkyDrive zeigt nix von alledem an. Man wird als Nutzer vollständig im dunklen stehen gelassen.

Dropbox ist als Performancekönig bekannt. Auch die Benutzerfreundlichkeit ist gut. Dennoch hat der Box Starter Tarif, auf Grund seiner erweiterten Funktionsmöglichkeiten zu einem günstigeren Preis und einer ähnlichen Performance, durchaus das Potential Dropbox Konkurrenz zu machen.

Anmerkung: Aufgrund der aktuellen Sicherheitslage wird darauf hingewiesen, dass Box ein U.S. amerikanischer Anbieter ist und die Daten in den USA gespeichert werden. Zwar werden diese dort Serverseitig verschlüsselt gespeichert. Box bietet allerdings keine Ende-zu-Ende Verschlüsselung an (nur SSL bei der Übertragung). Die Schlüssel für die auf Box’ Infrastruktur verschlüsselt gespeicherten Daten befinden sich ebenfalls im Besitz von Box und nicht des Benutzers. Aus diesem Grund hat Box zu jeder Zeit die Möglichkeit Daten eigenständig zu entschlüsseln, um Dritte darauf Zugriff zu gewähren.

Categories
Analysis

Google Apps vs. Microsoft Office 365: What do the assumed market shares really tell us?

The blog of UserActivion compares at regular intervals the spread of office and collaboration solutions from Google Apps and Microsoft Office 356. I have accidentally become aware of the market shares per industry, thanks Michael Herkens. The result is from July and shows the market shares of both cloud solutions for June. The post also shows a comparison to the previous month May. What stands out here is that Google Apps is by far in the lead in any industry. With the size and general dissemination of Microsoft that’s actually unusual. Therefore, to take a look behind the scenes make sense.

Google Apps with a clear lead of Office 365

Trusting the numbers from UserActivion, Google Apps has a significant advantage in the sectors of trade (84.3 percent), technology (88.2 percent), education (77.4 percent), health care (80.3 percent) and governments (72.3 percent).

In a global comparison, it looks similar. However, Office 365 has caught up with May in North America, Europe and Scandinavia. Nevertheless, the current ratio is, according to UserActivion, at 86:14 for Google Apps. In countries such as Norway and Denmark is a balanced ratio of 50:50.


Source: useractivation.com


Source: useractivation.com

Do the Google Apps market shares have a significance?

This question is relatively easy to answer. They have a significance on the dissemination of Google Apps. However, they say nothing about what sales Google makes with these market shares. As measured by this, the expected ratio between Google Apps and Office 365 looks a little different. Why?

Well, Google Apps has become such a big market share because the Google Apps Standard version (no longer exists) for a given number of users and the Google Apps for Education could be used for a very very long time for free of charge. The Education version is still free. This naturally leads to the fact that also a lot of users who have their own domain, have chosen a free Google Apps Standard version, which even after the discontinuation of the version may continue to be used. The only limitation are the maximum users per domain.

So it comes, for example, that only I as a single person have registered nine (9) Google Apps Standard accounts over the last years. Most of them I still have. I currently use two of them (Standard, Business) active and pay for one (Business).

The Google Apps market shares must therefore be broken down as follows:

  • Google Apps users.
  • Not active Google Apps users.
  • Active Google Apps users who do not pay.
  • Active Google Apps users who pay.

If this ratio is now weighted and applied to the market share in terms of turnover, Microsoft would fare better. Why?

At the end of the day it is about cash. From the beginning Microsoft has nothing to give away. Admittedly Office 365 can be tested for free for a short time. Subsequently, the decision is made for a paid plan or not. This means that it is assumed that each Office 365 client, who no longer is in the testing phase, at the same time is an active paying user. Surely Google receives from the non-paying active users insights about their behavior and can place a bit of advertising. But the question remains how much that really matters.

This does not mean that Google Apps has not widely prevalent. But it shows that the strategy of Google rises at least in one direction. Give away of accounts for free to get market share pays (naturally). It also shows that market shares are not simultaneously mean profitability. Most people like to take what they get for free – the Internet principle. The fact that Google has to slowly start to monetize its customer base can be seen by the discontinuation of the free standard version. It appears that the critical mass has been reached.

Compared to Google Apps, Microsoft was to late with Office 365 on the market and must catch up once strong. On top of that Microsoft has (apparently) nothing to give away. Assuming that the numbers of UserActivion are valid, another reason may be, that the website and the offer of Office 365 – compared to Google Apps – are far too opaque and complicated. (Hint: Just visit the websites.)

Google copied the Microsoft principle

In conclusion, based on the UserActivion numbers, it can be said that Google is on the best way to apply the Microsoft principle to itself. Microsoft’s way into the enterprise went over the home user of Windows, Office and Outlook products. The strategy worked. Who even works in the evening with the known programs from Redmond has it during the day at work much easier because it is so familiar. Even the recommendations for a Microsoft product by the employees were inevitable. The same applied to the Windows server. If a Windows operating system is so easy to use and configure, then a server can not ultimately be much more complicated. With it the decision makers could be taken on board. A similar principle can be seen at Google. Google Apps is nothing more than a best of the Google services for end users, GMail, GDocs, etc. packed in a suite. Meanwhile, the dissemination of these services is also relatively high, thus it can be assumed that most IT decision makers are familiar with it, too. It is therefore interesting to see how the real(!) market share between Google Apps and Office 365 to develop.

Categories
Analysen

Google Apps vs. Microsoft Office 365: Was sagen die vermuteten Marktanteile wirklich aus?

Im Blog von UserActivion wird in regelmäßigen Abständen die Verbreitung der Office und Collaboration Lösungen von Google Apps und Microsoft Office 356 verglichen. Ich bin zufällig auf die Marktanteile pro Branche aufmerksam geworden, danke Michael Herkens. Das Ergebnis ist aus dem Juli und zeigt die Marktanteile beider Cloud Lösungen für den Monat Juni. Der Beitrag zeigt ebenfalls einen Vergleich zum Vormonat Mai. Was dabei auffällt ist, dass Google Apps in jeder Branche mit Abstand vorne liegt. Bei der Größe und generellen Verbreitung von Microsoft ist das schon ungewöhnlich. Daher lohnt sich ein Blick hinter die Kulissen.

Google Apps mit klaren Vorsprung vor Office 365

Glaubt man den Zahlen von UserActivion, liegt Google Apps mit einem deutlichen Vorsprung in den Branchen Handel (84,3 Prozent), Technologie (88,2 Prozent), Bildung (77,4 Prozent), Gesundheitswesen (80,3 Prozent) und Regierungen (72,3 Prozent) vorne.

Im weltweiten Vergleich sieht es ähnlich aus. Allerdings hat Office 365 zum Mai in Nordamerika, Europa und Skandinavien etwas aufgeholt. Dennoch liegt das aktuelle Verhältnis laut UserActivion bei 86:14 für Google Apps. In Ländern wie Norwegen und Denmark ist ein ausgeglichenes 50:50 Verhältnis.


Quelle: useractivation.com


Quelle: useractivation.com

Haben die Google Apps Martkanteile eine Aussagekraft?

Diese Frage ist relativ einfach zu beantworten. Sie haben eine Aussagekraft was die Verbreitung von Google Apps angeht. Allerdings sagen sie nichts darüber aus, was für einen Umsatz Google mit diesen Marktanteilen macht. Denn gemessen daran dürfte das Verhältnis zwischen Google Apps und Office 365 etwas anders aussehen. Warum?

Nun, Google Apps hat mittlerweile so einen großen Marktanteil, weil die Google Apps Standard Version (existiert nicht mehr) für eine bestimmte Anzahl von Nutzern und die Google Apps for Education sehr sehr lange kostenlos genutzt werden konnte. Die Education Version ist weiterhin kostenlos. Das führt natürlich dazu, dass ebenfalls sehr sehr viele Nutzer, die über eine eigene Domain verfügen, sich für eine kostenlose Google Apps Standard Version entschieden haben, die auch nach der Abkündigung der Version weiterhin genutzt werden darf. Die einzige Einschränkung sind die maximalen Benutzer pro Domain.

So kommt es zum Beispiel dazu, dass alleine ich als einzelne Person in den vergangenen Jahren neun (9) Google Apps Standard Accounts registriert habe. Die meisten habe ich immer noch. Davon nutze ich derzeit zwei (Standard, Business) aktiv und bezahle für einen (Business).

Die Google Apps Marktanteile müssen daher wie folgt herunter gebrochen werden:

  • Google Apps Nutzer.
  • Nicht aktive Google Apps Nutzer.
  • Aktive Google Apps Nutzer die nicht bezahlen.
  • Aktive Google Apps Nutzer die bezahlen.

Wird dieses Verhältnis nun gewichtet und auf die Marktanteile in Bezug auf den Umsatz angewendet, würde Microsoft deutlich besser abschneiden. Warum?

Am Ende des Tages geht es ums harte Geld. Microsoft hat von Beginn an nichts zu verschenken. Zwar kann Office 365 für kurze Zeit kostenlos getestet werden. Anschließend fällt aber die Entscheidung für einen kostenpflichtigen Tarif oder nicht. Das bedeutet, dass davon auszugehen ist, dass jeder Office 365 Kunde, der sich nicht mehr in der Testphase befindet, gleichzeitig ein aktiver und zahlender Nutzer ist. Sicherlich erhält Google von den nicht zahlenden aktiven Nutzern Einblicke über deren Verhalten und kann ein bisschen Werbung platzieren. Bleibt aber die Frage offen, wie viel das wirklich ausmacht.

Das heißt nicht, dass Google Apps keine große Verbreitung hat. Aber es zeigt, dass die Strategie von Google zumindest in eine Richtung aufgeht. Accounts verschenken, um darüber Marktanteile zu erhalten zahlt sich (logischerweise) aus. Zudem zeigt es, dass Marktanteile nicht gleichzeitig Profitabilität bedeuten. Die meisten Menschen nehmen gerne etwas an was sie kostenlos bekommen – das Internet-Prinzip. Dass auch Google langsam damit beginnen muss seine Kundenbasis zu monetarisieren lässt sich durch die Abkündigung der kostenlosen Standardversion erkennen. Die kritische Masse scheint erreicht worden zu sein.

Microsoft war mit Office 365 im Vergleich zu Google Apps erst spät am Markt und muss erst einmal kräftig aufholen. Hinzu kommt, dass Microsoft (scheinbar) nichts zu verschenken hat. Ausgehend davon, dass die Zahlen von UserActivion valide sind, kann ein weiterer Grund durchaus darin bestehen, dass die Webseiten und das Angebot von Office 365 – im Vergleich zu Google Apps – viel zu undurchsichtig und kompliziert sind. (Tipp: Einfach mal die Webseiten besuchen.)

Google kopiert das Microsoft Prinzip

Abschließend lässt sich auf Basis der UserActivion Zahlen sagen, dass Google auf dem Besten Weg ist, dass Microsoft-Prinzip auf sich selbst anzuwenden. Microsofts Weg in die Unternehmen ging damals über die Heimanwender von Windows, Office und Outlook Produkten. Die Strategie ging auf. Wer auch am Abend mit den bekannten Programmen aus Redmond arbeitet, hat es tagsüber bei der Arbeit leichter, da er sich damit auskennt. Auch die Empfehlungen für ein Produkt von Microsoft durch die Mitarbeiter war dadurch vorprogrammiert. Dasselbe galt für die Windows Server. Wenn ein Windows Betriebssystem so einfach zu bedienen und zu konfigurieren ist, dann kann ein Server schließlich nicht viel komplizierter sein. Damit konnten auch die Entscheider ins Boot geholt werden.
Ein ähnliches Prinzip lässt sich bei Google erkennen. Google Apps ist nichts anderes als ein Best of der Google Services für Enduser, GMail, GDocs usw. verpackt in einer Suite. Die Verbreitung dieser Services ist mittlerweile ebenfalls relativ hoch, wodurch davon auszugehen ist, dass die meisten IT-Entscheider damit vertraut sind. Es bleibt daher weiter spannend zu sehen, wie sich die echten(!) Marktanteile zwischen Google Apps und Office 365 entwickeln.

Categories
Events

Webinar: Cloud Computing Strategie in sechs Schritten

In einem kostenlosen einstündigen Webinar am 2. September um 16:00 zeigen Dietmar Wiedemann und ich die wichtigsten Schritte für eine nachhaltige Cloud Computing Strategie. Die Anmeldung erfolgt unter diesem LINK.

Inhalte des Webinar

In dem einstündigen Webinar zeigen wir am 2. September ab 16:00 auf, wie CIOs eine nachhaltige Cloud Computing Strategie entwickeln. Dabei werden wir folgende Fragen beantworten:

  • Warum ist Cloud Computing für den Unternehmenserfolg aus IT-Sicht essenziell?
  • Welche Potenziale birgt Cloud Computing für Unternehmen?
  • Wie treffen Unternehmen die Entscheidung für die Cloud?
  • Welche Use Cases eignen sich besonders für Cloud Computing?
  • Welche Schritte sind für die Strategieentwicklung notwendig?
  • Welche Anbieter bieten welche Services?
  • Wie sichert eine durchdachte Cloud-Governance die Vorteile und minimiert die Risiken des Cloud Computing?

Mit dem Webinar erhalten alle Teilnehmer kompakt, fokussiert und praxisbezogen die notwendigen Bausteine, um selbst eine eigene Cloud Computing Strategie zu entwickeln und nachhaltig umzusetzen.

In vielen Unternehmen fehlt eine klare Cloud Computing Strategie

Laut dem Marktforschungsunternehmen IDC weisen nur rund dreißig Prozent der deutschen Unternehmen eine formale Cloud-Strategie auf. Mit einer solchen Strategie legen Unternehmen fest, welche Anforderungen an eine Cloud-Umgebung bestehen, welche Teile der IT in einer Private oder Public Cloud genutzt werden und welche Schritte zur Umsetzung notwendig sind. „Die Bereitschaft, in die Cloud zu gehen, ist bei vielen Unternehmen trotz PRISM und Co. gegeben. Was den meisten CIOs allerdings noch fehlt, ist eine klar definierte Cloud-Strategie. Vielerorts setzen viele Firmen Cloud Services bisher noch punktuell und ohne strategische Weitsicht ein.“ so Dietmar Wiedemann, Cloud-Experte der Proventa AG und Leiter des Fachbereichs Cloud Computing im Bundesverband der Dienstleister für Online Anbieter e.V. (BODA). Demnach bleiben die wichtigen Fragen offen, etwa wie man die Cloud-Strategien entwickelt und umsetzt, um einen echten Mehrwert für die Organisation zu schaffen.

Mit einer Cloud Computing Strategie lässt sich Schatten-IT vermeiden

Fachabteilungen investieren vermehrt selbstständig in Informations- und Kommunikationstechnologien, lassen IT-Innovationen entwickeln oder besorgen sie kurzer Hand aus der Cloud. Diese Entwicklungen, die unter dem Stichwort Schatten-IT diskutiert werden, beunruhigen CIOs. „Mit der richtigen IT-Strategie lässt sich die Schatten-IT aber auch präventiv verhindern, eindämmen und beseitigen.“ sagt René Büst,  Principal Analyst und Senior Advisor von New Age Disruption. Ein vielversprechender Ansatz sei beispielsweise der Aufbau eines eigenen Cloud-Service-Portals für die Mitarbeiter, über welches diese kontrolliert auf interne und externe Cloud Services zugreifen können, so Büst. Die IT-Abteilung wird dadurch immer mehr zum Service Broker und kann durch die Nutzung externer Ressourcen (hybrid Modell) sicherstellen, dass die Mitarbeiter mit einer hohen Servicegüte rechnen können.

Anmeldung zum Webinar

Die Anmeldung für das Webinar “In sechs Schritten zu Ihrer erfolgreichen Cloud-Strategie.”, am 2. September 2013, um 16:00 Uhr, ist unter https://attendee.gotowebinar.com/register/906375066186336000 zu finden.

Nach der Anmeldung erhält der Teilnehmer eine Bestätigungs-E-Mail mit den Informationen zur Teilnahme an dem Webinar.

Categories
Comment

Dangerous: VMware underestimates OpenStack

Slowly we should seriously be worried who dictated VMware executives, what they have to say. In early March this year, COO Carl Eschenbach says, that he finds it really hard to believe that VMware and their partners cannot collectively beat a company that sells books (Note: Amazon). Well, the current reality looks different. Then in late March, a VMware employee from Germany comes to the conclusion, that VMware is the technology enabler of the cloud, and he currently see no other. That this is far from it, we all know, too. Lastly, CEO Pat Gelsinger puts another one on top and claims that OpenStack is not for the enterprise. Time for an enlightenment.

Grit your teeth and get to it!

In an interview with Network World, VMware CEO Pat Gelsinger spoke on OpenStack and does not expect that the open source project will have a significant reach in enterprise environments. Instead, he considered it as a framework service providers can use to build public clouds. In contrast, VMware has a very wide spread with extremely large VMware environment. The cost of switching and other topics are therefore not particularly effective. However, Gelsinger sees for cloud and service providers, in areas where VMware has not successfully done business in the past, a lot of potential for OpenStack.

Furthermore, Gelsinger considered OpenStack as a strategic initiative for VMware, which they are happy to support. VMware will ensure that its products and services work within cloud environments based on the open source solution. In this context OpenStack also opens new opportunities for VMware to enter the market for service providers, an area that VMware has neglected in the past. Therefore, VMware and Gelsinger see OpenStack as a way to line up wider.

Pride comes before a fall

Pat Gelsinger is right when he says that OpenStack is designed for service providers. VMware also remains to the leading virtualization vendors in the enterprise environment. However, this type of stereotypical thinking is dangerous for VMware. Because the tide can turn very quickly. Although Gelsinger like to see the high switching costs as a reason why companies should continue to rely on VMware. However, there is one thing to consider. VMware has its strengthen only(!) in virtualization – with the hypervisor. In relation to cloud computing, where OpenStack has its center of gravity, it does not look as rosy as it might look. To be honest, VMware has missed the trend to offer early solutions that make it possible to enable the virtualized infrastructure for the cloud, and serve with higher quality services and self-service capabilities to allow the IT department to become a service broker. Meanwhile, solutions are available, but the competition, not only from the open source environment, grows steadily.

This is also seen by IT buyers and decision makers. I’ve spoken with more than one IT manager who plans to exchange its VMware infrastructure against something open, in most cases KVM was named, and more cost-effective. This is just the virtualization layer which can break away. Furthermore, there are already some use cases of large companies (see on-premise private cloud) that use OpenStack to build a private cloud infrastructure. What also must not be forgotten is that more and more companies change in the direction of a hosted hosted private cloud or public cloud provider and the own data center will become less important over time. In this context, the hybrid cloud plays an increasingly important role to make the transfer and migration of data and systems more convenient. This is where OpenStack due to its wide distribution in hosted private cloud and public cloud environments has a great advantage over VMware.

With such statements, of course, VMware tries to suppress OpenStack from their own territory – on-premise enterprise customers – to place their own solutions. Nevertheless, VMware should not make the mistake of underestimating OpenStack.

Categories
Kommentar

Gefährlich: VMware unterschätzt OpenStack

Langsam sollte man sich ernsthaft Sorgen machen, wer den Verantwortlichen von VMware diktiert, was sie zu sagen haben. Anfang März diesen Jahres sagt COO Carl Eschenbach, dass es für ihn schwer vorstellbar ist, dass VMware mit seinen Partnern nicht gegen ein Unternehmen das Bücher verkauft (Anmerkung: Amazon) bestehen kann. Naja, die Realität sieht derzeit anders aus. Dann kommt Ende März ein VMware Mitarbeiter aus Deutschland zum dem Schluss, dass VMware der Technologie-Enabler der Cloud sei und er derzeit keinen anderen sehe. Das dies bei weitem gefehlt ist, wissen wir auch. Nun setzt CEO Pat Gelsinger noch einen obendrauf und behauptet, dass OpenStack nicht für Unternehmen gedacht sei. Zeit für eine Aufklärung.

Augen zu und durch!

In einem Interview mit Network World äußerte sich VMware CEO Pat Gelsinger zu OpenStack und erwartet nicht, dass das Open-Source Projekt eine erhebliche Reichweite im Unternehmensumfeld haben wird. Stattdessen halte er es für ein Framework das Services Provider nutzen können, um Public Clouds aufzubauen. Im Gegenteil dazu habe VMware eine sehr große Verbreitung mit extrem großen VMware Umgebung. Die Kosten für einen Wechsel und weitere Themen seien daher nicht besonders effektiv. Allerdings sieht Gelsinger bei Cloud- und Service-Anbietern, also in Bereichen in denen VMware in der Vergangenheit nicht erfolgreich Geschäfte gemacht hat, viel Potential für OpenStack.

Weiterhin betrachtet Gelsinger OpenStack für VMware aber als eine strategisch wichtige Initiative, welche VMware gerne unterstützt. VMware wird sicherstellen, dass seine Produkte und Services innerhalb von Cloud-Umgebungen auf Basis der Open-Source Lösung funktionieren. In diesem Zusammenhang eröffnet OpenStack für VMware ebenfalls neue Möglichkeiten, um in den Markt für Service Provider einzusteigen, ein Bereich, den VMware in der Vergangenheit vernachlässigt hat. VMware und Gelsinger sehen OpenStack daher als eine Möglichkeit, um sich breiter aufzustellen.

Hochmut kommt vor dem Fall

Pat Gelsinger hat Recht wenn er sagt, dass OpenStack für Service Provider gedacht ist. Auch gehört VMware weiterhin zu den führenden Virtualisierungsanbietern im Unternehmensumfeld. Jedoch ist diese Art von Schubladendenken gefährlich für VMware. Denn das Blatt kann sich sehr schnell wenden. Gelsinger mag zwar die hohen Wechselkosten als Grund sehen, warum Unternehmen weiterhin auf VMware setzen sollten. Allerdings sollte man eins nicht vergessen. VMware ist nur(!) beim Thema Virtualisierung stark – beim Hypervisor. In Bezug auf das Thema Cloud Computing, wo OpenStack seinen Schwerpunkt hat, sieht es nicht so rosig aus, wie es aussehen könnte. Man muss ehrlich sagen, dass VMware hier den Trend verschlafen hat, frühzeitig Lösungen zu bringen, die es ermöglichen, die virtualisierte Infrastruktur auch Cloud-fähig zu machen. Und über höherwertige Services und Self-Service es der IT-Abteilung zu erlauben zu einem Service-Broker zu werden. Mittlerweile stehen Lösungen bereit, allerdings wächst der Mitbewerb, nicht nur aus dem Open-Source Umfeld, stetig weiter.

Das sehen auch IT-Einkäufer und Entscheider. Ich habe schon mit mehr als einem IT-Manager gesprochen der plant, seine VMware Infrastruktur gegen etwas Offenes, in den meisten Fällen wurde KVM genannt, und Kostengünstigeres auszutauschen. Das ist erst einmal nur die Virtualisierungsebene die wegbrechen kann. Weiterhin gibt es mittlerweile einige Anwendungsfälle auch großer Unternehmen (siehe On-Premise Private Cloud), die OpenStack für den Aufbau einer eigenen Cloud-Infrastruktur nutzen. Was ebenfalls nicht vergessen werden darf ist, dass immer mehr Unternehmen in Richtung Hosted Private Cloud oder Public Cloud Anbieter wechseln und das eigene Rechenzentrum im Laufe der Zeit an Bedeutung verlieren wird. In diesem Zusammenhang spielt auch die Hybrid Cloud eine immer größere Rolle, um den Transfer und Migration von Daten und Systemen bequemer zu gestalten. Bereits hier hat sich OpenStack auf Grund seiner Verbreitung im Hosted Private Cloud und Public Cloud Umfeld einen großen Vorteil gegenüber VMware verschafft.

Mit solchen Aussagen versucht VMware natürlich OpenStack aus dem eigenen Hoheitsgebiet – on-Premise Unternehmenskunden – wegzureden, um dort seine eigenen Lösungen zu platzieren. Dennoch sollte VMware nicht den Fehler machen und OpenStack unterschätzen.

Categories
Analysen

Die eigene Community Cloud! – PRISM Break für Profis oder die es werden wollen

Wie kommen wir aus der Cloud heraus ohne ihre Komfortzone zu verlieren. Diese Fragen ließt man in den letzten Tagen regelmäßig. Ich bin der Meinung, dass man sich nicht zwangsläufig aus der Cloud zurückziehen muss, sondern einfach versuchen sollte, mehr Kontrolle zurückzugewinnen. Dieser Beitrag liefert Ansätze für eine professionelle PRISM Break Cloud Strategie und empfiehlt Lösungen und Anbieter die dafür in Betracht gezogen werden sollten. Darüber hinaus habe ich in diesem Zusammenhang meine Gedanken zur Community Cloud eingebracht, die ich schon seit Anfang diesen Jahres mit mir herumtrage, aber noch nicht dazu gekommen bin nieder zu schreiben. Denn die Community Cloud wird in meinen Augen immer mehr an Bedeutung gewinnen. Der Bedarf und vor allem das Verständnis hierfür muss nur geweckt werden. Tenor: “Aufbau einer eigenen echten(!) Hosted Private Cloud, betrieben von einer Gemeinschaft die sich vertraut.” Das ist sowohl für Unternehmen, Organisationen, Bürogemeinschaften und regelmäßige Projektpartner interessant.

Gründe für eine Community Cloud

Was ist eine Community Cloud?

Innerhalb einer Community Cloud schließen sich Unternehmen einer gleichen Branche zusammen und fassen ihren eigenen Private Clouds zu einer Community Cloud zusammen, die nur exklusiv diesen Mitgliedern zugänglich ist. Community Clouds bieten sich an, wenn Unternehmen dieselben Anforderungen und Aufgaben haben und die Infrastruktur auf ähnliche Weise nutzen wollen. Der Vorteil einer Community Cloud besteht in der Reduzierung des Kapazitätsbedarfs und somit einer verbesserten Ressourcenallokation auf Grund der gemeinsamen Nutzung von Ressourcen. Dies führt zu einer Kostenreduzierung und verringert den allgemeinen Overhead. Abgesehen von der darunterliegenden Infrastruktur können alle Mitglieder der Community Cloud ebenfalls dieselben Services und Applikationen gemeinsam nutzen.

Ein sehr gutes Beispiel für eine Community Cloud ist das ENX Netzwerk, ein Zusammenschluss der “europäischen Automobilindustrie für den sicheren Austausch kritischer Entwicklungs-, Einkaufs-, und Produktionssteuerungsdaten.” Das ENX bietet den angeschlossenen Automobilherstellern- und Lieferanten unternehmensübergreifende Managed Security Services und einen einheitlichen Service Level des darunter liegenden Netzwerkes. Gleichzeitig ist das ENX Netzwerk für die angeschlossenen Nutzer so offen und flexibel gestaltet wie das öffentliche Internet.

Die Bedeutung der Community Cloud wird zunehmen

Bereits das Ergebnis einer BITKOM Studie im Februar 2013 hat gezeigt, dass im Jahr 2012 immerhin 34 Prozent der deutschen Unternehmen auf eine Private Cloud setzen und 29 Prozent planen, diese Cloud-Form in Zukunft einzusetzen. Der Grund dafür liegt in der Angst vor einem Datenverlust in der Public Cloud begründet. Das sagten zumindest 79 Prozent.

Während eines Vortrags bei einem Unternehmen dessen Namen ich nicht nennen darf und mit Folien die nicht öffentlich zugänglich sind, habe ich in meinen zukünftigen Cloud-Trends die Treiber für die steigende Bedeutung von Community Clouds aufgezeigt.

Ich habe dabei die drei Treiber als “höhere Zukunftssicherheit”, “größeres Vertrauen” und “weniger Abhängigkeit/ mehr Kontrolle” charakterisiert. Es sind exakt die Themen, die auch in aktuellen Diskussionen immer wieder aufkommen. Damals, im März 2013, habe ich die “höhere Zukunftssicherheit” am Beispiel der Schließung vom Google Reader festgemacht. Da die Nutzer sich nicht sicher sein können, wie lange ein Cloud Service überhaupt überlebt. Als Beispiel für “größeres Vertrauen” mussten die mittlerweile bestätigten Berichte, dass Amazon AWS eine Cloud für die CIA bauen soll, herhalten. Schließlich sollte man schon stutzig werden, wenn ein Marktführer mit einem Geheimdienst zusammenarbeitet – wie wir mittlerweile alle feststellen durften… Den Grund für “(weniger) Abhängigkeit” habe ich aus dem Zeit-Artikel “Das autarke Dorf“, der im selben Zeitraum erschienen ist und bei dem es darum geht, dass ein kleines Dorf in Brandenburg sich unabhängig von den Energiekonzernen gemacht hat und dort sogar ein eigenes Stromnetz besitzt. Cloud Computing = Utility Computing = Stromnetz…

Maximale Zentralität >> Semi-Dezentralität

Allein auf Grund dieser drei Treiber, plus den aktuellen Diskussionen, sehe ich ein wachsendes Potential für die Community Cloud, die derzeit noch keine große Verbreitung hat. In diesem Zusammenhang sehe ich zudem einen Wechsel von einer zurzeit stark ausgeprägten Zentralität zu einer Semi-Dezentralität.

Die meisten Unternehmen und Organisationen sehen in der Public Cloud einen großen Vorteil und wollen in ihren Genuss kommen, um Kosten zu reduzieren, ihre IT zu konsolidieren und gleichermaßen mehr Skalierbarkeit und Flexibilität erhalten. Auf der anderen Seite sind Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle wichtige Artefakte, die niemand gerne aufgeben möchte.

Die Community Cloud ist der Mittelweg, um beides zu erreichen. Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle durch den Einfluss, was in der Community Cloud passiert und die Vorteile einer Public Cloud, durch das Partizipieren von einer echten Cloud Infrastruktur.

Wie wäre es mit einer Hosted Community Cloud? Mehr unten.

Der Cloud Computing Stack

Cloud Computing setzt sich grundlegend aus Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS) zusammen. Je nach Bedarf und Anwendungsfall ist es nicht ganz einfach eine äquivalente Ersatzlösung für die eigene Cloud zu finden. Für den Aufbau einer eigenen professionellen Cloud-Basis stehen aber mittlerweile ausreichend Lösungen zur Verfügung.

Viel Wert sollte hier in jedem Fall auf die grundlegende Infrastruktur – Infrastructure-as-a-Service – gelegt werden, da diese für die Skalierbarkeit und Verfügbarkeit der gesamten Cloud-Umgebung zuständig ist. Wer hier meint, dass ein einfacher virtueller Server oder ein physikalischer Host ausreicht, handelt fahrlässig und wird früher oder später Probleme bekommen.

Mein ausdrücklicher Rat: Unten drunter unbedingt eine IaaS-Lösung bauen und mit ausreichend Hardware (siehe die empfohlenen Setups hier auf CloudUser oder in den jeweiligen Communities der Projekte) ausstatten, um für Skalierbarkeit und Fehlertoleranz zu sorgen. Weiterhin bedenken, dass jeder virtuelle Server der gestartet wird, physikalische Hardware benötigt um betrieben zu werden. Aus diesem Grund ausreichend physikalische Ressourcen berücksichtigen.

Professionelle Infrastrukturlösungen und Services

Diese Liste führt nur Lösungen auf, die Basisfunktionen für eine eigene professionelle Cloud liefern.

Infrastructure-as-a-Service

OpenStack
OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Mehr unter OpenStack – Ein Überblick.

Eucalyptus
Bei Eucalyptus handelt es sich um eine Open Source Software Infrastruktur zum Aufbau von skalierbaren Cloud Computing Umgebungen für spezielle Clustersysteme oder einfachen miteinander verbundenen Arbeitsplatzrechnern. Eucalyptus wurde als ein Forschungsprojekt am Computer Science department an der University of California Santa Barbara entwickelt und wird mittlerweile von der Eucalyptus Systems Inc. vermarktet. Die Software wird aber weiterhin als Open Source Projekt gepflegt und weiterentwickelt. Die Eucalyptus Systems Inc. bietet darüber hinaus lediglich weitere Dienstleitungen und Produkte sowie einen professionellen Support rund um Eucalyptus an. Eucalyptus ist ein Klon der grundlegenden Funktionen der Amazon Web Services Infrastruktur für die Private Cloud. Auf Basis einer exklusiven Partnerschaft wird das Service-Portfolio stetig angeglichen.

Mehr unter Eucalyptus – Eine Open Source Infrastruktur für die eigene Cloud.

openQRM
openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen. Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können. Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von “P-to-V”, “V-to-P” und “V-to-V”.

Mehr unter openQRM – Die Cloud Computing Plattform für Rechenzentren.

Hier gibt es eine konkrete Anleitung zum Aufbau einer Hosted Private Cloud mit openQRM.

Platform-as-a-Service

Red Hat OpenShift
Das Origin Projekt dient der Verbesserung der OpenShift Plattform, indem ständig Code Optimierungen in den PaaS einfließen. Dieser läuft aktuell auf der Infrastruktur der Amazon Web Services und steht im direkten Wettbewerb zu VMwares Cloud Foundry. Der Origin Quellcode steht auf GitHub bereits zum Download bereit und ermöglicht Entwicklern eine OpenShift Installation auf dem eigenen Laptop oder einem Server im Intranet oder Rechenzentrum zu nutzen.

Mehr unter OpenShift Origin.

WSO2 Stratos
WSO2 Stratos ist ein Open-Source Polyglot PaaS mit einer Unterstützung verschiedener Programmiersprachen, mit dem ein application Platform-as-a-Service (aPaaS) realisiert werden kann. Der Kern bildet die WSO2 Stratos PaaS Foundation, die speziell auf die Cloud ausgelegt ist und unter anderem Funktionen für Multi-Tenancy, Skalierung, Self-Service Bereitstellung, Metering, Abrechnung und Ressource-Pooling bietet.

Mehr unter WSO2 Stratos.

cloudControl Application Life Cycle Engine
Die Application Lifecycle Engine ist als Middleware zwischen der grundlegenden Infrastruktur und der eigentlichen Applikationen zu verstehen (PaaS Konzept) und bietet eine vollständige Laufzeitumgebung für Anwendungen. Damit erhalten Entwickler die Möglichkeit, sich auf die Entwicklung ihrer Applikation zu konzentrieren und können unbequeme Prozesse und die Bereitstellung übernehmen lassen. Die Application Lifecycle Engine ermöglicht es großen Unternehmen einen eigenen Private PaaS in einer selbstverwalteten Infrastruktur zu betreiben, um sich damit die Vorteile der Cloud auch in die eigenen vier Wände zu holen. Die Plattform setzt dazu auf offene Standards und verspricht damit einen Vendor-Lock-in zu vermeiden. cloudControl spannt zudem eine hybride Brücke, indem bereits auf cloudControls Public PaaS entwickelte Anwendungen im Private PaaS und umgekehrt betrieben werden können. Für den Betrieb der Application Lifecycle Engine wird OpenStack als IaaS-Lösung vorausgesetzt.

Mehr unter Application Lifecycle Engine: cloudControl veröffentlicht Private Platform-as-a-Service.

Software-as-a-Service

Open-Xchange
Open-Xchange ist für alle interessant, die Google Apps oder Microsoft Office 365 nicht trauen, lieber einen Anbieter mit einem Rechenzentrum in Deutschland haben möchten oder doch lieber alles selbst machen. Eine hohe Verbreitung hat bzw. bekommt Open-Xchange durch eine kommerzielle White-Label Lizenz an Hosting- und Telekommunikationsanbieter, die ihren Kunden OX App Suite damit als Software-as-a-Service (SaaS) anbieten können. Weiterhin richtet sich die Lösung an Systemintegratoren und VARs, die OX App Suite als Managed Service oder für Inhouse-Installationen nutzen wollen.

Mehr unter Open-Xchange: Die gehostete Alternative zu Google Apps und Microsoft Office 365.

TeamDrive
TeamDrive ist eine Filesharing und Synchronisations-Lösung für Unternehmen, die ihre sensiblen Daten nicht bei externen Cloud-Services speichern wollen und es ihren Teams zudem ermöglichen möchten, Daten oder Dokumente zu synchronisieren. Dazu überwacht TeamDrive beliebige Ordner auf einem PC oder Notebook, die man mit eingeladenen Anwendern gemeinsam nutzen und bearbeiten kann. Damit stehen Daten jederzeit, auch offline zur Verfügung. Eine automatische Synchronisation, Backups und Versionierung von Dokumenten schützen die Anwender vor Datenverlust. Mit der Möglichkeit die TeamDrive Registration- und Hosting-Server im eigenen Rechenzentrum zu betreiben, lässt sich TeamDrive in vorhandene IT-Infrastrukturen integrieren. Dafür stehen alle notwendigen APIs zur Verfügung.

Mehr unter TeamDrive: Dropbox für Unternehmen.

ownCloud
ownCloud ist eine Open-Source Filesync- und –sharing-Lösung für Unternehmen und Organisationen, die ihre Daten weiterhin selbst unter Kontrolle behalten möchten und nicht auf externe Cloud-Storages zurückgreifen wollen. Der Kern der Anwendung besteht aus dem ownCloud Server über welchen sich die Software zusammen mit den ownCloud-Clients nahtlos in die existierende IT-Infrastruktur integriert und die Weiternutzung bereits vorhandener IT-Management-Tools ermöglicht. ownCloud dient als lokales Verzeichnis, bei dem unterschiedliche lokale Speicher gemountet werden. Dadurch stehen die entsprechenden Dateien allen Mitarbeitern auf allen Geräten zur Verfügung. Neben einem lokalen Storage können ebenfalls Verzeichnisse über NFS und CIFS angebunden werden.

Mehr unter Sicherheitsvergleich: TeamDrive vs. ownCloud.

SugarCRM
SugarCRM ist eine Open-Source Customer-Relationship-Management Lösung und basiert auf der Skriptsprache PHP. Als Datenbanksystem können neben MySQL und der dazu binärkompatiblen MariaDB auch Microsoft SQL Server verwendet werden.

Mehr unter SugarCRM Community Edition.

Alles selber machen

Nachdem man sich für entsprechende Alternativen entschieden hat, geht es erst richtig los. Entweder man betreibt alles in einer eigenen Private Cloud oder lagert bestimmte Teile aus.

Der Betrieb im eigenen Rechenzentrum ist eine Variante. Dabei gilt bei dem Betrieb jedoch mindestens(!) eines zu beachten. Ein Server reicht für die Ansprüche an ein Hochverfügbarkeits- oder gar Cloud-Szenario nicht aus. Hier sollte man sich zunächst darauf konzentrieren, eine Cloud Infrastruktur auf Basis von openQRM, OpenStack oder Eucalyptus aufzubauen, auf der dann der restliche PaaS- bzw. SaaS-Stack betrieben wird. Vernachlässigen sollte man ebenfalls nicht, das Kollaborationsumgebungen und anderweitige Cloud-Lösungen von ihrem Zugriff abhängen. Sei es nun über den Webbrowser oder das mobile Endgerät. Warum macht z.B. ein Cloud-Storage Sinn? Weil ich u.a. von überall aus darauf zugreifen kann. Das bedeutet der Überall-Zugriff auf die Cloud Infrastruktur ist zwingend erforderlich, was auch Auswirkungen auf die Bandbreite der jeweiligen Internetanbindung, bevorzugt den Upload, hat.

Weiterhin darf der Betrieb, die Wartung und alles was mit IT-Infrastrukturen zusammenhängt nicht vernachlässigt werden. Das ist nicht einfach!

Public IaaS aus Deutschland als Basis

Weiterhin besteht die Möglichkeit, die Infrastruktur bei einem Webhoster z.B. aus Deutschland oder Island zu betreiben. Aber Vorsicht, um die Verfügbarkeit von Public Cloud-Services zu erhalten, reicht es bei weitem nicht aus, sich einfach nur einen virtuellen Server aufzusetzen. Da sollte man sich eher Gedanken über die Hochverfügbarkeit machen, welche die Software selbst nicht mitbringen. Wir reden an dieser Stelle einfach nur von Software. Für Hochverfügbarkeit sorgen dann wiederum IaaS Lösungen wie openQRM, Eucalyptus oder auch OpenStack. Aber bitte nicht vergessen: IaaS bedeutet Infrastruktur = u.a. Hardware für die entsprechende Virtualisierung. Zudem reicht ein Server bei weitem nicht, um die Verfügbarkeit und Eigenschaften einer Cloud zu erreichen. Eucalyptus bspw. empfiehlt für den professionellen Einsatz mindestens fünf physikalische Systeme.

ProfitBricks als deutsche IaaS-Basis

Wer auf den komplexen Aufbau der Infrastruktur für die Skalierbarkeit und Hochverfügbarkeit der Cloud verzichten möchte, kann auch zu einem deutschen IaaS Anbieter gehen. Hier ist z.B. ProfitBricks zu empfehlen. Bei ProfitBricks ist sichergestellt, dass man Zugriff auf eine echte Cloud-Infrastruktur in einem deutschen Rechenzentrum erhält.

ProfitBricks liefert nach Bedarf skalierbare virtuelle Server, die granular mit Cores, Arbeitsspeicher und Block Storage (für den eigenen Cloud Storage) ausgestattet werden können. In diesem Fall muss man sich selbst nur um das Design der virtuellen Infrastruktur – wird über eine graphische Weboberfläche, dem Data Center Designer, vorgenommen – kümmern. Der Vorteil zu einem gewöhnlichen Webhoster – die maximale Skalierbarkeit und Hochverfügbarkeit. Das ist insbesondere für eine Community Cloud besonders wichtig.

Anschließend muss auf der fertigen virtuellen Infrastruktur nur noch die entsprechende Software installiert und den Bedürfnissen nach angepasst werden. Die eigene Community Cloud kann man sich in diesem Fall sogar für ein “Taschengeld” leisten – und das trotz eines Höchstmaß an Skalierbarkeit, Hochverfügbarkeit und einem Überall-Zugriff. Die Sicherung/ Verschlüsselung der Datenverbindungen darf natürlich nicht vergessen werden.

Es sei angemerkt, dass es natürlich auch noch ein paar andere Cloud IaaS Anbieter aus Deutschland gibt. Jedoch ist ProfitBricks der einzige Public Cloud Anbieter, der seine Infrastruktur mit einer maximalen Granularität abrechnet und zudem noch ein echter Performer (Geschwindigkeit) mit einem 24h Support ist. Weiterhin sind noch domainFactory mit der JiffyBox und Internet4You mit internet4YOU NOW! genannt.

Hosted Community Cloud in Betracht ziehen

Wie man sieht, stehen mittlerweile einige Lösungen bereit, die als Basis für die eigene professionelle Cloud genutzt werden können. Dabei sollte man jedoch immer ein Auge auf die grundlegende Infrastruktur richten, die das Rückgrat der gesamten Cloud bildet. In diesem Zusammenhang darf man allerdings auch nicht den Aufwand unterschätzen, den es bedeutet, eine professionelle Cloud-Umgebung aufzubauen, ordnungsgemäß zu betreiben und zu warten. Weiterhin sind die Kosten für die notwendigen physikalischen Ressourcen zu kalkulieren.

Aus diesem Grund macht es für viele kleinere und mittlere Unternehmen, aber auch Bürogemeinschaften, Co-Working Spaces oder regelmäßige Projektpartnerschaften Sinn, den Community Cloud Gedanken in Betracht zu ziehen, um in den Genuss der Public Cloud (Shared Umgebung) zu kommen aber weiterhin Einfluss auf die Zukunftssicherheit, das Vertrauen, die Abhängigkeit und Kontrolle der Umgebung zu haben und Kostenvorteile u.a. durch Ressourcenallokation zu erzielen. Hierzu sollte man sich zudem überlegen, ein Team aufzubauen, dass sich exklusiv um den Aufbau, Betrieb, die Administration und Wartung der Community Cloud kümmert. Vergleiche dazu das ENX-Netzwerk. Dafür ist kein eigenes Rechenzentrum oder eine Co-Location erforderlich. Ein IaaS-Anbieter kann dazu als ideale Basis für eine Hosted Community Cloud dienen.