Categories
Kommentar

Der Windows Azure Storage Ausfall zeigt: Siegerkronen haben keine Bedeutung

Der weltweite Ausfall von Windows Azure Storage auf Grund eines abgelaufenen SSL-Zertifikat hat auf Twitter erneut große Wellen geschlagen. Der ironische Beigeschmack kommt insbesondere dadurch zustande, dass Windows Azure erst vor kurzem durch Nasuni zum “Leader in Cloud Storage” gewählt wurde. Besonders durch Performance, Verfügbarkeit und Schreibfehler konnte Azure glänzen.

Zurück zum Tagesgeschäft

Natürlich wurde das Test-Ergebnis auf dem Team eigenen Windows Azure Blog zurecht gefeiert.

“In einer Untersuchung der Nasuni Corporation wurden verschiedene Anbieter von Cloud Storage wie Microsoft, Amazon, HP, Rackspace, Google vergliechen. Das Ergebnis: Windows Azure konnte in nahezu allen Kategorien (unter anderem Performance, Verfügbarkeit, Schreibfehler) die Siegerkrone einheimsen. Windows Azure geht dort klar als „Leader in Cloud Storage“ hervor. Eine Infografik mit den wichtigsten Ergebnissen gibt es hier, den gesamten Report hier.”

Allerdings wurde das Azure Team durch den wirklich schweren Ausfall, der weltweit zu spüren war, wieder auf den Boden der Tatsachen zurückgeholt und sollte sich nun lieber wieder dem Tagesgeschäft widmen und dafür sorgen, dass ein ABGELAUFENES SSL-ZERTIFIKAT nicht wieder zu so einem Ausfall führt. Denn dieser hat das Test-Ergebnis somit relativiert und zeigt, dass Siegerkronen überhaupt keine Bedeutung haben. Sehr verwunderlich ist, dass bei Microsoft immer vermeidbare Fehler zu solchen schweren Ausfällen führen. Ein weiteres Beispiel ist das Problem mit dem Schaltjahr 2012.

Categories
Kommentar

Big Data und Cloud Computing helfen nicht nur Obama

In meinem Gastbeitrag bei den Automatisierungs-Experten von arago bin ich vor zwei Wochen auf das Thema Big Data eingegangen und das Unternehmen aus dem US-Wahlkampf 2012 von Barack Obama lernen sollten, wie sie Echtzeit-Informationen in einen Vorsprung umwandeln. Neben Cloud Computing, Mobile und Social Media gehört Big Data zu den aktuellen Top-Themen im IT-Unternehmensumfeld. Dabei handelt es sich bei weitem nicht mehr nur um einen Trend sondern um die Realität. Und das mit einem weitreichenden Einfluss auf Unternehmen, ihre strategische Ausrichtung und der IT. Bekannte Technologien und Methoden haben mit der Analyse von Big Data ihre Grenzen erreicht und nur das Unternehmen, welches es schafft, aus den Datensilos einen Informationsvorsprung zu erzielen, wird dem Wettbewerb in Zukunft einen Schritt voraus sein.

Big Data: Kein Alter Wein in Schläuchen

Grundsätzlich ist die Idee hinter Big Data nichts Neues. Von Anfang bis Mitte der 1990er Jahre ging es bereits unter dem Begriff „Business Intelligence“ darum, anhand von Verfahren eine systematische Analysen von Daten vorzunehmen. Die Ergebnisse werden dazu verwendet, um neue Erkenntnisse zu gewinnen, die dabei helfen, die Ziele eines Unternehmens besser zu erreichen und strategische Entscheidungen zu treffen. Allerdings war die Datenbasis, die es zu analysieren galt, deutlich kleiner als heute und lies nur Analysen auf Daten aus der Vergangenheit zu, was zu unsicheren Prognosen für die Zukunft führte. Heute sammeln sämtliche Alltagsgegenstände jede Sekunde massive Datenmengen an Informationen. Dazu gehören Smartphones, Tablets, Autos, Stromzähler oder auch Kameras. Hinzu kommen Bereiche, die sich nicht in der unmittelbaren Umgebung eines Menschen befinden, wie vollautomatisierte Produktionslinien, Distributionslager, Messinstrumente, Flugzeuge und anderen Fortbewegungsmitteln. Und natürlich sind es wir Menschen, die Big Data mit unseren Verhalten im Internet nähren. Tweets auf Twitter, Kommentare auf Facebook, Suchanfragen mit Google, Stöbern mit Amazon und sogar die Vitalwerte während einer Jogging-Session liefern modernen Unternehmen heute unmengen an Daten, aus denen sich wiederum wertvolle Informationen gewinnen lassen.

Strukturierte und unstrukturierte Daten

Große Datensätze sind keine neue Erscheinung. Bereits seit Jahrzenten sammeln Handelsketten, Ölfirmen, Versicherungen oder Banken massiv Informationen über Warenbestände, Bohrdaten und Transaktionen. Weiterhin gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Bereichen von dem, was heute als Big Data bezeichnet wird. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, die Wettervorhersage und die Medizinbranche. Alle genannten Bereiche und Branchen haben mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen.

Doch nun wirkt sich die Problematik auch auf die “normalen” Branchen aus. Die heutigen Herausforderungen bestehen darin, dass Daten aus vielen unterschiedlichen Quellen stammen und zum Teil schnell, unverhersagbar und damit unstrukturiert aufkommen. Big Data soll daher insbesondere an den Stellen helfen, wo viele unterschiedliche Datenquellen miteinander kombiniert werden. Beispiele sind Tweets auf Twitter, das Surfverhalten oder Informationen über Abverkäufe, um auf dieser Basis neue Produkte und Dienstleistungen zu entwickeln. Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält. Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten beziehungsweise Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind. Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Warum Unternehmen sich für Big Data entscheiden

Doch wo kommen diese riesigen Datenmengen tatsächlich her und welche Motivation haben Unternehmen, sich mit der Thematik zu beschäftigen. Die Marktforscher der Experton Group haben versucht, die Fragen in Ihrer “Big Data 2012 – 2015” Client-Studie im Oktober 2012 zu klären. Demnach ist der wichtigste Treiber für den Einsatz von Big Data Technologien und Konzepten das rasante Datenwachstum inklusive dem dazugehörigen Qualitätsmanagement und der Automatisierung der Analysen und Reports. Die Themen Kundenbindung und Marketing nehmen circa ein Drittel der Unternehmen zum Anlass, um die Anaysen ihrer Datenbestände zu erneuern. Neue Datenbanktechnologien nennen 27 Prozent der Befragten Unternehmen als Motivation für neue Verfahren zur Datenalyse. Weiterhin zählen nahezu alle Eigenschaften von Big Data zu den Gründen für die Erweiterung des strategischen Datenmanagements. Das zeigt, dass Big Data bereits Realität ist, auch wenn es in vielen Fällen nicht unter diesem Begriff bekannt ist. Die Big Data Treiber selbst sind über alle Branchen und Unternehmensgrößen hinweg gleich. Der einzige Unterschied besteht in der Bedeutung und Intensität. Ein großer Unterschied bei der Unternehmensgröße besteht in der Verteilung der Daten und Informationen an die richtigen Mitarbeiter im Unternehmen. Hier sehen große Unternehmen ihre größten Herausforderungen. Wohingegen kleinere Unternehmen das Thema als sehr unkritisch einstufen.

Big Data: Ein Anwendungsfall für die Cloud

Die Öl-und Gasindustrie hat die Verarbeitung großer Datenmengen durch den Einsatz von traditionellen Storage-Lösungen (SAN und NAS) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

Big Data Verarbeitung gehört in die Cloud

Cloud Infrastrukturen helfen bei der Kostenreduzierung für die IT-Infrastruktur. Dadurch werden Unternehmen in die Lage versetzt, sich effizienter auf ihr Kerngeschäft zu konzentrieren und erhalten mehr Flexibilität und Agilität für den Einsatz neuer Lösungen. Damit wird ein Grundstein gelegt, sich auf die ständig verändernden Datenmengen einzustellen und für die notwendige Skalierbarkeit zu sorgen. Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit der Datenmenge

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Cloud Konzepte wie Infrastructure-as-a-Service (IaaS), vereinen beide Welten und nehmen dadurch eine einzigartige Position ein. Für diejenigen, die das SAN/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Eine passable Lösung kommt von Cloud Computing Pionier Amazon Web Services. Mit der AWS Data Pipeline steht bei Amazon ein Service (noch in der Betaphase) bereit, mit dem sich Daten automatisch zwischen verschiedenen Systemen verschieben und verarbeiten lassen. Die Systeme können sich dazu entweder direkt in der Amazon Cloud oder auf einem anderen System außerhalb befinden. Amazon macht damit die Handhabung der wachsenden Datenmengen auf verteilten System mit unterschiedlichen Formaten einfacher. Dazu lassen sich beliebig viele Pipelines erstellen, in denen die unterschiedlichen Datenquellen, Bedingungen, Ziele, Anweisungen und Zeitpläne definiert sind. Kurzum geht es darum, welche Daten von welchem System auf Basis welcher Bedingungen geladen, verarbeitet und die Ergebnisse anschließend wieder gespeichert werden. Die Pipelines selbst werden je nach Bedarf stündlich, täglich oder wöchentlich gestartet. Die Verarbeitung kann entweder direkt in der Amazon Cloud oder auf den Systemen im unternehmenseigenen Rechenezentrum stattfinden.

Big Data = Big Opportunities?

Nicht nur das Obama Beispiel zeigt, wie gewinnbringend die Verknüpfung von strukturierten und unstrukturierten Daten aus mobilen Endgeräten, Social Media Kanälen, der Cloud und vielen weiteren unterschiedlichen Quellen für ein Unternehmen sein kann. Allerdings muss man sich bei Big Data über eines im Klaren sein. Es geht letztendlich nicht um die Masse der Daten die gesammelt wird, sondern um deren Qualität und wofür die Daten letztendlich überhaupt genutzt werden sollen.

Entscheidend ist daher, ob und wie ein Unternehmen es schafft, aus den Massen an Daten, die durch menschliche und maschinelle Interaktionen entstehen, die qualitativ hochwertigsten Informationen zu analysieren und sich damit eine führende Position am Markt sichert. Qualifizierte Daten sind das neue Öl und werden in den Unternehmen, die den eigenen Vorteil darin erkennen, für den gewinnbringenden Antrieb sorgen.

Categories
Kommentar

Ekelhaft: Amazon behandelt Menschen wie virtuelle Maschinen – Die menschliche Cloud

Bei diesem Artikel handelt es sich zwar nicht direkt um das Thema Cloud Computing, aber ich sehe bei der gesamten Problematik so manche Ähnlichkeiten zu dem Konzept der Amazon Web Services und es macht mich einfach nur außerordentlich wütend, wie ein Unternehmen wie Amazon mit seinen Mitarbeitern wohlgemerkt MENSCHEN umgeht.

Hintergrund

Eine kürzlich von der ARD veröffentlichte Dokumentation (Video) hat die menschenverachtenden Machenschaften des weltgrößten Einzelhändlers Amazon mit Leiharbeitern in Deutschland aufgedeckt. Das die Arbeitsbedingungen bei Amazon in den Logistikzentren grundsätzlich als sehr schlecht zu bezeichnen sind ist kein Geheimnis, darüber gab es bereits mehrere Berichte. Aber was dieser Bericht aufdeckt ist unter jeder menschlichen Würde, wofür sämtliche Beteiligte inkl. Amazon selbst öffentlich zur Verantwortung gezogen werden müssen.

Der Bericht deckt auf, das der Erfolg von Amazon auf dem Rücken von Leiharbeitern erwirtschaftet wird, die unter übelsten Bedingungen “leben” müssen und das hier Mitten in Deutschland. Dazu sammelt der Konzern europaweit Leiharbeiter ein und bringt diese in Feriendörfern unter. Dazu setzt Amazon auf Subunternehmen z.B. für das Rekrutieren und die “Sicherheit” der Leiharbeiter. In total überfüllten Bussen werden die Mitarbeiter in die Logistikzentren gebracht. Kommen Sie zu spät zur Schicht – auch ohne eigene Schuld – erhalten sie weniger Lohn. Die Dokumentation veranschaulicht, wie ein Unternehmen wie Amazon “… 5000 Menschen für drei Monate heranschaffen und dann wieder loswerden muss“.

Amazon behandelt Leiharbeiter wie virtuelle Maschinen

Um nun doch ein klein wenig die Kurve zur Cloud zu bekommen, sehe ich so manche Parallelen zwischen der Missachtung der menschlichen Würde durch Amazon und dem Cloud Computing Konzept wie es die Amazon Web Services betreiben. Man tausche einfach den Begriff “virtuelle Maschine” gegen das Wort “Mensch“.

Amazon benötigt, wie es der Bericht auch gut beschreibt, “Menschen bei Bedarf” und lässt diese gerne mal 15 Tage am Stück durcharbeiten. Amazon überträgt das Konzept der Cloud also die Prinzipien “on Demand” und “Pay per use” auf sein Einzelhandelsgeschäft in die Logistikzentren und schafft sich damit seine “Menschen Cloud”. Es ist ein sehr gutes analoges Beispiel zur technischen Situation des Webshops während der Weihnachtszeit. Währenddessen werden übermäßig viele Ressourcen an Rechenleistung benötigt, um den Webshop durch die hohen Anfragen stabil zu halten. Ähnlich verhält es sich in den Logistikzentren. Steigen die Anfragen beim Webshop, müssen die Aufträge schließlich auch kommissioniert und für den Versand fertig gemacht werden. Sinken die Anfragen, ist auch in den Lagern weniger los. Dementsprechend werden weniger Menschen benötigt, die dann auch nicht mehr bezahlt werden müssen. Ein Beispiel von einem Amazon-Vorabeiter des Logistikzentrum bei Koblenz: “Hier arbeiten 3300 Mitarbeiter, und davon sind 3100 befristet.”

Theoretisch eine schöne Idee Amazon, aber so geht das nicht! Ihr könnt Menschen nicht hochfahren wie virtuelle Maschine und wieder entsorgen wenn ihr sie nicht mehr benötigt!

Categories
Kommentar

Wettbewerb: Schule und Cloud Computing – Weil sich die Zeiten endlich ändern müssen

Wer kennt das Dilemma nicht – Schule und Informationstechnologie? Ich kann gar nicht beschreiben, wie sehr meine Mitschüler und ich damals unter schlecht ausgestatten Laboren und Lehrkräften, die sich als wahre IT-Muffel ausgezeichnet haben, leiden durften. Wer nicht ein wenig Eigeninitiative zeigte, ist dabei kläglich auf der Strecke geblieben. Aber es war damals ja auch nicht abzusehen, wohin sich unsere Gesellschaft entwickeln wird…

Zurück in die Zukunft

Ich selbst habe (damals) vor dem Studium eine Ausbildung zum Fachinformatiker Systemintegration gemacht. Man hätte meinen können, das man auch mit dementsprechenden Systemen ausgebildet(!) wird. Denn Schlosser usw. haben schließlich auch – meiner Einschätzung nach – sehr gut ausgestattete Werkstätten mit teuren Anlagen zum Fräsen, Bohren und Drehen. Also all das, was sie für ihr Handwerkszeug(!) benötigen!

Was ist denn das Handwerkszeug eines Fachinformatiker? Genau, Computer! Hardware, Software und Programmierkenntnisse. An ersten Beiden hat es an meiner Berufsschule sehr stark gemangelt, $$$. Letzteres war je nach Lehrkraft zu bewerten. Mein Schlüsselerlebnis war jedoch, als es im zweiten Lehrjahr dann endlich neue PCs gab. Die wurden als quasi Bausatz angeliefert. Bedeutete, den Schülern wurde ein “Projekt” verkauft, um das zusammenbauen eines Rechnersystems zu “lernen”. Fakt war, dass die Lehrkraft die Fragen an die Schüler weitergereicht hat, die ihre Ausbildungen in einem IT-Betrieb gemacht haben, dessen Kerngeschäft es war, PCs zu bauen. Wohlgemerkt geht es hier nicht um das ob sondern um das wie.

Fassen wir zusammen. IT in der Schule hat mit $$$ und den entsprechenden Kenntnissen der Lehrkräfte zu tun. Und nach ein paar Gesprächen scheint es an beiden weiterhin zu mangeln.

Cloud Computing bringt Schulen den notwendigen IT-Segen

Anhand von Cloud-Lösungen erhalten Schulen den flexiblen Zugriff auf die benötigten IT-Ressourcen. Seien es Software-as-a-Service Applikationen für bestimmte Anwendungsfälle in einem Unterrichtsfach oder für die gemeinsame aber verteilte Zusammenarbeit (auch nach der Schule) an einer Facharbeit oder sonstigen Projekten. Mittels Platform-as-a-Service aber auch Infrastructure-as-a-Service lassen sich Programmieraufgaben oder auch kleine IT-Gruppenprojekte zeitnah und kostengünstig umsetzen. Kombiniert mit Thin-Clients können auch die Hardwarekosten gering gehalten und die entsprechende physikalische Sicherheit der Systeme sichergestellt werden.

Wettbewerb: Schule und Cloud

Eine Initiative unter der Federführung der fat IT solutions GmbH zusammen mit Prof. Dr. Gunter Dueck von BlueForge, den Amazon Web Services und der Igel Technology GmbH will das nun ändern. Der Schulwettbewerb “Schule und Cloud” hat das Ziel, Berufsschulen den Nutzen von IT-Lösungen während des Unterrichts näher zu bringen. Die Idee besteht darin, den “… am besten gestalteten Cloudcomputer Deutschlands.. ” zu finden. Dazu sollen Lehrer in Gruppenprojekten oder AGs pädagogisch wertvolle Software auf kostenlos zur Verfügung gestellten Computern in der Cloud installieren. Dabei kann es sich z.B. um Bildbetrachter, Textverarbeitung oder Lernprogramme handeln. Anschließend soll das System so konfiguriert werden, wie es später weiter benutzt werden soll.

Der Wettbewerb richtet sich an Berufsschulen und hier nicht nur an Klassen der IT-Ausbildungsberufe. Die besten drei Projekte werden im Anschluss von einer Jury prämiert. Mehr Informationen zur Teilnahme gibt es unter http://schule-und-cloud.de/requirements.html.

Categories
Kommentar

Hat der Channel in Zeiten des Cloud Computing noch eine Bedeutung?

Auf dem Cloud EcoSystem Winter Meeting wurde in einem Panel diskutiert, welche Bedeutung der Channel in der Cloud überhaupt noch hat. Da die Mehrzahl der Protagonisten jedoch ein Teil dieses Channels waren, gab es natürlich wenig Kritik. Allerdings war auch wenig von Veränderungen zu hören, da man ja auf Grund des ASP Modells schon selbst seit 1998 quasi in der Cloud sei.

ASP ist kein Cloud Computing

Auf die Diskussion ASP (Application Service Providing) vs. SaaS (Cloud) gehe ich hier nicht ein. Das ASP mit SaaS (Software-as-a-Service) respektive Cloud Computing nichts zu tun hat, wird nicht nur von mir, sondern vielen weiteren Publikationen propagiert. (Ich war übrigens sehr froh, dass Stefan Ried während seines Vortrags mit den “Cloud Mythen” noch einmal aufgeräumt hat und allen Beteiligten die echten Eigenschaften und Vorteile der Cloud präsentiert hat, danke Stefan!)

Der Channel muss sich verändern

Kommen wir zum Channel. Es wäre falsch zu sagen, dass er stirbt. Zum einen gibt es auch weiterhin “Dinge” für den Vertrieb und die Lobby dahinter wird auch alles menschenmögliche tun, um ihr Geschäftsmodell zu verteidigen. Aber es wäre vermessen, die Augen zu verschließen und so weiter zu machen wie bisher. Natürlich, “Hardware wird immer benötigt!”, aber auch in dieser Stückzahl? Und können zig Anbieter nur vom Vertrieb von Hardware leben?

Meiner Ansicht nach ist der Software-Vertrieb, ein sehr großer Teil vom gesamten Markt, tod. Überlegen wir uns, welche Art von Software in Zukunft noch auf Datenträger verschickt wird, fallen mir spontan nur die Betriebssysteme ein. Obwohl sich diese mittlerweile auch über die Webseiten der Hersteller herunterladen lassen, wie andere Softwarelösungen übrigens auch, die noch nicht als SaaS zur Verfügung stehen. Zum Beispiel liefert Microsoft für Office365 Home Premium trotz Verpackung nur noch einen Code aus, mit dem die Software von einer Microsoft Webseite heruntergeladen oder gestreamed wird.

Vom Reseller zum Integrator

Der typische Channel für Software-Reseller ist meiner Ansicht nach daher nicht mehr zu retten. Unternehmen aus diesem Bereich sollten sich möglichst schnell Gedanken über alternative Wege machen. Mögliche Ansätze bestehen in Partnerprogrammen mit den Softwareherstellern, um z.B. bei beratungsintensiven Lösungen (eigentlich sollten SaaS Anwendungen intuitiv zu konfigurieren und bedienen sein) dem Kunden zur Seite zu stehen und bei der Migration und Integration zu helfen. Ergo: Software-Reseller müssen sich mehr Expertise als das reine wiederverkaufen aneignen und zu Sytemintegratoren werden.

Eine weitere Möglichkeit besteht in dem Aufbau eines eigenen Marktplatz für SaaS-Applikationen. Hier gilt es jedoch sich direkt von den bestehenden Angeboten zu differenzieren und neben einer Vielzahl von Lösungen aus den unterschiedlichen Bereichen, ebenfalls dafür zu sorgen, dass die von dem Kunden genutzten Lösungen miteinander integriert sind und über eine zentrale Datenhaltung verfügen und somit keine Insellösungen entstehen. Gut zu erkennen: auch hier muss der Reseller wieder zum Integrator werden. Weg von dem reinen Zwischenhandel mit Software.

Selbstverständlich existieren Software-Reseller, die ebenfalls Integrationen vornehmen. Das sind die klassischen Systemhäuser. Aber auch diese müssen sich auf Grund der Cloud verändern.

Categories
Kommentar

Office 365 Home Premium – Microsoft setzt nicht auf Software-as-a-Service

Gestern war es soweit, Microsoft hat sein neues Office für den Endkundenmarkt vorgestellt. Das neue Office 365 Home Premium verspricht neue Funktionen für die direkte Anbindung an soziale Netzwerke, SkyDrive und Skype, was die Kommunikation mit Familie und Freunden erleichtern soll. Zudem steht jedem Anwender künftig sein persönliches Office überall zur Verfügung. Sei es auf PC, Tablet oder Smartphone – und sogar auf dem Mac. Die Bedienung erfolgt neben Tastatur auch über Touch oder Stifteingabe. Wer nun aber gedacht hat, das Microsoft sein neues Office ganz nach dem Gedanken der Cloud als SaaS (Software-as-a-Service) bereitstellt, der irrt.

Cloud aber kein Software-as-a-Service

Beim Office 365 Home Premium handelt es sich nicht um SaaS oder einen Cloud Service im eigentlichen Sinne, da das Office nicht über den Browser bereitgestellt und genutzt wird. (Zwar gibt es weiterhin die vollkommen kostenlosen Office Web Apps, die haben aber direkt nichts mit Office 365 Home Premium zu tun.) Microsoft begründet es damit, dass nicht alle Office Funktionen performant im Browser betrieben werden können. Stattdessen geht Microsoft einen “interessanten” Weg, den es so noch nicht gibt. Microsoft Office wird hybrid. Microsoft bezeichnet diese wirklich neuartige Technologie als “Office Streaming”. Mittels “Click 2 Run” lässt sich eine Office Suite innerhalb weniger Minuten installieren. Das Interessante daran ist, dass Microsoft zunächst die am statistisch häufigsten genutzten Grundfunktionen installiert, wodurch man sehr schnell mit der Arbeit mit Office starten kann. Man ist also in der Lage bereits während der Installation mit Office zu arbeiten. Im Hintergrund wird der Rest installiert. Der Cluo: ruft man eine Funktion bspw. von Word auf, während sich Office noch im Installationsmodus befindet, wird genau diese Funktion priorisiert und direkt gestreamed. (Ob ein Nutzer diese Art der Installation nun wirklich braucht ist eine andere Frage, aber die Idee ist gut.)

Cloud nur im Backend

Office 365 Home Premium synchronisiert alle individuelle Einstellungen und Dokumente automatisch mit der Cloud. Dadurch stehen alle Daten auf allen angebundenen PCs zur Verfügung. Das funktioniert ebenfalls auf fremden PCs, wenn man sich dort mit dem Microsoft-Konto von hotmail.de, outlook.com oder live.de anmeldet. Anhand der neuen Technologie „Office on Demand“ wird das Office dann aus der Cloud für die Bearbeitung auf den jeweiligen Rechner gestreamt. “Office on Demand” installiert das Office auf dem lokalen System in eine virtuellen Umgebung. Beim Beenden der Sitzung wird die virtuelle Umgebung geschlossen und das Office mit sämtlichen Daten verschwindet wieder vollständig vom System. Microsoft möchte damit die Privatsphäre bei der Nutzung auf fremden Computern sicherstellen.

Preise und Goodies

Office 365 Home Premium beinhaltet die Programme Word, Excel, PowerPoint und OneNote, darüber hinaus auch Outlook, Access und Publisher. Durch das Abonnement verfügt ein Anwender automatisch immer über die aktuelle Office-Lösung auf seiner Festplatte oder unterwegs via Office on Demand. Weitere Goodies: 60 Minuten Skype pro Monat ins Festnetz, zusätzliche 20 GB SkyDrive Speicher und Nutzungsrechte für bis zu fünf Endgeräte, für Laptops, Tablets und Smartphones, sowohl für Windows- als auch Mac-Umgebungen.

Preise

  • Office 365 Home Premium: 99 EUR pro Jahr
  • Office 365 University: 79 EUR für 4 Jahre
  • Office Home & Student 2013 für 139 EUR
  • Office Home & Business 2013 für 269 EUR
  • Office Professional 2013 für 539 EUR

Office 365-Business

Ab 27. Februar 2013 stehen darüber hinaus Neue Office 365-Business Services mit neuen Funktionen zur Verfügung, in denen wahrscheinlich auch eine SkyDrive Pro Version enthalten sein wird.

Die Strategie passt zu Windows 8

Das Microsoft nicht auf SaaS setzt, kommt zwar ein wenig überraschend, passt aber in die Windows 8 Strategie. Die Applikationen werden überwiegend lokal gehalten, um die Geschwindigkeit zu garantieren und nicht zwangsläufig auf eine Datenverbindung angewiesen zu sein. Sämtliche persönliche Einstellungen und Dokumente werden, wenn der Nutzer möchte, in der Cloud gespeichert, um damit den orts- und plattformunabhängigen Zugriff zu gewährleisten. Dieser wird mit “Office on Demand” und dem Streaming sichergestellt.

Ist die Microsoft Office Suite noch zeitgemäß?

Mir stellt sich die Frage, warum Microsoft weiterhin an diesem massiven Office Paket festhält und die Applikationen nicht einzeln anbietet. Ich verstehe die Strategie dahinter, Outlook nun auch dem Endanwender zugänglich zu machen. Die Eltern können z.B. die Familie organisieren. Aber wer macht das tatsächlich? Nach Microsofts Recherchen wohl einige. So durften Referenzkunden während des Launch Events von ihren Use Cases berichten. Ich bin mir da nicht so sicher. Schaut man sich das Verhalten von (jungen) Nutzern an, stellen die sich lieber selbst ihre Productivity Suite zusammen und wollen das nicht von Mama und Papa diktiert bekommen. (Der Einfluss der Freunde ist viel größer.) Dropbox für Storage, Evernote für Notizen, Remember the Milk oder Wunderlist für Aufgaben, GMail oder Outlook.com für E-Mail gehören zu den Wunsch-Kandidaten. Die Cloud und Mobile Apps machen dies möglich.

Office ist gut, keine Frage! Aber ist diese mächtige Lösung noch zeitgemäß? Wollen sich Nutzer wirklich noch diktieren lassen was sie nutzen sollen oder lieber ihre eigenen Lösungen zusammenstellen. Word und Excel sind ein Mehrwert für jede persönliche Productivity Suite, aber dafür müssen sie einzeln angeboten werden und damit meine ich nicht die Office Web Apps.

Categories
Kommentar

Das lokale Betriebssystem stirbt, lang lebe der Cloud-Desktop

Die mit der Post-PC-Ära einhergehenden Veränderungen im Betriebssystemmarkt sind nicht alleine auf mobile Endgeräte zurückzuführen. Schon länger existieren Lösungen, mit denen sich ein Betriebssystem im Browser abbilden lässt oder Systeme, welche die voll ausgestatteten lokalen Systeme überflüssig machen. Angemerkt sein zum Beispiel Mainframes, Terminal-Server und Thin-Clients. Auf dieses Thema bin ich im letzten Jahr mit dem Artikel “Zurück in die Cloud: Terminals und Mainframes bekommen ihr Update 2.0” eingegangen. Auch Remote Desktop Sessions sind längst etablierte Möglichkeiten für den Zugriff aus der Ferne. Werden all diese Technologien in die Gegenwart projiziert, gelangen wir zu einem der nächsten großen Trends im IT-Unternehmensumfeld, den Cloud-Desktops.

Ein Desktop aus der Cloud

Nicht nur aus Sicht der ortsunabhängigen und gemeinsamen Arbeit an Projekten ist der Cloud-Desktop ein logischer Entwicklungsschritt und geht weit über Cloud Storage Services mit Mehrwertdiensten für die parallele Arbeit an Dokumenten und weiteren Daten hinaus. Cloud-Desktops bzw. Desktop-as a-Services (DaaS) gehören zu den Top-Themen für die IT eines Unternehmens und werden in Zukunft die “Virtual Desktop Infrastructure” ablösen. Man kann auch sagen, dass Cloud-Desktops bzw. DaaS die konsequente Weiterentwicklung der Virtual Desktop Infrastructure sind.

Die stetige Weiterentwicklung des Cloud Computing macht Cloud-Desktops zur optimalen Plattform für Unternehmen. Cloud-Desktops ermöglichen die vollständige Ausgliederung der Desktop-Umgebung zu einem Anbieter. Die Abrechnung erfolgt nach Bedarf. Der Cloud-Desktop Anbieter ist im Anschluss für die Bereitstellung und Wartung der Umgebung zuständig. Dazu gehören u.a. das Einspielen von Updates und Upgrades, das Backup und das Bereitstellen des Speicherplatz. Anhand der Ausgliederung an einen zentralen Anbieter, lässt sich auf den Cloud-Desktop unabhängig von der geographischen Lage, der Struktur des Unternehmens und dem jeweiligen Endgerät zugreifen.

Alles immer und überall dabei

Cloud-Desktops bilden vollständige Arbeitsumgebungen, wie wir sie vom lokalen Desktop kennen, ab. Anders als bei gewöhnlichen Cloud Storage Angeboten, stehen hier zusätzlich alle notwendigen Anwendungen für das ortsunabhängige Arbeiten bereit. Der Desktop wird damit vollständig mobil, was Mitarbeitern im Home Office und im Außendienst zu Gute kommt. Cloud-Desktops sind die ideale Lösung, wenn die darunter befindende Infrastruktur nicht notwendig ist. Die Unternehmens-IT muss sich durch den Einsatz von Cloud-Desktops nicht mehr mit dem Einkauf, der Installation und weiteren Themen auseinandersetzen, die zum Betrieb und der Wartung einer Desktop-Umgebung dazugehören. Weiterhin wird die weltweite Bereitstellung der Systeme und Softwarelösungen an die Mitarbeiter vereinfacht.

Vorteile und Bedenken

Die Vorteile eines Cloud-Desktops bestehen u.a. in der Verringerung der Ausgaben für Hardware und Wartung plus der monatlichen Flexibilität je nach Bedarf. Weiterhin bekommen die Mitarbeiter damit die Möglichkeit, zu jederzeit und von jedem Ort auf ihre Arbeitsumgebung zuzugreifen. Dazu lassen sich diese virtualisierten Desktops aus dem Unternehmensnetzwerk, über das Internet und über viele Plattformen wie Tablets, Smartphones, ThinClients aber auch klassische Endgeräte wie Laptops oder Desktop-PCs nutzen.

Vor der Nutzung einer Cloud-Desktop Umgebung gibt es aber auch Dinge zu beachten. Dazu gehört zum einen der Anbieter und ob dessen Angebot die eigenen Anforderungen erfüllt. Weiterhin sind die Themen Service Levels, Sicherheit sowie Gesetze und Regulierungen von wichtiger Bedeutung. Aber auch, wie es mit der Integration in bestehende Backendsysteme oder bereits eingesetzte Software-as-a-Service Lösungen aussieht. Ein nicht zu unterschätzender Bereich ist darüber hinaus die Verfügbarkeit einer stabilen Datenverbindung. Denn “No cloud, no cookies.”

Categories
Kommentar

Oracle treibt sein Cloud-Washing tapfer voran

Oracle arbeitet weiter an seiner Cloud-Washing Strategie und treibt sie vehement und ungeachtet jeder Kritik voran. Unter dem Namen “Infrastructure as a Service on Premise mit Capacity on Demand” bietet Oracle seine Hardware Unternehmen nun auch zur Miete für das eigene Rechenzentrum an.

Vorkonfigurierte Applikationsserver

Oracle erweitert sein Private Cloud Infrastruktur Angebot um die Möglichkeit, vorkonfigurierte Applikationsserver für eine monatliche Gebühr anzumieten, die dann im Rechenzentrum des Kunden installiert werden. Die von Oracle genannten “engineered systems” beinhalten Oracle Exadata Database Machine, Oracle Exalogic Elastic Cloud, Oracle Sparc SuperCluster, Oracle Exalytics In-Memory Machine und Oracle Sun ZFS Storage.

Die Idee soll darin bestehen, dass Oracle damit extra Kapazitäten bereitstellt, die über die bereits genutzten Ressourcen einer Oracle Private Cloud hinaus gehen. Genau das bezeichnet Oracle als Infrastructure-as-a-Service (IaaS), was allerdings mit einem IaaS Cloud Angebot nichts zu tun hat, sondern ganz gewöhnliche Oracle Rechenzentrumslösungen sind.

Ein Drei-Jahres-Vertrag ist kein Cloud!

Genauso wenig, wie es sich bei Oracles “Cloud Infrastructure” um ein echtes Cloud Angebot handelt, so schaut es mit dem neuen “Oracle IaaS On-Premise” aus. Der Drei-Jahres-Vertrag beinhaltet nur die Hardware für die Applikationsserver, die Wartung und ein gewisses Maß an Nutzung. Für die Oracle Software Lizenzen fallen weitere Kosten an. Zudem muss für “Peaks” bezahlt werden. Was das genau sein soll und was es kostet, wird nicht gesagt.

Oracle verliert den Anschluss

Leider wird immer deutlicher, wie Oracle dem Markt seine Philosophie vom Cloud Computing verkaufen will. Es wird schlichtweg die Hardware, Software usw., die früher teuer verkauft wurden, nun einfach vermietet und als Cloud bezeichnet!

Oracle scheint alles daran gelegen zu sein, den Anschluss im Cloud Markt nicht zu verlieren. Dafür haben sie jedoch nicht die richtige Strategie. Die echten Public Cloud Anbieter, allen voran Amazon Web Services, Windows Azure, Google und Rackspace werden Oracle immer stärker den Rang ablaufen. Auf der Private Cloud Seite sieht es für Oracle aber nicht besser aus. Hier sichern sich Anbieter wie openQRM-Enterprise, Eucalyptus, OpenStack-Partner und CloudStack immer mehr Marktanteile.

Categories
Kommentar

Mehrwert-Services sind die Zukunft von Infrastructure-as-a-Service

Der Titel dieses Beitrags mag ein wenig irritieren. Schließlich handelt es sich bei Infrastructure-as-a-Service (IaaS) bereits um Services. Aber ich habe meinen Grund dafür. Von Beginn an bezeichnet Gartner die Amazon Web Services, in seinem Magic Quadrant, als den führenden Anbieter im IaaS Markt. Wen ich hier mittlerweile jedoch vermisse ist Windows Azure. Aber warum ist es gerade Amazon, die den Markt anführen und warum gehört Windows Azure meiner Meinung nach ebenfalls in denselben Quadranten wie Amazon.

Frühe Präsenz und ein ausgeprägtes Angebot zahlen sich aus

Ein Grund für Amazons Erfolg liegt unumstritten in der frühen Präsenz am Markt. Als erster IaaS Anbieter (2006) haben sie den Markt geprägt und dem Cloud Computing damit die Richtung vorgegeben, an der sich viele Anbieter orientieren. Microsoft folgte mit Windows Azure zwar relativ spät (2010), hat sein Portfolio aber schnell ausgebaut.

Ein weiterer aber viel prägnanter Grund sind die Services beider Anbieter. Wie bei den anderen IaaS Anbietern am Markt, stehen bei Amazon AWS und Microsoft Windows Azure nicht nur die reine Infrastruktur im Vordergrund, sondern viel mehr Lösungen drum herum. Das Angebot beider Anbieter ist im Vergleich zum restlichen Markt sehr ausgeprägt und bietet deutlich mehr als nur virtuelle Server und Speicherplatz. Und das ist der Knackpunkt.

Die Infrastruktur nutzbar machen

IaaS bedeutet im Kern das Angebot von Rechenleistung, Speicherplatz und Netzwerkkapazitäten als Service im Pay as you go Modell. Das beherzigen die meisten Cloud Anbieter am Markt. Nur nicht Amazon AWS und Windows Azure. Beide bieten viele Mehrwert-Services um ihre Infrastruktur herum an und machen diese damit nutzbar. Kunden sind damit in der Lage die “dumme” Infrastruktur direkt produktiv zu nutzen.

Egal welchen Anbieter man sich aus dem Public Cloud Bereich zur Brust nimmt, in der Regel besteht das Angebot aus Compute (Rechenleistung), Storage (Speicherplatz) und Database (Datenbanken). Der eine oder andere bietet zudem noch ein CDN (Content Delivery Network) und Tools für das Monitoring. Das war es dann aber auch schon. Hingegen zeigt ein Blick auf die Services von Amazon AWS und Windows Azure, wie umfangreich deren Portfolio mittlerweile ist.

Daher, Mehrwert-Services sind der Schlüssel und die Zukunft von Infrastructure-as-a-Service, mit denen sich die Infrastruktur gewinnbringender nutzen lässt.

Categories
Kommentar

Ein deutscher Patriot Act schadet dem deutschen Cloud Computing Markt

Wie netzpolitik.org berichtet, arbeiten das deutsche Bundesfinanzministerium sowie das Bundesinnenministerium an der Überwachung von Daten in der Cloud. Ebenso arbeiten das Zollkriminalamt (ZKA) sowie das Bundesamt für Verfassungsschutz im Rahmen internationaler Arbeitsgruppen an Methoden, um Daten aus der Cloud abzuhören. Zusammen mit der Bundesnetzagentur gehören beide dazu dem „European Telecommunications Standards Institute“ (ETSI) an. Zwar sei das Bundeskriminalamt (BKA) nicht direkt mit involviert, sei aber in Kontakt mit dem ZKA und habe Einfluss auf Entwicklungen und Beschlüsse.

Das ETSI soll Datenschutz umgehen

Bereits im August hatte ich darüber geschrieben, dass sich das ETSI mit Technologien beschäftigt, um den Datenschutz trotz Mechanismen wie z.B. SSL auszuhebeln.

Das ETSI soll dazu “eine geheime Hintertür für die Cloud” entwickeln. Dabei soll es darum gehen, den Sicherheitsbehörden das Abhören und Überwachen von Kommunikationsdaten in der Cloud zu erleichtern. Das soll neben Angeboten wie Facebook, Twitter usw. ebenfalls Unternehmensangebote wie die Amazon Web Services, Microsoft Windows Azure und andere Anbieter betreffen. Dazu habe sich das ETSI eine Backdoor überlegt, um unkompliziert den unautorisierten Zugriff zu ermöglichen.

SSL wird ausgehebelt

Bei der ETSI Idee handelt es sich, wie sonst oft diskutiert, allerdings nicht um rechtliche Themen wie bspw. dem “Patriot Act”. Hier geht es um reine Technik. Das ETSI will eine Schnittstelle definieren, mit der europäische Sicherheitsbehörden Zugriff auf die Cloud Services der Anbieter erhalten. Die ETSI-Arbeitsgruppe “TC Lawful Interception” stellt sich die Umsetzung so vor, dass die Internet-Anbieter sämtlichen Verkehr standardmäßig umleiten. Nutzt ein Anwender eine verschlüsselte HTTPS-Verbindung (was mittlerweile Standard ist), soll der Datenverkehr auf spezielle Server in das Rechenzentrum des Internet-Anbieter umgeleitet werden. Hier sollen die Sicherheitsbehörden dann den Zugriff auf die Daten erhalten. Um das zu realisieren, müssen die entsprechenden SSL-Zertifikate ausgehebelt werden. Der ETSI geht es nach eigenen Angaben nur um die Erfassung der Datenkommunikation und nicht um die Kontrolle der Inhalte. Der britische Sicherheitsspezialisten und Leiter des Computer Laboratory der Universität Cambridge Ross Anderson hingegen schreibt nach einer Analyse des ETSI-Entwurfs allerdings: “Wenn man die Infrastruktur baut, auf die sich das ETSI geeinigt hat, kann diese für Überwachungsaktivitäten genutzt werden.”

Konsortium hilft beim Forschen zum Schnüffeln

Wie netzpolitik weiter schreibt, arbeiten die Deutsche Telekom und die 1&1 Internet AG zusammen unter der Firma „Strategie- und Forschungszentrum Telekommunikation“ (SFZ TK) an dem gemeinsamen Projekt mit dem Namen “CLOUD” an der Überwachung von Cloud-Diensten. Zwar geht es nur um die “Fragestellungen zu Cloud-Computing und dessen Implikationen auf die Telekommunikationsüberwachung“, aber was man zwischen den Zeilen lesen kann ist besorgniserregend:

“Die unter Umständen weltweite und nicht transparente Verteilung der Daten, Software, Betriebssysteme und Speicher sowie der in der Regel auf verschlüsselten Kommunikationsprotokollen basierende Zugang zu Cloud-Diensten erschwert einen Zugriff der Sicherheitsbehörden.”

Neben dem BKA und der Bundespolizei arbeitet ebenfalls das Bundesamt für Verfassungsschutz mit SFZ TK zusammen.

Deutschland verbaut sich selbst einen kleinen Wettbewerbsvorteil

Im Mai hatte ich im Verlauf der SecureCloud 2012 in Frankfurt noch die Gelegenheit mit mehreren Beratern zu sprechen. Die durchweg einstimmigen Aussagen waren, dass sich Cloud Angebote aus Deutschland mit dem Verkaufsargument des hohen Datenschutzniveau sehr gut verkaufen lassen.

Ein deutscher Patriot Act schadet dem deutschen Cloud Computing Markt

Einige Cloud Anbieter aus Deutschland werben u.a. mit solchen Geschichten wie “Made in Germany” und hohen Datenschutzanforderungen in unserem Land. So ganz unrecht haben sie damit natürlich nicht. Im Vergleich zu anderen Ländern ist der Zugriff auf Daten bei einem deutschen Anbieter so ohne weiteres nicht möglich.

Dieser Wettbewerbsvorteil – TRUST (wir erinnern uns an die CeBIT 2012) – wird, geht es nach der deutschen Bundesregierung, jedoch bald verschwinden. Es geht dann nicht mehr darum, wer den besseren Datenschutz bieten kann oder vertrauenswürdig ist, sondern einzig und allein darum wer die besten Services und die innovativsten Produkte hat. Unternehmen müssen in Zukunft zudem noch besser darauf achten, ihre Daten zu klassifizieren und entscheiden, was in die Cloud soll und was doch lieber on-Premise bleibt. Darüber hinaus wird diese Entwicklung Einfluss auf den Markt haben, da sich immer mehr Unternehmen für eine eigene Private Cloud entscheiden.

Willkommen Private Cloud

Das Vertrauen in die Public Cloud wird weiter sinken und Public Cloud Services – die für das Cloud Computing in Reinform stehen – werden demnach einen weiteren Dämpfer erhalten! Interessant ist, dass die Marktforscher von Gartner für 2012 ein großes Wachstum in der Public Cloud sehen. Zudem sollen die Ausgaben für Enterprise Public Cloud Services bis 2016 die 207 Milliarden US-Dollar erreichen.

Ziehen wir diese neue Entwicklung heran, wird Gartner seine Prognosen wohl herunterschrauben müssen. Die Bedenken von CIOs, Public Cloud Services zu nutzen, sind derzeit eh schon höher als gedacht. Der Hauptgrund sind die Befürchtungen vor Datenlecks in der Public Cloud. Deutsche Unternehmen werden die Gedanken der deutschen Regierung ebenfalls nicht gerne hören. Eine Umfrage von IDC ergab vor kurzem, das ein Drittel der befragten deutschen Unternehmen in 2013 zwischen 26% – 50% ihres IT-Budget in die Private Cloud investieren wollen. Allerdings interessieren sich 90% der Unternehmen nicht(!) für die Public Cloud.