Categories
Kommentar

Salesforce Customer Company Tour 13: Salesforce nutzt die Cloud als Werkzeug zur maximalen Vernetzung

Gleichzeitig mit dem neuen selbst ausgedachten Claim, eine „Customer Company“ zu sein, hat Salesforce auch den Namen seiner Kundenveranstaltung „Cloudforce“ in „Customer Company Tour 13“ (CCT13) umgetauft. Und die CCT13 hat gezeigt, der Name ist Programm, sowohl der neue Claim als auch der Name der Veranstaltung. Anstatt vorwiegend Salesforce Mitarbeiter die Arbeit machen zu lassen, durften zufriedene Kunden zu Wort kommen und die frohen Botschaften verkünden.

Salesforce braucht und will in Deutschland mehr Marktanteil

Salesforce gehört neben Amazon AWS und Google zu den Cloud Anbietern der ersten Stunde. Im Vergleich zum internationalen und europäischen Markt ist das Ansehen in Deutschland allerdings als eher gering einzustufen. Das liegt in erster Linie nicht am Salesforce Portfolio selbst, sondern zum einen am Cloud skeptischen deutschen Markt. Zum anderen daran, dass Salesforce in der Aussendarstellung immer noch als reines SaaS-CRM verstanden wird, was das Unternehmen bei weitem nicht mehr ist. Der Fokus muss auf der Vermarktung der gesamten Plattform liegen, um damit zu zeigen, dass und welche Unternehmensprozesse sich darauf abbilden lassen.

Damit hat das Unternehmen auf seiner CCT13 begonnen. Die Idee für den Claim der „Customer Company“ hat sich Salesforce übrigens von einer IBM Studie aus dem Jahr 2012 abgeschaut. Daran sieht man mal, dass auch junge disruptive Unternehmen von den alten Hasen in der Branche etwas lernen können. Um den Anspruch einer Customer Company gerecht zu werden setzt Salesforce auf insgesamt sieben Säulen: Social, Mobile, Big Data, Community, Apps, Cloud und Trust. Die ersten sechs sind bereits im Portfolio erkennbar. Vertrauen sollte allerdings selbstverständlich sein und über allem stehen.

Salesforce wird im Frühjahr 2014 übrigens ein neues Rechenzentrum in Europa, London bauen. Darüber hinaus ist ein globales Forschungs- und Entwicklungszentrum in Grenoble geplant.

Internet of Things steht weit oben auf der Prioritätenliste

Mich hat besonders der GE Use Case begeistert, der am Rande der Veranstaltung leider nur wenig Aufmerksamkeit bekam. Allerdings zeigt genau dieser das große Potential der Salesforce Plattform und in welche Richtung Salesforce steuern wird. GE nutzt Salesforce Chatter, um seine Support-Teams über aktuelle Status der Flugzeugtriebwerke zu informieren (M2M Kommunikation). Mehr Hintergrundinformationen stehen dazu noch nicht zur Verfügung. Aber dieses Video stellt den Use Case ganz gut dar.

http://www.youtube.com/watch?v=GvC1reb9Ik0

Salesforce zeigt genau dass, was ich der Zukunft der Cloud bereits bescheinigt habe. Die Cloud dient als technologische Basis für die maximale Vernetzung von allem, u.a. für das Internet of Things. Und hier ist Salesforce mit seiner Plattform und der strategischen Ausrichtung auf dem richtigen Weg, einer der großen Player in diesem Markt zu werden.

Es zeigt aber noch etwas anderes. Salesforce ist mittlerweile viel mehr als nur Sales. Vielleicht erleben wir somit bald das nächste Mammutprojekt. Der Namenswechsel von Salesforce in „ – wir dürfen gespannt sein -“.

Categories
Kommentar

SpotCloud übersehen: Der Deutsche Börse Cloud Exchange ist nicht der erste industrieweite anbieterneutrale Cloud-Marketplace

Ich hatte bereits in meinem Kommentar zum Cloud-Marketplace der Deutsche Börse darauf hingewiesen, dass es sich dabei nicht um den ersten Cloud Marktplatz seiner Art handelt und Reuven Cohen mit SpotCloud im Jahr 2010 bereits deutlich früher dran war. Nachdem ich in der Presse einmal quer gelesen habe, muss ich sagen, dass der “Deutsche Börse Cloud Exchange” etwas sein möchte was er gar nicht ist – der “erste” industrieweite und anbieterneutrale Marktplatz für Cloud-Infrastruktur Ressourcen.

Drei Jahre zu spät!

Das Marketing der Deutsche Börse scheint sich mit Lorbeeren schmücken zu wollen, die ihnen überhaupt nicht zustehen. So interessant die Idee des Deutsche Börse Cloud Exchange (DBCE) auch ist, sollte man ruhig bei der Wahrheit bleiben. Denn bei dem Marktplatz handelt es sich bei Weitem nicht um den ersten industrieweiten und zudem noch anbieterneutralen Marktplatz für Cloud-Infrastruktur Ressourcen. Diese Krone darf sich Reuven Cohen aufsetzen, der SpotCloud bereits 2010 veröffentlicht hat. In der Spitze hat SpotCloud bisher 3.200 Anbieter und 100.000 Server weltweit verwaltet.

Zudem unterstützt SpotCloud seit April 2011 ebenfalls OpenStack. Ein Punkt den auch Stefan Ried berechtigterweise am DBCE kritisiert hat.

Also liebes Marketing von der Deutsche Börse, gute Idee/ Lösung, aber bitte bei der Wahrheit bleiben. Selbst die NSA schafft es nicht mehr, etwas vor der Öffentlichkeit zu verstecken.

Categories
Kommentar

Die Deutsche Börse bringt mit einem eigenen Cloud-Marketplace mehr Standardisierung und Vertrauen in die Cloud

Zu Beginn des Jahres 2014 wird die Deutsche Börse in den Bereich für Cloud-Marketplaces einsteigen und unter dem Namen „Deutsche Börse Cloud Exchange AG“ einen eigenen Broker für Infrastructure-as-a-Services anbieten. Als Basis-Technologie setzt das Unternehmen auf den deutschen Cloud-Management Anbieter Zimory, mit dem ebenfalls ein Joint Venture gegründet wird.

Unabhängiger Cloud-Marketplace für Infrastruktur-Services

Der Cloud-Marketplace soll Anfang 2014 starten und als Marktplatz für Cloud-Storage und Infrastruktur-Ressourcen dienen. Um die technische Seite zu realisieren hat die Deutsche Börse mit dem deutschen Cloud-Management Anbieter Zimory ein Joint Venture gegründet. Zimory wird somit die Verantwortung haben, dass alle Kunden reibungslos auf die von ihnen eingekauften Cloud-Ressourcen zugreifen können.

Mit dem Cloud-Marketplace konzentrieren sich beide Unternehmen sowohl auf den öffentlichen Sektor als auch auf Forschungseinrichtungen, die bei Bedarf mehr Infrastruktur-Ressourcen wie Speicherplatz und Rechenleistung benötigen oder selbst Überkapazitäten haben und diese auf dem Marktplatz anbieten möchten.

Die Deutsche Börse Cloud Exchange wird als internationaler und anbieterneutraler Cloud-Marketplace ausgerichtet und ist für die Standards wie das Produktangebot, das Zulassungsverfahren, den Anbieterwechsel und für die Garantien und Gewährleistungen der eingekauften Ressourcen verantwortlich. Kunden sollen den Anbieter frei wählen können und dabei selbst entscheiden können, in welchem Rechtsraum die Daten gespeichert werden. Dazu werden die Spezifikation und Standards sowie deren technische Bereitstellung in enger Zusammenarbeit mit den Teilnehmern des Marketplace abgestimmt.
Als potentielle Partner nennt die Deutsche Börse Cloud Exchange Anbieter aus dem klassischen IT-Bereich sowie national und internationale mittelständische Unternehmen und Großkonzerne. Dazu gehören u.a. CloudSigma, Devoteam, Equinix, Host Europe, Leibniz-Rechenzentrum, Profi AG, T-Systems und der TÜV-Rheinland.

Kommentar: Ein unabhängiger und standardisierter Marketplace sorgt für mehr Vertrauen in die Cloud

Ein Cloud-Marketplace wie ihn die Deutsche Börse anbieten wird, ist grundsätzlich nichts Neues. Der erste Marketplace seiner Art wurde als Spotcloud von Reuven Cohen auf den Markt gebracht. Auch die Amazon Web Services bieten mit ihren Spot-Instances die Möglichkeit, mit virtuellen Instanzen zu handeln. Dabei handelt es sich jedoch um einen proprietären Marktplatz. Und das ist der entscheidende Vorteil für den Deutsche Börse Cloud Exchange, er ist anbieterunabhängig. Das bescheinigt ihm zum einen ein größeres Angebot an Ressourcen, zum anderen auch mehr Vertrauen, indem die Abhängigkeit zu einem einzigen Anbieter aufgelöst wird. Einen weiteren Vertrauensvorschuss liefert zudem die Deutsche Börse selbst. Diese handelt in ihrem Kontext seit jeher mit Wertpapieren, Energie und weiteren Rohstoffen ebenfalls mit virtuellen Gütern. Warum soll sie das nicht auch mit virtuellen IT-Ressourcen machen. Die Deutsche Börse wird also als Gesicht nach Außen für die organisatorische Sicherheit und die Awareness sorgen, wohingegen Zimory für die technische Abwicklung im Hintergrund zuständig ist.

Ein weiterer wichtiger Punkt, der ein Schlüssel zum Erfolg werden kann ist das Thema Standardisierung. Seit Beginn der Cloud wurde über „Standards in der Cloud“ diskutiert und wer für DEN Standard sorgen wird. Möglicherweise haben wir mit dem Deutsche Börse Cloud Exchange eine ernsthafte Initiative aus der Industrie gefunden, die dafür sorgen wird, dass es demnächst einen einheitlichen Cloud Standard geben wird. Das hängt natürlich von der entsprechenden Beteiligung der Cloud Anbieter ab. Dennoch zeigen die ersten Partner allen voran CloudSigma, Equinix und T-Systems (setzt u.a. auch auf OpenStack) ihr Interesse in die Richtung. Es bleibt in diesem Zusammenhang zudem abzuwarten, wie sich die Open Cloud Community hierzu aufstellen wird.

Bei der ersten Version des Deutsche Börse Cloud Exchange wird es sich um einen reinen Marketplace für Cloud-Infrastruktur handeln. Ein nächster Evolutionsschritt sollte darin bestehen, ebenfalls externe Mehrwert-Services mit in den Marketplace aufzunehmen, mit denen die Infrastruktur-Ressourcen effektiv genutzt werden können, um Entwickler damit zu animieren die Ressourcen zu nutzen, um neue Web-Applikationen und Backendsoftware für mobile Apps zu entwickeln. Weiterhin sollte der Marketplace als echter Cloud-Broker aufgestellt werden.

Categories
Kommentar

ITDZ Berlin geht mit HP in die Private Cloud – Public Cloud bleibt eine Option

Das IT-Dienstleistungszentrum Berlin (ITDZ Berlin) hat mit HP eine Kooperation zum Aufbau einer Private Cloud geschlossen. Das System soll dazu alle an das Berliner Landesnetz angeschlossenen Dienststellen mit automatisierten Infrastructure- und Platform-as-a-Services versorgen (IaaS bzw. PaaS).

Private Cloud soll Automatisierung und Standardisierung vorantreiben

Mit der neuen Private Cloud will das ITDZ Berlin die Bereitstellung bestehender Dienste automatisieren, um sie Kunden noch effizienter, schneller und günstiger zur Verfügung zu stellen als bisher. Und dabei die sehr hohe Prozess-Stabilität und das Sicherheits-Niveau, das den strengen Datenschutzrichtlinien des öffentlichen Dienstes entspricht, erfüllen. Zudem sollen über die Private Cloud neue Infrastructure-as-a-Services für Server und Speicher sowie weitere Plattform-Services bereitgestellt werden. Diese sollen wiederum als Grundlage für neue Software-Services dienen, die Kunden und Bürgern das Arbeiten und Leben in Berlin erleichtern sollen.

Das ITDZ Berlin möchte darüber hinaus seine IT stärker zentralisieren, virtualisieren und automatisieren, um die Serviceleistungen weiter zu verbessern. Das bedeutet, dass mit neuen Diensten und verkürzten Beschaffungs- und Bereitstellungsvorgängen für die Kunden eine erhebliche Produktivitätssteigerungen erzielt werden soll. Weiterhin soll die Cloud dazu beitragen, die IT von Stadt und Land Zug um Zug zu verschlanken. Das ITDZ Berlin geht davon aus, dass sich eine Vielzahl der von Berliner Behörden betriebenen Server, entsprechend den Vorgaben des Berliner Rechnungshofs, in die neue Private Cloud verlagern lassen.

Grafische Oberflächen und Self-Service Portal für einfache Nutzung

HP wird im Rechenzentrum des ITDZ Berlin dazu ein flexibel skalierbares HP CloudSystem Enterprise einrichten. Zu den vereinbarten Leistungen HPs gehören dabei neben der Lieferung des Systems auch Beratungs-, Implementierungs- und Support-Dienstleistungen. Das HP CloudSystem Enterprise besteht aus vorkonfigurierten HP-Servern und HP-3PAR-Storage-Systemen sowie aus Netzwerk-Technik von HP Networking. Die Verwaltung erfolgt über die Cloud-Management-Software HP Cloud Service Automation. Für die Virtualisierung von Servern und Speichern sorgt Software von VMWare.

Zu HPs CloudSystem Enterprise gehört die Verwaltungs-Software HP Cloud Service Automation in der Version 3.0. Damit lässt sich die Private Cloud des ITDZ Berlin automatisiert betreiben. Die Software bietet Werkzeuge für die Verwaltung des gesamten Bereitstellungszyklus der Cloud, von der virtuellen Infrastruktur bis zur Cloud-Service-Anwendung. Dazu gehört beispielsweise ein Service-Designer mit grafischer Oberfläche, mit dem Mitarbeiter des ITDZ Berlin Teildienste per Drag-and-Drop zu Cloud-Diensten zusammenstellen können. Oder das Self-Service-Portal, über das Kunden die verfügbaren Infrastruktur- oder Plattformdienste bestellen können. Das Portal ist so vorkonfiguriert, dass Benutzer unter standardisierten Infrastrukturen und Plattform-Services auswählen können. Benutzerrechte und Regeln verhindern, dass Dienststellen oder Mitarbeiter Services bestellen, die für sie ungeeignet sind oder für die sie keine Genehmigung haben.

Über das Self-Service-Portal bestellte Infrastruktur-Ressourcen werden je nach Bedarf zugeteilt und sobald sie nicht mehr benötigt werden, wieder in den Pool der Cloud zurückgegeben. Das verbessert die Auslastung von Server-, Speicher- und Netzwerkhardware und schafft gleichzeitig mehr Flexibilität. Letztere ist für das IT-Dienstleistungszentrum von besonderer Bedeutung: Die zwei Data Center des ITDZ Berlin sind immer wieder kurzzeitigen Lastspitzen ausgesetzt, am Montag oder vor der Ferienzeit, wenn besonders viele Bürger Behördengänge erledigen und die IT-Services der angeschlossenen Dienststellen mehr Ressourcen brauchen als üblich. Der so entstehende Zusatzbedarf lässt sich mit den Services des Cloud System Enterprise decken – einfach, schnell und ohne zusätzliche Kosten.

Kommentar: Werden Daten klassifiziert ist die Public Cloud kein Tabuthema

Während einer Telefonkonferenz zu der Ankündigung, bestätigte mir Konrad Kandziora, Vorstand des ITDZ Berlin meine Frage, dass die Public Cloud weiterhin eine Option sei. Es gehe darum, die Daten vorab zu klassifizieren, was das ITDZ tue. So sieht Kandziora weiterhin Potential in der Public Cloud, um bspw. darüber ein online Bibliothekssystem zu realisieren. Für behördliche und polizeiliche Informationen sehe er hingegen die Private Cloud als die einzige Lösung.

Was sich während der Telefonkonferenz weiterhin bestätigt hat, ist mein “Top-Trend: Webbasierte GUIs für Cloud IaaS“. HP ermöglicht es dem ITDZ Berlin und seinen Kunden über eine grafische Oberfläche, Services per Drag-and-Drop zu Cloud-Diensten zusammenstellen. (Screenshots dazu gibt es auf der HP Flickr-Seite.) Das ist insofern sehr wichtig, dass viele Administratoren keine Entwickler sind und dadurch zwangsläufig nicht wissen, wie sie Infrastructure-as-a-Service (IaaS) APIs nutzen sollen, um sich programmatisch eine komplexe Cloud-Infrastruktur aufzubauen. Graphische Oberflächen helfen auch nicht Cloud-affinen Nutzern sich eine Cloud-Infrastruktur “zusammenklicken”, ohne Kenntnisse von der darunter liegenden API besitzen zu müssen.

Categories
Kommentar

PRISM spielt deutschen und europäischen Cloud Computing Anbietern in die Karten

Die US-Regierung und allen voran PRISM hat den US-amerikanischen Cloud Computing Anbietern einen Bärendienst erwiesen. Erste Diskussionen entfachen nun, ob damit der Public Cloud Markt dem Tode geweiht sei. Bei weitem nicht. Im Gegenteil, europäischen und deutschen Cloud Computing Anbietern spielt dieser Skandal in die Karten und wird dafür sorgen, dass der europäische Cloud Computing Markt in Zukunft stärker wachsen wird als vorhergesagt. Denn das Vertrauen in die USA und seine Anbieter hat die US-Regierung selbst massiv zerstört und damit auf dem Gewissen, wodurch sich Unternehmen, stand Heute, nach Alternativen umschauen müssen.

Wir haben es doch alle gewusst

Es gab immer Vermutungen und Bedenken von Unternehmen, ihre Daten in eine Public Cloud eines US-amerikanischen Anbieters zu speichern. Dabei stand der der Patriot Act im Mittelpunkt der Diskussionen in Q&A-Sessions oder Panels nach Vorträgen oder Moderationen die ich gehalten habe. Mit PRISM erreichen die Diskussion nun ihren Höhepunkt und bestätigen, leider, diejenigen die schon immer Abhöraktionen durch die USA und anderer Länder als Argument geliefert haben.

David Lithicum hat sich bereits bei der NSA für den Mord an der Cloud bedankt. Ich argumentiere mit einem Schritt zurück und sage, dass die NSA für den Tod der US-amerikanischen Cloud-Anbieter verantwortlich “wäre”, ob es soweit kommt, bleibt noch abzuwarten. Menschliche Entscheidungen sind nicht immer rationaler Natur.

Unabhängig davon ist die Public Cloud nicht vollständig Tod. Unternehmen hatten schon vor dem Bekanntwerden des PRISM-Skandals die Aufgabe, ihre Daten nach unternehmenskritischen und öffentlichen zu klassifizieren. Dieses muss sich nun noch weiter verstärken, denn die Public Cloud vollständig aufzugeben wäre falsch.

Bye Bye USA! Welcome Europa und Deutschland

Wie ich bereits oben geschrieben habe, sehe ich weniger den Tod der Cloud selbst, sondern viel mehr den Tod der US-Anbieter kommen. Damit schließe ich auch diejenigen ein, die hier in Europa oder Deutschland ihre Standorte und Rechenzentren haben. Denn das Vertrauen ist dermaßen zerstört, dass sämtliche Erklärungs- und Beschwichtigungsversuche sich in Nullkomma nix in Luft auflösen.

Fakt ist, dass US-Anbieter und deren Töchterfirmen dem Patriot Act und demnach auch dem “Foreign Intelligence Surveillance Act (FISA)” unterstellt sind, was sie dazu verpflichtet Auskünfte über angefragte Informationen zu erteilen. Die Anbieter versuchen sich hier derzeit aktiv zu stärken, indem mehr Verantwortung von der US-Regierung gefordert wird, um das restliche Vertrauen was noch vorhanden ist, zumindest zu behalten. Das ist lobenswert aber ebenso notwendig. Dennoch haben die Diskussionen um vermeintliche Schnittstellen, “Kopier-Räume” oder Backdoors bei den Anbietern, mit denen Dritte ungehindert die Daten abgreifen können, einen äußerst faden Beigeschmack hinterlassen.

Das sollte nun verstärkt europäische und deutsche Cloud-Anbieter ermutigen. Denn nicht dem US-amerikanischen Einfluss zu unterliegen sollte als ein noch größerer Wettbewerbsvorteil denn je ausgespielt werden. Dazu gehören u.a. der Standort des Rechenzentrums, der Rechtsrahmen, der Vertrag, aber auch die technische Sicherheit (z.B. End-to-End Verschlüsselung).

Je nachdem wie die US-Regierung in der nächsten Zeit reagieren wird, bleibt es spannend zu sehen, wie sich US-amerikanische Anbieter auf dem europäischen Markt verhalten. Bisher handelt es sich immer um 100% Tochterunternehmen der großen US-Konzerne, die hier vor Ort nur als Ableger gelten und der Mutter in den USA vollständig unterstellt sind.

Auch wenn ich kein Befürworter weder einer reinen “Euro-Cloud” noch einer “Deutschen Cloud” bin. Es kann unter diesen aktuellen Umständen nur eine europäische Lösung geben. Viviane Reding, EU-Kommissarin für Justiz, ist jetzt gefragt, um eine bedingungslose Datenschutzverordnung für Europa durchzusetzen, welche die europäischen Unternehmen gegenüber den US-Unternehmen unter diesen Gesichtspunkten im Wettbewerb stärkt.

Der Mut der Anbieter ist gefragt

Allen Anschein nach wird es kein zweites Amazon, Google, Microsoft oder Salesforce aus Europa oder gar Deutschland geben. Die großen, allen voran T-Systems und SAP stärken aktuell ihr Cloud-Geschäft und bieten Unternehmen damit eine echte Alternative zu US-Anbietern. Auch sind vereinzelnd Lichtblicke von Startups am Horizont zu erkennen. Was jedoch fehlt sind u.a. echte und gute Infrastructure-as-a-Service (IaaS) Angebote von jungen Unternehmen die nicht nur Infrastruktur-Ressourcen im Portfolio haben, sondern ähnlich wie Amazon auf Services setzen. Die Problematik beim IaaS besteht in den hohen Kapitalanforderungen, die dafür notwendig sind, um auch u.a. eine massive Skalierbarkeit zu gewährleisten.

Andere Startups die z.B. Platform-as-a-Service (PaaS) anbieten, setzen in vielen Fällen im Hintergrund wieder auf die Infrastruktur von Amazon – US-Anbieter. Hier sind dann allerdings Anbieter wie T-Systems in der Pflicht, sich nicht ausschließlich auf Unternehmen zu konzentrieren, sondern ebenfalls über den “Amazon-Weg” es Entwicklern ermöglichen, ihre Ideen und Lösungen auf einer Cloud-Infrastruktur in Deutschland und Europa zu entfalten. Es fehlt einfach eine echte(!) deutsch-europäische Alternative zu den Amazon Web Services, Google, Microsoft oder Salesforce!

Wie sollten sich Unternehmen jetzt verhalten?

Unter all diesen Gesichtspunkten muss man Unternehmen raten, sich nach einem Anbieter umzuschauen, der sich in einem Land befindet, das die für das Unternehmen selbst geforderten rechtlichen Bedingungen hinsichtlich Datenschutz und Informationssicherheit gewährleistet. Und das kann derzeit nur ein Anbieter aus Europa bzw. Deutschland sein. Nebenbei bemerkt war das auch schon vor PRISM so. Weiterhin stehen Unternehmen selbst in der Pflicht, ihre Daten zu klassifizieren und unternehmenskritische Informationen mit einem deutlich höheren Schutzniveau zu bewerten als weniger wichtige und öffentlich zugängliche Informationen.

Wie es bei US-amerikanischen Unternehmen konkret ausschaut ist schwer zu sagen. Immerhin halten 56 Prozent der US-Bürger das Überwachen von Telefonaten für akzeptabel. Europäer, aber vor allem die Deutschen werden das allerdings anders sehen. Insbesondere wir Deutschen werden keine Stasi 2.0, die anstatt auf Spione aus den eigenen Reihen (Nachbarn, Freunde, Eltern, Kinder usw.), auf Maschinen und Services setzt, akzeptieren!

Categories
Kommentar

PRISM: Auch die Hochschule Furtwangen plant Schnittstellen zur Cloud-Überwachung in Deutschland

PRISM ist derzeit in aller Munde. Das sich Ähnliches aber auch bald in Deutschland abspielen soll, dürfte uns sorgen bereiten. Trotz dass dieses Interview im Manager Magazin erschienen ist, scheint es in der restlichen deutschen Medienlandschaft ein wenig untergegangen zu sein, leider. Denn in Deutschland sind wir ebenfalls auf dem Weg Schnittstellen zur Überwachung in Cloud-Lösung zu integrieren. Und das Entwickelt und gefördert von der Hochschule Furtwangen!

Drittorganisationen sollen Datenströme überprüfen können

In einem Interview mit dem Manager Magazin unter dem anscheinend harmlosen Titel “SICHERHEIT BEIM CLOUD COMPUTING – “Der Kunde sitzt am kürzeren Hebel” sagt Professor Christoph Reich von der Fakultät Informatik an der Hochschule Furtwangen und Leiter des dortigen Cloud Research Center: “Wir wollen Schnittstellen definieren, die Drittorganisationen die Möglichkeit geben, die Datenströme zu überprüfen.“.

Diese Aussage war die Antwort auf die Frage, wie es technisch realisiert werden kann, dass eine Art Rechenschaftskette aufgebaut werden soll, die über Anbietergrenzen funktioniert. Das hat den Hintergrund, dass somit die Eigenschaft weitergegeben werden soll, “… dass personenbezogene Daten besonders gut geschützt werden…”. Aus diesem Grund darf diese Rechenschaftskette nicht abreißen, wenn ein weiterer Anbieter mit ins Spiel kommt.

Soweit so gut. Allerdings wird es dann spannend. Auf die anschließende Frage vom Manager Magazin:

Wäre damit auch der Bund ein potentieller Kunde? Deutsche Strafverfolgungsbehörden verlangen ja nach einer einheitlichen Schnittstelle, um Cloud-Kommunikationsdaten in Echtzeit überwachen zu können.

antwortet Professor Reich:

Im Prinzip geht das schon in diese Richtung. Aber eine gerichtlich verwertbare Nachprüfbarkeit sieht noch mal ganz anders aus. Wenn man beweissichere Daten aufnehmen will, braucht man spezielle Speicher dafür, die sehr teuer sind. Wir wollen nur dem Kunden die Möglichkeit geben, visualisiert zu bekommen, wo seine Daten liegen.

Mal unabhängig davon, dass die Hochschule Furtwangen nicht über diese “speziellen Speicher” verfügt, aber eine staatliche Organisation bestimmt. Und solange die Schnittstellen dafür zur Verfügung stehen, können die Daten auch abgefangen und an einem dritten Ort gespeichert werden.

Cloud Computing lebt vom Vertrauen

Ich habe es schon vor drei Jahren geschrieben “Cloud Computing ist eine Frage des Vertrauens, der Verfügbarkeit und Sicherheit!“. Die Hochschule Furtwangen möchte mit ihrem “Überwachungsprojekt” ebenfalls Vertrauen in der Cloud schaffen.

Ich frage mich nur, wie man weiter Vertrauen aufbaut, wenn man Schnittstellen für die potentielle (staatliche) Überwachung von Datenströmen in Cloud-Lösungen integrieren möchte?!

Categories
Kommentar

Wer sein ASP als SaaS verkauft macht etwas grundlegend falsch!

Trotz der anhaltenden Verbreitung der Cloud und des Software-as-a-Service (SaaS) Modells trifft man immer wieder auf den einen oder anderen, der im festen Glauben verankert ist, Cloud Computing schon seit gefühlten 20 Jahren anzubieten. Denn ASP (Application Service Providing) sei schließlich nichts anderes. Ähnlich verhält es sich mit klassischen Outsourcern, deren Pre-Sales Team nach einem Anruf gerne einen Termin vereinbart, um mit dem Kunden vor Ort eine “maßgeschneiderte” Cloud Computing Serverinfrastruktur zu modellieren, die von dem Kunden vorab bezahlt werden darf. Hier soll es aber darum gehen, warum ASP mit SaaS und der Cloud nicht den Hauch einer Spur zu tun hat.

ASP: 50 Kunden und 50 Applikationen

Sind wir ehrlich. Ein Unternehmen, das eine Anwendung vertreiben möchte wird früher oder später auf den Gedanken kommen, dass es seine Gewinne doch irgendwie maximieren möchte. In diesem Zusammenhang haben die Economies of scale eine wichtige Bedeutung, um eine effiziente Lösung am Markt zu platzieren, die so konstruiert ist, dass diese trotz des eigenen Wachstums weiterhin profitabel bleibt. Leider kann ein ASP Modell genau das nicht nachweisen. Denn ASP hat ein Problem, es skaliert nicht dynamisch, sondern ist nur so schnell, wie der Administrator der dafür sorgen muss, dass ein weiterer Server eingekauft, im Serverraum installiert, mit dem Betriebssystem und weiterer Basissoftware und der eigentlichen Kundensoftware ausgestattet ist.

Weiterhin wird bei dem typischen ASP-Modell für jeden Kunden eine Instanz der jeweiligen Software benötigt. Im schlimmsten Fall (je nach Performance) wird sogar für jeden Kunden mindestens ein eigener (physikalischer) Server benötigt. Das bedeutet in Zahlen, dass für 50 Kunden, welche exakt dieselbe Anwendung aber getrennt voneinander nutzen möchten, 50 Installationen der Applikation und 50 Server benötigt werden. Vergessen sollten man dabei nicht Themen wie Datenbanken, in denen in vielen Fällen bis zu drei Mal so viele Datenbanken eingesetzt werden müssen wie Applikationen für die Kunden bereitgestellt sind.

Man überlege sich darüber hinaus den Aufwand (die Kosten), den ein ASP-Anbieter betreibt, um neue Kunden zu integrieren und die gehosteten Systeme zu verwalten, zu warten sowie mit Patches und Upgrades zu versorgen. Das ist unprofitabel!

SaaS: 50 Kunden und 1 Applikation

SaaS setzt im Vergleich zu ASP auf ein viel effizienteres und profitableres Modell. Anstatt für jeden Kunden jeweils eine Applikation zu betreiben, kommt nur eine einzige Instanz einer Applikation für alle Kunden zum Einsatz. Das bedeutet, dass für 50 Kunden nur 1 Instanz der Applikation benötigt wird, die alle gemeinsam aber isoliert voneinander nutzen. Damit wird insbesondere der Aufwand für den Betrieb und das Management der Applikation reduziert. Wo ein Administrator beim ASP-Modell jede Software der 50 Installation updaten musste, reicht es beim SaaS, wenn eine einzige Instanz aktualisiert wird. Wollen neue Kunden die Applikation nutzen wird ihnen der Zugang zu der Anwendung automatisch eingerichtet, ohne dass ein Administrator erst einen neuen Server installieren und die Applikation einrichten muss. Das spart sowohl Zeit als auch Kapital. Das bedeutet, dass die Anwendung mit den Anforderungen durch neue Kunden profitabel mitwächst.

Multitenancy ist der Schlüssel zum Erfolg

Das Konzept hinter SaaS, das einen entscheidenden Unterschied zwischen ASP und SaaS ausmacht, nennt sich Multitenancy (Mandantenfähigkeit). Hier werden auf ein und demselben Server bzw. Softwaresystem mehrere Mandaten, also Kunden gehostet, ohne das sich diese gegenseitig in die Daten, Einstellungen usw. schauen können. Das bedeutet, dass auch nur jeder Kunde seine Daten sehen und bearbeiten kann. Ein einziger Mandat innerhalb des Systems bildet dabei eine auf die Daten bezogene und organisatorisch geschlossene Einheit.

Wie bereits oben angemerkt, sind die Vorteile eines Multitenancy Systems, die Applikation zentral zu installieren und zu warten sowie der optimierte Speicherbedarf für die Datenhaltung. Das hängt damit zusammen, dass Daten und Objekte die mandantenübergreifend gehalten werden, nur für ein installiertes System gespeichert werden müssen und nicht pro Mandat. In diesem Zusammenhang muss noch einmal betont werden, dass ein Softwaresystem nicht mandantenfähig wird, indem jeder Mandanten eine eigene Instanz einer Software erhält. Alle Mandaten nutzen im Multitenancy-Verfahren eine Instanz einer Applikation die zentral verwaltet wird.

Wer sich weiterhin die Frage stellt, warum man ASP nicht als SaaS verkaufen darf, der sollte “Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört” lesen!

Categories
Kommentar

SAP Cloud: Lars Dalgaard wird ein riesiges Loch hinterlassen

Nun ist er wieder weg, Lars Dalgaard. Er war mein persönlicher Hoffnungsträger für SAP und meiner Einschätzung nach die treibende Kraft hinter der Cloud-Strategie der Walldorfer, welche in den letzten Monat immer mehr an Fahrt aufgenommen hat. Aber nicht nur für die Cloud hat Dalgaard bei SAP einiges umgekrempelt, auch kulturell hätte es dem Unternehmen gut getan, ihn länger in den eigenen Reihen zu haben. Oder war es vielleicht genau das Problem, warum er nach so kurzer Zeit wieder gehen musste.

Glaubwürdige positive Energie

Den Cloud Gedanken hat sich SAP extern durch die damalige Akquisiton von SuccessFactors mit dessen Gründer und CEO Lars Dalgaard einverleibt. Der Däne wurde nach der Übernahme als Verantwortlicher für den SAP Cloud Bereich zur treibenden Kraft hinter den SAP Cloud Services. Und diesen Job hat er gut gemacht. In seiner Key Note, während der Sapphire Now 2012, in welcher er die neue Cloud Strategie von SAP vorstellte, präsentierte Dalgaard sich als explosiver Unternehmer, der seine Startup Gene bei weitem nicht abgelegt hat. Im Gegenteil, mit seiner Motivation brachte er frischen Wind in den etablierten Konzern aus Walldorf.

Ich hatte schon während meines Rückblicks auf die Sapphire Now 2012 geschrieben: “Es bleibt für Dalgaard und vor allem für SAP zu hoffen, dass er seine Cloud Vision verwirklichen und das er mit seinem Startup Charakter auf offene Türen hoffen darf. Denn SAP ist weit weg von dem, was man logischerweise als ein Startup bezeichnen kann.

Unterschiedliche Unternehmenskulturen

Ist genau dieser Umstand Dalgaard oder besser gesagt SAP nun zum Verhängnis geworden? Lars Dalgaard ist zum 1. Juni 2013 von seinem Vorstandsposten zurückgetreten, hat SAP verlassen und ist als General Partner bei Andreessen Horowitz eingestiegen. Er wird SAP weiterhin für das Cloudgeschäft im Cloud Governance Board beratend zur Seite stehen.

Ich kann an dieser Stelle nur spekulieren. Zwar kenne ich Dalgaard nicht persönlich. Aber seine positive Energie, die er während seiner Vorträge ausstrahlt, zeugen von jemanden, der weiß was er will und eine klare Linie verfolgt. Zugegebenermaßen bin ich auch kein SAP-Experte hinsichtlich der Unternehmenskultur. Allerdings sind schon viele gute Leute fragwürdiger Weise an SAP zerbrochen. Als ein Beispiel sei nur Shai Agassi genannt.

Quo vadis, SAP?

Ein ganzes Unternehmen an einer einzigen und dann auch noch extern eingekauften Person festzumachen ist übertrieben. Dennoch vertrete ich den Standpunkt, dass der Verlust von Lars Dalgaard einen erheblichen Einfluss auf das Cloud-Geschäft von SAP haben könnte. Man erinnere sich an den sehr steinigen Beginn von SAP im Cloud-Bereich mit seiner Produktlinie “SAP Business By Design”, die in ihrer ersten Version den Begriff Cloud-Lösung nicht verdient hatte und ein echter Reinfall war. Mit Business By Design 4.0 hat SAP – unter der Leitung von Lars Dalgaard – noch einmal von Vorne begonnen und der Zug kam ins Rollen.

Es sei SAP zu wünschen, dass sie diese “Dalgaard-Mentalität” nicht verlieren, um damit im Cloud-Markt weiterhin konkurrenzfähig zu bleiben. Denn eines sollte man nicht vergessen. Ein Cloud-Unternehmen muss anders geführt werden, als ein traditionelles Softwareunternehmen. Man vergleiche nur Amazon und Google. Das Gleiche musste auch Microsoft erst verstehen und lernen sich neu zu erfinden. SAP war – mit Lars Dalgaard – bisher zumindest auf dem richtigen Weg.

Categories
Kommentar

Die Cloud Computing Welt ist hybrid! Zeigt uns Dell wo es lang geht?

Dell hat sich mit einem klaren Schnitt aus der Public Cloud verabschiedet und richtet seine Cloud Computing Strategie nun mit eigenen auf OpenStack-basierten Private Cloud Lösungen, inkl. einem Cloud-Broker-Service für Public Clouds anderer Anbieter, aus. Dieser Schritt kommt im ersten Moment überraschend, macht aber Sinn, wenn man Dell, dessen jüngste Vergangenheit, aber vor allem den Markt genauer betrachtet.

Dells neue Cloud Strategie

Anstatt ein eigenes Public Cloud Angebot am Markt zu platzieren, wird Dell in Zukunft OpenStack-basierte Private Clouds auf Dell Hardware und Software verkaufen. Mit der erst kürzlich akquirierten Cloud-Management Technologie von Enstratius sollen Kunden darüber hinaus in der Lage sein, ihre Ressourcen zu mehr als 20 Public Cloud Anbieter zu verteilen.

Mit einem neuen “Partner Ecosystem”, das derzeit aus drei Anbietern besteht, in Zukunft aber weiter ausgebaut wird, sollen Integrationsmöglichkeiten zwischen den Public Clouds dieser Partner und den Private Clouds der Dell Kunden angeboten werden. Zu dem aktuellen Partnernetzwerk gehören Joyent, ZeroLag und ScaleMatrix. Alle drei sind eher kleine Namen im Infrastructure-as-a-Service (IaaS) Markt.

Dell stärkt damit ebenfalls weiter sein Beratungsgeschäft, indem Kunden aufgezeigt werden soll, welche Workloads und Prozesse in die Public Cloud fließen können.

Enstratius macht Dell zum Cloud-Broker

Ein Blick auf den aktuellen IaaS Public Cloud Markt zeigt, dass Dell mit seiner Strategieänderung richtig liegt. Alle aktuellen IaaS Anbieter jeder Größe reiben sich im Kampf um Marktanteile gegen den Branchenprimus Amazon Web Services auf. Da sich deren Innovationskraft im Vergleich zu Amazon jedoch auf ein Minimum beschränkt und sich die meisten, mit Ausnahme von Google und Microsoft, auf das Bereitstellen von reinen Infrastruktur-Ressourcen (Rechnerleistung, Speicherplatz, usw.) beschränken, sind die Erfolgsaussichten eher gering. Auf einen Preiskampf mit Amazon sollten sich zudem die wenigsten einlassen, das kann sehr schnell nach hinten losgehen.

Anstatt sich ebenfalls mit Amazon und den anderen Public IaaS Anbietern in den Ring zu stellen, positioniert sich Dell nun auf Basis von Boomi, Enstratius und weiteren früheren Akquisitionen als unterstützende Kraft für Cloud Service Anbieter und IT-Abteilungen und versorgt diese mit Hardware, Software und weiteren Mehrwerten.

Insbesondere der Kauf von Enstratius war ein guter Schachzug und macht Dell zum Cloud-Service-Broker. Bei Enstratius handelt es sich um ein Toolset zur Verwaltung von Cloud-Infrastrukturen, darunter die Bereitstellung, die Verwaltung und die Automatisierung von Applikation für – aktuell 23 – Public und Private Cloud Lösungen. Zu erwähnen ist, dass Enstratius neben dem Verwalten von einer Cloud-Infrastruktur ebenfalls den Betrieb von Multi-Cloud Umgebungen ermöglicht. Dazu kann Enstratius als Software-as-a-Service genutzt, als auch in on-Premise Umgebungen im eigenen Rechenzentrum als Software installiert werden.

Die Cloud Computing Welt ist Hybrid

Steigt Dell mit diesem Strategiewechsel nun in die Reihe der Cloud-Innovatoren auf? Bei Weitem nicht! Dell ist alles andere als ein führender Anbieter im Cloud Markt. Die Trümpfe im Cloud-Portfolio sind einzig und allein auf Akquisitionen zurückzuführen. Unterm Strich spielt das aber keine Rolle. Um im mittlerweile stark umkämpften Public Cloud Markt ein Wörtchen mitreden zu können, hätten massive Investitionen getätigt werden müssen, die nicht zwangsläufig erfolgsversprechend gewesen wären. Dell hat verstanden sich auf seine altbewährten Stärken zu konzentrieren und die liegen in erster Linie im Verkauf von Hardware und Software, Stichwort “Converged Infrastructures” und dem Beratungsgeschäft. Mit dem Kauf des Cloud-Integrations-Service Boomi, der jüngsten Akquisition von Enstratius und der Beteiligung an der OpenStack Gemeinde wurde extern entsprechendes Wissen eingeholt, um sich im weltweiten Cloud Markt zu positionieren. Insbesondere die Enstratius Technologie wird Dell dabei helfen, sich im Markt zu diversifizieren und als Hybrid Cloud-Broker eine führende Rolle einzunehmen.

Die Cloud Welt ist nicht nur Public oder nur Private. Die Wahrheit liegt irgendwo mittendrin und hängt stark von dem jeweiligen Use Case eines Unternehmens ab, die sich in Public, Private aber auch Hybrid Cloud Use Cases unterteilen. In Zukunft werden innerhalb eines Unternehmens alle drei Varianten vertreten sein. Dabei muss die Private Cloud nicht zwangsläufig direkt mit einer Public Cloud verbunden sein, um eine Hybrid Cloud aufzuspannen. Die IT-Abteilungen werden in diesem Fall eine zentrale Rolle spielen, wieder stärker in den Fokus rücken und als unternehmenseigener IT-Service-Broker auftreten. In dieser Rolle haben sie die Aufgabe, die eingesetzten internen und externen Cloud-Services der jeweiligen Fachabteilungen zu koordinieren, um für das Unternehmen den Gesamtüberblick aller Cloud-Services zu haben. Hierbei werden sie Cloud-Broker Services wie der von Dell unterstützen.

Categories
Kommentar

Microsoft SkyDrive Erfahrungsbericht – Ein Rückblick nach 6 Monaten intensiver Nutzung

Ich nutze Microsoft SkyDrive nun intensiv seit November 2012. Ich habe den Cloud-Storage Service aus Redmond in einem zurückliegenden Artikel hinsichtlich seiner Diversifikation zu Dropbox und anderen Angeboten gelobt. Dieses zu recht, denn die Integration in die weiteren Services von Microsoft ist wirklich gut gelöst. Jedoch sind auch andere Faktoren bei der Nutzung entscheidend und hier sieht es nicht ganz so rosig aus.

Geschwindigkeit: Der Caterham F1 unter den Cloud Storages

Das ist wirklich ein analog sehr gut gewähltes Beispiel. SkyDrive kommt einfach nicht aus dem Knick. Die initiale Synchronisation hat ernsthaft(!) fast zwei Wochen benötigt! Ich muss zu SkyDrives Verteidigung sagen, dass ich nur hinter einer 4 MBit (3,7 Mbit/s) Leitung mit 288 kbit/s Upload sitze. Dennoch war die immer so oft gewählte Marketing-Floskel “Customer Experience” mit Dropbox viel galaktischer. Sicherlich war ich mit Dropbox, welches ich vorher genutzt habe, verwöhnt. Das hängt u.a. mit der Deduplizierung zusammen, die SkyDrive nicht verwendet.

Dennoch bin ich nicht der Einzige, der sich über die Geschwindigkeit beklagt. In der Microsoft Community wird ebenfalls von einer “Terrible Skydrive speed performance” gesprochen.

Transparenz: Man weiß nicht was SkyDrive macht

Das ist wirklich das Schlimmste! Man weiß einfach nicht was SkyDrive im Hintergrund macht. Nach dem Start zeigt das Symbol in der Taskleiste “Änderungen werden gesucht” an. Das kann schon mal etwas länger dauern. Eine Statusanzeige wie “x Prozent von y”? Fehlanzeige!

Werden Dateien synchronisiert, verwendet SkyDrive die Statusanzeige: “Änderungen werden verarbeitet”. Ja, aber welche Dateien genau? Und wie lange dauert die Synchronisation noch? Was heißt denn Änderungen werden verarbeitet? Und warum dauert das z.B. mal 2 Stunden, ohne das etwas passiert? Ein Benutzer wird hier total im Stich gelassen. Das ist besonders ärgerlich, wenn man “mal eben” etwas in den SkyDrive Ordner kopiert, um es unterwegs auf einem anderen Gerät nutzen zu können.

Unzuverlässig: SkyDrive Client hängt sich immer wieder auf

In diesem Zusammenhang kommt es dann auch zu dem sehr unglücklichen Umstand, dass sich der SkyDrive Client im Hintergrund anscheinend aufhängt. Da man jedoch nicht weiß, was genau im Hintergrund passiert, ist man als Nutzer völlig aufgeschmissen. Man möge dann meinen, unter “Synchronisationsprobleme anzeigen”, mit einem Rechtsklick auf das SkyDrive Icon in der Taskleiste, gibt es mehr Informationen. Leider nicht, dieser ist ständig grau. Bedeutet also, dass alles in Ordnung ist. Ich frage mich dann aber, wie alles in Ordnung sein kann, wenn “Änderungen werden verarbeitet” über 9 Stunden für eine Dateigröße von nicht einmal 2MB angezeigt wird. Das ist KEIN SCHERZ!

Manchmal kann man dieses Problem lösen, wenn man den SkyDrive Client beendet und neu startet. Oftmals bringt das aber nichts. Das bedeutet dann, man muss die Dateien, die man eigentlich synchronisieren möchte, wieder aus dem SkyDrive Ordner nehmen, den Client neu starten und die Dateien einzeln hochladen lassen, bis “Alles Aktuell” ist. Jedoch hat auch das sehr oft nicht funktioniert. Dann heißt die Devise: Browser auf; SkyDrive.com öffnen; und alles von Hand in die entsprechenden Ordner hochladen!

Ich habe mal einen Blogbeitrag gefunden, in dem erklärt wurde, dass dieses Problem wohl an der lokalen SkyDrive Datenbank liegen soll. Die Lösung war, die Verknüpfung des PCs mit SkyDrive aufzuheben und neu zu erstellen. Dann wird die Datenbank neu abgeglichen, was quasi einer initialen Synchronisation entspricht. Unter Windows 7 hat es funktioniert. Allerdings ist das KEINE Lösung! Seit Windows 8 ist SkyDrive jedoch direkt mit dem Benutzer in das Betriebssystem integriert. Somit ist “Diese Option nicht verfügbar, da Sie mit einem Microsoft-Konto angemeldet sind.”

Just wo ich diesen Artikel schreibe, bin ich gerade dabei, eine 3,85 MB PDF-Datei hochzuladen. Status: “Änderungen werden verarbeitet” – “Letztes Update vor 58 Minuten”. Und ich habe den Client bereits zwei Mal neu gestartet.

Kosten: Unschlagbar

Hinsichtlich der Kosten gibt es keinen Kritikpunkt. Neue SkyDrive Nutzer erhalten 7GB kostenlosen Speicher. Die Speichererweiterungen werden in drei Kapazitätsstufen angeboten. Diese erweitern das kostenlose und bestehende SkyDrive Kontingent. 20GB Speicher kosten 8,00 € pro Jahr, 50GB 19,00 € pro Jahr und 100GB 37,00 € pro Jahr.

Mobile Clients: Gut bedienbar und schnell

Auch an den mobilen Clients gibt es meinem Befinden nach nichts zu kritisieren. Bis auf Linux, stehen für alle Betriebssysteme inkl. iOS und Android Clients zur Verfügung. Die mobilen Clients sind gut und flüssig zu bedienen. Auch der Zugriff auf die Daten im SkyDrive geht schnell.

Unter diesem Umständen nur bedingt empfehlenswert

Trotz der vergleichsweise geringen Kosten, der guten Integration in andere Microsoft Produkte sowie der guten mobilen Clients, kann ich SkyDrive unter den Gesichtspunkten der Geschwindigkeit aber insbesondere der Verlässlichkeit bisher nur bedingt weiterempfehlen. Vielleicht mache ich auch etwas falsch oder habe irgendwo ein Häkchen falsch gesetzt, was ich beides bezweifle, weil SykDrive hier wirklich auf Einfachheit setzt, was wiederum gut ist.

SkyDrive Pro habe ich mir bisher noch nicht angeschaut. Wenn das Produkt, wohl gemerkt für Unternehmen(!), allerdings genau so implementiert ist, dann gute Nacht!