Categories
Analysen

Umfrage: Wie ist das aktuelle Vertrauen in die Cloud?

Nach den Enthüllungen um PRISM habe ich eine kleine anonyme Umfrage gestartet, um zu sehen, wie es mit dem aktuellen Vertrauen in die Cloud bestellt ist und wie sich der Skandal auf das persönliche Verhältnis zur Cloud verändert hat.

Die Fragen

  • How is your current trust in the cloud in general?
  • How is your current trust in the cloud provider of your choice?
  • How does the PRISM uncoverings influence your trust in the cloud?
  • Is your current cloud provider one of the accused?
  • How does the PRISM uncoverings influence your trust in the cloud provider of your choice?
  • Did you already think about to leave the cloud e.g. your cloud provider due to the PRISM uncoverings?
  • How important is the unconditional openness of your provider in times of PRISM and surveillance?
  • Do you think a 100% end-to-end encryption without any access and other opportunities of third parties can strengthen the trust?
  • In your mind which world region is the safest/ trustworthiest to store data in?

Um an der Umfrage teilzunehmen bitte hier entlang:

Your trust in the Cloud! – After the PRISM uncoverings how is your trust in the cloud?

Categories
Services @de

arago macht seinen AutoPilot mit Version 4.1 fit für die Zukunft

Die Automatisierungs-Experten von arago haben die neueste Version ihres AutoPilot veröffentlicht. Damit versprechen die Frankfurter einen noch flexibleren und sicheren IT-Betrieb mit ihrer wissensbasierten Automatisierungslösung. Der Autopilot kann vollautomatisch Aufgaben innerhalb eines IT-Betriebs übernehmen und damit die IT-Abteilungen von ihren Routineaufgaben entlasten. Die wichtigsten Erneuerungen des aktuellen Updates sind die Einführung eines Entwickler-Portals und einer neuen API, welche die Software für Entwickler öffnet. Der Autopilot soll damit noch effizienter in bestehende IT-Umgebungen integriert und an die individuellen Bedürfnisse angepasst werden können. Nutzer des Autopilot können die Software kostenfrei auf Version 4.1 aktualisieren und erhalten so Zugriff auf sämtliche neuen Services und Funktionen.

Neue API verbessert die Integration

Mit Einführung einer Java/C++ API-Library und einer REST-Schnittstelle ist nun die Anbindung externer Systeme einfacher möglich. Nutzer erhalten damit die Möglichkeit, dass sich der AutoPilot noch schneller und effizienter in IT-Umgebungen einbinden lässt und so den Zugriff auf entsprechende Datenbanken, Hardware oder Benutzeroberflächen ermöglicht beziehungsweise vereinfacht. Zusätzlich verringert ein neues, kompakteres XML-Format für das jeweilige MARS-Modell einen Overhead, wenn Modelldaten an die API übergeben werden.

Developer-Portal macht AutoPilot zur Plattform

Mit der Einführung eines Entwickler-Portals lässt sich der AutoPilot ab sofort von Entwicklern als Plattform nutzen, um eigene Anwendungen auf Basis der wissensbasierten Automatisierung und Datenhaltung zu generieren oder bestehende Anbindungen zu nutzen. Zu diesem Zweck stellt arago im neuen Portal eine umfangreiche Dokumentation, Code-Beispiele und Testdaten zur Verfügung. Bei Fragen oder Anmerkungen steht arago den Nutzern außerdem mit einer Support Community zur Verfügung. Das Entwickler-Portal befindet sich aktuell in der Betaphase für einen ausgewählten Entwicklerkreis – dieser soll aber stetig erweitert werden.

Wissensbasierte ersetzt skriptbasierte Automation

Der AutoPilot unterscheidet sich von den meisten Automatisierungslösungen, indem er wissensbasiert arbeitet. Andere Lösungen im Markt setzen eine Standardisierung der IT-Umgebung voraus und arbeiten in Skripten, Runbooks oder Workflows. Sie erzeugen IT-Abläufe, die einem Fließband ähnlich sind und arbeiten daher gut auf einer Ebene, die ohnehin zu einem hohen Grad von Standardisierung profitiert. Eine wissensbasierte Lösung administriert hingegen den gesamten Stack – vom Betriebssystem bis hin zur Individualapplikation bzw. dem Geschäftsprozess – und integriert sich in die bestehende IT-Landschaft, sogar komplexe, nicht-standardisierte Umgebungen.

Der arago AutoPilot dagegen nutzt das im Unternehmen vorhandene Wissen und wendet es automatisch an. Die Lösung wird mit dem Wissen der Administratoren und anderen IT-Experten in Form von Wissensbausteinen gefüllt und erhält sämtliche Informationen, die sie für die automatisierte Administration des IT-Betriebs benötigt. Anschließend kombiniert der AutoPilot diese flexibel je nach Situation und Bedarf und arbeitet so wie ein eigenständiger Experte. Dadurch kann das Softwaretool auch individuelle Applikationen administrieren und sogar auf ungeplante Ereignisse sinnvoll reagieren.

Kommentar: Der AutoPilot rüstet sich für die Zukunft

Mit der Version 4.1 setzt arago seinem AutoPilot selbst einen neuen Meilenstein. Insbesondere mit der Einführung des Developer-Portal und der REST-API macht arago einen Schritt in die Zukunft und öffnet sich. Das ist insoweit eine wichtige Entscheidung, dass damit die Verbreitung des AutoPilot erhöht und die Akzeptanz für die wissensbasierte Automatisierung im Markt gestärkt wird. Diese Entwicklung kann später darüber hinaus durchaus zu einem Marktplatz führen, der es den Entwicklern ebenfalls ermöglicht, eigene Anwendungen für den Autopilot darauf anzubieten und zu monetarisieren.

Automation gilt bei vielen Menschen immer noch als eine gefährliche Entwicklung, da die Maschinen den Arbeitsplatz vollständig ersetzen könnten. Das ist eine gefestigte Denkweise, die hinterfragt werden muss. Die industrielle Revolution hat die Arbeitskraft der Menschen ebenfalls nicht vernichtet, sondern zu einer höheren Effizienz bei der Produktion und zu neuen höherwertigen Aufgaben geführt. IT-Abteilungen sind heutzutage in ihren Routineaufgaben für den IT-Betrieb gefangen und können dadurch nur noch begrenzt in die eigentliche Wertschöpfung eines Unternehmens eingreifen. Und das in einer Zeit, in der alle von der IT als Business-Enabler sprechen.

Eine wissensbasierte Automatisierungslösung, wie der AutoPilot, hat das Potential die IT-Abteilungen zu entlasten und ihr mehr Zeit und Freiheiten zu verschaffen, um sich auf die strategische Ausrichtung der Unternehmens-IT zu konzentrieren und damit im gleichen Maße für mehr Innovationen durch IT im Unternehmen zu sorgen.

Categories
Comment

PRISM plays into German and European cloud computing providers hands

The U.S. government and above all PRISM has done the U.S. cloud computing providers a bad turn. First discussions now kindle if the public cloud market is moribund. Not by a long shot. On the contrary, European and German cloud computing providers play this scandal into the hands and will ensure that the European cloud computing market will grow stronger in the future than predicted. Because the trust in the United States and its vendors, the U.S. government massively destroyed itself and thus have them on its conscience, whereby companies, today, have to look for alternatives.

We’ve all known it

There have always been suspicions and concerns of companies to store their data in a public cloud of a U.S. provider. Here, the Patriot Act was the focus of discussion in the Q&A sessions or panels after presentations or moderations that I have kept. With PRISM the discussion now reached its peak and confirm, unfortunately, those who have always used eavesdropping by the United States and other countries as an argument.

David Lithicum has already thanked the NSA for the murder of the cloud. I argue with a step back and say that the NSA “would be” responsible for the death of U.S. cloud providers. If it comes to, that remains to be seen. Human decisions are not always rational nature.

Notwithstanding the above, the public cloud is not completely death. Even before the announcement of the PRISM scandal, companies had the task to classify their data according to business critical and public. This now needs to be further strengthen, because completely abandon the public cloud would be wrong.

Bye Bye USA! Welcome Europe und Germany

As I wrote above, I see less death of the cloud itself, but much more to come the death of U.S. providers. Hence I include those who have their locations and data centers here in Europe or Germany. Because the trust is so heavily destroyed that all declarations and appeasement end in smoke in no time.

The fact is that U.S. providers and their subsidiary companies are subordinate to the Patriot Act and therefore also the “Foreign Intelligence Surveillance Act (FISA)”, which requires them to provide information about requested information. The provider currently trying to actively strengthen themselves by claiming more responsibility from the U.S. government, to keep at least the rest of trust what is left behind. This is commendable but also necessary. Nevertheless, the discussion about the supposed interfaces, “copy-rooms” or backdoors at the vendors, with which third parties can freely tap the data, left a very bad aftertaste.

This should now encourage more European and German cloud providers. After all, not to be subject to the U.S. influence should played out as an even greater competitive advantage than ever. These include inter alia the location of the data center, the legal framework, the contract, but also the technical security (end-to-end encryption).

Depending on how the U.S. government will react in the next time, it will be exciting to see how U.S. provider will behave on the European market. So far, there are always 100% subsidiaries of the large U.S. companies that are here locally only as an offshoot and are fully subordinated to the mother in the United States.

Even though I do not advocate a pure “Euro-Cloud” neither a “German Cloud”. But, under these current circumstances, there can only be a European solution. Viviane Reding, EU Commissioner for Justice, is now needed to enforce an unconditional privacy regulation for Europe, which European companies strengthens against the U.S. companies from this point in the competition.

The courage of the providers is required

It appears, that there will be no second Amazon, Google, Microsoft or Salesforce from Europe or even Germany. The large ones, especially T-Systems and SAP strengthen their current cloud business and giving companies a real alternative to U.S. providers. Even bright spots of startups are sporadic seen on the horizon. What is missing are inter alia real and good infrastructure-as-a-service (IaaS) offerings of young companies who do not only have infrastructure resources in their portfolio, but rely on services similar to Amazon. The problem with IaaS are the high capital requirements that are necessary for it to ensure massive scalability and more.

Other startups who are offering for example platform-as-a-service (PaaS), in many cases, set in the background on the infrastructure of Amazon – U.S. provider. But here have providers such as T-Systems the duty not to focus exclusively on enterprises and also allow developers to build their ideas and solutions on a cloud infrastructure in Germany and Europe through the “Amazon Way”. There is still a lack of a real(!) German-European alternatives to Amazon Web Services, Google, Microsoft and Salesforce!

How should companies behave now?

Among all these aspects one have to advise companies, to look for a provider that is located in a country that guarantees the required legal conditions for the company itself regarding data protection and information security. And that can currently only be a provider from Europe or Germany. Incidentally, that was even before PRISM. Furthermore, companies themselves have the duty to classify their data and to evaluate mission-critical information at a much higher level of protection than less important and publicly available information.

How it actually looks at U.S. companies is hard to say. After all, 56 percent of the U.S. population find the eavesdropping of telephone calls as acceptable. Europeans, and especially the Germans, will see that from a different angle. In particular, we Germans will not accept a Stasi 2.0, which instead of rely on the spies from the ranks (neighbors, friends, parents, children, etc.), on machines and services.

Categories
Kommentar

PRISM spielt deutschen und europäischen Cloud Computing Anbietern in die Karten

Die US-Regierung und allen voran PRISM hat den US-amerikanischen Cloud Computing Anbietern einen Bärendienst erwiesen. Erste Diskussionen entfachen nun, ob damit der Public Cloud Markt dem Tode geweiht sei. Bei weitem nicht. Im Gegenteil, europäischen und deutschen Cloud Computing Anbietern spielt dieser Skandal in die Karten und wird dafür sorgen, dass der europäische Cloud Computing Markt in Zukunft stärker wachsen wird als vorhergesagt. Denn das Vertrauen in die USA und seine Anbieter hat die US-Regierung selbst massiv zerstört und damit auf dem Gewissen, wodurch sich Unternehmen, stand Heute, nach Alternativen umschauen müssen.

Wir haben es doch alle gewusst

Es gab immer Vermutungen und Bedenken von Unternehmen, ihre Daten in eine Public Cloud eines US-amerikanischen Anbieters zu speichern. Dabei stand der der Patriot Act im Mittelpunkt der Diskussionen in Q&A-Sessions oder Panels nach Vorträgen oder Moderationen die ich gehalten habe. Mit PRISM erreichen die Diskussion nun ihren Höhepunkt und bestätigen, leider, diejenigen die schon immer Abhöraktionen durch die USA und anderer Länder als Argument geliefert haben.

David Lithicum hat sich bereits bei der NSA für den Mord an der Cloud bedankt. Ich argumentiere mit einem Schritt zurück und sage, dass die NSA für den Tod der US-amerikanischen Cloud-Anbieter verantwortlich “wäre”, ob es soweit kommt, bleibt noch abzuwarten. Menschliche Entscheidungen sind nicht immer rationaler Natur.

Unabhängig davon ist die Public Cloud nicht vollständig Tod. Unternehmen hatten schon vor dem Bekanntwerden des PRISM-Skandals die Aufgabe, ihre Daten nach unternehmenskritischen und öffentlichen zu klassifizieren. Dieses muss sich nun noch weiter verstärken, denn die Public Cloud vollständig aufzugeben wäre falsch.

Bye Bye USA! Welcome Europa und Deutschland

Wie ich bereits oben geschrieben habe, sehe ich weniger den Tod der Cloud selbst, sondern viel mehr den Tod der US-Anbieter kommen. Damit schließe ich auch diejenigen ein, die hier in Europa oder Deutschland ihre Standorte und Rechenzentren haben. Denn das Vertrauen ist dermaßen zerstört, dass sämtliche Erklärungs- und Beschwichtigungsversuche sich in Nullkomma nix in Luft auflösen.

Fakt ist, dass US-Anbieter und deren Töchterfirmen dem Patriot Act und demnach auch dem “Foreign Intelligence Surveillance Act (FISA)” unterstellt sind, was sie dazu verpflichtet Auskünfte über angefragte Informationen zu erteilen. Die Anbieter versuchen sich hier derzeit aktiv zu stärken, indem mehr Verantwortung von der US-Regierung gefordert wird, um das restliche Vertrauen was noch vorhanden ist, zumindest zu behalten. Das ist lobenswert aber ebenso notwendig. Dennoch haben die Diskussionen um vermeintliche Schnittstellen, “Kopier-Räume” oder Backdoors bei den Anbietern, mit denen Dritte ungehindert die Daten abgreifen können, einen äußerst faden Beigeschmack hinterlassen.

Das sollte nun verstärkt europäische und deutsche Cloud-Anbieter ermutigen. Denn nicht dem US-amerikanischen Einfluss zu unterliegen sollte als ein noch größerer Wettbewerbsvorteil denn je ausgespielt werden. Dazu gehören u.a. der Standort des Rechenzentrums, der Rechtsrahmen, der Vertrag, aber auch die technische Sicherheit (z.B. End-to-End Verschlüsselung).

Je nachdem wie die US-Regierung in der nächsten Zeit reagieren wird, bleibt es spannend zu sehen, wie sich US-amerikanische Anbieter auf dem europäischen Markt verhalten. Bisher handelt es sich immer um 100% Tochterunternehmen der großen US-Konzerne, die hier vor Ort nur als Ableger gelten und der Mutter in den USA vollständig unterstellt sind.

Auch wenn ich kein Befürworter weder einer reinen “Euro-Cloud” noch einer “Deutschen Cloud” bin. Es kann unter diesen aktuellen Umständen nur eine europäische Lösung geben. Viviane Reding, EU-Kommissarin für Justiz, ist jetzt gefragt, um eine bedingungslose Datenschutzverordnung für Europa durchzusetzen, welche die europäischen Unternehmen gegenüber den US-Unternehmen unter diesen Gesichtspunkten im Wettbewerb stärkt.

Der Mut der Anbieter ist gefragt

Allen Anschein nach wird es kein zweites Amazon, Google, Microsoft oder Salesforce aus Europa oder gar Deutschland geben. Die großen, allen voran T-Systems und SAP stärken aktuell ihr Cloud-Geschäft und bieten Unternehmen damit eine echte Alternative zu US-Anbietern. Auch sind vereinzelnd Lichtblicke von Startups am Horizont zu erkennen. Was jedoch fehlt sind u.a. echte und gute Infrastructure-as-a-Service (IaaS) Angebote von jungen Unternehmen die nicht nur Infrastruktur-Ressourcen im Portfolio haben, sondern ähnlich wie Amazon auf Services setzen. Die Problematik beim IaaS besteht in den hohen Kapitalanforderungen, die dafür notwendig sind, um auch u.a. eine massive Skalierbarkeit zu gewährleisten.

Andere Startups die z.B. Platform-as-a-Service (PaaS) anbieten, setzen in vielen Fällen im Hintergrund wieder auf die Infrastruktur von Amazon – US-Anbieter. Hier sind dann allerdings Anbieter wie T-Systems in der Pflicht, sich nicht ausschließlich auf Unternehmen zu konzentrieren, sondern ebenfalls über den “Amazon-Weg” es Entwicklern ermöglichen, ihre Ideen und Lösungen auf einer Cloud-Infrastruktur in Deutschland und Europa zu entfalten. Es fehlt einfach eine echte(!) deutsch-europäische Alternative zu den Amazon Web Services, Google, Microsoft oder Salesforce!

Wie sollten sich Unternehmen jetzt verhalten?

Unter all diesen Gesichtspunkten muss man Unternehmen raten, sich nach einem Anbieter umzuschauen, der sich in einem Land befindet, das die für das Unternehmen selbst geforderten rechtlichen Bedingungen hinsichtlich Datenschutz und Informationssicherheit gewährleistet. Und das kann derzeit nur ein Anbieter aus Europa bzw. Deutschland sein. Nebenbei bemerkt war das auch schon vor PRISM so. Weiterhin stehen Unternehmen selbst in der Pflicht, ihre Daten zu klassifizieren und unternehmenskritische Informationen mit einem deutlich höheren Schutzniveau zu bewerten als weniger wichtige und öffentlich zugängliche Informationen.

Wie es bei US-amerikanischen Unternehmen konkret ausschaut ist schwer zu sagen. Immerhin halten 56 Prozent der US-Bürger das Überwachen von Telefonaten für akzeptabel. Europäer, aber vor allem die Deutschen werden das allerdings anders sehen. Insbesondere wir Deutschen werden keine Stasi 2.0, die anstatt auf Spione aus den eigenen Reihen (Nachbarn, Freunde, Eltern, Kinder usw.), auf Maschinen und Services setzt, akzeptieren!

Categories
Management @de

T-Systems setzt ein Zeichen und schickt Anwälte und Notare in die Cloud [Update]

T-Systems bietet zusammen mit der Arbeitsgemeinschaft Informationstechnologie im Deutschen Anwaltverein (davit) allen Anwälten und Notaren in Deutschland ein sicheres Dokumentenmanagement aus der Cloud an. Der entsprechende Kooperationsvertrag wurde von der Telekom-Tochter und der davit auf dem 64. Deutschen Anwaltstag in Düsseldorf unterzeichnet. Mit der Cloud-Lösung lassen sich von den Juristen Dokumente elektronisch in der Cloud erstellen, bearbeiten und archivieren und beliebig viele digitale Akten anlegen. Die Lösung ist skalierbar wird nach einem verbrauchsabhängigen Mietpreis abgerechnet, wodurch keine Investitionskosten entstehen. Der Zugang kann über davit oder T-Systems bestellt werden.

Zugeschnitten auf die Bedürfnisse von Anwälten und Notaren

T-Systems hat die von ihr entwickelte revisionssichere Standardlösung zusätzlich auf die Bedürfnisse von Anwälten und Notaren sowohl fachlich als auch technisch zugeschnitten. Der Service ist mit dem § 203 StGB für Berufsgeheimnisträger konform und erfüllt zudem sämtliche Anforderungen an den Beschlagnahmeschutz vertraulicher Informationen zwischen Anwälten und Mandanten. Für den Zugriff auf das System ist ein acht bis 50 Stellen langer, digitaler Schlüssel notwendig, den nur der Anwender kennt. Nach Angaben von T-Systems kann kein Mitarbeiter zu keinem Zeitpunkt auf die Daten in der Cloud-Lösung zugreifen und sie auslesen. Ebenfalls nicht bei Wartungsarbeiten. Aus Datenschutzgründen befinden sich die Dokumente in jedem Fall auf Servern innerhalb Deutschlands in einem nach international anerkannten Sicherheitsstandards zertifizierten, deutschen Rechenzentrum.

Im Hintergrund arbeitet die Lösung doculife des Schweizer Partners Document Future AG. Diese ist nahtlos in Microsoft Office und Outlook integrierbar. Hat der Anwender einen De-Mail-Account, kann er diesen über ein Plug-in nutzen und Nachrichten an Klienten oder an Gerichte verschlüsselt versenden. Nachricht und Anhang erreichen den oder die Empfänger somit sicher und beweiskräftig. Umgekehrt können die Anwälte und Notare auch De-Mail-Nachrichten empfangen. Aber auch konventionelle E-Mails erhält der Nutzer nur von Absendern, die er hierzu freigeschaltet hat.

Anwälte und Notare werden mobil

Über ein mobiles Endgerät mit dem Apple-Betriebssystem iOS lassen sich alle Dokumente ebenfalls aus der Cloud von überall aus sicher abrufen. Nutzer von Windows 8 und Android müssen sich noch etwas gedulden. Hier laufen allerdings bereits die Pilotprojekte. Die Akten lassen sich zudem auf Wiedervorlage einstellen. Die Cloud-Anwendung erinnert die Anwender dann an die anstehenden Aufgaben.

Update: Weitere Informationen zum Angebot

Ich hatte heute noch ein Briefing mit T-Systems zu diesem Service. Hier die weiteren wichtigen Fakten.

Grundsätzlich bietet T-Systems für alle seine Kunden, das gilt nicht nur für diese Anwalts- und Notar-Lösung, eine Private Cloud an. Das bedeutet, dass Unternehmen über eine dedizierte Netzwerkleitung mit einem T-Systems Rechenzentrum verbunden werden und dort auf die Hosted Private Cloud bzw. Virtual Private Cloud zugreifen. Hierzu werden die unterschiedlichen Lösungen in Blöcken voneinander physikalisch isoliert, um die Sicherheit zu gewährleisten.

Der Service für die Anwälte und Notare wird ebenfalls getrennt auf einer dedizierten Plattform in einem separaten physikalischen Block innerhalb eines T-Systems Rechenzentrum in Deutschland betrieben. Der Anwender muss nicht zwingend über eine dedizierte MPLS-Verbindung auf das Rechenzentrum zugreifen und kann dazu ebenfalls eine Standard Internetverbindung nutzen.

Die Sicherheit für den Zugriff auf das System wird, wie bereits oben beschrieben über einen bis zu 50 Stellen langen, digitalen Schlüssel sichergestellt. Dieser ist ausschließlich im Besitz des Anwenders und wird nur auf dessen lokalen System gespeichert. Das bedeutet zudem, dass dieser Schlüssel niemals verloren gehen darf. Ansonsten sind die Daten verloren, da T-Systems keine Möglichkeit besitzt, den Schlüssel wiederherzustellen oder ohne diesen Schlüssel auf die Daten zuzugreifen.

Der Zugriff auf die Daten in der Private Cloud erfolgt über eine klassische lokale Software-Installation von doculife, die einen vollen Funktionsumfang besitzt, über den Webrowser mit eingeschränkten Funktionen oder über mobile Apps für Smartphones und Tablets. Die Funktionsbeschränkung im Browser ist z.B. die nicht vorhandene E-Mail Integration. Die mobilen Apps sind derzeit noch im reinen Read-Only Modus.

Die Sicherheit bei der Übertragung der Daten vom Anwender in die Cloud wird unter Verwendung des Browsers via HTTPS (SSL) sichergestellt. Kommt die lokale doculife Software inkl. Outlook Integration zum Einsatz, wird eine End-to-End Verschlüsselung aufgebaut. Wird aus doculife heraus eine E-Mail inkl. Anhang über den De-Mail Dienst verschickt, ist laut T-Systems die End-to-End Verschlüsselung soweit sichergestellt, dass nur die De-Mail kurzzeitig auf den Servern geöffnet wird, der doculife Anhang aber weiterhin verschlüsselt bleibt.

Die Lösung kann in sechs verschiedenen Ausbaustufen, inkl. drei unterschiedlichen Beratungspaketen genutzt werden, dessen Preise in dieser Liste zu finden sind.

Kommentar: Ein Zeichen für alle Unternehmen

Technologisch betrachtet ist die Cloud in Deutschland angekommen. Viele Unternehmen haben bereits erkannt, wie sie damit ihre Produktivität erhöhen können und mehr Kapital, Zeit und Raum für Innovationen schaffen. Dennoch bestehen weiterhin rechtliche- und datenschutztechnische Bedenken sowie Probleme damit, das notwendige Vertrauen in die Anbieter aufzubauen. Die erste Person zu der in solchen Fällen in der Regel Kontakt aufgenommen wird ist der Rechtsanwalt. Dieser besänftigt dann mit Stichworten wie Auftragsdatenverarbeitung, Safe-Harbor, EU-Standardvertragsklauseln oder persönliche SLA-Verträge. Denn die rechtlichen Rahmenbedingungen sind soweit geschaffen. An Vertrauen fehlt es jedoch weiterhin. Das ist etwas sehr Subjektives, was auch kein Rechtsanwalt oder Datenschutzbeauftragter direkt vermitteln kann.

Das Vertrauen in die Cloud kann daher nur gestärkt werden, indem ebenfalls Nutzer mit höchst sensibel zu bewerteten Daten auf Cloud-Lösungen zurückgreifen. Diesen Schritt sind T-Systems und der davit nun gegangen und setzen damit ein deutliches Zeichen für alle Unternehmen, die noch Bedenken äußern u.a. personenbezogene Daten auf einem Cloud-Service zu speichern. Eines darf hier nicht übersehen werden. Anwälte und Notare arbeiten neben personenbezogene Daten ebenfalls mit weiteren äußerst sensiblen Daten, die meist noch kritischer zu betrachten sind. Darüber hinaus unterliegen sie noch strengeren Gesetzen als ein durchschnittliches Unternehmen. Genannt sei nur der § 203 StGB “Verletzung von Privatgeheimnissen”, in dem geregelt ist, wie mit Verletzungen “… von namentlich ein zum persönlichen Lebensbereich gehörendes Geheimnis oder ein Betriebs- oder Geschäftsgeheimnis…” umgegangen wird. Oder die Anforderungen an den Beschlagnahmeschutz vertraulicher Informationen zwischen Anwälten und Mandanten. Anwälte und Notare gehören damit rechtlich als auch sicherheitstechnisch mit zu den gefährdetsten Gruppen in der Cloud, wofür die T-Systems und der davit nun eine Lösung geschaffen haben.

Ich war vor kurzem in einem Think Tank, wo es darum ging, wie man Cloud-Services für Anwälte und Steuerberater rechtskonform aber ebenfalls technisch und organisatorisch aufbauen sollte. Dabei waren auch einige Rechtsanwälte anwesend, die aus der Praxis berichteten und lieber heute als morgen auf Cloud-Lösungen zurückgreifen würden, um vor allem ortsunabhängig und zu jeder Zeit auf ihre Daten zugreifen zu können.

Auch andere Cloud-Anbieter sollten diesem Vorbild folgen und ein Maximum an rechtlicher Sicherheit bieten, wie zum Beispiel dem revisionssicheren Speichern und Archivieren von Daten. Ein weiterer Pluspunkt, den deutsche Anbieter ganz klar als Vorteil gegenüber internationalen Cloud-Anbietern ausspielen müssen, ist das anbieten echter(!) Cloud-Services aus einem deutschen Rechenzentrum, welches nach international anerkannten Sicherheitsstandards zertifiziert ist.

Categories
Comment

If you sell your ASP as SaaS you do something basically wrong!

Despite the continuing spread of the cloud and the software-as-a-service (SaaS) model, you always meet again and again people, who are anchored in the firm belief to offer cloud computing since 20 years. Because ASP (Application Service Providing) was finally nothing else. The situation is similar with traditional outsourcers, whose pre-sales team will gladly agreed for an appointment after a call to model the customers ‘tailored’ cloud computing server infrastructure locally, which may be paid by the customer in advance. In this post it’s only about why ASP has nothing to do with SaaS and cloud.

ASP: 50 customers and 50 applications

Let’s be honest. A company that wants to distribute an application will come sooner or later to the idea that it somehow wants to maximize its profits. In this context, economies of scale have an important role to place an efficient solution on the market that is designed that it remains profitable in spite of its own growth. Unfortunately, an ASP model can not prove exactly that. Because ASP has one problem. It does not scale dynamically. But is only as fast as the administrator must ensure that another server is purchased, installed in the server room, equipped with the operating system and other basic software plus the actual client software.

Furthermore, in the typical ASP model, for each customer an instance of the respective software is needed. In the worst case (depending on performance) at least even a separate (physical) server for each customer is required. This means in numbers, that for 50 customers who want to use exactly the same application but separated from each other, 50 installations of the application and 50 servers are required. Topics such as databases should not be forgotten, where in many cases, up to three times as many databases must be used as applications are provided to customers.

Just consider yourself the effort (cost) that an ASP provider operates to integrate and manage the hosted systems, to service new customers and beyond that to provide them with patches and upgrades. This is unprofitable!

SaaS: 50 customers and 1 application

Compared to ASP SaaS sets on a much more efficient and more profitable model. Instead of running one application for each customer, only one instance of an application for all customers is used. This means that for 50 customers only one instance of the application is required, that all together are using but isolated from each other. Thus, the expenses for the operation and management of the application is reduced in particular. Where an administrator at the ASP model had to update each of the 50 software installation, it is sufficient for SaaS, if a single instance is updated. If new customers want to take advantage to access the application, it is automatically set up, without an administrator needs to install a new server and set up the application for them. This saves both time and capital. This means that the application grows profitable with the requirements of new customers.

Multi-tenancy is the key to success

The concept behind SaaS, which accounts for a significant difference between ASP and SaaS, is called multi-tenancy. Here are several mandates, ie customers, hosted on the same server or software system, without beeing able to look in the data, settings, etc. of each other. This means that only a customer can see and edit its data. A single mandate within the system forms a related to the data and organizationally closed unity.

As noted above, the benefits of a multitenancy system is to centrally install the application, to maintain and optimize memory requirements for data storage. This is due to the fact that data and objects are held across clients and just need to be stored for an installed system and not per mandate. In this context, it must be stressed again that a software system is not multitenant by giving each client its own instance of software. Within the multi-tenancy method all clients using one instance of an application that is centrally managed.

If you still have the question why not to sell ASP as SaaS, read “Software-as-a-Service: Why your application belongs to the cloud as well“.

Categories
Comment

PRISM: Even the University of Furtwangen is planning interfaces for cloud monitoring in Germany

PRISM is the latest buzzword. That similar should happen in Germany too, causes to worry. Despite that this interview was published in the German Manager Magazin, it seems to be a little lost in the rest of the German media landscape, unfortunately. Because in Germany we are also on the way to integrate interfaces for monitoring cloud solutions. Developed and promoted by the University of Furtwangen!

Third-party organizations should be able to check data streams

In an interview with the Manager Magazin under the apparently innocuous title “SAFETY IN CLOUD COMPUTING – “The customer come off second best” says Professor Christoph Reich of the computer science department at the University of Furtwangen and director of its cloud research center: “We want to define interfaces that third party organizations get the opportunity to review the data streams.

This statement was in response to the question of how it can be technically realized that some kind of accountability chain to be set up that works across vendors. This has the background, that the property can be transferred, so that personal data are particularly well protected. For this reason, these accountability chain must not break if another provider comes into play.

So far so good. However, it will be exciting. In the subsequent question by the Manager Magazin:

Would also the federal government be a potential customer? German law enforcement agencies even ask for a single interface to monitor cloud communications data in real time.

Professor Reich answers:

In principle this is going in this direction. But a judicially actionable verifiability looks very different. If you want to record evidential data, you need special memory for that, these are very expensive. We want to give customers the opportunity to get visualized where their data are.

Regardless that the University of Furtwangen do not have this “special memory”, but certainly a government organization. And as long as the interfaces are available, the data can be captured and stored at a third location.

Cloud computing lives from the trust

I already wrote about it three years ago “Cloud computing is a question of trust, availability and security“. The University of Furtwangen would also like to create more trust in the cloud with their “surveillance project”.

I just wonder how to continue building confidence, if you want to integrate interfaces for the potential (government) monitoring of data streams in cloud solutions?

Categories
Kommentar

PRISM: Auch die Hochschule Furtwangen plant Schnittstellen zur Cloud-Überwachung in Deutschland

PRISM ist derzeit in aller Munde. Das sich Ähnliches aber auch bald in Deutschland abspielen soll, dürfte uns sorgen bereiten. Trotz dass dieses Interview im Manager Magazin erschienen ist, scheint es in der restlichen deutschen Medienlandschaft ein wenig untergegangen zu sein, leider. Denn in Deutschland sind wir ebenfalls auf dem Weg Schnittstellen zur Überwachung in Cloud-Lösung zu integrieren. Und das Entwickelt und gefördert von der Hochschule Furtwangen!

Drittorganisationen sollen Datenströme überprüfen können

In einem Interview mit dem Manager Magazin unter dem anscheinend harmlosen Titel “SICHERHEIT BEIM CLOUD COMPUTING – “Der Kunde sitzt am kürzeren Hebel” sagt Professor Christoph Reich von der Fakultät Informatik an der Hochschule Furtwangen und Leiter des dortigen Cloud Research Center: “Wir wollen Schnittstellen definieren, die Drittorganisationen die Möglichkeit geben, die Datenströme zu überprüfen.“.

Diese Aussage war die Antwort auf die Frage, wie es technisch realisiert werden kann, dass eine Art Rechenschaftskette aufgebaut werden soll, die über Anbietergrenzen funktioniert. Das hat den Hintergrund, dass somit die Eigenschaft weitergegeben werden soll, “… dass personenbezogene Daten besonders gut geschützt werden…”. Aus diesem Grund darf diese Rechenschaftskette nicht abreißen, wenn ein weiterer Anbieter mit ins Spiel kommt.

Soweit so gut. Allerdings wird es dann spannend. Auf die anschließende Frage vom Manager Magazin:

Wäre damit auch der Bund ein potentieller Kunde? Deutsche Strafverfolgungsbehörden verlangen ja nach einer einheitlichen Schnittstelle, um Cloud-Kommunikationsdaten in Echtzeit überwachen zu können.

antwortet Professor Reich:

Im Prinzip geht das schon in diese Richtung. Aber eine gerichtlich verwertbare Nachprüfbarkeit sieht noch mal ganz anders aus. Wenn man beweissichere Daten aufnehmen will, braucht man spezielle Speicher dafür, die sehr teuer sind. Wir wollen nur dem Kunden die Möglichkeit geben, visualisiert zu bekommen, wo seine Daten liegen.

Mal unabhängig davon, dass die Hochschule Furtwangen nicht über diese “speziellen Speicher” verfügt, aber eine staatliche Organisation bestimmt. Und solange die Schnittstellen dafür zur Verfügung stehen, können die Daten auch abgefangen und an einem dritten Ort gespeichert werden.

Cloud Computing lebt vom Vertrauen

Ich habe es schon vor drei Jahren geschrieben “Cloud Computing ist eine Frage des Vertrauens, der Verfügbarkeit und Sicherheit!“. Die Hochschule Furtwangen möchte mit ihrem “Überwachungsprojekt” ebenfalls Vertrauen in der Cloud schaffen.

Ich frage mich nur, wie man weiter Vertrauen aufbaut, wenn man Schnittstellen für die potentielle (staatliche) Überwachung von Datenströmen in Cloud-Lösungen integrieren möchte?!

Categories
Kommentar

Wer sein ASP als SaaS verkauft macht etwas grundlegend falsch!

Trotz der anhaltenden Verbreitung der Cloud und des Software-as-a-Service (SaaS) Modells trifft man immer wieder auf den einen oder anderen, der im festen Glauben verankert ist, Cloud Computing schon seit gefühlten 20 Jahren anzubieten. Denn ASP (Application Service Providing) sei schließlich nichts anderes. Ähnlich verhält es sich mit klassischen Outsourcern, deren Pre-Sales Team nach einem Anruf gerne einen Termin vereinbart, um mit dem Kunden vor Ort eine “maßgeschneiderte” Cloud Computing Serverinfrastruktur zu modellieren, die von dem Kunden vorab bezahlt werden darf. Hier soll es aber darum gehen, warum ASP mit SaaS und der Cloud nicht den Hauch einer Spur zu tun hat.

ASP: 50 Kunden und 50 Applikationen

Sind wir ehrlich. Ein Unternehmen, das eine Anwendung vertreiben möchte wird früher oder später auf den Gedanken kommen, dass es seine Gewinne doch irgendwie maximieren möchte. In diesem Zusammenhang haben die Economies of scale eine wichtige Bedeutung, um eine effiziente Lösung am Markt zu platzieren, die so konstruiert ist, dass diese trotz des eigenen Wachstums weiterhin profitabel bleibt. Leider kann ein ASP Modell genau das nicht nachweisen. Denn ASP hat ein Problem, es skaliert nicht dynamisch, sondern ist nur so schnell, wie der Administrator der dafür sorgen muss, dass ein weiterer Server eingekauft, im Serverraum installiert, mit dem Betriebssystem und weiterer Basissoftware und der eigentlichen Kundensoftware ausgestattet ist.

Weiterhin wird bei dem typischen ASP-Modell für jeden Kunden eine Instanz der jeweiligen Software benötigt. Im schlimmsten Fall (je nach Performance) wird sogar für jeden Kunden mindestens ein eigener (physikalischer) Server benötigt. Das bedeutet in Zahlen, dass für 50 Kunden, welche exakt dieselbe Anwendung aber getrennt voneinander nutzen möchten, 50 Installationen der Applikation und 50 Server benötigt werden. Vergessen sollten man dabei nicht Themen wie Datenbanken, in denen in vielen Fällen bis zu drei Mal so viele Datenbanken eingesetzt werden müssen wie Applikationen für die Kunden bereitgestellt sind.

Man überlege sich darüber hinaus den Aufwand (die Kosten), den ein ASP-Anbieter betreibt, um neue Kunden zu integrieren und die gehosteten Systeme zu verwalten, zu warten sowie mit Patches und Upgrades zu versorgen. Das ist unprofitabel!

SaaS: 50 Kunden und 1 Applikation

SaaS setzt im Vergleich zu ASP auf ein viel effizienteres und profitableres Modell. Anstatt für jeden Kunden jeweils eine Applikation zu betreiben, kommt nur eine einzige Instanz einer Applikation für alle Kunden zum Einsatz. Das bedeutet, dass für 50 Kunden nur 1 Instanz der Applikation benötigt wird, die alle gemeinsam aber isoliert voneinander nutzen. Damit wird insbesondere der Aufwand für den Betrieb und das Management der Applikation reduziert. Wo ein Administrator beim ASP-Modell jede Software der 50 Installation updaten musste, reicht es beim SaaS, wenn eine einzige Instanz aktualisiert wird. Wollen neue Kunden die Applikation nutzen wird ihnen der Zugang zu der Anwendung automatisch eingerichtet, ohne dass ein Administrator erst einen neuen Server installieren und die Applikation einrichten muss. Das spart sowohl Zeit als auch Kapital. Das bedeutet, dass die Anwendung mit den Anforderungen durch neue Kunden profitabel mitwächst.

Multitenancy ist der Schlüssel zum Erfolg

Das Konzept hinter SaaS, das einen entscheidenden Unterschied zwischen ASP und SaaS ausmacht, nennt sich Multitenancy (Mandantenfähigkeit). Hier werden auf ein und demselben Server bzw. Softwaresystem mehrere Mandaten, also Kunden gehostet, ohne das sich diese gegenseitig in die Daten, Einstellungen usw. schauen können. Das bedeutet, dass auch nur jeder Kunde seine Daten sehen und bearbeiten kann. Ein einziger Mandat innerhalb des Systems bildet dabei eine auf die Daten bezogene und organisatorisch geschlossene Einheit.

Wie bereits oben angemerkt, sind die Vorteile eines Multitenancy Systems, die Applikation zentral zu installieren und zu warten sowie der optimierte Speicherbedarf für die Datenhaltung. Das hängt damit zusammen, dass Daten und Objekte die mandantenübergreifend gehalten werden, nur für ein installiertes System gespeichert werden müssen und nicht pro Mandat. In diesem Zusammenhang muss noch einmal betont werden, dass ein Softwaresystem nicht mandantenfähig wird, indem jeder Mandanten eine eigene Instanz einer Software erhält. Alle Mandaten nutzen im Multitenancy-Verfahren eine Instanz einer Applikation die zentral verwaltet wird.

Wer sich weiterhin die Frage stellt, warum man ASP nicht als SaaS verkaufen darf, der sollte “Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört” lesen!

Categories
Comment

SAP Cloud: Lars Dalgaard will leave a huge hole

Now he is gone, Lars Dalgaard. He was my personal hope for SAP and in my opinion the driving force behind the cloud strategy of the company from Walldorf, which has received more and more momentum in the last month. But not only for the Cloud Dalgaard has revamped SAP, even cultural it would have been good for the company to have him longer in their own ranks. Or was it maybe exactly this problem why he had to go after such a short time.

Credible positive energy

The cloud thoughts SAP has incorporated externally by the akquisiton of SuccessFactors and with its founder and CEO Lars Dalgaard. After taking over the Dane was the person in authority for the SAP Cloud area and the driving force behind the SAP cloud services. And he has done this job very well. In his keynote, during the Sapphire Now 2012, in which he introduced the new SAP cloud strategy, Dalgaard presented himself as explosive entrepreneur who did not discarded his startups genes by far. On the contrary, with his motivation, he brought a fresh breeze in the established group based in Walldorf, Germany.

On my retrospective on the Sapphire Now, 2012 i had written (only in German): “It is to be hoped for Dalgaard and especially for SAP, that he can realize his cloud vision and that he may hope for open doors with his startup character. Because SAP is far away from what can be logically described as a startup.

Different corporate cultures

Has precisely this circumstance for Dalgaard or better SAP become the fate? Lars Dalgaard resigned from his executive position on the first of June 2013, has left SAP and entered as a general partner at Andreessen Horowitz. He will continue to be available for SAPs cloud business as an advisor for the cloud governance board .

I only can speculate at this point. Although I do not personally know Dalgaard. But his positive energy that he exudes during his lectures, evidence of someone who knows what he wants and have a clear focus. Admittedly, I’m not a SAP expert with regard to the corporate culture. However, many good people already questionably broken at SAP. Just take Shai Agassi as one example.

Quo vadis, SAP?

To moor an entire company on a single and also purchased externally person is exaggerated. However, I take the view that the loss of Lars Dalgaard could have a significant impact on the cloud business of SAP. One remember the very rocky start of SAP in the cloud area with its product line “SAP Business By Design”, which had not deserves the term cloud solution in its first version and which was a real letdown. With Business By Design 4.0 SAP has – under the direction of Lars Dalgaard – once again started from scratch and the train began to move.

It is desirable for SAP that they do not lose this “Dalgaard mentality” in order to remain competitive in the cloud market. Because one should not forget that a cloud business must be conducted differently as a traditional software company. Just compare Amazon and Google. The same also Microsoft needed to understand and learned to reinvent themselves. SAP was – with Lars Dalgaard – at least on the right track, so far.