Categories
News

CloudCache.com: Neues CDN soll E-Commerce Webseiten beschleunigen

Der US-amerikanische Content Delivery Network (CDN) Anbieter NetDNA hat mit CloudCache.com sein neues CDN für Web- und E-Commerce-Seiten vorgestellt. CloudCache.com bietet ein CDN zum Download an, welches in die selbst gehostete Software u.a. über Plugins integriert wird und über ein Control Panel verfügt. Zudem können Auswertungen in Echtzeit vorgenommen und der Datentransfer analysiert werden.

CloudCache.com: Neues CDN soll den E-Commerce Webseiten beschleunigen

Der Service arbeitet mit weiteren Web Services zusammen, um die Integration in bestehende Webseiten und Portale so einfach wie möglich zu gestalten. Ein Partner ist PrestaShop, der über 120.000 Web-Shops in den USA bereitstellt und CloudCache.com bereits als eine One-Click Installationsoption in seine aktuelle Software integriert hat.

CloudCache.com bietet weiterhin EdgeSSL, eine kostengünstige und dedizierte Secure Sockets Layer (SSL) Integration und Zertifizierung für sichere Online Kreditkarten Transaktionen. Über die Weboberfläche kann der Nutzer EdgeSSL aktivieren und muss nicht auf die Freischaltung anderer SSL-Services warten.

Das CDN liefert auf Basis eines Netzwerks von Edge-Standorten die Inhalte mit unter 10 ms Latenz in den USA aus. Jeder Edge-Knoten ist dafür über eine 10 Gigabit Leitung angebunden. Zudem arbeitet CloudCache.com mit weltweit über 600 verschiedenen Peering Partnern zusammen.

Für die Integration in Blogs und Content Management Webseiten bietet CloudCache Plugins. Unter anderem für Drupal, WordPress, Joomla etc.

Während neue Produkte wie bspw. CloudCache.com in den letzten Jahren auf dem Markt erschienen sind, haben eine Reihe von Studien gezeigt, dass eine erhebliche Anzahl von Online-Kunden auf Grund langsamer Ladezeiten auf den Einkauf verzichten bzw. diesen genervt abbrechen. Es herrscht also noch eine Menge Potenzial und eine Notwendigkeit für performante und günstige CDNs.

Categories
News

LG geht in den Mobile Cloud Storage Markt und veröffentlicht seine LG Cloud

LG Electronics will keinen Trend verpassen. Wie bereits Apple, Google und Microsoft haben auch die Südkoreaner damit begonnen, Cloud basierte Services für den Privatkundenmarkt zu veröffentlichen. Als erster Service wurde bereits am 1. Mai der hauseigene Cloud Storage Service LG Cloud in die Betaphase geschickt.

Bei dem LG Cloud Service handelt es sich zunächst um einen Cloud Storage, der den Zugriff auf Inhalte von Smartphones, Fernsehgeräten und Computer plattformübergreifend ermöglicht. Um den Service zu nutzen, benötigt der Anwender dazu native Anwendungen, die entweder über Google Play, LG SmartWorld oder direkt von der LG Cloud Webseite www.lgecloud.com heruntergeladen werden können. LG Cloud synchronisiert zudem automatisch sämtliche oder ausgewählte Inhalte von einem Smartphone zum PC oder LG Smart TV. Wodurch die multimedialen Inhalte unverzüglich angeschaut werden können.

LG Cloud steht zunächst für Google Android 2.2 und jünger, Windows XP, Windows 7 und LG Smart TVs mit Netcast 2.0 und jünger bereit. Weiterhin wird der Service zunächst in Nordamerika und Südkorea ausgerollt und später in weiteren Ländern zur Verfügung stehen.

Der Cloud Storage bietet 5GB kostenlosen Speicherplatz. Kunden, die bereits ein LG Smart TV oder LG Smartphone besitzen, oder solche, die ein LG Produkt erwerben, erhalten 6 Monate 50GB kostenlosen Speicherplatz. Die Preise für die Speichererweiterung stehen noch nicht fest.

LG möchte sich vom Mittbewerb abheben

LG betrachtet sein Angebot als mehr als nur einen gewöhnlichen Cloud Storage Service. Das Unternehmen möchte sein Produkt als speicher- und multimedia-orientieren Service vermarkten, da dieser ebenfalls über Echtzeit-Streaming verfügt. Dazu werden die Inhalte direkt über das Netz von einem Server übertragen. Der Nutzer benötigt dazu keine zusätzlichen Decoder auf dem lokalen Gerät, um die jeweiligen Dateien abzuspielen. Dazu werden die jeweiligen Inhalte durch das LG Cloud System vorab automatisch konvertiert und erst dann zum Client übertragen.

Categories
News

Studie zu Private Cloud, Storage und Virtualisierung bestätigt: Performance-Probleme und Ausfallzeiten haben Top-Priorität vor den Kosten

Performance-Engpässe und Ausfallzeiten bei Virtualisierungsprojekten bereiten IT-Verantwortlichen im Speicherumfeld die größten Sorgen. Noch im Vorjahr hatten die Kosten Top-Priorität. Das ist ein Ergebnis einer aktuellen Studie von DataCore Software, führender Anbieter für Storage-Hypervisor-Software, unter rund 300 befragten Unternehmen weltweit.

63 Prozent der Befragten gaben an, dass speicherseitige Systemausfälle und Performance-Verschlechterungen die Hauptprobleme bei der Realisierung von Virtualisierungsprojekten sind. Im Vorjahr lag dieser Wert noch bei 36 Prozent. 51 Prozent sind der Ansicht, dass steigende Storage-Kosten viele Virtualisierungsinitiativen ausbremsen. 2011 lag dieser Wert noch bei 66 Prozent.

Storage verschlingt einen erheblichen Teil des Virtualisierungsbudgets, die steigenden Ausgaben allein werden jedoch nicht mehr als Hauptproblem gesehen. Rund 44 Prozent der Befragten gaben an, dass die Speicherkosten mittlerweile mehr als ein Viertel ihres Gesamtbudgets ausmachen. Dabei können 37 Prozent der Unternehmen heute mehr Geld für den Speicher ausgeben, bei nur 13 Prozent wurde das Budget reduziert.

Weitere Ergebnisse der weltweiten Studie

  • 34 Prozent der Befragten geben zu, die Storage-Kosten bei der Umsetzung von Server- und/oder Desktopvirtualisierungsprojekten unterschätzt zu haben. Fast jeder Vierte (28 Prozent) hat die Speicherkosten bei der Bereitstellung einer Private Cloud unterbewertet.
  • Trotz steigender Ausgaben für Speicherlösungen konnten die Performanceprobleme bei Server- und Desktop-Virtualisierungsprojekten nicht eliminiert werden. So berichteten die Befragten von erheblichen Problemen bei Performance, Ausfallsicherheit und Business Continuity trotz eines höheren durchschnittlichen Storage-Budgets.
  • 32 Prozent konstatieren eine langsame Performance aufgrund der Speicherumgebung (gegenüber 26 Prozent im Jahr 2011), 32 Prozent verzeichnen Ausfallzeiten aufgrund von Speicherproblemen (2011 nur 9 Prozent) und 23 Prozent gaben an, dass die Sicherstellung der Business Continuity einer der schwierigeren Herausforderung ist.
  • Kapp 80 Prozent der befragten Unternehmen haben mittlerweile mehr als die Hälfte ihrer Server virtualisiert (2011: 64 Prozent), wohingegen weniger als 5 Prozent noch gar keine Server virtualisiert haben (2011: 9 Prozent).
  • Fast zwei Drittel (65 Prozent) können ihre Storage-Ressourcen noch immer nicht in einem logischen Storage-Pool (2011: 61 Prozent) verwalten.
  • Jeder zweite Befragte nutzt Virtualisierungssoftware, die heterogene Speichermedien nicht zentral managen kann.
  • In privaten Clouds setzen weniger als ein Drittel (32 Prozent) der Befragten Speichervirtualisierungstechnologien für private Cloud-Umgebungen ein.

Die Umfrage „2012 State of the Private Cloud“ zeigt zudem, dass die Virtualisierung in der Praxis angekommen ist und das speicherbezogene Performance und Verfügbarkeit die größten Kopfzerbrechen verursachen und inzwischen mit Bedenken bezüglich der Kosten einhergehen.

Die Umfrage wurde im März 2012 durchgeführt. 289 Unternehmen unterschiedlicher Größe nahmen weltweit an der Online-Befragung teil und beantworteten Fragen zu Storage, Virtualisierung und Private Clouds. Etwa 180 teilnehmende Unternehmen stammen aus Europa.
Der vollständige Bericht steht bereit unter: http://pages.datacore.com/StateofPrivClouds.html.

Categories
News

Amazon erweitert seinen Cloud Drive Speicher um Desktop Anwendung

Amazon, die vor fast sieben Jahren als einer der Ersten überhaupt einen Cloud Storage Service für Unternehmen auf dem Markt gebracht haben, gehört mit seinem Cloud Drive im Privatenkunden Segment zu den Letzten mit einem Angebot. In der vergangenen Woche am 3. Mai folgte mit einer Desktop Anwendungen für Windows und Mac ein Update für den ein Jahr alten Cloud Storage.

Amazon erweitert seinen Cloud Drive Storage um Desktop Anwendung

Anstatt ständig auf die Webseite des Cloud Drive Service zu gehen, können Kunden nun über eine native Desktop Applikation für Windows und Mac auf ihre Daten in der Amazon Cloud zugreifen und die Daten des lokalen System darauf ablegen. Der neue Client unterstützt Windows Vista, Windows 7 und Mac OS 10.6 und jünger.

Cloud Drive wurde im Jahr 2011 veröffentlicht und bietet Amazon Kunden 5GB kostenlosen Speicherplatz für die gängigsten Dateitypen wie Videos, Photos, Dokumente und Musik im MP3 und ACC (Apple iTunes) Format. Der Zugriff erfolgte ausschließlich über den Webbrowser.

Wie von anderen Cloud Storage Services bekannt, können Nutzer den Speicherplatz erweitern. 20GB Speicherplatz können für 20 Dollar pro Jahr hinzugekauft werden. Darüber hinaus wird Musik, die über Amazon direkt gekauft wurde, nicht auf den den Speicherplatz angerechnet. Das bedeutet, dass bspw. trotz 5GB gekaufter MP3 Dateien weiterhin 5GB Speicherplatz zur Verfügung stehen, wenn dort bisher keine anderen Daten abgelegt wurden.

Anders als bekannte Cloud Storage Clients, ermöglicht Amazon Cloud Drive nicht die automatische Synchronisation mit Ordnern auf dem lokalen System oder das Teilen von Dateien mit anderen Cloud Drive Nutzern. Ein Missstand der neben weiteren fehlenden Möglichkeiten z.B. zur Kollaboration schnellstmöglich behoben werden sollte.

Categories
News

Casablanca: Microsoft schiebt C++ in die Cloud

Am 30. April haben die Microsoft DevLabs (Developer Division Labs) mit dem Codenamen “Casablanca” eine Reihe von neuen C++ Bibliotheken veröffentlicht. Damit sollen Entwickler einfacher auf RESTful Services zugreifen können, bzw. diese selbst implementieren. Das schreibt Microsoft Developer Division Corporate Vice President Soma Somasegar in seinem Blog.

Casablanca ist eine Microsoft Inkubation, um die Cloud basierte Client-Server Kommunikation in nativem Code zu unterstützen. Dabei wird eine modernes asynchrones C++ API Design verwendet, so die Microsoft DevLaps Webseite. Casablanca ermöglicht dazu den Zugriff auf REST Services aus nativem Code von Windows Vista, Windows 7 und der Windows 8 Consumer Preview, indem asynchrone C++ Bindings für HTTP, JSON und URIs zur Verfügung stehen.

Dafür bietet Microsoft eine Erweiterung für sein Visual Studio SDK, mit der Entwickler die entsprechende Unterstützung zum Schreiben von C++ HTTP Client Code in Windows 8 Apps und nativem REST Code für Azure erhalten.

Casablanca ist das Produkt aus Erfahrungen, die durch .NET, Node.js, Erlang und weiteren Einflüssen gesammelt wurden, um daraus eine Architektur zu bauen, mit der skalierbare und flexible Anwendungen entwickelt werden können, schreibt Somasegar.

C#, Visual Basic und F# Entwickler arbeiten bereits mit robusten und skalierbaren Netzwerkstacks. Node.js Entwickler können das Windows Azure Software Development Kit (SDK) und JavaScript nutzen, um skalierbare Anwendungen zu schreiben, so Somasegar. Jedoch fehlten für C++ Entwickler ähnliche Tools, die für die Nutzung und der Implementierung von RESTful Cloud Services in Verbindung mit modernen C++ Funktionen genutzt werden konnten.

Für Casablanca, wie auch bei anderen DevLaps Releases, steht noch nicht fest, ob es als ein offizielles Produkt oder Teil eines Produkts auf dem Markt erscheint. In erster Linie dient es dem Test und dem Entwickler Feedback.

Categories
News

CodeNow.com – Entwicklung und Test in Echtzeit via Webbrowser

Sich in neue APIs einzuarbeiten kann sehr zeitaufwändig und zum Teil sehr nervenaufreibend sein. Bevor die ersten Codezeilen geschrieben werden können, heißt es, sich in die Syntax einzuarbeiten und ggf. die einen oder Kniffe zu verstehen. Was für Programmiereinsteiger eine Herausforderung darstellt, kostet Profis ebenfalls mitunter viel Zeit. Hier will CodeNow.com helfen. Der Service ermöglicht die Evaluation von APIs im Webbrowser, ohne dafür viel Zeit aufzubringen und kann zudem als Code Repository arbeiten. Die Webseite befindet sich derzeit noch in der Private Beta, kann aber über eine Einladung bereits getestet werden.

CodeNow.com - Entwicklung und Test in Echtzeit via Webbrowser

CodeNow.com hilft also beim Test unterschiedlicher APIs, darunter von Services wie Dropbox, Twilio oder Facebook. Ergebnisse können entweder mit anderen geteilt oder für sich behalten werden.

Das Startup wurde vom ehemaligen Amazon Mitarbeiter Yash Kumar gegründet und ist das erste Unternehmen, welches vom Inkubator AngelPad in diesem Jahr veröffentlicht wird. Die Finanzierung von CodeNow.com soll durch die Anbieter erfolgen, die ihre APIs in einem Repository anbieten, auf welche die Nutzer dann darauf zugreifen können. Neben Facebook, Twilio und Dropbox stehen bereits weitere auf der Warteliste. CodeNow eigene Code Beispiele sollen zudem den Einstieg erleichtern.

Gründer Kumar setzt dabei auf seine Erfahrungen bei Amazon. CodeNow.com besteht daher aus einem System von virtuellen Maschinen, die auf den Amazon Web Services betrieben werden. Der entwickelte Code wird zudem in einer Sandbox ausgeführt, wodurch Entwickler ihre Anwendungen testen können, ohne dafür einen offiziellen CodeNow.com zu besitzen.

Für die Nutzung von CodeNow werden keine Konfigurationen, Software oder EC2 Instanzen benötigt. Es reicht lediglich ein Webbrowser.

Categories
News

Cloud Migration Service email-umzug.de gewinnt Hosting & Service Provider Award 2012

Die Karlsruher audriga GmbH hat auf dem Hosting & Service Provider Summit 2012 in Frankfurt den Hosting & Service Provider Award in der Kategorie „Application Services” gewonnen. Der Award zeichnet die innovativsten und erfolgreichsten Service-Angebote im Hosting-Geschäft aus. audriga wurde für den Cloud-Dienst www.email-umzug.de prämiert, mit dem Hosting-Provider ihren Neukunden den Umzug von E-Mail-Postfächern vereinfachen können.

Cloud Migration Service email-umzug.de gewinnt Hosting & Service Provider Award 2012

Die Auslagerung von Hosting-Dienstleistungen gilt als eines der spannendsten IT-Geschäftsmodelle der Zukunft. Allein für den deutschen Markt rechnet die Experton Group mit einem Umsatzwachstum von derzeit neun auf elf Milliarden Euro bis 2015. Aktuelle Trends in diesem Segment wurden nun in Frankfurt auf dem Hosting & Service Provider 2012 diskutiert, auf dem am 3. und 4. Mai die Managementebene von Hosting- und Service-Provider-Unternehmen, Betreiber von Rechenzentren, Telekommunikationsunternehmen sowie interne Dienstleister großer Unternehmen die Möglichkeit zum Austausch genutzt haben.

Erstmals wurde auf der Veranstaltung auch der Hosting & Service Provider Award verliehen. Eine sechsköpfige Jury aus Fachexperten hatte im Vorfeld aus allen Einreichungen 15 Nominierte in drei Kategorien hinsichtlich der Kriterien „Innovation“ und „Nutzen“ ausgewählt. In der Kategorie „Application Services” überzeugte der audriga E-Mail-Umzug und konnte sich im Rennen um die Auszeichnung für die innovativsten und erfolgreichsten Service-Angebote im Hosting-Geschäft gegen fünf Mittbewerber durchsetzen. audriga wurde für den Cloud-Dienst www.email-umzug.de prämiert, mit dem Hosting-Provider ihren Neukunden den Umzug von E-Mail-Postfächern und Groupware-Daten vereinfachen können.

E-Mail- und Groupware-Lösungen gehören zu den klassischen Hosting-Dienstleistungen. Derzeit setzen nach einer Studie der Firma Parallels 36 Prozent der Unternehmen mit zehn bis 49 Mitarbeitern interne E-Mail-Server ein, was bei dieser Unternehmensgröße eine teure und komplizierte Lösung ist. Mehr als die Hälfte dieser Firmen plant der Studie zufolge, in den kommenden drei Jahren einen Wechsel zu gehosteten E-Mail-Lösungen.

Dieser Wechsel ist gerade für kleine Firmen ohne eigene IT-Abteilung bisher nur schwer zu bewältigen, da die Übertragung der existierenden Daten zum neuen Anbieter komplex und zeitaufwändig ist. Der neue Cloud-Dienst www.email-umzug.de der Karlsruher audriga GmbH macht den Anbieterwechsel hingegen in wenigen Klicks möglich. E-Mail Postfächer und Groupware-Daten können ohne Softwareinstallation schnell und sicher über eine Webanwendung zwischen verschiedenen Anbietern umgezogen werden.

Besonders interessant ist der Dienst für Hoster und Systemhäuser, die häufiger mittelständische Kunden auf ihre Hosting-Infrastruktur migrieren. audriga bietet spezielle Kooperationsmodelle, mit denen der E-Mail-Umzug per White-Labeling oder über eine API in bestehende Systeme und Prozesse integriert werden kann. So können Neukunden des Hosters netcup seit Anfang April mit dem bequemen Dienst ihre bestehenden E-Mails auf einen netcup-Server umziehen.

Categories
News

Die Deutsche Telekom wird Mitglied im SaaS-EcoSystem

Vor dem Hintergrund seines neuen „Telekom Cloud Business Market Place“ sucht die Deutsche Telekom Erfahrungsaustausch mit Experten aus dem deutschen SaaS- und Cloud-Netzwerkes des Saas-EcoSystem e.V.

Zur Mitte des Jahres 2012 wird die Deutsche Telekom AG ihren neuen Cloud-Marktplatz, den „Business Market Place, eröffnen“. Im Zuge dessen wird sich das Unternehmen jetzt als neues Mitglied im SaaS-EcoSystem e.V engagieren. Der Dax-Konzern will bei der Weiterentwicklung seines Cloud-Marktplatzes von der Expertise der einzelnen Mitglieder des Cloud-Netzwerks profitieren sowie seinerseits Know-how beim Aufbau von Cloud-Konzepten beisteuern.Phil Zamani, SVP Cloud Services der Deutschen Telekom AG: „Als Forum für die Entwicklung bedarfsgerechter Lösungen, Konzepte und Berater im Umfeld von SaaS und Cloud stellt das SaaS-EcoSystem für uns eine ideale Plattform für den intensiven Erfahrungsaustausch rund um alle Cloud-spezifischen Themen dar.“

Die Bonner bauen ihren Marktplatz auf der Open Source Software OpenStack auf. Dieser wendet sich vor allem an den deutschen Mittelstand, der dort verschiedenste Cloud-Services zu Anwendungspaketen schnüren und on-demand nutzen kann.Frank Türling, Vorstand für Öffentlichkeitsarbeit des SaaS-EcoSystem: „Wir freuen uns über den Beitritt der Deutschen Telekom AG. Er zeigt auf beeindruckende Weise, welche Relevanz der SaaS-EcoSystem e.V. als das deutsche Expertennetzwerk rund um alle Themen für SaaS und Cloud mittlerweile gewonnen hat.“

Knapp zwei Jahre nach ihrer Gründung zählt die Expertenplattform nun bereits 27 Mitglieder aus den unterschiedlichsten Fachgebieten.

Categories
News

Amazon hilft mit CloudFormation beim Aufbau einer Virtual Private Cloud

Die Amazon Web Services ermöglichen nun den automatisierten Aufbau einer vollständigen Virtual Private Cloud (VPC) auf Basis eines einzelnen AWS CloudFormation Templates. Laut Jeff Barr, beschreibt das Template alle Eigenschaften, die notwendig sind, um den dafür notwendigen Ressourcenstack zu erstellen.

Amazon VPC kann bereits seit mehreren Jahren genutzt werden und erlaubt dem Nutzer den Aufbau eines für sich isolierten Bereichs auf der Amazon Cloud. Hier können Ressourcen in einem virtuellen Netzwerk ausgeführt werden und darauf mittels öffentlichen und privaten Subnetzen sowie VPNs zugegriffen werden.

Mit dem Einsatz von AWS CloudFormation müssen Anwender nicht die Reihenfolge der Provisionierung der jeweiligen AWS Services sowie deren Abhängigkeiten berücksichtigen. CloudFormation nutzt dazu Templates, die als in JSON (JavaScript Object Notation) formatierte Textdateien geschrieben werden. JSON basiert auf einer Teilmenge der Programmiersprache JavaScript und ist sowohl für Menschen als auch Maschinen lesbar.

Um Entwicklern und Systemadministratoren ein wenig unter die Arme zugreifen, hat Amazon zwei Beispiel Templates erstellt, um zu zeigen wie diese aufgebaut sind. Das erste Template erstellt eine Amazon VPC mit einer EC2 Instanz. Das zweite Template baut eine VPC inkl. einem Public und Private Subnetz sowie einem Elastic Load Balancer und einer EC2 Instanz auf.

Beide Templates können in Jeff Barrs Blogpost nachvollzogen werden.


Bildquelle: http://www.allmystery.de

Categories
Analysen

Achtung IT-Abteilungen: Hier kommt Google Drive

Das soll kein Hetzartikel gegen Google Drive werden. Es handelt sich dabei bestimmt um einen hervorragenden Service – ich durfte bisher noch nicht in den Genuss kommen. Dennoch muss auch alles Gute kritisch betrachtet werden. Denn neben den Bedenken bzgl. des Datenschutz, dabei handelt es sich nicht um die Diskussion wegen dem Eigentum der Daten, wird Google Drive auch den IT-Abteilungen massives Kopfzerbrechen bereiten.

Google Drive ist angekommen

Google Drive ist Googles neuer Cloud Storage, der zu Beginn dieser Woche vorgestellt wurde. Google möchte damit die Zusammenarbeit fördern und hat dazu Google Docs und Drive integriert. Google Drive bietet neben Funktionen wie Smart Tagging, einer neuartigen Bilderkennung und der Unterstützung der OCR Technologie ebenfalls 5GB kostenlosen Speicherplatz der mit neun Kapazitätsstufen erweitert werden kann. Der Preis für weiteren Speicher beginnt bei 2,49 US-Dollar pro Monat für 25 GB.

Google Drive im Unternehmen

Google Drive ist selbstverständlich nicht der einzige Cloud Storage, über Dropbox und Box sollten IT-Abteilungen ebenso beunruhigt sein. Aber es gibt einen entscheidenen Unterschied zu allen anderen Cloud Storage Services und Google Drive. Denn auf Grund der Vielzahl an Google Anwendungen, die zudem noch z.T. mit Google Drive integriert sind, allen voran Google Mail, YouTube, Google+ oder Google Maps erschweren es den IT-Abteilungen, Google Drive auszusperren und so das Unternehmen vor Datenverlusten zu beschützen. Bei anderen Anbietern wie Dropbox oder Box ist das einfacher, da beide nur einen Dienst anbieten.
Google Docs konnte bereits seit längerer Zeit als Datenspeicher genutzt werden, jedoch war dieses eher eine “Randfunktion” die nicht so populär gemacht wurde. Google Drive hingegen wurde bereits im Vorhinein massiv durch die Medien getrieben. Spekulationen und Gerüchte waren in den letzten Wochen an der Tagesordnung. Das führt natürlich dazu, dass Google Drive auch in der breiten Öffentlichtkeit war genommen wird und die Nutzung wahrscheinlich erhöht. Google sollte also angesichts der Probleme für Unternehmen, Möglichkeiten bieten, den Zugriff auf Google Drive separat von anderen Google Dienst zu sperren.

Ich bin zwar persönlich auch kein Fan von Blockaden und mag es frei zu arbeiten. Wenn es jedoch um sensible Unternehmensdaten geht, die ein Mitarbeiter zusammen mit seinen privaten Daten im Google Drive speichern könnte, hört der Spaß ein wenig auf. Zudem wird ein Stück Papier, in dem der Mitarbeiter auf die Nutzung des Service verzichtet, wahrscheinlich nicht viel bringen. Wie bereits geschrieben, ich bin kein Fan von Blockaden, aber in gewissen Maßen muss ein Mitarbeiter auch vor sich selbst geschützt werden. Denn auch wenn die Consumerization langsam Einzug erhält, geht nicht jeder Mitarbeiter so sorgsam mit den Daten um, wie er es sollte.

Es geht an dieser Stelle also darum, wie IT-Abteilungen sicherstellen können, dass ein Mitarbeiter mögliche Unternehmensdaten nicht in seinem privaten Google Drive speichert. Denn solange nicht geklärt ist bzw. Google nicht dazu Stellung nimmt, inwieweit sie mit den Daten die im Google Drive gespeichert werden umgehen, also ggf. analysieren usw., kann und darf Google Drive (für Privatleute) im Unternehmen nicht eingesetzt werden.