Categories
News

SpiderOak veröffentlicht Cloud Storage Service für Unternehmen

Der Cloud Storage Anbieter SpiderOak veröffentlicht mit SpiderOak Blue seine Cloud Storage Lösung für Unternehmen und geht u.a. in den Ring mit Dropbox und Box. Mit drei unterschiedlichen Service Levels adressiert der Anbieter kleine, mittelständische und Großunternehmen.

Seit 2006 bietet SpiderOak mit SpiderOak Orange bereits einen Cloud Storage Service für Privatkunden an. Die Differenzierung zu anderen Cloud Storage Anbietern versucht SpiderOak mit einem “Zero-Knowledge Privacy Standard”. Das bedeutet, dass die Nutzer selbst ihre Passwörter erstellen können, ohne das der Anbieter die unverschlüsselten Daten lesen kann, selbst wenn er es versuchen würde.

Diese Funktionalität bildet SpiderOak nun in seinem Unternehmensangebot SpiderOak Blue ab und ermöglicht einem IT-Administrator die Verwaltung der Passwörter. Innerhalb einer virtuellen Appliance wird ein Control Panel bereitgestellt. Diese virtuelle Appliance wird in einer virtuellen Maschine (VM) gekapselt, so dass die VM in der eigenen Infrastruktur des Unternehmen ausgeführt werden kann. Der Cloud Storage Service erstellt zudem ein zentrales Repository, mit dem die Unternehmensdaten verwaltet und provisioniert werden können. Damit soll sichergestellt werden, dass ein Unternehmen immer im Vollbesitz der Rechte bleibt und das die SpiderOak Mitarbeiter niemals Zugriff auf die im Cloud Storage gespeicherten Daten erhalten.

SpiderOak Blue wird in drei unterschiedliche Service Levels unterteilt.

    SpiderOak Blue for SMBs
    Ermöglicht dem Unternehmen den vollen Zugriff auf die Daten inkl. der Auditing Informationen. Über die Web-basierte Management Oberfläche können die Passwörter zurückgesetzt und Reports betrachtet werden.

    SpiderOak Blue OpenLicense (OL)
    Umfasst den Funktionsumfang der SpiderOak Blue for SMBs, richtet sich jedoch an Universitäten und Schulen. Zudem dürfen die Endnutzer die Rechteverwaltung übernehmen. Die Benutzer sind für das Passwort selbst zuständig. Es existiert keine zentrale Möglichkeit zum zurücksetzen des Passworts.

    SpiderOak Blue Plus
    Richtet sich an große Unternehmen inkl. einer virtuellen Appliance die alle Managementfunktionen in einer virtuellen Maschine vereint und in der Infrastruktur des Unternehmens betrieben werden kann. Darüber hinaus ermöglicht SpiderOak Blue Plus eine vollständige Integration in Microsoft Active Directory, OpenLDAP und RedHat Directory Server sowie ein integriertes Passwort Management für LDAP oder RADIUS (wie z.B. RSA SecurID).

Die Kosten für den SpiderOak Blue Service betragen 400 US-Dollar pro Terabyte, unabhängig von der Anzahl der Benutzer oder Systeme die auf die Daten zugreifen.


Bildquelle: http://www.zetta.net

Categories
Kommentar

Internet ohne stabile Datenverbindung nervt!

Ich habe schön öfters über das Thema Datenverbindung und Cloud Computing geschrieben. Zum einen bedeutet eine nicht stabile Internetleitung den Knockout der Cloud zum Anderen ist es ein echtes Dilemma was wirklich nervt!

Und von diesem nervenden Thema bin ich derzeit betroffen. Ursprünglich wollten wir über Ostern und das Wochenende danach in unsere neue Wohnung in den Odenwald umziehen. Aber es kommt nun einmal immer anders als man denkt. So verschiebt sich der Umzug nun um ca. 2 Wochen. Eigentlich kein Problem, wenn man nicht irgendwann den Telefon- und somit Internetanschluss kündigen muss.

Ich nutze daher behilfsweise die WLAN Thethering Funktion meines Android Smartphones. Das klappt in der Stadt mit einer UMTS oder HSDPA auch ganz gut. Jedoch wohnen wir auf dem Dorf und das bedeutet eine schmalbandige Edge Verbindung. Arbeiten ist damit so gut wie unmöglich. Ständig bricht der Seitenaufruf mit “Fehler 101 (net::ERR_CONNECTION_RESET): Verbindung wurde zurückgesetzt.” oder “Fehler 324 (net::ERR_EMPTY_RESPONSE): Server hat die Verbindung geschlossen. Es wurden keine Daten gesendet.” ab. Der Aufruf von zwei Seiten parallel funktioniert überhaupt nicht. Parallel Telefonieren und surfen klappt ebenfalls nicht. Sobald ein Anruf eingeht, wird die Internetverbindung unterbrochen.

Und das in Zeiten, wo Cloud Computing von den Anbietern, allen voran die Deutsche Telekom, stark beworben wird. An dieser Stelle kann und möchte ich der Telekom allerdings keinen Vorwurf machen. Meine Frau nutzt beruflich T-Mobile und hat hier eine konstante UMTS Verbindung. Ich hingegen nutze Fyve, die auf die mobile Infrastruktur von Vodafone setzen.

Internet ohne stabile Datenverbindung nervt

Ich prangere die Gesamtsituation der Datenverbindungen in Deutschland an. Deutschland verfügt zwar über eine verhältnismäßig gut ausgebaute Infrastruktur. Allerdings gibt es noch viel zu viele Gegenden, in denen Schmalband Internetverbindungen an der Tagesordnung sind. Und dafür muss man z.T. nur 3 Kilometer aus dem Kern einer Großstadt hinausfahren. Die obere Graphik verdeutlicht die Situation (DSL) ganz gut. Besonders aufgefallen ist mir die Misere als wir unsere neue Wohnung im Odenwald, eine ländliche Gegend, gesucht haben. Es gibt dort Ecken, in denen nicht einmal eine mobile Edge Verbindung möglich ist, egal um welchen Anbieter es sich handelt. Auch eine angemessene DSL-Verbindung ist nicht einfach zu finden. In vielen Fällen ist das höchste aller Gefühle eine 2 MBit Leitung, vieler Orts noch geringer.

Ich Frage mich wann in unserem Hochtechnologieland Deutschland diese Misere endlich auch von der Politik beseitigt wird. Denn schauen wir uns die Verteilung von Android und iPhone Smartphones sowie die Entwicklung des Cloud Computing an, besteht hier, insbesondere in den ländlichen Regionen, ein enormer Handlungsbedarf.

Categories
News

Ubuntu 12.04 verbindet OpenStack und die Amazon Web Services über eine API

Canonical, Entwickler der Linux Distribution Ubuntu wird mit der kommenden Ubuntu 12.04 LTE eine API veröffentlichen, mit der OpenStack basierte Clouds mit der Infrastruktur der Amazon Web Services (AWS) verbunden werden können. Ubuntu 12.04 LTE wird Ende April erwartet und soll die API in Form des Any Web Service Over Me (AWSOME) Proxy Service mitliefern. Das teilte Canonical Günder Mark Shuttleworth dem INQUIRER mit.

Ubuntu 12.04 verbindet OpenStack und Amazon Web Services über eine API

Shuttleworth möchte insbesondere OpenStack damit helfen, den Bekanntheitsgrad zu erhöhen und somit den Einsatz von mehr OpenStack Clouds zu fördern. Er hält es zudem für sehr nützlich, den Nutzern zu ermöglichen Clouds auf Basis von OpenStack aufzubauen und diese auf Basis einer gemeinsamen API mit den Amazon Web Services kommunizieren zu lassen.

AWSOME soll laut Shuttleworth die grundlegenden Funktionen der Amazon Web Services bieten, um Unternehmen einen flüssigen Übergang zu OpenStack basierten Clouds zu ermöglichen. Demnach stehen bei AWSOME die Kern APIs im Vordergrund, mit denen bspw. eine virtuelle Maschine gestartet werden kann oder der Zugriff auf den Speicher ermöglicht wird. Beide Cloud Infrastrukturen sind grundsätzlich verschieden. Diejenigen, die sich mehr mit OpenStack beschäftigen wollen, müssen sich tiefer in dessen native API einarbeiten. Aber Erfahrungen haben gezeigt, dass Nutzer dankbar dafür sind, wenn sie mit den grundlegenden Funktionen einer ihnen bekannten API und Tools eine Private Cloud aufsetzen können, so Shuttleworth.

Canonicals AWSOME APIs werden mit dem kommenden Ubuntu 12.04 Release verfügbar und als eine Option während der Installation auszuwählen sein.

Categories
News

City Cloud erweitert sein Image Portfolio um OpenSuse

Der schwedische Webhosting und Cloud Computing Anbieter City Cloud erweitert sein Portfolio um OpenSuse. Neben bereits zahlreichen GNU/Linux Distributionen wie Debian, Ubuntu, Gentoo, Red Hat, Fedora Core und CentOS wird nun auch die ursprünglich aus Deutschland stammte Linux Variante mit aufgenommen und steht per sofort als VM Image bereit.

OpenSuse war bisher zwar nicht als fertiges Image vorhanden, konnte jedoch über bereitgestellte ISO Dateien zur Erstellung von virtuellen Maschinen genutzt werden. Das führte jedoch zu einem erhöhten Arbeitsaufwand, da jeder virtuelle Server damit manuell erstellt werden musste. Nun steht OpenSuse 12.1 als vollständiges VM Image zur Verfügung.

OpenSuse 12.1 steht dazu in der Version vom 16. November 2011 mit folgenden Tools, Umgebungen usw. bereit:

  • GNOME Shell 3.2
  • KDE, XFCE und LXDE
  • ownCloud
  • Snapper: Für die Verwaltung btrfs Snapshots
  • Chromium 17
  • Allgemeine Verbesserungen in der Performance
  • Bug Fixes

Weitere Informationen zu Änderungen und Verbesserungen in OpenSuse 12.1 stehen im offziellen Portal.


Bildquelle: http://www.digital-business-magazin.de

Categories
News

GoGrid steigt in den Markt für Big Data Lösungen ein

Cloud Computing Anbieter GoGrid steigt in den Big Data Markt ein. Für einen begrenzten Zeitraum erhalten alle Kunden den Zugriff auf die neue Big Data Lösung. Dabei handelt es sich um eine hybride Lösung bestehend aus einer vorkonfigurierten Hardware und einer Cloudera Hadoop Implementierung inkl. Big Data Analytics Tools.

GoGrid steigt in den Markt für Big Data Lösungen ein

Die Big Data Lösung basiert auf einer hybriden Infrastruktur-Architektur, die aus einer Kombination von Cloud Computing Eigenschaften und Single-Tenant Infrastruktur-Komponenten besteht. Die Steuerung und Verwaltung erfolgt über das GoGrid Management Portal.

Die Lösung kostet 3.800 US-Dollar pro Monat und ermöglicht eine High-Performance Analyse von Daten, die innerhalb einer NoSQL Datenbank einer Hadoop Implementation gespeichert werden. Kunden die sich für ein Jahr an GoGrid binden möchten erhalten 20% Rabatt pro Monat auf das Angebot.

Die Lösung besteht aus einem Paket aus einer vorkonfigurierten Hardware (1x Compute Node und 3x Data Nodes) sowie Cloudera Hadoop. Die Single-Tenant Infrastruktur wurde dabei speziell für die Analyse von Big Data designed und entwickelt.

Categories
News

Microsoft integriert Bing in den Windows Azure Marketplace

Die Antwort hat nicht lange auf sich warten lassen. Nachdem Amazon gestern Amazon CloudSearch – einen Search Engine Cloud Service zur Integration in eigene Anwendungen, vorgestellt hat, erweitert nun auch Microsoft sein Windows Azure Portfolio um die Bing API. Das kündigte das Unternehmen aus Redmond ebenfalls gestern auf dem Bing Developer blog an.

Microsoft integriert Bing in den Windows Azure Marketplace

Microsoft wird dazu die API der Bing Suchmaschine auf den Windows Azure Marketplace portieren und Entwicklern damit die Möglichkeit geben, ebenfalls eine Suchfunktion innerhalb ihrer auf Azure gehosteten Anwendungen zu integrieren.

Mit dem Windows Azure Marketplace stellt Microsoft Drittanbietern ein zentrales Portal zur Verfügung, auf dem diese ihre Daten, Anwendungen und Services kostenlos oder kostenpflichtig bereitstellen können.

Die Portierung der Bing API soll nach Informationen von Microsoft in den nächsten Wochen beginnen und ein paar Monate benötigen, bis sie vollständig abgeschlossen ist. Die Nutzung der API ist zudem nicht kostenlos und wird monatlich abgerechnet. Die Preise liegen monatlich bei ca. 40 US-Dollar für bis zu 20.000 Anfragen pro Monat. Während der Portierungsphase kann die API jedoch vorerst kostenlos genutzt werden.

Categories
Analysen

Die Angst vor dem Kontrollverlust durch SaaS und Cloud Services

CIOs werden sich in Zukunft mit dem Kontrollverlust ihrer Daten beschäftigen müssen, die über unterschiedliche Software-as-a-Service Anwendungen durch verschiedenen Abteilungen verteilt sind. Nach und nach kommen immer mehr SaaS Applikationen hinzu, welche die Situation weiter verschärfen werden. Proaktives Handeln ist gefragt!

Der Kontrollverlust wird immer größer

So merken immer mehr IT-Abteilungen, dass sie nicht mehr in der Lage sind, zu kontrollieren, welche Cloud Anwendungen wie bspw. Salesforce, Google Apps oder Box von den jeweiligen Abteilungen genutzt werden, da sich viele bereits selbständig bedienen. Das Hauptproblem besteht dahin, dass mittlerweile viele Entscheidungen an der IT-Abteilung vorbei getätigt werden. Ein sehr ungewohntes Bild für die IT-Entscheider, sind sie doch historisch betrachtet der Mann im IT-Haus. Dieses Phänomen wird auch als Schatten-IT bezeichnet, was durch das Cloud Computing, auf Grund des einfachen Zugriffs auf Ressourcen, seinen Höhepunkt erhält.

Was die einzelnen Abteilungen und Mitarbeiter jedoch vergessen: Je mehr SaaS Anwendungen oder Cloud Services (ungefragt) in das Unternehmen eingeführt werden, desto größer werden die Sicherheitslöcher und der Kontrollverlust, nicht nur für den CIO, breitet sich aus.

Dabei existieren ausreichend Systeme und Mechanismen, um mit der Herausforderung umzugehen. Für diese Lösungen kann bzw. sollte allerdings nur die IT-Abteilung zuständig sein. Ein erster Schritt bedeutet daher Aufklärungsarbeit: reden, reden, reden und die Verantwortlichen der jeweiligen Abteilungen und Arbeitsgruppen mit ins Boot holen.

Sind die zwischenmenschlichen Bereiche geklärt helfen z.B. Single Sign-On Systeme, um die Mitarbeiter zu unterstützen sich nur ein Passwort merken zu müssen und sie von dem Notieren von Benutzernamen und Passwörtern an ungeeigneten Plätzen abzuhalten. Sollte ein Mitarbeiter aus dem Unternehmen ausscheiden, müssen die Zugriffe auf die Cloud basierten Anwendungen unterbunden werden. Kümmert sich eine Abteilung oder ein Projekt selbst darum, bleibt der Account – aus eigener Erfahrung -offen, da dieser schließlich noch benötigt werden könnte. Hier helfen z.B. automatisierte Systeme, die den Zugriff auf den Account sperren.

Genau so verhält es sich bei der Überwachung der Cloud basierten Anwendungen sowie der Rollenvergabe und der damit verbundenen Rechtesituation. Sollte ein Mitarbeiter in eine höhere Position wechseln, erhält er damit in der Regel auch neue Rechte, um auf sensiblere Daten zugreifen zu dürfen.

In allen Fällen kann u.a. ein Identity and Access Management (IAM) System helfen, das für die Überwachung und Kontrolle spezieller Richtlinien zuständig ist. Hier ist es allerdings von besonderer Wichtigkeit, dass die IT-Abteilung wieder die Oberhand gewinnt und proaktiv auf die Mitarbeiter zugeht und nicht versucht durch das Sperren von Ports und Anwendungen die Macht wieder an sich zu reißen. Die Mitarbeiter, Arbeitsgruppen und Abteilungen genießen nämlich ihre aktuelle Freiheit, unkompliziert und vor allem schnell neue Lösungen und Anwendungen zu nutzen, ohne dafür Wochen oder gar Monate warten zu müssen!


Bildquelle: http://blog.insight.com

Categories
News

Red Hat Storage 2.0 Beta steht bereit

Ab sofort steht eine Betaversion von Red Hat Storage 2.0 bereit. Die reine Softwarelösung bietet Funktionen zur Vereinheitlichung von Datenspeicherung und Infrastrukturen, eine höhere Performance, eine bessere Verfügbarkeit und eine einfachere Verwaltung großer Datenvolumen.

Red Hat Storage 2.0 Beta steht bereit

Red Hat Storage 2.0 ermöglicht eine Zusammenführung von File Storage und Object Storage und ist mit Apache Hadoop kompatibel. Diese Funktionalität sorgt für einen schnelleren Datenzugriff und sie öffnet Hadoop-Implementierungen für datei- oder objektbasierte-Applikationen.

Zum Funktionsumfang der Red Hat Storage 2.0 gehören ein einheitlicher Zugriff auf Dateien und Objekte innerhalb eines zentralen Storage Pools, eine Storage Infrastruktur speziell für Big Data mit einer Apache Hadoop Unterstützung, eine Performance Optimierung auf Basis von NFSv3, Integrationsmöglichkeiten mit der Red Hat Enterprise Virtualization, einen Network Lock Manager (NLM) sowie u.a. proaktive Funktionen zur Selbstheilung, um damit die Zuverlässigkeit zu erhöhen.

Weitere Infos gibt es im Red Hat Blog.

Categories
News

JBoss Data Grid 6 verfügbar

Ab sofort steht eine Betaversion von Red Hat JBoss Data Grid 6 zum Download bereit. Bei Red Hat JBoss Data Grid 6 handelt es sich um eine In-Memory-Datenbank, die optional auf Disks schreiben und gemeinsam mit transaktionalen Applikationen verwendet werden kann.

Damit steht eine flexible und performante Lösung für ein breites Spektrum von Einsatzgebieten und Anwendungen bereit, die den Bedarf an relationalen Datenbanken reduzieren kann. Red Hat JBoss Data Grid 6 basiert auf dem JBoss-Community-Projekt Infinispan. Die Lösung wurde speziell für den Einsatz in der Cloud entwickelt und stellt einen verteilten Cache bereit, der hochskalierbar ist und durch das Zwischenspeichern von Daten Antwortzeiten reduziert und die Ausfallsicherheit erhöht.

Weitere Informationen zu Red Hat JBoss Data Grid 6 gibt es im Red-Hat-Blog.

Categories
News

Equinix baut neues Rechenzentrum in der Schweiz

Equinix plant den Bau seines fünften International Business Exchange Rechenzentrums in Zürich (ZH5). Zudem wird das Unternehmen sein Genfer Rechenzentrum GV2 erweitern. Diese Aktivitäten resultieren aus dem anhaltenden Kundenwachstum sowie der stetig steigenden Nachfrage nach sicheren Rechenzentren mit hoher Netzwerkdichte in der Schweiz. Das Kapital für die Expansion ist bereits im Unternehmensplan von Equinix für 2012 erfasst.

ZH5 wird in einer Entfernung von 6,5 Kilometern zum Stadtzentrum Zürich entstehen. Die Fertigstellung der Phase 1 dieses Rechenzentrums, das den Gold-LEED-Standards entsprechen wird, ist für das vierte Quartal 2012 geplant. Vorgesehen in ZH5 ist ein für Kunden nutzbarer Raum von 6’670 Quadratmetern, was rund 3’000 Cabinets entspricht (420 Cabinets in Phase 1). Die Verbindung zu den anderen Rechenzentren von Equinix am Standort Zürich wird über eine Glasfaser-Ringleitung (Campus) realisiert. Damit steht für Kunden die Option zur direkten Anbindung über mehr als 75 Carrier zur Verfügung.

In Genf wird Equinix sein bestehendes Rechenzentrum GV2 um eine für Kunden nutzbare Fläche von 720 Quadratmetern erweitern, nachdem die 835 Quadratmeter Nutzfläche der ersten Ausbaustufe bereits nach weniger als zwei Jahren ausgebucht sein werden. Dieses Rechenzentrum ist mit mehr als 40 Netzwerkanbietern einer der Standorte mit der höchsten Netzwerkdichte in der französischsprachigen Schweiz. GV2 ist zertifiziert nach den international etablierten Standards ISO 9001 für gesicherte Zugangsverfahren sowie ISO 27001 für Informationssicherheits-Managementsysteme.

In allen Rechenzentren von Equinix steht den Kunden umfangreiche Ecosystems aus Netzwerkbetreibern und Service-Anbietern zur Verfügung, die über Platform Equinix die Verbindung zu mehr als 4’000 potenziellen Partnern, Interessenten und Service-Providern bietet. Equinix verzeichnet ein stetiges Wachstum, resultierend aus der kontinuierlich steigenden Nachfrage in den Bereichen Finanzdienstleistungen, Cloud-Services und Enterprises. Viele namhafte Unternehmen, darunter SIX Swiss Exchange, haben bereits in den Standort Zürich investiert, da die Schweiz nach wie vor als eines der weltweit größten Finanzzentren gilt und eine zentrale Rolle für den gesamteuropäischen Markt spielt.