Categories
News

Big Data: MapR integriert seine Hadoop Distribution mit der Google Compute Engine

MapR Technologies, Softwareanbieter für die Analyse großer Datenmengen, wird in Zukunft seine eigene Apache Hadoop Distribution für Googles Infrastructure-as-a-Service Google Compute Engine bereitstellen. MapR für die Google Compute Engine wird zunächst kostenlos als Private Beta für eine ausgewählte Anzahl von Benutzern zur Verfügung stehen. Wer Interesse an der Big Data Analyse hat, kann sich hier dafür bewerben.

Big Data: MapR integriert seine Hadoop Distribution mit der Google Compute Engine

Big Data Analyse auf der Google Compute Engine

Mit der Kombination von Googles neuen IaaS und MapRs Hadoop sind Nutzer damit in der Lage große Implementierungen von MapR Cluster on-Demand bereitzustellen und sich damit ein Cloud-basiertes System für die Analyse großer Datenmengen aufzubauen. Google hatte MapReduce ursprünglich für sein interes Such-Framework entwickelt.

Ein Meilenstein für die Big Data Analyse

Während der Google I/O demonstrierte MapR bereits, zu was seine Hadoop Implementierung in der Lage ist. Ein 1TB TeraSort Job wurde innerhalb von 1 Minute und 20 Sekunden verarbeitet. Dabei nutzte MapR einen Google Compute Engine Cluster bestehend aus 1.256 Nodes, 1.256 Platten und 5.024 Cores für gerade einmal 16 US-Dollar.

Zum Vergleich: Der aktuelle Weltrekord für den TeraSort liegt bei 1 Minute und 2 Sekunden. Dazu wurde ein physikalischer Cluster mit mehr als vier Mal so vielen Festplatten, doppelt so vielen Cores und weitere 200 Server benötigt. Kosten: Mehr als 5.000.000 US-Dollar.

Integration

Für die Integration von MapR mit der Google Compute Engine stehen mehrere Standard MapR Konfigurationen zur Verfügung. Nutzer können die Google Compute Engine je nach Bedarf nutzen und können, wenn nötig, mehr als 1.000 Node Cluster starten.

Categories
News

Moodle Plugin ermöglicht Zugriff auf Dokumente in Microsoft SkyDrive

Microsoft erweitert stetig die Integration seiner Anwendungen mit seinem Cloud Storage Service SkyDrive. Allerdings wurden vor längerer Zeit die SkyDrive APIs geöffnet, was Entwickler dazu motivieren sollte SkyDrive für sich zu entdecken. Moodle ist das jüngste Projekt, was auf diesen Zug aufgesprungen ist. Seit der Version Moodle 2.3 können Nutzer nun direkt auf Dokumente in Microsoft SkyDrive zugreifen.

Moodle Plugin ermöglicht Zugriff auf Dokumente in Microsoft SkyDrive

Moodle und SkyDrive

Bei Moodle handelt es sich um ein Open Source Kursmanagementsystem sowie eine Lernplattform und wird bevorzugt von Bildungseinrichtungen eingesetzt. Moodlestellt online „Kursräume“ zur Verfügung. In diesen werden Arbeitsmaterialien und Lernaktivitäten bereitgestellt. Jeder Kurs kann so konfiguriert werden, dass nur angemeldete Teilnehmer diesen besuchen können, Gäste zugelassen sind oder zur Teilnahme ein Passwort erforderlich ist.

Das Plugin für die Integration von Moodle mit SkyDrive wurde vom Moodle Entwickler Dan Poltawski veröffentlicht und ermöglicht den Zugriff von Moodle auf Dokumente die in Microsoft SkyDrive abgelegt wurden. Voraussetzung dafür ist die Moodle Version 2.3.

Moodle und Cloud Storage Services

Moodle 2 unterstützt die Verbindung zu vielen Datei Repositories und Cloud Storage Services, darunter Dropbox, Box.net, Google Docs. Mit dem neuen Plugin kann nun auch auf die Daten aus dem eigenen Microsoft SkyDrive Account zugegriffen werden.

Das Plugin wurde ursprünglich von dem Telekommunikationsanbieter LUNS als Client für die Universidad Teconológica de Chile (INACAP) entwickelt und als Open Source veröffentlicht. Dan Poltawski führte die Entwicklung des Plugins fort und stellte es für Moodle 2.3 bereit.

Categories
News

Collide: Google präsentiert Collaborative Cloud IDE

Google präsentiert unter dem Namen “Collide” eine neue Cloud basierte Collaborative IDE, mit der gemeinsam, verteilt und ortsunabhängig an Java Quellcode entwickelt werden kann. Das schreibt (noch) Google Software Engineer Scott Blum auf seinem Google+ Account.

Collide: Google präsentiert Collaborative Cloud IDE

Hintergrund

Scott kündigt in dem Beitrag seinen Abschied von Google an, da Google die Entwicklungsabteilung in Atlanta auflöst. Eines der Projekte an dem Scott beteiligt war, wurde parallel mit der Schließung des Google Büros in Atlanta ebenfalls beendet. Allerdings werden Teile von diesem Projekt nun in ein neues Open Source Projekt überführt.

Das Projekt hat den Namen “Collide” (collaborative IDE). Dabei handelt es sich um ein Web-basierter Code-Editor, mit dem gemeinsam an Software-Projekten gearbeitet werden kann und richtet sich an Java Entwickler.

Voraussetzungen

  • Java 7
  • Ant 1.8.4+
  • Alle weiteren Abhängigkeiten sind im Projekt hinterlegt

Screencast

Peter Cooper von CooperPress hat dazu bereits einen kurzen Screencast veröffentlicht, der zeigt, wie man collide konfiguriert und die ersten Schritte macht.

httpv://www.youtube.com/watch?v=8Gq12bLbm54

Categories
News

Microsoft Dynamics CRM wächst mit der Cloud. Microsoft Dynamics NAV 2013 kommt im Herbst.

Unter dem Namen Dynamics vertreibt Microsoft seine CRM (Customer Relationship Management) und ERP (Enterprise Resource Planning) Lösungen. Was on-Premise trotz großem Mitbewerb aus Deutschland (SAP) und den USA (Siebel, Salesforce) erfolgreich funktioniert, wird bzw. soll auch in Kürze aus der Cloud kommen. Im Gespräch erzählte mir Jochen Wießler, Director Microsoft Business Solution, wie Dynamics CRM Online auf Grund der Cloud wächst und gedeiht und wann wir mit Microsoft Dynamics NAV 2013 rechnen dürfen.

Microsoft Dynamics CRM wächst mit der Cloud. Microsoft Dynamics NAV 2013 kommt im Herbst.

Microsoft Dynamics CRM Online

Mit Microsoft Dynamics CRM Online liefert Microsoft seine bekannte CRM-Lösung seit Januar 2011 als Cloud Service aus. Damit kann auf alle Kundendaten zu jederzeit und von jedem beliebigen Ort aus darauf zugegriffen werden. Darüber hinaus erfolgt die Abrechnung nach dem Pay per use Modell und bietet ein fest vereinbartes Service Level Agreement (SLA).

Wachstum durch die Cloud

Zielmarkt von Dynamics CRM sind kleine- und mittelständische Unternehmen. Dabei hatte Microsoft das Problem, dass den Kunden zunächst gar nicht bewusst war, dass sie Dynamics CRM ebenfalls als Cloud Lösung erhalten können. Sie fragten in erster Linie nach der on-Premise Variante. Bei Microsoft gilt seit der Einführung von Dynamics CRM Online im Jahr 2011 jedoch “Online first!” und das scheint sich zu bewähren. Die Cloud Lösung hat bei den Kunden mittlerweile eine hohe Akzeptanz erreicht, wodurch Microsoft 30% mehr Kunden für Dynamics CRM gewinnen konnte. Dabei setzen 60% aller Neukunden auf die Cloud Lösung.

Auch die Integration mit bereits bestehenden Microsoft Cloud Produkten wie Office 365 stehe oben auf der Prioritätenliste und sei ein integraler Bestandteil der Microsoft Cloud Strategie im Bereich Business Solutions.

Deutschland mein Datenschutz

Dem Thema Cloud und Datenschutz steht Microsoft täglich gegenübergestellt. So fragt jeder 2te Kunde nach Compliance- und Datenschutzanforderungen und ob diese erfüllt werden. Insbesondere in Deutschland sei dieses ein sehr brisantes Thema. Um die ersten Fragen zu klären und Grundlagenwissen zu vermitteln hat Microsoft mit seinem Trust Center eine Plattform geschaffen, um den Kunden die Bereiche Datenschutz und Cloud näher zu bringen. Zudem erfüllt Microsoft seit Mitte Juni ebenfalls die EU Standardvertragsklauseln.

Allerdings sei der Datenschutz nur ein Thema während der Gespräche mit Kunden und niemals die Hauptanforderungen, die ein Kunde stellt. Viel wichtiger seien die Performance und die Funktionalität, welche die Akzeptanz und Entscheidung für Cloud Lösungen wie Dynamics CRM Online liefern. Allerdings sei die Bandbreite generell noch ein Problem.

Microsoft Dynamics NAV 2013

Microsoft ERP Lösung Dynamics NAV wurde speziell für mittelständische Firmen mit branchenspezifischen Anforderungen entwickelt. Dabei wurde besonders auf die Bedienung geachtet, weshalb die Benutzeroberfläche stark an Microsoft Outlook angelehnt wurde. Eine offene Architektur soll für eine schnelle Anpassung und Implementierung neuer Funktionen sorgen. Ein Partnernetzwerk von durch Microsoft zertifizierte Unternehmen liefern zudem weitere Zusatz- und Branchenlösungen.

Auf in die Cloud im Herbst 2012

Derzeit steht Dynamics NAV nur als on-Premise Lösung zur Verfügung. Aber das wird sich ändern. Unter dem Namen Microsoft Dynamics NAV 2013 erwartet Microsoft, die ERP Lösung im Herbst 2012 als Cloud Lösung veröffentlichen zu können.

Ob die Implementierungen als reine Cloud Lösungen umgesetzt werden, kann zu diesem Zeitpunkt noch nicht genau gesagt werden. Wahrscheinlich wird es sich vermehrt um hybride Szenarien handeln. Das liegt u.a. an den unterschiedlichen Gesetzgebungen in den verschiedenen Ländern weltweit. Dabei könnten die länderspezifischen Themen als on-Premise Lösung bereit gestellt werden und die allgemeinen, nicht kritischen Themen, direkt aus der Microsoft Cloud kommen.

Da jede ERP Software immer sehr individuell gestrickt ist, erwartet Microsoft zudem, dass es spezielle “Standard” ERP-Konfigurationen aus der Cloud geben wird, die dann noch granularer von Partnern angepasst werden können. Ein Beispiel wäre ein Maschinenbauer, der sich auf die Entwicklung und Herstellung von Getränkeautomaten spezialisiert hat. Hier wäre es dann die Aufgabe des Microsoft Partners eine “Standard Konfiguration” zu liefern und diese kostengünstig anzupassen.

Categories
News

Rapidshare Cloud Storage: Seriosität vs. Preis vs. Performance

Rapidshare, bekannter Anbieter für Onlinespeicherplatz, auf dem bevorzugt Warez und Schmuddelfilmchen illegal gespeichert werden, versucht über eine Cloud Storage Lösung den Weg in die Seriosität. Mit RapidDrive wird das Unternehmen aus der Schweiz gegen Ende des Jahres für RapidPro Nutzer einen Client veröffentlichen, mit dem Rapidshare in die Betriebssysteme Windows 7, Windows Vista und Windows XP eingebunden werden kann.

Rapidshare Cloud Storage: Seriosität vs. Preis vs. Performance

Der Preis: Unschlagbar

Betrachtet man lediglich die Kosten, ist die Entscheidung relativ einfach. Ein RapidPro Account mit einer Laufzeit von 2 Jahren kostet 99,90 EUR, das entspricht 4,11 EUR pro Monat. Dafür bekommt man unbegrenzten Speicherplatz, Traffic usw. Das ist im Vergleich zum aktuellen Markt ein absoluter Spitzenwert.

RapidDrive ist langsam und bietet keine Synchronisation

Nach eigenen Angaben soll die Performance von RapidDrive sehr schwach sein. Das hängt damit zusammen, da sich die Dateien, anders als bei Cloud Storage Services wie Dropbox oder SkyDrive, nur im RapidShare Storage befinden. Es existiert keine lokale Kopie der Datei. Somit muss die Datei erst vollständig heruntergeladen werden, bevor diese geöffnet werden kann. Auch eine Synchronisation, die ein Echtzeit-Backup ermöglicht, wird von RapidDrive nicht unterstützt.

Vertrauen steht an erster Stelle

Insbesondere die Probleme um MegaUpload, bei der auch RapidShare in den Fokus geraten ist, lassen Zweifel aufkommen, ob man, selbst seine vielleicht völlig unwichtigen Daten, dort speichern möchte. Natürlich kann jeder Anbieter wie Dropbox oder Box ins Visier der Staatsanwälte geraten. Jedoch haben sich die bisherigen Cloud Storage Anbieter noch nichts zu Schulden kommen lassen. Anders als die klassischen Filehoster, allen voran RapidShare.

Lieber auf seriöse Anbieter wie Dropbox, Box, SkyDrive, TeamDrive, CloudSafe usw. setzen.

Wer dennoch Interesse hat, muss noch bis September warten. Dann soll RapidDrive für alle Nutzer mit RapidPro-Accounts zur Verfügung stehen. Zudem sind Versionen für andere Betriebssysteme ebenfalls in Planung.

Categories
News

Amazon Web Services (AWS) erneut mit Ausfall. Wieder ein Stromausfall. Wieder in North Virginia. Schwere Stürme sind die Ursache.

Es scheint sich langsam zu einer never ending story zu entwicklen. Die Amazon Web Services (AWS) haben erneut mit einem Ausfall in der Region US-EAST-1 in North Virginia zu kämpfen. Dabei handelt es sich, wie erst kürzlich, um einen Stromausfall. Dieses Mal auf Grund schwerer Stürme.

Schwere Stürme sind für den Ausfall verantwortlich

Grund für den Stromausfall sind laut dem Stromversorger Dominion Virginia Power schwere Stürme mit 80 Meilen pro Stunde, welche die Netzteile zerstört haben die zu massiven Schäden geführt haben. Dominion Virginia Power versorgt mehrere Rechenzentren in der Region Virginia.

A line of severe storms packing winds of up to 80 mph has caused extensive damage and power outages in Virginia. Dominion Virginia Power crews are assessing damages and will be restoring power where safe to do so. We appreciate your patience during this restoration process. Additional details will be provided as they become available.

Viele Amazon Services betroffen

Von dem Ausfall sind dieses Mal deutlich mehr Services betroffen, als noch bei dem Ausfall vor zwei Wochen. Darunter Amazon CloudSearch, Amazon CloudWatch, Amazon Elastic Compute Cloud, Amazon Elastic MapReduce, Amazon ElastiCache, Amazon Relational Database Service und AWS Elastic Beanstalk.

Hier das Protokoll des Ausfalls.

Amazon CloudSearch (N. Virginia)

10:16 PM PDT We are investigating elevated error rates impacting a limited number customers. The high error rates appear related to a recent loss of power in a single US-EAST-1 Availability Zone. We are working to recover the impacted search domains and reduce the error rates which they are experiencing.

Amazon CloudWatch (N. Virginia)

8:48 PM PDT CloudWatch metrics for EC2, ELB, RDS, and EBS are delayed due to lost power due to electrical storms in the area. CloudWatch alarms set on delayed metrics may transition into INSUFFICIENT DATA state. Please see EC2 status for the latest information.
10:19 PM PDT CloudWatch metrics and alarms are now operating normally.

Amazon Elastic Compute Cloud (N. Virginia)

8:21 PM PDT We are investigating connectivity issues for a number of instances in the US-EAST-1 Region.
8:31 PM PDT We are investigating elevated errors rates for APIs in the US-EAST-1 (Northern Virginia) region, as well as connectivity issues to instances in a single availability zone.
8:40 PM PDT We can confirm that a large number of instances in a single Availability Zone have lost power due to electrical storms in the area. We are actively working to restore power.
8:49 PM PDT Power has been restored to the impacted Availability Zone and we are working to bring impacted instances and volumes back online.
9:20 PM PDT We are continuing to work to bring the instances and volumes back online. In addition, EC2 and EBS APIs are currently experiencing elevated error rates.
9:54 PM PDT EC2 and EBS APIs are once again operating normally. We are continuing to recover impacted instances and volumes.
10:36 PM PDT We continue to bring impacted instances and volumes back online. As a result of the power outage, some EBS volumes may have inconsistent data. As we bring volumes back online, any affected volumes will have their status in the “Status Checks” column in the Volume list in the AWS console listed as “Impaired.” If your instances or volumes are not available, please login to the AWS Management Console and perform the following steps: 1) Navigate to your EBS volumes. If your volume was affected and has been brought back online, the “Status Checks” column in the Volume list in the console will be listed as “Impaired.” 2) You can use the console to re-enable IO by clicking on “Enable Volume IO” in the volume detail section. 3) We recommend you verify the consistency of your data by using a tool such as fsck or chkdsk. 4) If your instance is unresponsive, depending on your operating system, resuming IO may return the instance to service. 5) If your instance still remains unresponsive after resuming IO, we recommend you reboot the instance from within the Management Console. More information is available at: http://docs.amazonwebservices.com/AWSEC2/latest/UserGuide/monitoring-volume-status.html

Amazon ElastiCache (N. Virginia)

8:43 PM PDT This service is currently affected by a power event. Please see the EC2 status for further information.
9:25 PM PDT We can confirm that a large number of cache clusters are impaired. We are actively working on recovering them.
10:21 PM PDT We are continuing to recover impacted Cache Nodes. Our APIs are operating normally.

Amazon Relational Database Service (N. Virginia)

8:33 PM PDT We are investigating connectivity issues for a number of RDS Database Instances in the US-EAST-1 region.
9:24 PM PDT We can confirm that a large number of RDS instances are impaired. We are actively working on recovering them.
10:43 PM PDT RDS APIs are operating normally. We are continuing to recover impacted RDS instances and volumes.

AWS Elastic Beanstalk (N. Virginia)

9:00 PM PDT This service is currently affected by a power event. Please see the EC2 status for further information.

Erneut bekannte Webseiten und Services betroffen

Der Ausfall hat mit Instagram, Pinterest und Netflix wieder viele bekannte Webseiten und Services betroffen. Ebenfalls der PaaS Anbieter Heroku, der viele Startups und mobile Anwendungen zu seinen Kunden zählt ist betroffen. Wohingegen Pinterest und Netflix erreichbar sind, ist Instagram vollständig down. Erst am 14. Juni 2012 gab es in North Virginia einen Stromausfall im Amazon Rechenzentrum.

Categories
News

SaaS-EcoSystem – CloudPlaner: "… aber die Idee ist gut…"

Unter www.cloud-planer.de hat der SaaS-EcoSystem e.V. einen Marktplatz für “Kompetenzträger” aus dem SaaS & Cloud-Computing Umfeld veröffentlicht, um hier einen Marktplatz anbieterunabhängiger und echter Cloud-Dienste aufzubauen. Hauptanliegen des Cloud-Planers sei nach Angaben des Vereins die Informationsvermittlung, eine Gewinnerzielungsabsicht bestehe nicht.

SaaS-EcoSystem CloudPlaner:

Die Idee ist gut, die Kriterien schwach!

Der Cloud-Planer soll Unternehmen transparent über Lösungen, Experten & Technologien im Bereich SaaS & Cloud bieten. Dazu sollen sie in dem Cloud-Marktplatz Profile über verfügbare Cloud-Lösungen, Cloud-Technologien und Cloud-Experten finden und sich umfangreich informieren.

Die Kriterien für eine “echte” Cloud-Lösung á la SaaS-EcoSystem e.V. sind:

  • Basiert die Lösung auf Internet-Technologien und bietet sie eine browserbasierte Oberfläche oder eine App für mobile Endgeräte?
  • Kann der Nutzer die Anwendung administrieren?
  • Ist gewährleistet, dass alle Kunden zu jeder Zeit mit dem gleichen Software-Release arbeiten?
  • Wird die Software automatisiert bereitgestellt und kann der Kunde die Einrichtung selber vornehmen?
  • Ermöglicht die Lösungsarchitektur eine beliebige Skalierung, also die für die Zielgruppe unlimitierte Nutzung der Anwendung?

Ich möchte das an dieser Stelle mal unkommentiert lassen und verweise u.a. auf:

Nur noch eins. Im Katalog kann man ebenfalls nach PaaS und IaaS Lösungen suchen. Die Anforderungen des SaaS-EcoSystem e.V. decken die Eigenschaften eines PaaS und IaaS Anbieter überhaupt nicht ab.

Present your own dog food – Unabhängigkeit Fehlanzeige

In der ersten Version beinhaltet der Marktplatz nur die Angebote und Lösungen von Mitgliedern aus dem SaaS-EcoSystem. Innerhalb der nächsten Monate soll der Cloud-Planer nach Angaben des Vereins jedoch für alle weiteren Anbieter von Cloud-Angeboten geöffnet werden. Ergo: Anbieterunabhängigkeit zunächst Fehlanzeige.

Lösungen, die mit dem “Trust in Cloud” Zertifikat des SaaS-EcoSystem ausgezeichnet wurden, werden auf www.cloud-planer.de besonders hervorgehoben. Zudem sollen Unternehmen auf dem Cloud Marktplatz Fachleute zu allen relevanten Fachthemen im Cloud-Bereich sowie wissenswerte Beiträge von “Cloud-Experten”, die in Videobeiträgen komplexe Sachverhalte verständlich darstellen finden. Mit dem Qualitätszertifikat “Cloud-Experte” zeichnet das SaaS-EcoSystem nach eigenen Angaben Personen aus, die nachgewiesen haben, das entsprechende Know-how zu besitzen.

Was ich von den “Trust in Cloud” und dem “Cloud-Experten” Zertifikaten halte, habe ich bereits hier beschrieben:

Keine Gewinnerzielungsabsicht? Naja!

Ich musste in letzter Zeit immer wieder die Aussagen verarbeiten: “Als Verein/ Verband haben wir keine Absichten Gewinn zu erzielen.” Das stimmt natürlich, aber die Mitglieder des Vereins sind – zurecht – darauf getrimmt, Geld zu verdienen. Und genau dafür ist dieser Marktplatz gedacht, den Mitgliedern Aufträge zu besorgen. Es sei nebenbei angemerkt, dass die beiden Vorstände des SaaS-EcoSystem e.V. ebenfalls mit ihren SaaS Lösungen und Beratungsleistungen dicke im Anbieter Katalog vertreten sind. Wie gesagt, das ist auch gerechtfertigt. Aber muss man sich damit hinter dem Deckmäntelchen des Vereins/ Verbands verstecken. Mit offenen Karten zu spielen würde viel mehr Glaubwürdigkeit und Transparenz zeigen. Das gilt übrigens für alle Verbände, Vereine und sonstige nicht kommerzielle Institutionen.

Categories
News

Salesforce hatte mit Ausfall zu kämpfen

Laute seiner Statuspage hatte Salesforce.com am Donnerstag mit Problemen in mehreren Regionen zu kämpfen, die zu einem Ausfall von Teilen des Systems führte. Mittlerweile läuft alles wieder rund.

Salesforce hatte mit Ausfall zu kämpfen

Fehlfunktion zwischen Storage und der Datenbank

Das Problem begann in Salesforce Instanz NA2 in Nordamerika. In einem Fehlerbericht wird als Problem eine Fehlfunktion zwischen dem Speicherbereich und einem Datenbank-Host genannt.

Ein weiterer Fehler trat in den Instanzen NA3 und EU0 auf. Dabei handelte es jeweils um Performance Probleme im Datenbankbereich (NA3) und innerhalb der Applikationen (EU0).

Alle Fehler sind aber mittlerweile behoben und die Salesforce Services laufen wieder stabil.

Categories
News

Google präsentiert mit der Google Compute Engine seinen eigenen Infrastructure-as-a-Service. Noch keine Konkurrenz für AWS!

Nun ist es soweit und es zeigt, dass Gerüchte immer ein Stück Wahrheit mit sich bringen. Google steigt mit seiner Google Compute Engine in den mittlerweile hart umkämpften Markt der Infrastructure-as-a-Services (IaaS) ein. Der Public Cloud Service vervollständigt neben einem Platform-as-a-Service Angebot (Google App Engine) und einer Software-as-a-Service Lösung (Google Apps) das Google Cloud Portfolio zu einem vollständigen Cloud Stack.

Google präsentiert mit der Google Compute Engine seinen eigenen Infrastructure-as-a-Service

Das Cloud Portfolio wird erweitert

Mit der Google App Engine, BigQuery und dem Google Cloud Storage hat Google seit 2008 sein Cloud Portfolio stetig ausgebaut. Was noch fehlte war eine Infrastructure-as-a-Service Lösung, mit der virtuelle Maschinen bei Bedarf genutzt werden können.

Mit der Google Compute Engine steigt Google nun auch in dieses Marktsegment ein und bietet in einer geschlossenen Beta die Möglichkeit, virtuelle Maschinen (VM) mit dem Linux Betriebssystem auf der Google Infrastruktur, die auch von Google Mail und anderen Services eingesetzt wird, zu nutzen.

Rechenleistung

Hier bietet die Compute Engine zunächst die Möglichkeit Ubuntu als auch CentOS Linux Betriebssysteme auf virtuellen Maschinen mit 1,2,4 oder 8 Kernen und 3,75 GB Arbeitsspeicher pro virtueller Instanz zu nutzen.

Speicherplatz

Mit der Compute Engine können drei unterschiedliche Arten genutzt werden, um die Daten zu speichern.

Flüchtiger Speicher

Auf jeder virtuellen Instanz befindet sich ein flüchtiger lokaler Speicher, bei dem die Daten nur während des Lebenszyklus einer virtuellen Maschinen gespeichert werden. Wenn die VM gestoppt wird, werden alle Daten gelöscht. Dennoch werden alle Daten die auf die VM geschrieben verschlüsselt abgelegt.

Persistenter Speicher

Die Google Compute Engine bietet einen persistenten Speicher, der als Service (virtuelle Fesplatte) mit dem Google Storage Netzwerk verbunden ist und über dieselbe Latenz und Geschwindigkeit wie der lokale Speicher einer VM verfügt. Daten die auf diese “virtuelle Festplatte” gespeichert werden, werden automatisch über mehrere physikalische Festplatten innerhalb eines Google Rechenzentrum repliziert. Darüber hinaus können Snapshots von den Festplatten für Backup/ Restore Zwecke erstellt werden. Zudem besteht die Möglichkeit diese virtuellen Platten als Laufwerk in mehrere virtuelle Maschinen zu mounten, um davon Daten zu lesen. Wie beim lokalen VM Speicher sind auch die Daten auf den virtuellen Festplatten verschlüsselt.

Google Cloud Storage

Der Google Cloud Storage existiert für Entwickler schon etwas länger. Er bietet die Möglichkeit, Daten persistent zu speichern und auf die Buckets (Ordner) innerhalb des Storage mit einer VM zuzugreifen.

Netzwerkkapazitäten

Über der Google Netzwerk lassen sich die virtuellen Maschinen mit der Aussenwelt und innerhalb des Netzwerks selbst verbinden.

Isolierte Bereiche

Der Netzwerk Stack ist so aufgebaut, dass sich die virtuellen Maschinen eines Nutzers in einem isolierten Bereich befinden und von Dritten nicht ohne Weiteres darauf zugegriffen werden kann.

Externe IP Adressen

Die virtuellen Maschinen können entweder mit statischen oder dynamischen IP-Adressen verknüpft werden, um anschließend über das Internet auf diese zuzugreifen.

Konfigurierbare Firewall

Mit einer Firewall können die Zugriffe auf die virtuellen Maschinen kontrolliert werden.

Management

Mit einer Benutzeroberfläche sowie einem Kommandozeilentool kann die Infrastruktur verwaltet werden.

API

Alle Management Tools basieren auf einer offenen RESTful API. Google plant darüber hinaus, alle verfügbaren Tools als Open Source zu veröffentlichen, um den Nutzern die Möglichkeiten zu geben, eigene Tools nach ihren Bedürfnissen zu entwickeln.

Ecosystem

Google arbeitet bereits mit ein paar Partner darunter RightScale, Puppet Labs, OpsCode, Numerate, Cliqr und MapR zusammen, die in Zukunft die Google Compute Engine unterstützen und integrieren werden und weitere Management-Kapazitäten anbieten.

Kosten

Virtuelle Maschinen

Konfiguration Virtuelle Kerne Arbeitsspeicher GCEU Lokaler Speicherplatz Preis pro Stunde GCEU pro Stunde
n1-standard-1-d 1 3,75GB 2,75 420GB 0,145 Dollar 0,053 Dollar
n1-standard-2-d 2 7,5GB 5.5 870GB 0,29 Dollar 0,053 Dollar
n1-standard-4-d 4 15GB 11 1770GB 0,58 Dollar 0,053 Dollar
n1-standard-8-d 8 30GB 22 2 x 1770GB 1,16 Dollar 0,053 Dollar

GCEU steht für “Google Compute Engine Unit”. Dabei handelt es sich um eine Masseinheit, mit der Google die Rechenleistung seiner Instanzen, basierend auf einem Industriestandard, misst.

Netzwerk Kapazitäten

Eingehend Kostenlos
Ausgehend in derselben Zone Kostenlos
Ausgehend zu einem anderen Cloud Service in der selben Region Kostenlos
Ausgehend in eine andere Zone in derselben Region 0,01 Dollar pro GB
Ausgehend in eine andere Region innerhalb der USA 0,01 Dollar pro GB
Ausgehender Verkehr International siehe ausgehende Internetverbindungen

Ausgehende Internetverbindungen (Amerika, EMEA)

0-1 TB pro Monat 0,12 Dollar pro GB
1-10 TB pro Monat 0,11 Dollar pro GB
10+ TB pro Monat 0,08 Dollar pro GB

Ausgehende Internetverbindungen (APAC)

0-1 TB pro Monat 0,21 Dollar pro GB
1-10 TB pro Monat 0,18 Dollar pro GB
10+ TB pro Monat 0,15 Dollar pro GB

Persistenter Speicherplatz

Speicherplatz 0,10 Dollar pro GB pro Monat
Snapshot Speicher 0,125 Dollar pro GB pro Monat
IO Operationen 0,10 Dollar pro Millionen Operationen

IP-Adressen

Statische IP-Adresse 0,01 Dollar pro Stunde
Dynamische IP-Adresse kostenlos

Ein Amazon Web Services Killer?

In der Techwelt wird schon von einem Amazon Web Services (AWS) Killer gesprochen. Fakt ist, die Google Compute Engine ist ein IaaS Angebot und Google verfügt auf Grund seines Kerngeschäfts über die Expertise, hochskalierbare Infrastrukturen aufzubauen und diese hochverfügbar zu betreiben. Die Google App Engine zeigt darüber hinaus, dass Google es versteht, Entwickler anzusprechen, auch wenn sich der Markt hier mit zunehmend attraktiven Alternativen verengt.

Noch keine Konkurrenz zu AWS!

Schauen wir uns die Compute Engine an, dann sehen wir Instanzen und Speicherplatz, mehr nicht. Wer Google nun als DIE kommende Konkurrenz zu den Amazon Web Services sieht, ist erst einmal auf dem Holzweg. Amazon hat ein riesen Portfolio an Cloud Services, an die Google erst einmal anknüpfen muss. Ich gehe allerdings davon aus, dass in den kommenden Monaten mehr passieren wird. Unter http://cloud.google.com vereint Google mittlerweile seine sämtlichen Cloud Lösungen, darunter die App Engine, Cloud Storage, BigQuery und nun auch die Compute Engine. Google wird daher nicht die Compute Engine weiter ausbauen, sondern die Cloud Plattform im Laufe er Zeit mit weiteren Services erweitern.

Herausforderung Datenschutz

Es ist bei Google nicht klar, wo sich die Cloud Ressourcen befinden. Wo Amazon und Microsoft klar herausstellen und die Möglichkeit bieten, virtuelle Maschinen explizit in einem europäischen Rechenzentrum zu starten, verhält sich Google hier, wie immer, sehr bedeckt. Da ich bisher nur auf der Warteliste stehe, um einen ersten Blick auf die Compute Engine zu werfen, kann ich nicht sagen, ob man Instanzen explizit in einem EU Rechenzentrum starten kann. In der offiziellen Dokumentation zur Compute Engine habe ich allerdings nichts gefunden. Ich vermute allerdings, dass es nicht möglich ist, da alle Anwendungen, die sich auf der App Engine befinden, auch in den USA laufen. Erst mit der App Engine Version 1.7.0 bietet Google seinen Premium Kunden die Möglichkeit auch einen europäischen Cluster zu nutzen. Allerdings nichts aus dem Grund des Datenschutzes sondern auf Grund der Latenz.

Google scheint nicht zu verstehen, dass den Europäern das Thema Datenschutz scheinbar wichtiger ist als den Amerikanern. Google muss an dieser Stelle jedoch begreifen, dass, wenn Sie auch Unternehmen davon überzeugen wollen, die Google Cloud zu nutzen, sie es in diesem Umfeld mit einem anderen Klientel zu tun haben und nicht mit Entwicklern, die “nur” drauflos programmieren wollen.

Wie schon bei seinen Consumer Services denkt Google leider immer erst nur an die USA. Andere Länder/ Kontinente wie Europa bleiben da zunächst Außen vor, sehr schade.


Bildquelle: http://anandtech.com

Categories
News

ownCloud erweitert seine Hybrid Cloud Lösung für Unternehmen

ownCloud hat eine erweiterte Version seiner Hybrid Cloud Lösung für den produktiven Einsatz freigegeben. Neben den Funktionen der Community-Edition ownCloud 4, ermöglicht die kostenpflichtige Business und Enterprise Edition die Integration in bestehende IT-Infrastrukturen.

ownCloud erweitert seine Hybrid Cloud Lösung für Unternehmen

Anbindung an Verzeichnissdienste

Mit dem neuen Update lässt sich ownCloud mit bestehenden LDAP- und Active Directory-Verzeichnissen verbinden. Damit lassen sich Gruppenzugehörigkeiten und die Speichergrößen, die jedem Benutzer zur Verfügung stehen sollen, zentral verwalten. Weiterhin unterstützt ownCloud jetzt den Defacto-Standard Syslog zur Übermittlung von Log-Meldungen.

Customizing erwünscht

Unternehmen haben darüber hinaus nun die Möglichkeit, die Benutzeroberfäche von ownCloud mit Hilfe eines Stylesheets mit Logo, Farben und Schriften ihren Bedürfnissen nach anzupassen. ownCloud erwartet auf Grund einer einheitlichen CI eine schnellere und höhere Akzeptanz bei den Mitarbeitern.

Mac OS und Android Unterstützung

Das neue Update bringt zudem die Client-Software für Mac OS mit. Somit stehen neben dem ownCloud Webclient ebenfalls Software-Clients für die drei Desktop-Betriebssysteme Windows, Mac OS und Linux zur Verfügung, um darüber Adressen, Termine, Office-, Audio- und Video-Dateien auszutauschen.

Ein weiteres Schmankerl ist die Freigabe der Version 1.1 der Android App. Die Anwendung befindet sich zwar noch im Betastatus, dennoch können Nutzer damit bereits von ihren Android Smartphones direkt auf den ownCloud-Server zugreifen. Die App erkennt eigenständig SSL-Verbindungen und ermöglicht den automatischen Upload der Fotos direkt von der Kamera. Eine App für iOS soll in den kommenden Monaten veröffentlicht werden.

Weitere Verbesserungen auf einen Blick

Zu den weiteren Erneuerungen, die Ende Mai mit der Community Edition ownCloud 4 veröffentlicht wurden, gehören neben Bugfixes, Securityfixes und Optimierungen in der Performance:

  • Synchronisation von Dateien und Ordnern – Einfach einen Ordner auswählen und mit dem ownCloud-Server verbinden. Dadurch werden Server und Client miteinander synchronisiert.
  • Teilen von Dateien und Ordnern – Datei oder Ordner markieren, “Teilen” anklicken und auswählen, mit wem die Daten geteilt werden sollen.
  • Datei-Upload per Drag & Drop – Zum Upload muss eine Datei nur vom Desktop auf den antsprechenden Ordner im ownCloud-WebClient gezogen werden.
  • Versionierung – Alle Änderungen werden als jeweils eigene Version einer Datei gespeichert. Damit können “ältere” Versionen einer Datei einfach wiederhergestellt werden.
  • ODF-Viewer – Damit können alle Texte, Tabellen und Grafiken, die im Open Document Format (ODF) gespeichert wurden, angesehen werden, ohne dass sie gespeichert werden müssen.
  • Application Programming Interface – Über eine neue API können Unternehmen ihre eigenen Plug-Ins integrieren.
  • ownCloud Application Store Integration – Damit können Unternehmen die kostenlosen Plug-Ins der ownCloud-Community schnell und einfach einbinden.

Preise und Verfügbarkeit

Die Kosten für die Business Edition betragen 799 EUR pro Jahr für die ersten 50 Nutzer. Die Enterprise Edition kann für 12.500 Euro pro Jahr für die ersten 250 Nutzer erworben werden. Kunden die sich für die kommerziellen Versionen entscheiden, erhalten offizielle Maintenance und technischen Support von der ownCloud Inc.