Categories
News

Die Amazon Web Services erhalten Zertifizierung für SAP Business-All-In-One

Die Amazon Web Services (AWS) wurden durch SAP für die SAP Business All-in-One Lösung für Linux und Windows sowie für SAP Rapid Deployment und Business Objects für Windows Server 2008 R2 zertifiziert. Dadurch können SAP-Kunden ihre Infrastruktrur- und Gesamtbetriebskosten verringern indem sie ihre SAP-Anwendungen flexibel auf der skalierbaren Cloud Plattform von AWS betreiben lassen.

SAP und Amazon führen bereits seit mehreren Jahren eine enge Partnerschaft. Im letzten Jahr schätzte SAP, dass ca. die Hälfte ihrer Anwendungen für AWS zertifiziert werden.

SAP und AWS ließen zudem ein paar Analysten auf die Infrastruktur los, um zu zeigen, dass dieser Schritt für Kunden zu Einsparungen bei ihren Infrastrukturkosten führen wird. Laut dem Beratungsunternehmen VMS AG führt die Nutzung von SAP Lösungen auf den Amazon Web Services zu Kostenvorteilen in Höhe von bis zu 69 Prozent im Vergleich zu einer eigenen On-Premise Installation. Für die Marktanalyse untersuchte VMS mehr als 2.600 SAP-IT-Landschaften.


Bildquelle: http://www.wiwo.de

Categories
Kommentar

Salesforce ist kein Cloud Computing!

Wie wahrscheinlich vielen bekannt ist, rollt Marc Benioff mit seiner Marketingmaschine durch die Welt und verbreitet die Theorie, dass nur Salesforce doch die echte Cloud sei. Dabei lebt er in einem Irrglaube, denn Salesforce ist überhaupt kein Cloud Computing! Lest hier warum.

Marc Benioff ist Gründer und CEO von Salesforce

Holen wir uns zunächst einmal die grundlegenden Eigenschaften vor Augen, wofür Cloud Computing steht. Hierbei geht es ganz kurz zusammengefasst um den flexiblen Bezug von hochverfügbaren und hochskalierbaren Ressourcen. Der Begriff Ressource ist in diesem Fall ein Oberbegriff. Er steht für alles mögliche was in der IT genutzt wird. Software, virtuelle Instanzen, Speicherplatz usw.

Um also ein echtes Cloud Computing Angebot zu verifizieren, achtet ihr am besten auf die folgenden grundsätzlichen charakterlichen Merkmale.

  • Erhalte ich einen on-Demand Zugriff auf die Ressourcen? Kann ich also die Ressourcen zu einem Zeitpunkt nutzen, wenn ich diese auch benötige?
  • Zahle ich nur für die Ressourcen, die ich auch tatsächlich nutze und wird entweder pro Benutzer, pro Gigabyte oder pro Minute/ Stunde abgerechnet? Das bedeutet im Umkehrschluss, dass ich keine langfristigen Verträge von Monaten oder gar Jahren eingehe. Ich kann das Angebot flexibel über einen Self-Service kündigen wann immer ich es will. Ab diesem Zeitpunkt zahle ich für das Angebot nichts mehr, da ich es schließlich nicht mehr nutze. Arbeitet der Anbieter also nach dem Pay as you Go Prinzip?
  • Muss ich eine monatliche oder jährliche Grundgebühr für die Nutzung des Angebots entrichten? Beim Cloud Computing gibt es keine Grundgebühren.
  • Kann ich die Ressourcen zu jederzeit nutzen, hat das Angebot also eine hohe Verfügbarkeit zu jeder Tageszeit?
  • Lassen sich die Ressourcen automatisiert nach meinen Bedürfnissen anpassen, so dass sie entweder mit meinen Ansprüchen wachsen, wenn mehr Leistung benötigt wird oder sich verkleinern, wenn die Anforderungen sich verringern? Das ist der Charakter der hohen Skalierbarkeit.
  • Kann ich diese Ressourcen zu jedem Zeitpunkt nutzen, wenn ich sie benötige? Haben diese also eine hohe Zuverlässigkeit?

Salesforce ist kein Cloud Computing

Betrachten wir nun einmal das Angebot von Salesforce und setzen es mit einigen Eigenschaften des Cloud Computing gleich, sehen wir: Salesforce ist kein Cloud Computing!

Es ist eigentlich relativ schnell und offensichtlich nachzuweisen, dass Salesforce kein Cloud Computing ist. Dazu schauen wir uns drei der oben genannten Eigenschaften eines Cloud Angebots an. Bei Salesforce sind es die hohe Zuverlässigkeit, hohe Verfügbarkeit und die Flexibilität bzw. das Pay as you Go

In regelmäßigen Abständen erhält man als Salesforce Kunde E-Mails über Wartungsfenster bzw. werden die Informationen nach dem Login im eigenen Account angezeigt. Cloud Computing und Wartungsfenster passt nicht zusammen. Wenn eine Cloud Wartungsfenster benötigt, ist der Charakter der hohen Verfügbarkeit und hohen Zuverlässigkeit verletzt. Ich kann mich nicht daran erinnern, dass Cloud Vorzeige Unternehmen wie die Amazon Web Services oder Google jemals ihre Kunden über Wartungsfenster informiert haben. Sollte die Salesforce Infrastruktur also tatsächlich auf Cloud Computing basieren, darf es keine Wartungsfenster geben.

Der allerdings viel schlimmere und offensichtliche Punkt ist das Abrechnungsmodell. Für das kleinste Angebot, den “Contact Manager” zahlt ein Kunde auf den ersten Blick 4 EUR pro Benutzer pro Monat. Bis hierhin ist noch alles in Ordnung. Wenn nicht die kleine “1” über dem Monat wäre. Diese besagt: “Alle Produkte, die nach Benutzer berechnet werden, erfordern einen Jahresvertrag.” Und damit sind wir nicht mehr bei einer monatlichen Abrechnung sondern zahlen jährlich und binden uns somit an an einen langfristigen Vertrag. Es ist hier also offensichtlich, dass man als Salesforce Kunde nicht die vom Cloud Computing versprochene Flexibilität bekommt.

Ich kann aus eigener Erfahrung sprechen, denn ich hatte den Contact Manager mal im Einsatz. Nach einem halben Jahr habe ich bemerkt, dass er mir nicht den gewünschten Mehrwert bringt. Ich habe also nach einer Kündigungsmöglichkeit in meinem Salesforce Account gesucht. Fehlanzeige! Nach langem Suchen habe ich dann herausgefunden, dass man entweder nur per E-Mail oder telefonisch den Vertrag zum Ende der Laufzeit (halt 1 Jahr) auflösen kann. Ich habe bei Salesforce also für ein halbes Jahr weiterhin für einen Service bezahlt, den ich nicht mehr genutzt habe. Ist das Flexibilität im Sinne von Cloud Computing? Da man bei Salesforce zudem die volle Summe für ein Jahr im Voraus bezahlt, war das Geld natürlich bereits weg. Ergo, bei Salesforce zahlt man nicht wie auf der Webseite irrtümlich geschrieben pro Monat, sondern pro Jahr und bindet sich langfristig.

Ok bei der Zuverlässigkeit wird der eine oder anderer sicherlich ein Auge zudrücken wollen, da Wartungsfenster von früher gewohnt und am Wochenende zu verkraften sind. Aber der Jahresvertrag geht nicht. Hier fehlt eindeutig die Flexibilität die das Cloud Computing mit sich bringt. Bitte Salesforce, seid ehrlich(!) zu euch selbst und vor allem zu euren Kunden!


Bildquelle: http://politico.com

Categories
News

Amazon hilft mit CloudFormation beim Aufbau einer Virtual Private Cloud

Die Amazon Web Services ermöglichen nun den automatisierten Aufbau einer vollständigen Virtual Private Cloud (VPC) auf Basis eines einzelnen AWS CloudFormation Templates. Laut Jeff Barr, beschreibt das Template alle Eigenschaften, die notwendig sind, um den dafür notwendigen Ressourcenstack zu erstellen.

Amazon VPC kann bereits seit mehreren Jahren genutzt werden und erlaubt dem Nutzer den Aufbau eines für sich isolierten Bereichs auf der Amazon Cloud. Hier können Ressourcen in einem virtuellen Netzwerk ausgeführt werden und darauf mittels öffentlichen und privaten Subnetzen sowie VPNs zugegriffen werden.

Mit dem Einsatz von AWS CloudFormation müssen Anwender nicht die Reihenfolge der Provisionierung der jeweiligen AWS Services sowie deren Abhängigkeiten berücksichtigen. CloudFormation nutzt dazu Templates, die als in JSON (JavaScript Object Notation) formatierte Textdateien geschrieben werden. JSON basiert auf einer Teilmenge der Programmiersprache JavaScript und ist sowohl für Menschen als auch Maschinen lesbar.

Um Entwicklern und Systemadministratoren ein wenig unter die Arme zugreifen, hat Amazon zwei Beispiel Templates erstellt, um zu zeigen wie diese aufgebaut sind. Das erste Template erstellt eine Amazon VPC mit einer EC2 Instanz. Das zweite Template baut eine VPC inkl. einem Public und Private Subnetz sowie einem Elastic Load Balancer und einer EC2 Instanz auf.

Beide Templates können in Jeff Barrs Blogpost nachvollzogen werden.


Bildquelle: http://www.allmystery.de

Categories
News

Bitdefender Security for Virtualized Environments steht im AWS Marketplace bereit

Ab sofort stellt der Anti-Malware-Bekämpfer Bitdefender seine Lösung „Security for Virtualized Environments“ (SVE) auf dem Amazon Web Services (AWS) Marketplace bereit. Auf der Plattform können sich Kunden Software und Services ansehen, vergleichen und bei Bedarf sofort buchen, um sie umgehend für den Geschäftsbetrieb einzusetzen. Auf diese Weise haben Unternehmen nun die Möglichkeit, SVE als zentral verwaltete Sicherheitslösung in der Cloud einzusetzen und so ihre virtuellen Maschinen vor Online-Bedrohungen zu schützen.

Bitdefender Security for Virtualized Environments steht im AWS Marketplace bereit

Die Bitdefender-Lösung ist für Unternehmen geeignet, welche die Cloud oder eine Kombination aus Cloud und virtualisiertem Rechenzentrum nutzen. SVE sichert dabei Windows- und Linux-Systeme über die APIs (Application Programming Interfaces) des Amazon-Angebots ab. Nutzer des AWS Marketplace profitieren dabei von einem zentralisierten Scanning und Management. Über die Plattform lassen sich beispielsweise Richtlinien für User-Gruppen konfigurieren oder Logs verschiedener AWS-Regionen einsehen. Die Virtual Appliance erhöht die Scanning Performance signifikant und sorgt dafür, dass Anti-Malware-Maßnahmen bei den geschützten Komponenten weniger Ressourcen verbrauchen. Darüber hinaus reduziert Bitdefender SVE finanzielle, logistische und die Performance betreffende Kosten.

„Security for Virtualized Environments“ steht aktuell in vier unterschiedlichen Varianten bereit.

  • SVE – Security Console (zur Absicherung von 40 Instanzen)
    320,00 Dollar pro Monat + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
  • SVE – Security Console (zur Absicherung von 100 Instanzen)
    600,00 Dollar pro Monat + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
  • SVE – Security Console (zur Absicherung von 200 Instanzen)
    960,00 Dollar pro Monat + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
  • SVE – Security Virtual Appliance
    0,00 Dollar pro Stunde + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
Categories
News

ELPaaS portiert Cobol Applikationen auf Amazon, Rackspace und weitere Clouds

Mit der neuen Entwickler Plattform ELPaaS will das Cloud Computing Startup Heirloom Computing es Unternehmen ermöglichen, ihre nativen Cobol Anwendungen in die Cloud zu portieren. Dazu wird die Cobol Applikation in Java kompiliert. Neben den Amazon Web Services und Rackspace werden viele weitere Cloud Plattformen unterstützt.

ELPaaS portiert Cobol Applikationen auf Amazon, Rackspace und weitere Clouds

ELPaaS beinhaltet Heirlooms Software Elastic Cobol IDE. Das System kompiliert Cobol Anwendungen sowie Applikationen die für IBM CICS geschrieben wurden, in Java Quellcode. ELPaas liefert zudem eine Laufzeitumgebung für die Anwendungen, wodurch diese auf einer Vielzahl von Cloud Plattformen wie Cloud Foundry, Red Hat OpenShift und CloudBees ausgeführt werden können. Voraussetzung ist die Plattform seitige Unterstützung von Java. Heirloom selbst setzt auf die Amazon Web Services.

Die kostenlose Variante von ELPaaS richtet sich an einzelne Entwickler und bietet einen eingeschränkten Support, eine kleine Auswahl an Tools und kein Service Level Agreement. Die Standard Edition bietet mehr Tools, ein SLA sowie eine bessere I/O Performance und Support für CICS Anwendungen.

Nach eigenen Angaben hat ELPaaS bereits an die 400 Nutzer.

Categories
News

Ubuntu 12.04 verbindet OpenStack und die Amazon Web Services über eine API

Canonical, Entwickler der Linux Distribution Ubuntu wird mit der kommenden Ubuntu 12.04 LTE eine API veröffentlichen, mit der OpenStack basierte Clouds mit der Infrastruktur der Amazon Web Services (AWS) verbunden werden können. Ubuntu 12.04 LTE wird Ende April erwartet und soll die API in Form des Any Web Service Over Me (AWSOME) Proxy Service mitliefern. Das teilte Canonical Günder Mark Shuttleworth dem INQUIRER mit.

Ubuntu 12.04 verbindet OpenStack und Amazon Web Services über eine API

Shuttleworth möchte insbesondere OpenStack damit helfen, den Bekanntheitsgrad zu erhöhen und somit den Einsatz von mehr OpenStack Clouds zu fördern. Er hält es zudem für sehr nützlich, den Nutzern zu ermöglichen Clouds auf Basis von OpenStack aufzubauen und diese auf Basis einer gemeinsamen API mit den Amazon Web Services kommunizieren zu lassen.

AWSOME soll laut Shuttleworth die grundlegenden Funktionen der Amazon Web Services bieten, um Unternehmen einen flüssigen Übergang zu OpenStack basierten Clouds zu ermöglichen. Demnach stehen bei AWSOME die Kern APIs im Vordergrund, mit denen bspw. eine virtuelle Maschine gestartet werden kann oder der Zugriff auf den Speicher ermöglicht wird. Beide Cloud Infrastrukturen sind grundsätzlich verschieden. Diejenigen, die sich mehr mit OpenStack beschäftigen wollen, müssen sich tiefer in dessen native API einarbeiten. Aber Erfahrungen haben gezeigt, dass Nutzer dankbar dafür sind, wenn sie mit den grundlegenden Funktionen einer ihnen bekannten API und Tools eine Private Cloud aufsetzen können, so Shuttleworth.

Canonicals AWSOME APIs werden mit dem kommenden Ubuntu 12.04 Release verfügbar und als eine Option während der Installation auszuwählen sein.

Categories
News

Amazon erweitert CloudFront mit Live-Streaming Funktion für iOS und Silverlight

Amazon hat seinen Content Delivery Network (CDN) Services um Live-Streaming Funktionen für Apples iOS und Microsofts Silverlight erweitert. Das wurde gestern im offiziellen Unternehmensblog angekündigt.

Mit Amazon CloudFront können Inhalte wie Bilder, Videos andere Mediadaten und Software so verteilt werden, dass auf sie schnell und performant zugegriffen werden kann. Dazu nutzt CloudFront, typisch für ein CDN, unterschiedliche Edge Locations in Asien, Europa, Südamerika und den USA, um die Inhalte möglichst nah an den Nutzer auszuliefern und damit die Zugriffszeit zu verkürzen.

Mit der neuen Funktion “Live Smooth Streaming for Amazon CloudFront” können Inhalte nun zusätzlich live auf Microsoft Silverlight Clients und Apple iOS Endgeräte wie iPhone, iPod Touch oder iPad streamen. Dazu werden Microsofts Live Smooth Streaming und Apples HTTP Live Streaming (HLS) Formate genutzt.

Amazon erweitert CloudFront mit Live-Streaming Funktion für iOS und Silverlight

Live Smooth Streaming Inhalte werden fragmentiert an die Clients übertragen, so dass die CloudFront Edge Server die Daten zwischenspeichern (cachen) können.

Die Clients selbst haben die Möglichkeit den aktuellen Netzwerk- und lokalen Systems-Status dynamisch zu überwachen. Sollte sich z.B. die Netzwerkleistung verschlechtern, kann der Client umgehend kommunizieren, dass das nächste Fragment mit einer niedrigeren Bitrate gesendet werden soll, um sich damit an die ändernden Bedingungen anzupassen. Laut Amazon sollen damit das Stottern, Puffern und Einfrieren des Streamings verhindert werden.

Der Stream kann über eine Amazon EC2 Instanz mit Windows IIS Media Services bereitgestellt werden. Wird der Live Stream von einem Client angefragt, lädt CloudFront den Inhalt automatisch von der EC2 Instanz, cached ihn in der Edge Location zwischen und liefert ihn an den Client aus. Um Inhalte mit Apples HLS Format zu streamen, wird auf der Amazon EC2 Instanz ein Adobe Flash Media Server 4.5 benötigt. Laut Amazon handelt es sich bei beiden Formaten aber um dieselbe Grundkonfiguration. Um die Nutzung von “Live Smooth Streaming for Amazon CloudFront” zu vereinfachen, hat Amazon ein CloudFormation Template erstellt, dass die notwendigen Ressourcen für ein Live Event bereitstellt.

Die CloudFront Preise orientieren sich an den regionalen Datentransferkosten für die jeweiligen Amazon Edge Locations, die Anzahl an HTTP-Anfragen und die Anzahl an ungültigen Anfragen. Letzteres wird verwendet, um ein Objekt aus der CloudFront Edge Location vor dem angegebenen Ablaufdatum zu entfernen.

Bspw. kosten in Europa und in den USA die ersten 10TB 0,12 US-Dollar pro Gigabyte und die weiteren 40TB 0,08 US-Dollar pro Gigabyte. Die Menge an verbrauchten Traffic wird dabei monatlich zurückgesetzt.


Bildquelle: http://www.ewdisonthen.com

Categories
News

Die Amazon Web Services hosten Katalog für Humangenetik in der Cloud

Die Amazon Web Services (AWS) und das U.S. National Institutes of Health (NIH) haben die komplette Datenbank des 1000 Genomes Project als Public Data Set in die Amazon Cloud migriert. Damit haben Wissenschaftler nun ständigen Zugang zu 200 Terabyte an genetischen Daten zur Erforschung von Krankheiten. Ein weiterer idealer Anwendungsfall für Cloud Computing und Big Data.

Die Kooperation, die offiziell während des White House Big Data Summit angekündigt wurde, ermöglicht es Wissenschaftlern kostenlos auf die weltweit größte Sammlung von Daten zur Humangenetik zuzugreifen Bei dem 1000 Genomes Project handelt es sich um ein internationales Forschungsprojekt, das von einem Konsortium bestehend aus 75 Unternehmen und Organisationen koordiniert wird. Das Ziel des Projekts ist die Erstellung des detailreichsten Katalogs von genetischen Variationen bei Menschen.

Dazu hat das Projekt bereits 200 Terabyte an genetischen Daten inkl. DNS Sequenzen von mehr als 1.700 Personen gesammelt, auf die Wissenschaftler nun kostenlos über die AWS Cloud zugreifen können. Das Projekt verfolgt das Ziel die Gene von weltweit über 2.600 Individuen aus 26 Bevölkerungen bereitzustellen. Das 1000 Genomes Project startete 2008 mit ein paar Terabytes an Daten in seine Pilotphase. Bereits 2010 wurde ein kleiner Teil als Public Data Set auf AWS veröffentlicht.

Bei den Amazon Public Data Sets handelt es sich um ein öffentliches zentrales Repository von unterschiedlichen Daten, die auf Amazon S3 und Amazon EBS gespeichert sind. Auf diese Daten kann direkt zugegriffen werden, z.B. über Amazon EC2 oder Amazon EMR (Elastic MapReduce) ohne diese großen Datenmengen auf lokale Server herunterzuladen.

Amazon hat neben dem 1000 Genomes Project ebenfalls Public Data Sets vom NASA Jet Propulsion Laboratory, Langone Medical Center an der New York University, Unilever, Numerate, Sage Bionetworks oder Ion Flux gespeichert.

Die Nutzung der Public Data Sets ist kostenlos. Kosten entstehen für die Verarbeitung der Daten auf der Amazon Cloud wie z.B. Amazon EC2.

In diesem Zusammenhang sehr interessant: Nach der Cloud, wird Amazon auch der Big Data Gigant?

Weiterführende Informationen


Bildquelle: http://www.ige3.unige.ch

Categories
Analysen

Nach der Cloud, wird Amazon auch der Big Data Gigant?

IaaS Cloud Infrastrukturen haben auf Grund ihrer Skalierbarkeit die idealen Voraussetzungen für die Verarbeitungen großer Datenmengen, wodurch Big Data ein idealer Anwendungsfall für Cloud Computing ist. Aber welcher Anbieter wird das Rennen um die Verarbeitung machen?

Big Data ist ein idealer Anwendungsfall für das Cloud Computing

Amazon Web Services

Ein Kandidat ist Amazon. Zum einen hat das Unternehmen auf Grund seines Kerngeschäfts, dem Web-Shop, eine große Expertise bei der Verarbeitung und Analyse großer Datenmengen aufgebaut und diese, betrachtet an der Evolution und dem Funktionsumfang der Webseite, stetig weiterentwickelt. Hinzu kommen aber auch die Amazon Web Services und der darunter liegenden massiv skalierbaren Infrastruktur, die ideal für die Verarbeitung von Big Data ist und die Unternehmen nutzen können, um dort Anwendungen für die Analyse ihrer Daten zu betreiben. Dazu stehen mit Amazon EC2, Amazon S3 und Amazon Elastic MapReduce gut miteinander zu kombinierende Services zur Verfügung. Neben dem Service AWS Import/ Export, mit dem große Datenmengen auf dem Postweg an Amazon geschickt werden können, die von Amazon dann direkt in die Cloud kopiert werden, hat sich Amazon mit der vor kurzem angekündigten Kooperation mit dem Private Cloud Infrastruktur-Software Anbieter Eucalyptus zudem eine gute Ausgangsposition geschaffen, um Unternehmen die Möglichkeit zu geben, über eine Hybrid Cloud Daten aus der Private in die Amazon Cloud übertragen zu lassen.

Google

Google hat ebenfalls viel Erfahrung bei der Verarbeitung großer Datenmengen, was u.a. auf die Indexierung des Internets und die damit verbundene Suche zurückzuführen ist – ebenfalls beides Kerngeschäfte von Google. Hinzu kommt, das Google kürzlich mit Google BigQuery einen neuen Service für Entwickler vorgestellt hat, auf dem Anwendungen entwickelt werden können, um Big Data zu verarbeiten. Dieser befindet sich aktuell aber noch in der geschlossenen Betaphase.

Anders als die Amazon Web Services scheint Google allerdings nicht so konsequent auf das Business getrimmt zu sein. Zudem wirkt Google an vielen Stellen immer noch wie ein großer Spielplatz für die eigenen Entwickler, was natürlich immer wieder gute Innovationen hervorbringt, Google sich aber bereits eingestehen musste, dass einige Services doch einfach mehr Kapital verbrennen als Nutzen ergeben. So wurde die Google App Engine anfangs stark gepushed, hat im Laufe der Zeit aber etwas an Innovation verloren.

Microsoft

Microsofts Kerngeschäft hat im Vergleich zu Amazon oder Google in erster Linie nichts mit der Verarbeitung großer Datenmengen zu tun. Dennoch steht mit Windows Azure ebenfalls eine skalierbare Infrastruktur bereit, auf der Unternehmen Big Data analysieren können.

Im Vergleich zu Google oder Amazon ist Microsoft aber bereits schon dort lange angekommen, wo die beiden erst genannten erst zielstrebig hinwollen, das Business. Microsoft sollte die Herausforderungen und Wünsche, insbesondere bei den renommierten Unternehmen, kennen und gezielt darauf eingehen können.

Erste infrastrukturelle Schritte hat Microsoft bereits mit der Unterstützung von Hadoop auf Azure unternommen und eine Agenda zeigt die weiteren Vorhaben für das Jahr 2012. So wird das Unternehmen mit Hilfe von Hortonworks und einer ODBC Schnittstelle Apache Hadoop an Microsofts Excel anbinden und so Big Data ins Büro bringen. Damit können Business Intelligence (BI) Tools einen direkten Zugang zu einem Hadoop Cluster erhalten und via Excel Pivot-Analysen durchgeführt werden.

Die Anderen

Es existieren eine Vielzahl an Unternehmen, die mit Big Data tagtäglich in ihrem Kerngeschäft konfrontiert werden. Dazu gehören bspw. ebay, Facebook, XING, LinkedIn oder auch Twitter. Allerdings bietet keines dieser genannten Unternehmen einen Public Cloud Service an, mit dem Big Data von Dritten verarbeitet werden könnte. Die Kosten für den Ausbau einer stärker skalierbaren Infrastruktur wären wohl auch zu hoch.

Allerdings sollten auch renommierte Unternehmen wie SAP, IBM oder Oracle im Bereich Big Data nicht aus den Augen gelassen werden. Die Expertise aus dem Kerngeschäft ist zweifelsohne vorhanden.


Bildquelle: https://www.emcforums2011.com, http://www.techweekeurope.es

Categories
News

Amazon und Eucalyptus kooperieren – Gemeinsame Allianz gegen OpenStack?

Die Amazon Web Services und der Private Cloud Infrastruktur-Software Anbieter Eucalyptus werden in Zukunft enger zusammenarbeiten, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen.

Amazon und Eucalyptus kooperieren - Gemeinsame Allianz gegen OpenStack?

Amazon und Eucalyptus kooperieren.

Dabei wird die Kooperation unterschiedlich aufgebaut sein. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen.

Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.


Das sieht ganz nach einer Allianz gegen OpenStack aus! Schaut man sich die jüngsten Ankündigungen bzgl. OpenStack an – siehe unten – wäre das von Amazon als auch Eucalyptus ein kluger Schachzug, zumal sich die Eucalyptus Infrastruktur sehr nah an den Basisfunktionen der Amazon Web Services orientiert.

Zudem kann der von Amazon immer wieder geförderte Ansatz der Hybrid Cloud damit verbessert werden. Was sicherlich auch im Hinblick auf das Thema Big Data und der damit verbundenen Verarbeitung großer Datenmengen in der Amazon Cloud für die Amazon Web Services von großem Nutzen sein wird. Nach dem Motto: “Bigger is Better” bzw. “Data without Limits”.


Bildquelle: http://www.search-internetmarketing.com/, http://www.techweekeurope.co.uk