Categories
News

LG geht in den Mobile Cloud Storage Markt und veröffentlicht seine LG Cloud

LG Electronics will keinen Trend verpassen. Wie bereits Apple, Google und Microsoft haben auch die Südkoreaner damit begonnen, Cloud basierte Services für den Privatkundenmarkt zu veröffentlichen. Als erster Service wurde bereits am 1. Mai der hauseigene Cloud Storage Service LG Cloud in die Betaphase geschickt.

Bei dem LG Cloud Service handelt es sich zunächst um einen Cloud Storage, der den Zugriff auf Inhalte von Smartphones, Fernsehgeräten und Computer plattformübergreifend ermöglicht. Um den Service zu nutzen, benötigt der Anwender dazu native Anwendungen, die entweder über Google Play, LG SmartWorld oder direkt von der LG Cloud Webseite www.lgecloud.com heruntergeladen werden können. LG Cloud synchronisiert zudem automatisch sämtliche oder ausgewählte Inhalte von einem Smartphone zum PC oder LG Smart TV. Wodurch die multimedialen Inhalte unverzüglich angeschaut werden können.

LG Cloud steht zunächst für Google Android 2.2 und jünger, Windows XP, Windows 7 und LG Smart TVs mit Netcast 2.0 und jünger bereit. Weiterhin wird der Service zunächst in Nordamerika und Südkorea ausgerollt und später in weiteren Ländern zur Verfügung stehen.

Der Cloud Storage bietet 5GB kostenlosen Speicherplatz. Kunden, die bereits ein LG Smart TV oder LG Smartphone besitzen, oder solche, die ein LG Produkt erwerben, erhalten 6 Monate 50GB kostenlosen Speicherplatz. Die Preise für die Speichererweiterung stehen noch nicht fest.

LG möchte sich vom Mittbewerb abheben

LG betrachtet sein Angebot als mehr als nur einen gewöhnlichen Cloud Storage Service. Das Unternehmen möchte sein Produkt als speicher- und multimedia-orientieren Service vermarkten, da dieser ebenfalls über Echtzeit-Streaming verfügt. Dazu werden die Inhalte direkt über das Netz von einem Server übertragen. Der Nutzer benötigt dazu keine zusätzlichen Decoder auf dem lokalen Gerät, um die jeweiligen Dateien abzuspielen. Dazu werden die jeweiligen Inhalte durch das LG Cloud System vorab automatisch konvertiert und erst dann zum Client übertragen.

Categories
News

Studie zu Private Cloud, Storage und Virtualisierung bestätigt: Performance-Probleme und Ausfallzeiten haben Top-Priorität vor den Kosten

Performance-Engpässe und Ausfallzeiten bei Virtualisierungsprojekten bereiten IT-Verantwortlichen im Speicherumfeld die größten Sorgen. Noch im Vorjahr hatten die Kosten Top-Priorität. Das ist ein Ergebnis einer aktuellen Studie von DataCore Software, führender Anbieter für Storage-Hypervisor-Software, unter rund 300 befragten Unternehmen weltweit.

63 Prozent der Befragten gaben an, dass speicherseitige Systemausfälle und Performance-Verschlechterungen die Hauptprobleme bei der Realisierung von Virtualisierungsprojekten sind. Im Vorjahr lag dieser Wert noch bei 36 Prozent. 51 Prozent sind der Ansicht, dass steigende Storage-Kosten viele Virtualisierungsinitiativen ausbremsen. 2011 lag dieser Wert noch bei 66 Prozent.

Storage verschlingt einen erheblichen Teil des Virtualisierungsbudgets, die steigenden Ausgaben allein werden jedoch nicht mehr als Hauptproblem gesehen. Rund 44 Prozent der Befragten gaben an, dass die Speicherkosten mittlerweile mehr als ein Viertel ihres Gesamtbudgets ausmachen. Dabei können 37 Prozent der Unternehmen heute mehr Geld für den Speicher ausgeben, bei nur 13 Prozent wurde das Budget reduziert.

Weitere Ergebnisse der weltweiten Studie

  • 34 Prozent der Befragten geben zu, die Storage-Kosten bei der Umsetzung von Server- und/oder Desktopvirtualisierungsprojekten unterschätzt zu haben. Fast jeder Vierte (28 Prozent) hat die Speicherkosten bei der Bereitstellung einer Private Cloud unterbewertet.
  • Trotz steigender Ausgaben für Speicherlösungen konnten die Performanceprobleme bei Server- und Desktop-Virtualisierungsprojekten nicht eliminiert werden. So berichteten die Befragten von erheblichen Problemen bei Performance, Ausfallsicherheit und Business Continuity trotz eines höheren durchschnittlichen Storage-Budgets.
  • 32 Prozent konstatieren eine langsame Performance aufgrund der Speicherumgebung (gegenüber 26 Prozent im Jahr 2011), 32 Prozent verzeichnen Ausfallzeiten aufgrund von Speicherproblemen (2011 nur 9 Prozent) und 23 Prozent gaben an, dass die Sicherstellung der Business Continuity einer der schwierigeren Herausforderung ist.
  • Kapp 80 Prozent der befragten Unternehmen haben mittlerweile mehr als die Hälfte ihrer Server virtualisiert (2011: 64 Prozent), wohingegen weniger als 5 Prozent noch gar keine Server virtualisiert haben (2011: 9 Prozent).
  • Fast zwei Drittel (65 Prozent) können ihre Storage-Ressourcen noch immer nicht in einem logischen Storage-Pool (2011: 61 Prozent) verwalten.
  • Jeder zweite Befragte nutzt Virtualisierungssoftware, die heterogene Speichermedien nicht zentral managen kann.
  • In privaten Clouds setzen weniger als ein Drittel (32 Prozent) der Befragten Speichervirtualisierungstechnologien für private Cloud-Umgebungen ein.

Die Umfrage „2012 State of the Private Cloud“ zeigt zudem, dass die Virtualisierung in der Praxis angekommen ist und das speicherbezogene Performance und Verfügbarkeit die größten Kopfzerbrechen verursachen und inzwischen mit Bedenken bezüglich der Kosten einhergehen.

Die Umfrage wurde im März 2012 durchgeführt. 289 Unternehmen unterschiedlicher Größe nahmen weltweit an der Online-Befragung teil und beantworteten Fragen zu Storage, Virtualisierung und Private Clouds. Etwa 180 teilnehmende Unternehmen stammen aus Europa.
Der vollständige Bericht steht bereit unter: http://pages.datacore.com/StateofPrivClouds.html.

Categories
News

Amazon erweitert seinen Cloud Drive Speicher um Desktop Anwendung

Amazon, die vor fast sieben Jahren als einer der Ersten überhaupt einen Cloud Storage Service für Unternehmen auf dem Markt gebracht haben, gehört mit seinem Cloud Drive im Privatenkunden Segment zu den Letzten mit einem Angebot. In der vergangenen Woche am 3. Mai folgte mit einer Desktop Anwendungen für Windows und Mac ein Update für den ein Jahr alten Cloud Storage.

Amazon erweitert seinen Cloud Drive Storage um Desktop Anwendung

Anstatt ständig auf die Webseite des Cloud Drive Service zu gehen, können Kunden nun über eine native Desktop Applikation für Windows und Mac auf ihre Daten in der Amazon Cloud zugreifen und die Daten des lokalen System darauf ablegen. Der neue Client unterstützt Windows Vista, Windows 7 und Mac OS 10.6 und jünger.

Cloud Drive wurde im Jahr 2011 veröffentlicht und bietet Amazon Kunden 5GB kostenlosen Speicherplatz für die gängigsten Dateitypen wie Videos, Photos, Dokumente und Musik im MP3 und ACC (Apple iTunes) Format. Der Zugriff erfolgte ausschließlich über den Webbrowser.

Wie von anderen Cloud Storage Services bekannt, können Nutzer den Speicherplatz erweitern. 20GB Speicherplatz können für 20 Dollar pro Jahr hinzugekauft werden. Darüber hinaus wird Musik, die über Amazon direkt gekauft wurde, nicht auf den den Speicherplatz angerechnet. Das bedeutet, dass bspw. trotz 5GB gekaufter MP3 Dateien weiterhin 5GB Speicherplatz zur Verfügung stehen, wenn dort bisher keine anderen Daten abgelegt wurden.

Anders als bekannte Cloud Storage Clients, ermöglicht Amazon Cloud Drive nicht die automatische Synchronisation mit Ordnern auf dem lokalen System oder das Teilen von Dateien mit anderen Cloud Drive Nutzern. Ein Missstand der neben weiteren fehlenden Möglichkeiten z.B. zur Kollaboration schnellstmöglich behoben werden sollte.

Categories
News

Casablanca: Microsoft schiebt C++ in die Cloud

Am 30. April haben die Microsoft DevLabs (Developer Division Labs) mit dem Codenamen “Casablanca” eine Reihe von neuen C++ Bibliotheken veröffentlicht. Damit sollen Entwickler einfacher auf RESTful Services zugreifen können, bzw. diese selbst implementieren. Das schreibt Microsoft Developer Division Corporate Vice President Soma Somasegar in seinem Blog.

Casablanca ist eine Microsoft Inkubation, um die Cloud basierte Client-Server Kommunikation in nativem Code zu unterstützen. Dabei wird eine modernes asynchrones C++ API Design verwendet, so die Microsoft DevLaps Webseite. Casablanca ermöglicht dazu den Zugriff auf REST Services aus nativem Code von Windows Vista, Windows 7 und der Windows 8 Consumer Preview, indem asynchrone C++ Bindings für HTTP, JSON und URIs zur Verfügung stehen.

Dafür bietet Microsoft eine Erweiterung für sein Visual Studio SDK, mit der Entwickler die entsprechende Unterstützung zum Schreiben von C++ HTTP Client Code in Windows 8 Apps und nativem REST Code für Azure erhalten.

Casablanca ist das Produkt aus Erfahrungen, die durch .NET, Node.js, Erlang und weiteren Einflüssen gesammelt wurden, um daraus eine Architektur zu bauen, mit der skalierbare und flexible Anwendungen entwickelt werden können, schreibt Somasegar.

C#, Visual Basic und F# Entwickler arbeiten bereits mit robusten und skalierbaren Netzwerkstacks. Node.js Entwickler können das Windows Azure Software Development Kit (SDK) und JavaScript nutzen, um skalierbare Anwendungen zu schreiben, so Somasegar. Jedoch fehlten für C++ Entwickler ähnliche Tools, die für die Nutzung und der Implementierung von RESTful Cloud Services in Verbindung mit modernen C++ Funktionen genutzt werden konnten.

Für Casablanca, wie auch bei anderen DevLaps Releases, steht noch nicht fest, ob es als ein offizielles Produkt oder Teil eines Produkts auf dem Markt erscheint. In erster Linie dient es dem Test und dem Entwickler Feedback.

Categories
News

CodeNow.com – Entwicklung und Test in Echtzeit via Webbrowser

Sich in neue APIs einzuarbeiten kann sehr zeitaufwändig und zum Teil sehr nervenaufreibend sein. Bevor die ersten Codezeilen geschrieben werden können, heißt es, sich in die Syntax einzuarbeiten und ggf. die einen oder Kniffe zu verstehen. Was für Programmiereinsteiger eine Herausforderung darstellt, kostet Profis ebenfalls mitunter viel Zeit. Hier will CodeNow.com helfen. Der Service ermöglicht die Evaluation von APIs im Webbrowser, ohne dafür viel Zeit aufzubringen und kann zudem als Code Repository arbeiten. Die Webseite befindet sich derzeit noch in der Private Beta, kann aber über eine Einladung bereits getestet werden.

CodeNow.com - Entwicklung und Test in Echtzeit via Webbrowser

CodeNow.com hilft also beim Test unterschiedlicher APIs, darunter von Services wie Dropbox, Twilio oder Facebook. Ergebnisse können entweder mit anderen geteilt oder für sich behalten werden.

Das Startup wurde vom ehemaligen Amazon Mitarbeiter Yash Kumar gegründet und ist das erste Unternehmen, welches vom Inkubator AngelPad in diesem Jahr veröffentlicht wird. Die Finanzierung von CodeNow.com soll durch die Anbieter erfolgen, die ihre APIs in einem Repository anbieten, auf welche die Nutzer dann darauf zugreifen können. Neben Facebook, Twilio und Dropbox stehen bereits weitere auf der Warteliste. CodeNow eigene Code Beispiele sollen zudem den Einstieg erleichtern.

Gründer Kumar setzt dabei auf seine Erfahrungen bei Amazon. CodeNow.com besteht daher aus einem System von virtuellen Maschinen, die auf den Amazon Web Services betrieben werden. Der entwickelte Code wird zudem in einer Sandbox ausgeführt, wodurch Entwickler ihre Anwendungen testen können, ohne dafür einen offiziellen CodeNow.com zu besitzen.

Für die Nutzung von CodeNow werden keine Konfigurationen, Software oder EC2 Instanzen benötigt. Es reicht lediglich ein Webbrowser.

Categories
News

Cloud Migration Service email-umzug.de gewinnt Hosting & Service Provider Award 2012

Die Karlsruher audriga GmbH hat auf dem Hosting & Service Provider Summit 2012 in Frankfurt den Hosting & Service Provider Award in der Kategorie „Application Services” gewonnen. Der Award zeichnet die innovativsten und erfolgreichsten Service-Angebote im Hosting-Geschäft aus. audriga wurde für den Cloud-Dienst www.email-umzug.de prämiert, mit dem Hosting-Provider ihren Neukunden den Umzug von E-Mail-Postfächern vereinfachen können.

Cloud Migration Service email-umzug.de gewinnt Hosting & Service Provider Award 2012

Die Auslagerung von Hosting-Dienstleistungen gilt als eines der spannendsten IT-Geschäftsmodelle der Zukunft. Allein für den deutschen Markt rechnet die Experton Group mit einem Umsatzwachstum von derzeit neun auf elf Milliarden Euro bis 2015. Aktuelle Trends in diesem Segment wurden nun in Frankfurt auf dem Hosting & Service Provider 2012 diskutiert, auf dem am 3. und 4. Mai die Managementebene von Hosting- und Service-Provider-Unternehmen, Betreiber von Rechenzentren, Telekommunikationsunternehmen sowie interne Dienstleister großer Unternehmen die Möglichkeit zum Austausch genutzt haben.

Erstmals wurde auf der Veranstaltung auch der Hosting & Service Provider Award verliehen. Eine sechsköpfige Jury aus Fachexperten hatte im Vorfeld aus allen Einreichungen 15 Nominierte in drei Kategorien hinsichtlich der Kriterien „Innovation“ und „Nutzen“ ausgewählt. In der Kategorie „Application Services” überzeugte der audriga E-Mail-Umzug und konnte sich im Rennen um die Auszeichnung für die innovativsten und erfolgreichsten Service-Angebote im Hosting-Geschäft gegen fünf Mittbewerber durchsetzen. audriga wurde für den Cloud-Dienst www.email-umzug.de prämiert, mit dem Hosting-Provider ihren Neukunden den Umzug von E-Mail-Postfächern und Groupware-Daten vereinfachen können.

E-Mail- und Groupware-Lösungen gehören zu den klassischen Hosting-Dienstleistungen. Derzeit setzen nach einer Studie der Firma Parallels 36 Prozent der Unternehmen mit zehn bis 49 Mitarbeitern interne E-Mail-Server ein, was bei dieser Unternehmensgröße eine teure und komplizierte Lösung ist. Mehr als die Hälfte dieser Firmen plant der Studie zufolge, in den kommenden drei Jahren einen Wechsel zu gehosteten E-Mail-Lösungen.

Dieser Wechsel ist gerade für kleine Firmen ohne eigene IT-Abteilung bisher nur schwer zu bewältigen, da die Übertragung der existierenden Daten zum neuen Anbieter komplex und zeitaufwändig ist. Der neue Cloud-Dienst www.email-umzug.de der Karlsruher audriga GmbH macht den Anbieterwechsel hingegen in wenigen Klicks möglich. E-Mail Postfächer und Groupware-Daten können ohne Softwareinstallation schnell und sicher über eine Webanwendung zwischen verschiedenen Anbietern umgezogen werden.

Besonders interessant ist der Dienst für Hoster und Systemhäuser, die häufiger mittelständische Kunden auf ihre Hosting-Infrastruktur migrieren. audriga bietet spezielle Kooperationsmodelle, mit denen der E-Mail-Umzug per White-Labeling oder über eine API in bestehende Systeme und Prozesse integriert werden kann. So können Neukunden des Hosters netcup seit Anfang April mit dem bequemen Dienst ihre bestehenden E-Mails auf einen netcup-Server umziehen.

Categories
News

Die Deutsche Telekom wird Mitglied im SaaS-EcoSystem

Vor dem Hintergrund seines neuen „Telekom Cloud Business Market Place“ sucht die Deutsche Telekom Erfahrungsaustausch mit Experten aus dem deutschen SaaS- und Cloud-Netzwerkes des Saas-EcoSystem e.V.

Zur Mitte des Jahres 2012 wird die Deutsche Telekom AG ihren neuen Cloud-Marktplatz, den „Business Market Place, eröffnen“. Im Zuge dessen wird sich das Unternehmen jetzt als neues Mitglied im SaaS-EcoSystem e.V engagieren. Der Dax-Konzern will bei der Weiterentwicklung seines Cloud-Marktplatzes von der Expertise der einzelnen Mitglieder des Cloud-Netzwerks profitieren sowie seinerseits Know-how beim Aufbau von Cloud-Konzepten beisteuern.Phil Zamani, SVP Cloud Services der Deutschen Telekom AG: „Als Forum für die Entwicklung bedarfsgerechter Lösungen, Konzepte und Berater im Umfeld von SaaS und Cloud stellt das SaaS-EcoSystem für uns eine ideale Plattform für den intensiven Erfahrungsaustausch rund um alle Cloud-spezifischen Themen dar.“

Die Bonner bauen ihren Marktplatz auf der Open Source Software OpenStack auf. Dieser wendet sich vor allem an den deutschen Mittelstand, der dort verschiedenste Cloud-Services zu Anwendungspaketen schnüren und on-demand nutzen kann.Frank Türling, Vorstand für Öffentlichkeitsarbeit des SaaS-EcoSystem: „Wir freuen uns über den Beitritt der Deutschen Telekom AG. Er zeigt auf beeindruckende Weise, welche Relevanz der SaaS-EcoSystem e.V. als das deutsche Expertennetzwerk rund um alle Themen für SaaS und Cloud mittlerweile gewonnen hat.“

Knapp zwei Jahre nach ihrer Gründung zählt die Expertenplattform nun bereits 27 Mitglieder aus den unterschiedlichsten Fachgebieten.

Categories
News

Amazon hilft mit CloudFormation beim Aufbau einer Virtual Private Cloud

Die Amazon Web Services ermöglichen nun den automatisierten Aufbau einer vollständigen Virtual Private Cloud (VPC) auf Basis eines einzelnen AWS CloudFormation Templates. Laut Jeff Barr, beschreibt das Template alle Eigenschaften, die notwendig sind, um den dafür notwendigen Ressourcenstack zu erstellen.

Amazon VPC kann bereits seit mehreren Jahren genutzt werden und erlaubt dem Nutzer den Aufbau eines für sich isolierten Bereichs auf der Amazon Cloud. Hier können Ressourcen in einem virtuellen Netzwerk ausgeführt werden und darauf mittels öffentlichen und privaten Subnetzen sowie VPNs zugegriffen werden.

Mit dem Einsatz von AWS CloudFormation müssen Anwender nicht die Reihenfolge der Provisionierung der jeweiligen AWS Services sowie deren Abhängigkeiten berücksichtigen. CloudFormation nutzt dazu Templates, die als in JSON (JavaScript Object Notation) formatierte Textdateien geschrieben werden. JSON basiert auf einer Teilmenge der Programmiersprache JavaScript und ist sowohl für Menschen als auch Maschinen lesbar.

Um Entwicklern und Systemadministratoren ein wenig unter die Arme zugreifen, hat Amazon zwei Beispiel Templates erstellt, um zu zeigen wie diese aufgebaut sind. Das erste Template erstellt eine Amazon VPC mit einer EC2 Instanz. Das zweite Template baut eine VPC inkl. einem Public und Private Subnetz sowie einem Elastic Load Balancer und einer EC2 Instanz auf.

Beide Templates können in Jeff Barrs Blogpost nachvollzogen werden.


Bildquelle: http://www.allmystery.de

Categories
News

Gartner nennt 5 Cloud Computing Trends die Einfluss auf die Technologie Strategie haben werden

Die Möglichkeiten die uns das Cloud Computing bietet, neue Ideen zu verwirklichen oder die Art wie wir in Zukunft arbeiten werden, sind beeindruckend. Jedoch ist die Einflusstiefe so immens, dass viele Unternehmen weiterhin verunsichert sind, wie sich das Thema weiter entwickeln wird. Aber auch Unternehmen, die sich bereits für die Cloud begeistern konnten, müssen in jedem Fall ständig auf ihre Strategie schauen und ggf. Anpassungen vornehmen.

In diesem Zusammenhang haben die Researcher aus dem Hause Gartner fünf Cloud Computing Trends identifiziert, die sich schnell etablieren werden und in den kommenden drei Jahren einen Wandel hervorrufen sollen. In ihrem Bericht “Five Trends in Cloud Computing that will affect its cloud strategy through 2015” beschreiben die Analysten fünf Themen, bei denen sie glauben, dass diese einen entscheidenen Einfluss auf die Cloud Computing Strategie haben werden.

Entscheidungsframework vs. Cloud Optimierung

Cloud Computing bringt mit z.T. geringeren Kosten, einer höheren Flexibilität und einer verhältnismäßig geringen Komplexität eine Menge Vorteile mit sich. Hinzu kommt der Zugriff auf Ressourcen die schnell einen Mehrwert bringen, während das eigene Risiko dabei klein gehalten wird. Dennoch müssen diese Vorteile mit den Herausforderungen und möglichen Bedrohungen gegeneinander abgewogen werden. Dazu gehören bspw. Sicherheitsthemen, ein Mangel an Transparenz, Bedenken hinsichtlich der Performance und Verfügbarkeit sowie Einschränkungen in Bezug auf die Lizenzierung und Herausforderungen bei der Integration.

Hybrid Cloud Computing

Eine Hybrid Cloud beschreibt die Kombination einer Public Cloud/ Virtual Private Cloud und der internen IT-Infrastruktur eines Unternehmens. Das Hybrid Cloud Konzept kann zu einem einheitlichen Modell werden, in dem eine einzige Cloud durch mehrere andere Cloud Plattformen gebildet wird, die wiederum je nach denen sich ändernden geschäftlichen Anforderungen genutzt werden können. Zudem müssen Richtlinien und Vorschriften dafür sorgen, dass sich Unternehmen und Organisationen für die Hybrid Cloud entscheiden können. Weiterhin müssen Unternehmen eine Strategie festlegen, wie sie die externe Cloud in ihre Umgebungen integrieren und die Komplexität vor den Nutzern verstecken.

Vereinfachte Cloud Nutzung durch Cloud Brokerage

Ein Cloud Services Brokerage bietet ein architektonisches-, business-, und IT-Betriebs-Modell, mit dem verschiedene Cloud Services bereitgestellt, verwaltet und adaptiert werden können. Und das sich innerhalb eines föderierten und konsistenten Bereitstellung-, Abrechnung-, Sicherheit-, Administration- und Support-Framework befindet. Das Ziel des Cloud Service Broker ist es, ein Proof of Concept für eine vertrauenswürdige Cloud-Management-Plattform zu präsentieren. Die Plattform soll damit das Bereitstellen von komplexen Cloud-Services für Unternehmenskunden erleichtern.

Gartner glaubt, dass die IT-Abteilungen strategische Partnerschaften aufbauen sollten und sich damit als eine Art lokaler Cloud-Service Agent für die jeweiligen Abteilungen zu positionieren, anstatt die Cloud Services einzeln auf Abteilungsebene zu koordinieren. Der Aufbau so einer Beziehung erhöht die Wahrscheinlichkeit, dass die Abteilungen sich auch in Zukunft für Beratung und Support an die IT wenden und diese nicht umgehen.

Cloud-zentriertes Design

Der einfache Wechsel einer Anwendung auf eine Cloud-basierte Lösung wird Unternehmen nicht den Mehrwert bieten, den sie sich davon versprechen. Zunächst sollten sie Möglichkeiten finden, um die Workloads der bestehenden Anwendungsinfrastruktur in die Cloud zu migrieren. Darüber hinaus sollte die Architektur einer Anwendung für die Cloud von Grund auf neu entwickelt und designed werden, um die besonderen Herausforderungen und den Nutzen der Cloud zu berücksichtigen. Dieser Ansatz kann vor allem dann Vorteile bieten, wenn ein Unternehmen einen sehr unterschiedlichen Ressourcenbedarf hat.

Gartner rät, dass Unternehmen weiterdenken sollten, als nur die Migration der Workloads vor Augen zu haben, um damit Cloud Anwendungen zu entwickeln, die das volle Potenzial der Cloud ausnutzen und damit “Weltklasse-Anwendungen” zu schaffen.

Zukünftige Rechenzentren und Betriebsmodelle

Unternehmen sollten damit beginnen, die Vorteile der Cloud in Betracht zu ziehen, wenn sie das Modell ihres Rechenzentrums neu definieren und schauen wie sie es in Zukunft betreiben wollen. Denn eines ist klar, Cloud Computing kann das Betriebsmodell eines Rechenzentrums erheblich verändern.

Gartner ist der Meinung, dass Unternehmen sich Gedanken über den Aufbau einer Cloud-Infrastruktur in ihrem zukünftigen Rechenzentrum machen sollten.


Bildquelle: GigaOM#

Categories
News

Cloudera und IBM kooperieren im Big Data Bereich

IBM und Hadoop Pionier Cloudera werden im zukunftsträchtigen Big Data Markt strategisch kooperieren. Für IBM handelt es sich eher um eine weitere Partnerschaft. Cloudera hingegen könnte das weiter beflügeln. Werden die Hadoop Profis damit sogar zum Top-Influencer für Big Data?

Cloudera ist die wichtigste Kraft hinter dem Apache Hadoop Projekt und verfügt mit seiner “Cloudera Distribution including Apache Hadoop” (CDH) über die am meisten eingesetzte Hadoop Distribution weltweit.

Das Interessante an dieser Kooperation ist, das IBM bereits über eine eigene Hadoop Distribution verfügt. Warum also diese zusätzliche Partnerschaft. Der wahrscheinlichste Grund ist die aktuelle Marktsituation, in der Clouderas CDH dominiert. Der eigentliche Gewinner dieser Partnerschaft ist jedoch Cloudera, für die sich mit einem so starken Partner wie IBM viele weitere Türen öffnen werden und der Kundenstamm demnächst rasant ansteigen wird.


Bildquelle: Wired