Categories
News

HP erweitert sein Converged Cloud Portfolio um heterogene IT-Landschaften und hybride Cloud-Umgebungen

Nach dem Einstieg in das Big Data Geschäft hat HP auf seiner Discover 2012 ebenfalls Neuigkeiten rund um sein HP Converged Cloud Portfolio angekündigt. Dazu gehören neue Funktionen am HP CloudSystem, durch die Kunden nun weitere Möglichkeiten zum Cloud Bursting und mehr Flexibilität im Betrieb ihrer Managed-, Private- oder Public-Cloud-Umgebungen erhalten. Die HP Cloud Planning Services sollen Kunden dabei helfen, den Bedarf und die Anforderungen an Cloud-Lösungen zu identifizieren sowie die Implementierung zu beschleunigen. Die neuen Angebote sollen zudem die Leistungsfähigkeit der Cloud über die gesamte Infrastruktur sowie alle Anwendungen und Informationen hinweg steigern.

HP erweitert sein Converged Cloud Portfolio um heterogene IT-Landschaften und hybride Cloud-Umgebungen

Cloud Bursting Möglichkeiten steigern Flexibilität von hybriden Cloud Umgebungen

Ein großes Versprechen von Cloud Computing lautet, dass Unternehmen ihre IT-Umgebung bei Bedarf mittels Bursting um externe Cloud-Ressourcen erweitern können. Mit dem HP CloudSystem bietet HP nun ein Portal, mit dem Unternehmen zusätzliche IT-Ressourcen von HP Cloud Services und Amazon Web Services sowie aus der schon bestehenden Bursting-Partnerschaft mit Savvis beziehen können. Unternehmen erhalten damit zusätzliche Flexibilität in der Dienstleisterauswahl und behalten volle Kontrolle und Übersicht über den Ressourceneinsatz. Die Kosten für das Bursting richten sich danach, wie lange und in welchem Umfang der Service genutzt wird.

HP CloudSystem Matrix und HP Cloud Service Automation

Die HP CloudSystem Matrix ist nun auch als alleinstehende Software-Lösung verfügbar und unterstützt Server-Umgebungen von HP und Drittanbietern. Die Lösung setzt als Virtualisierungs-Software VMware vSphere oder Windows Server Hyper-V voraus. Unternehmen können die Software selbst herunterladen, installieren und damit Infrastructure-as-a-Service innerhalb eines Tages einrichten. Die Lösung umfasst neben den Kernfunktionen von CloudSystem Matrix einen Cloud-Service-Designer, ein Self-Service-Portal für IT sowie Werkzeuge für die automatisierte Bereitstellung von Ressourcen und Kapazitätsplanung.

Die neue Version 3.0 von HP Cloud Service Automation soll die Flexibilität erhöhen und die Kosten für Dienstleister reduzieren, die die Cloud als Plattform-as-a-Service oder Software-as-a-Service anbieten. Die automatisierte Lösung für Service Lifecycle Management von Cloud-Anwendungen umfasst einen grafischen Service-Designer und ein Self-Service-Portal für Geschäftskunden. Die offene, erweiterbare Architektur ermöglicht Kunden eine umfassende, einheitliche Verwaltung für Private, Public und Managed Clouds wie auch für traditionelle IT. HP Cloud Service Automation 3.0 ist erhältlich als Teil von HP CloudSystem Enterprise sowie als alleinstehende Lösung.

Cloud-Implementierung mit Hilfe eines individuellen Support

HP Cloud Planning Services helfen bei der Planung von konvergenten Cloud-Lösungen. Die Services beinhalten folgende Module:

  • Der HP Converged Cloud Workshop hilft Kunden bei der Auswahl des richtigen Cloud-Modells. Er umfasst Beratungsleistungen für die Konzeption von Converged-Cloud-Umgebungen, die Entwicklung der Architektur und den Aufbau der Infrastruktur. Der Workshop beschäftigt sich auch mit den nötigen Anpassungen der Anwendungslandschaft, der Finanzierung, der Einführung von Governance-Regeln und Fragen der Sicherheit. Der ein- bis zweitägige Workshop ist eine Weiterentwicklung des HP Cloud Discovery Workshops.
  • Der HP Cloud Future Definition Service ermöglicht es Kunden, künftige IT-Betriebsmodelle zu veranschaulichen. Dabei werden der Soll-Zustand, die Architektur und das künftige Modell für die Bereitstellung von IT-Services über Private, Public und Hybride Clouds definiert. Mithilfe des HP Cloud Capability Planning Tools unterstützt HP Kunden außerdem dabei, den nötigen Aufwand einzuschätzen und die nächsten Schritte zu priorisieren.
  • Mit der HP Cloud Gap Analysis reduzieren Unternehmen das Risikopotenzial bei der Einführung von Cloud Computing. Hierzu wird der Ist- mit dem Soll-Zustand anhand von Branchen-Benchmarks verglichen. HP stellt außerdem einen umfassenden Projektplan bereit, der Abhängigkeiten von Einzelschritten aufzeigt und einzuschätzen hilft, inwieweit Menschen, Prozesse und Technologien auf einen reibungslosen Übergang in die Cloud vorbereitet sind.
  • Mit dem HP Cloud Business Case werden die finanziellen Aspekte von Cloud-Implementierungen analysiert und Kalkulationen für Service-Anbieter von Private Clouds erstellt. So werden die Kostenplanung und Investitionsfreigaben beschleunigt sowie wichtige Entscheider frühzeitig in die Planungen einbezogen. Zusätzlich arbeitet HP mit Anbietern von Public Clouds zusammen und hilft ihnen bei der Entwicklung ihres Geschäftsplans. So können sie ihre Marketing-Strategie und Investitionsplanung für neue Public-Cloud-Angebote aufstellen.

Verfügbarkeit der Ankündigungen

Die erweiterte Bursting-Fähigkeit von HP CloudSystem und die Software HP CloudSystem Matrix werden weltweit ab Juni, CloudSystem Enterprise und Cloud Service Automation Software 3.0 ab Juli erhältlich sein. Die neue Version von CloudSystem Service Provider erscheint im September.

Die HP Cloud Planning Services sind bereits durch HP Technology Consulting verfügbar. Die Preise richten sich je nach Standort und Implementierung.

Categories
News

AWS ermöglicht ab sofort API Zugriff auf die Abrechnungsdaten

Fast kein Tag, an dem bei den Amazon Web Services (AWS) nichts passiert. Der Innovationsgrad ist erschreckend hoch. Da lohnt sich ja fast ein eigener AWS Blog. 😉 Mit der neuesten Funktion bietet Amazon nun den programmatischen Zugriff via API auf die Abrechnungsdaten.

AWS ermöglicht ab sofort API Zugriff auf die Abrechnungsdaten

Dafür muss dem AWS Billing System zunächst der Schreibzugriff auf einen Amazon S3 Bucket (Ordner) gegeben werden. Anschließend muss der programmatische Zugriff hier freigeschaltet werden.

Ist die Einrichtung erfolgt, legt Amazon mehrmals täglich eine Rechnung mit den voraussichtlichen Kosten in den angegeben S3 Bucket ab, wo diese heruntergeladen und weiterverarbeitet werden können. Am Ende einer jeden Abrechnungsperiode wird dort zudem die endgültige Rechnung bereitgestellt.

Folgende Parameter können aus den Abrechnungsdaten abgefragt werden. Detaillierte Informationen stehen hier:

  • Invoice ID
  • Payer Account Name and ID
  • Linked Account Name and ID (for Consolidated Billing)
  • Record Type
  • Record ID
  • Billing Period Start and End Dates
  • Invoice Date
  • Taxation Address
  • Payer Purchase Order Number
  • Product Code
  • Product Name
  • Seller of Record
  • Usage Type
  • Operation
  • Rate ID
  • Item Description
  • Usage Start and Usage End Date and Time
  • Usage Quantity
  • Blended Rate (for Consolidated Billing)
  • Currency Code
  • Cost Before Tax
  • Credits
  • Tax Amount
  • Tax Type
  • Total Cost

Die meisten der oben genannten Parameter ergeben nur im Zusammenhang mit dem Consolidated Billing einen Sinn. Kurzum kann ein AWS Kunde damit mehrere AWS Accounts unter einer einzigen Rechnung zusammenfassen.

Die erzeugten Dokumente können in einem beliebigen S3 Bucket gespeichert werden. Man sollte sich jedoch bewusst machen, dass man als Kunde selbst für die dadurch entstehenden Kosten des genutzten Speicherplatz zahlt. Nach der Weiterverarbeitung können diese Daten aber natürlich wieder gelöscht werden.

Categories
News

Kommt aus euren Schubladen! Neue User Group CloudHafen.org für Cloud, Big Data und Technologien in Hamburg formiert.

User Groups sind eine tolle Gelegenheit coole Leute zu treffen und sich untereinander auf Augenhöhe zu einem bestimmten Themengebiet auszutauschen. Deutschland zählt eine Vielzahl an unterschiedlichen User Groups zu verschiedenen Themen, die sich mehr oder weniger regelmäßig treffen, um sich über ihre speziellen Bereich auszutauschen. Und genau hier liegt das Problem. Die meisten User Groups agieren in ihrem Mikrokosmos. Ich habe es sogar schon persönlich erlebt, dass Leute die sonst zu einer User Group gehören, an einem Treffen nicht teilgenommen haben, da außer der Reihe mal über eine Integrationsmöglichkeit einer Technologie eines bei ihnen nicht so beliebten Anbieters gesprochen wurde. Interdisziplinarität: Fehlanzeige! Verrückt oder?

Kommt aus euren Schubladen! Neue User Group CloudHafen.org für Cloud, Big Data und Technologien in Hamburg formiert.

Eine kürzlich neu formierte User Group in Hamburg möchte mit diesem beliebten Schubladendenken aufhören. Der CloudHafen ist ein Zusammenschluss bestehender Hamburger User Groups, darunter die Amazon Web Services User Group, die Windows Azure User Group, der Big Data Roundtable sowie die Google Technology User Group. Gemeinsam verfolgt die “Uber Group” die Themen Cloud Computing, Big Data, Future Trends, Web, Technologien und die Forschung.

Um den Bereich Forschung voranzutreiben, wurde bereits ein erstes Projekt initiiert. Dabei geht es um das Thema “noSQL in der Cloud”, genauer um MongoDB und Amazon DynamoDB. Der Hintergrund des Projekts ist ein Vergleich, um u.a. die Performance für unterschiedliche Use Cases zu bestimmen und etwaige Einsatzmöglichkeiten aufzuzeigen.

Alle weiteren Informationen zu künftigen Treffen der User Group gibt es unter http://cloudhafen.org.

Categories
Kommentar

Die Heuchelei der Cloud Kritiker

Ich lese immer wieder mit Genuss die Kommentare der Cloud Kritiker auf unseren einschlägigen deutschen IT-Seiten. Da wird über die Cloud hergezogen und geschimpft, dass sie unsicher sei und der Datenschutz ja nicht vereinbar wäre, da eh alle Daten in die USA wandern. Und das die Daten doch bei einem selbst bleiben werden statt in die Hände der bösen Cloud Anbieter zu fallen. Ob das nun Heuchelei oder einfach nur pure Unwissenheit ist, schwierig zu sagen. Ich frage mich nur jedesmal ob diese Leute alle in einem faradayschen Käfig, ohne Internetverbindung, Smartphone und völlig abgeschottet von der Außenwelt sitzen? Eine Internetverbindung scheint zumindest vorhanden, sonst würden sie nicht ihre unqualifizierten Kommentare posten.

Ich habe dazu mal zwei Beispiele herausgesucht, die den ungefähren Wissensstand der Cloud Kritiker zeigen.

Wolke ist viel zu unsicher, erst recht in den USA
Es gibt keine wirkliche Sicherheit für diese Wolken. Jederzeit können
die Server gehackt werden oder der Anbieter selbst nimmt es nicht
genau genug mit der Datensicherheit und einem umfassenden
Datenschutz.

Das gilt erst recht, wenn diese Wolke in den USA liegt.
In diesem Land gibt es keinerlei Datenschutz! Zusätzlich kann der
Staat aufgrund seiner Gesetze die Daten dort jederzeit durchleuchten.

Dafür sind mir meine Daten zu wichtig und gehen diese Amerikaner
nichts an!

Wer in der Cloud einfach so Daten ablegt,
dem ist sowieso nicht mehr zu helfen. Das Ding mag zwar sicher sein, in dem Sinne, daß ich mich anmelden muß, um auf meine Daten zugreifen zu können. Aber es gibt immer einen Admin, und der Admin kann die Daten auslesen, egal was ist.

Und davon gibt es noch viele viele mehr…

Das man die Nutzung der Cloud kritisch betrachten sollte steht außer Frage, aber man muss objektiv bleiben und dabei mal die “German Angst” ablegen, denn jeder steckt tiefer in der Cloud als er denkt. Und das aus gutem Grund!

Ihr lieben Cloud Kritiker, nutzt ihr denn kein Android, Windows oder iPhone Smartphone? Seid ihr nicht in Social Networks unterwegs? Und damit meine ich nicht nur Facebook oder Google+. Spielt ihr nicht mit Services wie Pinterest, Foursquare, Airbnb oder Mobypicture rum? Achso, und ihr habt bestimmt auch kein iPad und nutzt zufällig iCloud?

Warum ich diese Fragen stelle? Ganz einfach, die meisten Anwendungen die ihr, liebe Cloud Heuchler, heutzutage nutzt, und ich gehe zu 100% davon aus, dass ihr im Internet oder mit mobilen Apps unterwegs seid, speichern ihre Daten auf Cloud Infrastrukturen, vorzugsweise auf den Amazon Web Services oder Windows Azure. Und ja, auch Apple macht das alles nicht alleine. iCloud setzt nehmen eigenen Ressourcen auf Amazon und Microsoft, unglaublich, oder?

Wenn ihr also eine Wohnung über Airbnb anmietet, wo werden dann eure Daten gespeichert? Richtig, auf den Amazon Web Services. Wenn ihr über Foursquare eincheckt, wo liegen dann eure Daten? Richtig, auf den Amazon Web Services. Wenn ihr auf Facebook eine Spiele-App nutzt, wo werden die Daten abgelegt? Richtig, auf den Amazon Web Services. Das kann ich Seitenweise so fortführen…

Was ich euch, liebe Cloud Kritiker, damit nur sagen möchte, ihr nutzt die Cloud. Ob ihr es glauben wollt oder nicht. Sobald ihr in irgendeiner Form online seit oder mit einer mobilen App, egal welches Betriebssystem, rumspielt, befindet ihr euch in der Cloud. 90% aller Anwendungen speichern ihre Daten in der Cloud eines Anbieters, sei es Amazon, Microsoft oder Google, damit ihr eure Daten immer aktuell und zu jederzeit an jedem Ort dabei habt.

Bevor ihr beim nächsten Mal also wieder mit unqualifizierten Kommentaren über die Cloud schimpft, überlegt bitte, welchen Service ihr an diesem Tag bereits genutzt habt und wo sich eure Daten tatsächlich befinden könnten.

Sorry, aber das musste mal gesagt werden ihr Cloud Heuchler!


Bildquelle: http://www.politplatschquatsch.com

Categories
News

Zendesk und Panorama9 integrieren zu einem gemeinsamen Cloud-basierten IT-Helpdesk

Cloud Lösungen zeigen IT-Verantwortlichen Alternativen auf, die sie dazu bewegen werden sich von ihren klassischen on-Premise Management Tools zu verabschieden und auf Browser-basierte Anwendungen zu setzen. Diese Entwicklung wird auch den IT-Helpdesk erreichen. Panorama9 und Zendesk haben diesen Trend aufgenommen und ihre jeweiligen Lösungen miteinander verschmolzen.

Zendesk und Panorama9 integrieren zu einem gemeinsamen Cloud-basierten IT-Helpdesk

Den Helpdesk Anbieter Zendesk werden die meisten kennen. Panorama9, dänischer Anbieter einer Cloud-basierten IT-Management-Plattform, ist eher unbekannt, hat neben Kunden wie IKEA (Schweden) und Orkla (Norwegen), jedoch viele zahlreiche große Kunden.

Panorama9 und Zendesk wurden so miteinander integriert, dass aus Panorama9 analysierten Problemen automatisch ein Zendesk Ticket erstellt wird. Damit können IT-Abteilungen die Aufgaben nun dem am besten geeigneten Mitarbeiter zuweisen und den Status des Tickets vom Auftreten bis zur Lösung verfolgen. Jedes Zendesk Ticket, dass mit Panorama9 erstellt wurde enthält detaillierte Informationen über das Problem inkl. Links zu den entsprechenden Stellen im Panorama9 Dashboard. Das Ticket wird automatisch aktualisiert, sobald Panorama9 eine Änderungen bzgl. des Problems erkennt.

Das Panorama9 Dashboard gibt der IT-Abteilung einen Überblick zu allen Bereichen der IT-Infrastruktur, inkl. Echtzeit-Tracking, Warnungen bzgl. der Ressourcen, Verfügbarkeit, Sicherheitslücken, Probleme bei der Compliance und weiteren Funktionen.

Kunden, die bereits über mindestens einen aktiven Panorama9 “Small” Account verfügen, können die Zendesk Integration kostenlos nutzen. Neue Nutzer erhalten die Gelegenheit den Service zunächst für 30 Tage zu testen, bevor sie sich endgültig entscheiden.


Bildquelle: http://techrepublic.com

Categories
Events

Event-Tipp: Fabasoft Cloud Developer Conference – Summer 2012

Vom 20. – 22. Juni 2012 findet die Fabasoft Cloud Developer Conference 2012 Summer in Linz, Österreich statt. Als Treffpunkt von Software-Entwicklern aus aller Welt zu allen Themen rund um die Entwicklung und Vermarktung von Cloud-basierten Anwendungen im Fabasoft Eco-System, zeigen Fabasoft Entwickler wie in kurzer Zeit Unternehmensanwendungen erstellt werden können.

Die Themen der dreitägigen Konferenz reichen von der Entwicklung von Cloud Apps, Mobile Apps für Android bzw. iOS sowie Unternehmensportalen und Websites bis hin zu Marketingkonzepten und Vertriebsmodellen für moderne Cloud-basierte Softwarewarelösungen.

Am Preconference Day (20. Juni 2012) wird neben dem Grundlagen-Workshop für Einsteiger erstmals auch ein Intensiv-Training für fortgeschrittene App Entwickler angeboten.

Die Main Conference (21.-22. Juni 2012) besteht aus fünf parallelen Tracks mit folgenden Schwerpunkten:

  • Cloud App Entwicklung: Tipps zu jQuery-Controls, App-Performance und Cloud-Schnittstellen.
  • Mobile App Entwicklung: Alles rund um iOS, Android und Webservices im Kontext von Business Apps.
  • Web Portale: Informationen zu barrierefreien Unternehmenswebsites für sämtliche Devices, Online-Marketing und Website-Suche.
  • Private und Hybrid Cloud: Neue Möglichkeiten für Geschäftsprozesse im eigenen Rechenzentrum und der Fabasoft Cloud. In der Privatwirtschaft als auch im E-Government.
  • B2B-Collaboration: Wofür steht Daten-Sicherheit? Was bedeutet es Daten in einer bestimmten geografischen Region zu speichern?

Agenda

Alle weiteren Informationen und die kostenlose Registrierung gibt es unter http://www.foliocloud.com/cdc.html.

Categories
News

HP steigt in den Big Data Markt ein

Im Rahmen seiner HP Discover in Las Vegas stellt HP neue Lösungen zur Information Optimization vor. Diese basieren auf den Technologien Autonomy, Vertica und der HP Converged Infrastructure und umfassen Services von HP Information Management & Analytics. Unternehmen sollen damit ihre stetig wachsenden Datenmengen verwalten, verstehen und nutzbar machen. Die Lösungen beziehen strukturierte, unstrukturierte und semi-strukturierte Daten ein, egal ob sie aus betrieblichen Abläufen, Anwendungen oder von Sensoren stammen. So können beispielsweise auch Statements auf Internet-Plattformen wie Twitter und YouTube, oder die von Sensoren erfassten Pfade, die Kunden in Geschäften zurücklegen, für Marktforschungszwecke ausgewertet werden.

So soll bspw. das HP AppSystem for Apache Hadoop es ermöglichen, Hadoop-Umgebungen schneller einzurichten und ihre Leistungsfähigkeit bei der Speicherung, Verwaltung und Verarbeitung der riesigen Datenmengen zu steigern. Mit Vertica 6 sollen Anwender in die Lage versetzt werden auf sämtliche Informationen zuzugreifen, diese zu analysieren und zu verwalten – unabhängig von ihrer Art, dem Speicherort oder dem verwendeten Zugriff. Die Integration der Datenanalyse-Plattform Autonomy Intelligent Operating Layer (IDOL) 10 in Hadoop-Nodes soll zudem das Verständnis der Inhalte durch Kategorisierungen, Clustering und Verknüpfungen steigern.

Big Data in Hadoop-Umgebungen besser nutzen

Mit HP AppSystem for Hadoop bietet HP eine Appliance für Hadoop-Umgebungen. Diese ist voraussichtlich ab dem vierten Quartal 2012 verfügbar und vereint die HP Converged Infrastructure, ein übergreifendes Management mit der Software HP Insight Cluster Manager sowie eine weitreichende Integration mit Vertica 6. Unternehmen nutzen Hadoop zunehmend für die Speicherung und Verwaltung von Petabytes an Informationen. Mit der Appliance von HP können sie Hadoop-Infrastrukturen zunächst in Testumgebungen aufbauen und später einfach in den Produktivbetrieb übernehmen. Dies soll die Implementierung von Hadoop vereinfachen und beschleunigen. Als erster Anbieter bietet HP zudem Referenzarchitekturen, Werkzeuge und Whitepaper für die wichtigsten Hadoop-Lösungen Cloudera, Hotronworks und MapR. Darüber hinaus erwartet das Unternehmen, das mit dem HP AppSystem die Qualität und Geschwindigkeit von Analyseprozessen in Hadoop durch die Integration von Vertica 6 verbessert wird. So war im Rahmen des standardisierten Tests Apache Hadoop Terasort Benchmark die HP-Lösung in der Lage, 10 Terabyte in rund 1,5 Stunden zu verarbeiten. Sie war damit 3,8 respektive 2,6 Mal schneller als vergleichbare Lösungen von Oracle und SGI. Durch Technologien zur 3D-Überwachung erkennt die Appliance Engpässe in den Abläufen und identifiziert das ursächliche Problem in Echtzeit. Dadurch sollen Administratoren Fehler schneller beheben und die Leistungsfähigkeit des Systems sofort wiederherstellen.

Weiterhin hat HP neue Services entwickelt, um Unternehmen auf den Umgang mit Big Data vorzubereiten: den HP Big Data Strategy Workshop und den HP Roadmap Service for Hadoop. Im HP Big Data Strategy Workshop vermittelt HP Unternehmen ein umfassendes Verständnis der Herausforderungen im Umgang mit Big Data und der bestehenden Lösungen. So können Unternehmen Risiken besser einschätzen. Zudem haben sie eine bessere Grundlage für die Entscheidung, wie sie aus der bestehenden Unternehmens-IT und den Geschäftszielen kritische Erfolgskriterien für die Einführung von Big Data ableiten und welche Methoden sie dabei verwenden können. Der HP Roadmap Service for Hadoop wiederum liefert das Wissen, um eine Hadoop-Umgebung zu planen und zu dimensionieren. Mithilfe von Best Practices, Erfahrungen und organisatorischen Überlegungen wird eine Roadmap erstellt, die eine erfolgreiche Planung, Implementierung und Unterstützung von Hadoop ermöglicht. Darüber hinaus unterstützen die HP Always On Support Services die Appliance HP AppSystem for Apache Hadoop sowie die HP-Komponenten der Referenzarchitekturen.

Vertica 6: Alle Informationen verstehen – an jedem Ort und wie es gerade erforderlich ist

Die Version 6 der HP Vertica Analytics Platform versetzt Unternehmen in die Lage, auf jede Information zuzugreifen, sie zu analysieren und zu verwalten. Die Daten können dort gespeichert werden, wo es aus betrieblicher Sicht am sinnvollsten ist, und dennoch in die Vertica-Plattform integriert werden. Auch der Zugriff kann je nach Bedarf über verschiedene Schnittstellen wie Standard Structured Query Language (SQL), Business Intelligence Anwendungen oder Analytics-Programmiersprachen wie R erfolgen. Die Architektur Vertica FlexStore bietet einen flexiblen Rahmen für Big Data Analytics. Dazu gehört die Integration oder Verbindung mit Autonomy und Hadoop-Technologie oder jeder anderen Quelle an strukturierten, unstrukturierten oder semi-strukturierten Daten. Das Framework für Distributed Computing wird erweitert um eine native Funktion zur parallelen Ausführung von R-Anwendungen in Vertica. Die neue Version unterstützt Cloud- und SaaS-Implementierungen sowie gemischte Arbeitsumgebungen. Damit ist Vertica die derzeit umfassendste Plattform für Big Data Analytics.

Autonomy IDOL 10 macht Big Data cleverer

Mit Autonomy IDOL verfügen Unternehmen über eine Analytics-Plattform, die bislang isolierte Datensilos zusammenführt. Über 400 Unternehmen nutzen Autonomy IDOL als OEM-Lösung in ihren Produkten. Nun erweitert Autonomy die Einsatzmöglichkeiten durch die Einbindung in Hadoop-Umgebungen. Das Hadoop-File-System wird damit um über 500 Funktionen erweitert, um die Daten besser zu verstehen, zu kategorisieren, zu clustern und zu verknüpfen. Darüber hinaus unterstützt Autonomy IDOL 10 mehr als 1.000 Dateitypen und über 400 Connectors, um Informationen aus externen Quellen einzubinden. Ermöglicht wird dies durch die Integration von Autonomy IDOL 10 in HP AppSystem for Hadoop. So kann in jedem Node von HP AppSystem eine IDOL-Engine eingebunden werden.

Effektivität von Marketing-Investitionen mit Autonomy steigern

Mit Autonomy Optimost Clickstream Analytics erweitert HP seine Digital-Marketing-Plattform Autonomy Optimost. Die Lösung nutzt die Vertica Analytics Platform und Autonomy IDOL für die Erstellung von granularen Clickstream-Daten. So können die Marketing-Verantwortlichen die Informationen nach Bedarf aggregieren, kombinieren und analysieren. Sie erhalten eine einheitliche und konsistente Sicht auf Kundenbesuche, Kaufentscheidungen und Kundenbindung durch E-Commerce. Sie können diese Daten auch mit unstrukturierten Daten, dem Wissen von Personen und anderen externen Datenquellen kombinieren, um umfassende und verwertbare Erkenntnisse über das Interesse, Interaktionen und das Kaufverhalten der Kunden zu gewinnen.

Die Social Intelligence Services von HP ergänzen Autonomy Optimost um eine 360-Grad-Sicht auf Kundendaten im Netz oder im Unternehmen. Die Berater von HP haben auf der Grundlage von unterschiedlichen Anwendungsszenarien ein ganzheitliches Social Intelligence Framework entwickelt. Das Framework unterstützt Unternehmen dabei, die für sie relevanten digitalen Prozesse zu identifizieren und zu bewerten. Um die Umsetzung zu vereinfachen, zeigt HP in der HP Social Intelligence Reference Architecture auf, welche Komponenten benötigt werden und wie die Autonomy-Lösungen integriert werden müssen.

Services rund um Information Management & Analytics

Die HP Information Management & Analytics (IM&A) Services unterstützen Unternehmen bei Business Intelligence und Information Management, insbesondere in extrem großen und komplexen Informationsinfrastrukturen. HP bietet ein umfassendes Lösungs- und Service-Portfolio für Produkte von HP und seinen Partnern. Dazu gehören vorbereitende Beratungsleistungen für die Planung von Business-Intelligence- und Information-Management-Projekten, bei denen die Sicht auf Unternehmensinformationen sowie Geschäftsstrategien zusammengeführt werden. Hierbei werden beispielsweise funktionale Anforderungen und der Wert für geschäftliche Abläufe ermittelt, die Organisationsstruktur angepasst, Richtlinien für Information Governance vorbereitet, ein Business-Intelligence-Kompetenzzentrum geschaffen sowie geeignete Werkzeuge und Plattformen ausgewählt. Die IM&A-Services helfen Unternehmen dabei, Prozesse, Organisationen und technische Architekturen zu entwickeln, um Informations-Silos aufzubrechen und eine umfassende Umgebung zu schaffen. Auf dieser Grundlage werden Informationen zentral erfasst, verwaltet und bereitgestellt. Dies steigert die Agilität über sämtliche Initiativen hinweg und ermöglicht eine einheitliche, konsistente Sicht auf das Geschäft sowohl intern wie extern.

Categories
News

Hey Fraunhofer, das ULD bestätigt hohe Sicherheit des TeamDrive Cloud Storage

Wie wir uns erinnern, hat das Fraunhofer-Institut für sichere Informationstechnologie die Sicherheit diverser Cloud Storage Services, darunter die Lösung vom deutschen Anbieter TeamDrive, in Frage gestellt. Das Brisante daran ist, dass TeamDrive vom Unabhängigen Landeszentrum für Datenschutz (ULD), das dem bekannten Datenschützer Thilo Weichert unterstellt ist, als sicher zertifiziert wurde. Neben einer offiziellen Stellungnahme von TeamDrive Geschäftsführer Volker Oboda hatte sich ebenfalls CloudSafe CEO Roberto Valerio via Kommentar zu den Vorwürfen von Fraunhofer geäußert. Beide vertreten die Meinung, dass Fraunhofer diese Studie nur dazu nutzen wird, um demnächst einen eigenen Cloud Storage auf den Markt zu bringen, was ebenfalls mein erster Gedanke war, als ich von der Studie gehört hatte.

In einer heutigen Stellungnahme erklären das ULD sowie die technischen und rechtlichen Gutachter, dass an der Zertifizierung zum Datenschutzgütesiegel festgehalten wird. TeamDrive erfüllt somit weiterhin die hohen Sicherheitsanforderungen, die zur Erteilung des Datenschutzgütesiegel erforderlich sind. Das ULD und die Gutachter begrüßen die ausführliche Studie von Fraunhofer SIT. Sie gibt wertvolle Hinweise zu Schwachpunkten von Cloud-Diensten.

Bezüglich des zertifizierten Produkts “TeamDrive 2.4” weisen die Gutachter Rechtsanwalt Stefan Hansen-Oest und der IT-Sachverständige, Andreas Bethke die Kritikpunkte, die zur Abwertung von TeamDrive geführt haben, zurück. In Ihrer Stellungnahme erläutern sie, dass die in TeamDrive verwendete Transportverschlüsselung eine starke Kombination aus bekannten, sicheren, symmetrischen und asymmetrischen Verschlüsselungsverfahren ist.

„Das „Kerckhoffs’sche Prinzip“ hat seine Berechtigung, sofern ein Anbieter die Sicherheit seines Systems nur mit der Geheimhaltung der „Verschlüsselungsmethode“ und nicht nur auf die Geheimhaltung des Schlüssels begründet. Eine Verschlüsselung wird aber nicht dadurch unsicher, dass der Verschlüsselungsalgorithmus nur einer begrenzten Anzahl von Personen wie z.B. Sachverstän digen oder Zertifizierungsstellen zugänglich gemacht wird. Entscheidend ist, dass der Verschlüsselungsalgorithmus als sicher bewertet werden kann. Und das war im Hinblick auf TeamDrive der Fall.“, so Rechtsanwalt Hansen-Oest.

Nach Auffassung der Gutachter hat das Fraunhofer Institut TeamDrive unberechtigt falsch bewertet. In der Fraunhofer Studie wurden die Serverlösungen von TeamDrive für Privat Clouds oder auf eigenen Server vollkommen verschwiegen. Mit den TeamDrive Enterprise Hosting Servern haben Unternehmen die volle Kontrolle über alle Daten und deren Sicherheit.

TeamDrive bleibt damit die einzige Lösung, die Storage in der Cloud in Zusammenhang mit dem deutschen Datenschutzgütesiegel anbietet.

Categories
News

Auf Wolke 7: SAP und die Amazon Web Services bauen ihre Partnerschaft weiter aus

Da scheinen sich zwei (Giganten) gesucht und gefunden zu haben. Nachdem Amazon jüngst die Zertifizierung für SAP Business-All-In-One erhalten hat und SAP seine Mobile Device Management Lösung Afaria ebenfalls in der Amazon Cloud anbietet, kündigt AWS nun weitere strategische Kooperationen an.

Zunächst wird Amazon weitere von SAP zertifizierte Lösungen mit in die AWS Cloud aufnehmen. Dazu gehören “SAP Business All-in-One für Linux” und “SAP Business All-in-One für Microsoft Windows”. Darüber hinaus wird die Zertifizierung für die “SAP Rapid Deployment Lösung auf Windows Server 2008 R2” und “SAP Business Objects für Windows Server 2008 R2” erweitert.

Weiterhin hat der AWS Partner VMS, ein deutsches Beratungshaus, das aus einer Reihe von ehemaligen SAP Führungskräften besteht, eine SAP TCO Analyse veröffentlicht, die zeigt, dass die Nutzung von SAP auf den Amazon Web Services bis zu 69% der Infrastrukturkosten einsparen kann.

Für das Ausführen von SAP auf der Amazon Cloud hat VMS dabei einen CWI (Cloud Worthiness Index) von 59 errechnet. Der CWI wurde entwickelt, um den ökonomischen Wert der Cloud zu quantifizieren und basiert auf den Messungen von mehr als 2.600 SAP-Systemen durch VMS. Mehr über den CWI kann hier nachgelesen werden.

Zu guter Letzt kann nun neben SAP Afaria ebenfalls die SAP In-Memory Datenbank HANA auf den Amazon Web Services genutzt werden.


Bildquelle: http://fotocommunity.com

Categories
Services @de

Silvereye + Eucalyptus: Von 0 auf Cloud in 20 Minuten

Bei Graziano habe ich eine interessante Software gefunden, die er kürzlich getestet hat. Sie nennt sich Silvereye und hilft bei der schnellen Installation einer Eucalyptus Cloud. Nach Angaben von Graziano hat er 20 Minuten benötigt, bis er die Liste der verfügbaren EMIs auflisten konnte. Das hört sich nach einem Private Cloud Deployment Geschwindigkeitsrekord an.

Silvereye + Eucalyptus: Von 0 auf Cloud in 20 Minuten

Graziano nennt in diesem Zusammenhang mit Faststart ebenfalls eine weitere Software. Faststart passt mit 1GB zwar bequem auf einen USB-Stick, benötigt aber bereits ein vorinstalliertes CentOS. Silvereye hingegen erstellt aus einem ISO Image eine bootfähige CD die für eine frische Installation genutzt werden kann.

Silvereye ermöglicht die Installation des Eucalyptus Front-End, Eucalyptus Node Controller oder einer minimalen CentOS Installation ohne Eucalyptus. Dabei kann die Installation entweder in ein Rescue Image oder auf die lokale Platte erfolgen. Nach der Auswahl startet die gewöhnliche CentOS Installationsroutine.

Nach dem ersten Root Login schaltet sich Silvereye direkt ein und übernimmt die Konfiguration von Eucalyptus. Es folgen ein paar Fragen, bietet aber ebenfalls die Möglichkeit bspw. das Netzwerk selbst zu konfigurieren.

Weiterhin ist die physikalische Netzwerktopologie erforderlich, also IP-Adressen für die Server und die verfügbaren IP-Adressen für die Instanzen, der Netzmaske, Gateways und DNS Server.

Zu guter Letzt erstellt Silvereye ein lauffähiges Eucalyptus Machine Image (EMI) inkl. Kernel, Ramdisk und einem Image!

Für den Start des EMI ist nun noch der Eucalyptus Node Controller notwendig. Aber der scheint mit Silvereye ebenfalls relativ schnell aufgesetzt.