Categories
News

AWS ermöglicht ab sofort API Zugriff auf die Abrechnungsdaten

Fast kein Tag, an dem bei den Amazon Web Services (AWS) nichts passiert. Der Innovationsgrad ist erschreckend hoch. Da lohnt sich ja fast ein eigener AWS Blog. 😉 Mit der neuesten Funktion bietet Amazon nun den programmatischen Zugriff via API auf die Abrechnungsdaten.

AWS ermöglicht ab sofort API Zugriff auf die Abrechnungsdaten

Dafür muss dem AWS Billing System zunächst der Schreibzugriff auf einen Amazon S3 Bucket (Ordner) gegeben werden. Anschließend muss der programmatische Zugriff hier freigeschaltet werden.

Ist die Einrichtung erfolgt, legt Amazon mehrmals täglich eine Rechnung mit den voraussichtlichen Kosten in den angegeben S3 Bucket ab, wo diese heruntergeladen und weiterverarbeitet werden können. Am Ende einer jeden Abrechnungsperiode wird dort zudem die endgültige Rechnung bereitgestellt.

Folgende Parameter können aus den Abrechnungsdaten abgefragt werden. Detaillierte Informationen stehen hier:

  • Invoice ID
  • Payer Account Name and ID
  • Linked Account Name and ID (for Consolidated Billing)
  • Record Type
  • Record ID
  • Billing Period Start and End Dates
  • Invoice Date
  • Taxation Address
  • Payer Purchase Order Number
  • Product Code
  • Product Name
  • Seller of Record
  • Usage Type
  • Operation
  • Rate ID
  • Item Description
  • Usage Start and Usage End Date and Time
  • Usage Quantity
  • Blended Rate (for Consolidated Billing)
  • Currency Code
  • Cost Before Tax
  • Credits
  • Tax Amount
  • Tax Type
  • Total Cost

Die meisten der oben genannten Parameter ergeben nur im Zusammenhang mit dem Consolidated Billing einen Sinn. Kurzum kann ein AWS Kunde damit mehrere AWS Accounts unter einer einzigen Rechnung zusammenfassen.

Die erzeugten Dokumente können in einem beliebigen S3 Bucket gespeichert werden. Man sollte sich jedoch bewusst machen, dass man als Kunde selbst für die dadurch entstehenden Kosten des genutzten Speicherplatz zahlt. Nach der Weiterverarbeitung können diese Daten aber natürlich wieder gelöscht werden.

Categories
News

Kommt aus euren Schubladen! Neue User Group CloudHafen.org für Cloud, Big Data und Technologien in Hamburg formiert.

User Groups sind eine tolle Gelegenheit coole Leute zu treffen und sich untereinander auf Augenhöhe zu einem bestimmten Themengebiet auszutauschen. Deutschland zählt eine Vielzahl an unterschiedlichen User Groups zu verschiedenen Themen, die sich mehr oder weniger regelmäßig treffen, um sich über ihre speziellen Bereich auszutauschen. Und genau hier liegt das Problem. Die meisten User Groups agieren in ihrem Mikrokosmos. Ich habe es sogar schon persönlich erlebt, dass Leute die sonst zu einer User Group gehören, an einem Treffen nicht teilgenommen haben, da außer der Reihe mal über eine Integrationsmöglichkeit einer Technologie eines bei ihnen nicht so beliebten Anbieters gesprochen wurde. Interdisziplinarität: Fehlanzeige! Verrückt oder?

Kommt aus euren Schubladen! Neue User Group CloudHafen.org für Cloud, Big Data und Technologien in Hamburg formiert.

Eine kürzlich neu formierte User Group in Hamburg möchte mit diesem beliebten Schubladendenken aufhören. Der CloudHafen ist ein Zusammenschluss bestehender Hamburger User Groups, darunter die Amazon Web Services User Group, die Windows Azure User Group, der Big Data Roundtable sowie die Google Technology User Group. Gemeinsam verfolgt die “Uber Group” die Themen Cloud Computing, Big Data, Future Trends, Web, Technologien und die Forschung.

Um den Bereich Forschung voranzutreiben, wurde bereits ein erstes Projekt initiiert. Dabei geht es um das Thema “noSQL in der Cloud”, genauer um MongoDB und Amazon DynamoDB. Der Hintergrund des Projekts ist ein Vergleich, um u.a. die Performance für unterschiedliche Use Cases zu bestimmen und etwaige Einsatzmöglichkeiten aufzuzeigen.

Alle weiteren Informationen zu künftigen Treffen der User Group gibt es unter http://cloudhafen.org.

Categories
News

Zendesk und Panorama9 integrieren zu einem gemeinsamen Cloud-basierten IT-Helpdesk

Cloud Lösungen zeigen IT-Verantwortlichen Alternativen auf, die sie dazu bewegen werden sich von ihren klassischen on-Premise Management Tools zu verabschieden und auf Browser-basierte Anwendungen zu setzen. Diese Entwicklung wird auch den IT-Helpdesk erreichen. Panorama9 und Zendesk haben diesen Trend aufgenommen und ihre jeweiligen Lösungen miteinander verschmolzen.

Zendesk und Panorama9 integrieren zu einem gemeinsamen Cloud-basierten IT-Helpdesk

Den Helpdesk Anbieter Zendesk werden die meisten kennen. Panorama9, dänischer Anbieter einer Cloud-basierten IT-Management-Plattform, ist eher unbekannt, hat neben Kunden wie IKEA (Schweden) und Orkla (Norwegen), jedoch viele zahlreiche große Kunden.

Panorama9 und Zendesk wurden so miteinander integriert, dass aus Panorama9 analysierten Problemen automatisch ein Zendesk Ticket erstellt wird. Damit können IT-Abteilungen die Aufgaben nun dem am besten geeigneten Mitarbeiter zuweisen und den Status des Tickets vom Auftreten bis zur Lösung verfolgen. Jedes Zendesk Ticket, dass mit Panorama9 erstellt wurde enthält detaillierte Informationen über das Problem inkl. Links zu den entsprechenden Stellen im Panorama9 Dashboard. Das Ticket wird automatisch aktualisiert, sobald Panorama9 eine Änderungen bzgl. des Problems erkennt.

Das Panorama9 Dashboard gibt der IT-Abteilung einen Überblick zu allen Bereichen der IT-Infrastruktur, inkl. Echtzeit-Tracking, Warnungen bzgl. der Ressourcen, Verfügbarkeit, Sicherheitslücken, Probleme bei der Compliance und weiteren Funktionen.

Kunden, die bereits über mindestens einen aktiven Panorama9 “Small” Account verfügen, können die Zendesk Integration kostenlos nutzen. Neue Nutzer erhalten die Gelegenheit den Service zunächst für 30 Tage zu testen, bevor sie sich endgültig entscheiden.


Bildquelle: http://techrepublic.com

Categories
News

HP steigt in den Big Data Markt ein

Im Rahmen seiner HP Discover in Las Vegas stellt HP neue Lösungen zur Information Optimization vor. Diese basieren auf den Technologien Autonomy, Vertica und der HP Converged Infrastructure und umfassen Services von HP Information Management & Analytics. Unternehmen sollen damit ihre stetig wachsenden Datenmengen verwalten, verstehen und nutzbar machen. Die Lösungen beziehen strukturierte, unstrukturierte und semi-strukturierte Daten ein, egal ob sie aus betrieblichen Abläufen, Anwendungen oder von Sensoren stammen. So können beispielsweise auch Statements auf Internet-Plattformen wie Twitter und YouTube, oder die von Sensoren erfassten Pfade, die Kunden in Geschäften zurücklegen, für Marktforschungszwecke ausgewertet werden.

So soll bspw. das HP AppSystem for Apache Hadoop es ermöglichen, Hadoop-Umgebungen schneller einzurichten und ihre Leistungsfähigkeit bei der Speicherung, Verwaltung und Verarbeitung der riesigen Datenmengen zu steigern. Mit Vertica 6 sollen Anwender in die Lage versetzt werden auf sämtliche Informationen zuzugreifen, diese zu analysieren und zu verwalten – unabhängig von ihrer Art, dem Speicherort oder dem verwendeten Zugriff. Die Integration der Datenanalyse-Plattform Autonomy Intelligent Operating Layer (IDOL) 10 in Hadoop-Nodes soll zudem das Verständnis der Inhalte durch Kategorisierungen, Clustering und Verknüpfungen steigern.

Big Data in Hadoop-Umgebungen besser nutzen

Mit HP AppSystem for Hadoop bietet HP eine Appliance für Hadoop-Umgebungen. Diese ist voraussichtlich ab dem vierten Quartal 2012 verfügbar und vereint die HP Converged Infrastructure, ein übergreifendes Management mit der Software HP Insight Cluster Manager sowie eine weitreichende Integration mit Vertica 6. Unternehmen nutzen Hadoop zunehmend für die Speicherung und Verwaltung von Petabytes an Informationen. Mit der Appliance von HP können sie Hadoop-Infrastrukturen zunächst in Testumgebungen aufbauen und später einfach in den Produktivbetrieb übernehmen. Dies soll die Implementierung von Hadoop vereinfachen und beschleunigen. Als erster Anbieter bietet HP zudem Referenzarchitekturen, Werkzeuge und Whitepaper für die wichtigsten Hadoop-Lösungen Cloudera, Hotronworks und MapR. Darüber hinaus erwartet das Unternehmen, das mit dem HP AppSystem die Qualität und Geschwindigkeit von Analyseprozessen in Hadoop durch die Integration von Vertica 6 verbessert wird. So war im Rahmen des standardisierten Tests Apache Hadoop Terasort Benchmark die HP-Lösung in der Lage, 10 Terabyte in rund 1,5 Stunden zu verarbeiten. Sie war damit 3,8 respektive 2,6 Mal schneller als vergleichbare Lösungen von Oracle und SGI. Durch Technologien zur 3D-Überwachung erkennt die Appliance Engpässe in den Abläufen und identifiziert das ursächliche Problem in Echtzeit. Dadurch sollen Administratoren Fehler schneller beheben und die Leistungsfähigkeit des Systems sofort wiederherstellen.

Weiterhin hat HP neue Services entwickelt, um Unternehmen auf den Umgang mit Big Data vorzubereiten: den HP Big Data Strategy Workshop und den HP Roadmap Service for Hadoop. Im HP Big Data Strategy Workshop vermittelt HP Unternehmen ein umfassendes Verständnis der Herausforderungen im Umgang mit Big Data und der bestehenden Lösungen. So können Unternehmen Risiken besser einschätzen. Zudem haben sie eine bessere Grundlage für die Entscheidung, wie sie aus der bestehenden Unternehmens-IT und den Geschäftszielen kritische Erfolgskriterien für die Einführung von Big Data ableiten und welche Methoden sie dabei verwenden können. Der HP Roadmap Service for Hadoop wiederum liefert das Wissen, um eine Hadoop-Umgebung zu planen und zu dimensionieren. Mithilfe von Best Practices, Erfahrungen und organisatorischen Überlegungen wird eine Roadmap erstellt, die eine erfolgreiche Planung, Implementierung und Unterstützung von Hadoop ermöglicht. Darüber hinaus unterstützen die HP Always On Support Services die Appliance HP AppSystem for Apache Hadoop sowie die HP-Komponenten der Referenzarchitekturen.

Vertica 6: Alle Informationen verstehen – an jedem Ort und wie es gerade erforderlich ist

Die Version 6 der HP Vertica Analytics Platform versetzt Unternehmen in die Lage, auf jede Information zuzugreifen, sie zu analysieren und zu verwalten. Die Daten können dort gespeichert werden, wo es aus betrieblicher Sicht am sinnvollsten ist, und dennoch in die Vertica-Plattform integriert werden. Auch der Zugriff kann je nach Bedarf über verschiedene Schnittstellen wie Standard Structured Query Language (SQL), Business Intelligence Anwendungen oder Analytics-Programmiersprachen wie R erfolgen. Die Architektur Vertica FlexStore bietet einen flexiblen Rahmen für Big Data Analytics. Dazu gehört die Integration oder Verbindung mit Autonomy und Hadoop-Technologie oder jeder anderen Quelle an strukturierten, unstrukturierten oder semi-strukturierten Daten. Das Framework für Distributed Computing wird erweitert um eine native Funktion zur parallelen Ausführung von R-Anwendungen in Vertica. Die neue Version unterstützt Cloud- und SaaS-Implementierungen sowie gemischte Arbeitsumgebungen. Damit ist Vertica die derzeit umfassendste Plattform für Big Data Analytics.

Autonomy IDOL 10 macht Big Data cleverer

Mit Autonomy IDOL verfügen Unternehmen über eine Analytics-Plattform, die bislang isolierte Datensilos zusammenführt. Über 400 Unternehmen nutzen Autonomy IDOL als OEM-Lösung in ihren Produkten. Nun erweitert Autonomy die Einsatzmöglichkeiten durch die Einbindung in Hadoop-Umgebungen. Das Hadoop-File-System wird damit um über 500 Funktionen erweitert, um die Daten besser zu verstehen, zu kategorisieren, zu clustern und zu verknüpfen. Darüber hinaus unterstützt Autonomy IDOL 10 mehr als 1.000 Dateitypen und über 400 Connectors, um Informationen aus externen Quellen einzubinden. Ermöglicht wird dies durch die Integration von Autonomy IDOL 10 in HP AppSystem for Hadoop. So kann in jedem Node von HP AppSystem eine IDOL-Engine eingebunden werden.

Effektivität von Marketing-Investitionen mit Autonomy steigern

Mit Autonomy Optimost Clickstream Analytics erweitert HP seine Digital-Marketing-Plattform Autonomy Optimost. Die Lösung nutzt die Vertica Analytics Platform und Autonomy IDOL für die Erstellung von granularen Clickstream-Daten. So können die Marketing-Verantwortlichen die Informationen nach Bedarf aggregieren, kombinieren und analysieren. Sie erhalten eine einheitliche und konsistente Sicht auf Kundenbesuche, Kaufentscheidungen und Kundenbindung durch E-Commerce. Sie können diese Daten auch mit unstrukturierten Daten, dem Wissen von Personen und anderen externen Datenquellen kombinieren, um umfassende und verwertbare Erkenntnisse über das Interesse, Interaktionen und das Kaufverhalten der Kunden zu gewinnen.

Die Social Intelligence Services von HP ergänzen Autonomy Optimost um eine 360-Grad-Sicht auf Kundendaten im Netz oder im Unternehmen. Die Berater von HP haben auf der Grundlage von unterschiedlichen Anwendungsszenarien ein ganzheitliches Social Intelligence Framework entwickelt. Das Framework unterstützt Unternehmen dabei, die für sie relevanten digitalen Prozesse zu identifizieren und zu bewerten. Um die Umsetzung zu vereinfachen, zeigt HP in der HP Social Intelligence Reference Architecture auf, welche Komponenten benötigt werden und wie die Autonomy-Lösungen integriert werden müssen.

Services rund um Information Management & Analytics

Die HP Information Management & Analytics (IM&A) Services unterstützen Unternehmen bei Business Intelligence und Information Management, insbesondere in extrem großen und komplexen Informationsinfrastrukturen. HP bietet ein umfassendes Lösungs- und Service-Portfolio für Produkte von HP und seinen Partnern. Dazu gehören vorbereitende Beratungsleistungen für die Planung von Business-Intelligence- und Information-Management-Projekten, bei denen die Sicht auf Unternehmensinformationen sowie Geschäftsstrategien zusammengeführt werden. Hierbei werden beispielsweise funktionale Anforderungen und der Wert für geschäftliche Abläufe ermittelt, die Organisationsstruktur angepasst, Richtlinien für Information Governance vorbereitet, ein Business-Intelligence-Kompetenzzentrum geschaffen sowie geeignete Werkzeuge und Plattformen ausgewählt. Die IM&A-Services helfen Unternehmen dabei, Prozesse, Organisationen und technische Architekturen zu entwickeln, um Informations-Silos aufzubrechen und eine umfassende Umgebung zu schaffen. Auf dieser Grundlage werden Informationen zentral erfasst, verwaltet und bereitgestellt. Dies steigert die Agilität über sämtliche Initiativen hinweg und ermöglicht eine einheitliche, konsistente Sicht auf das Geschäft sowohl intern wie extern.

Categories
News

Hey Fraunhofer, das ULD bestätigt hohe Sicherheit des TeamDrive Cloud Storage

Wie wir uns erinnern, hat das Fraunhofer-Institut für sichere Informationstechnologie die Sicherheit diverser Cloud Storage Services, darunter die Lösung vom deutschen Anbieter TeamDrive, in Frage gestellt. Das Brisante daran ist, dass TeamDrive vom Unabhängigen Landeszentrum für Datenschutz (ULD), das dem bekannten Datenschützer Thilo Weichert unterstellt ist, als sicher zertifiziert wurde. Neben einer offiziellen Stellungnahme von TeamDrive Geschäftsführer Volker Oboda hatte sich ebenfalls CloudSafe CEO Roberto Valerio via Kommentar zu den Vorwürfen von Fraunhofer geäußert. Beide vertreten die Meinung, dass Fraunhofer diese Studie nur dazu nutzen wird, um demnächst einen eigenen Cloud Storage auf den Markt zu bringen, was ebenfalls mein erster Gedanke war, als ich von der Studie gehört hatte.

In einer heutigen Stellungnahme erklären das ULD sowie die technischen und rechtlichen Gutachter, dass an der Zertifizierung zum Datenschutzgütesiegel festgehalten wird. TeamDrive erfüllt somit weiterhin die hohen Sicherheitsanforderungen, die zur Erteilung des Datenschutzgütesiegel erforderlich sind. Das ULD und die Gutachter begrüßen die ausführliche Studie von Fraunhofer SIT. Sie gibt wertvolle Hinweise zu Schwachpunkten von Cloud-Diensten.

Bezüglich des zertifizierten Produkts “TeamDrive 2.4” weisen die Gutachter Rechtsanwalt Stefan Hansen-Oest und der IT-Sachverständige, Andreas Bethke die Kritikpunkte, die zur Abwertung von TeamDrive geführt haben, zurück. In Ihrer Stellungnahme erläutern sie, dass die in TeamDrive verwendete Transportverschlüsselung eine starke Kombination aus bekannten, sicheren, symmetrischen und asymmetrischen Verschlüsselungsverfahren ist.

„Das „Kerckhoffs’sche Prinzip“ hat seine Berechtigung, sofern ein Anbieter die Sicherheit seines Systems nur mit der Geheimhaltung der „Verschlüsselungsmethode“ und nicht nur auf die Geheimhaltung des Schlüssels begründet. Eine Verschlüsselung wird aber nicht dadurch unsicher, dass der Verschlüsselungsalgorithmus nur einer begrenzten Anzahl von Personen wie z.B. Sachverstän digen oder Zertifizierungsstellen zugänglich gemacht wird. Entscheidend ist, dass der Verschlüsselungsalgorithmus als sicher bewertet werden kann. Und das war im Hinblick auf TeamDrive der Fall.“, so Rechtsanwalt Hansen-Oest.

Nach Auffassung der Gutachter hat das Fraunhofer Institut TeamDrive unberechtigt falsch bewertet. In der Fraunhofer Studie wurden die Serverlösungen von TeamDrive für Privat Clouds oder auf eigenen Server vollkommen verschwiegen. Mit den TeamDrive Enterprise Hosting Servern haben Unternehmen die volle Kontrolle über alle Daten und deren Sicherheit.

TeamDrive bleibt damit die einzige Lösung, die Storage in der Cloud in Zusammenhang mit dem deutschen Datenschutzgütesiegel anbietet.

Categories
News

Auf Wolke 7: SAP und die Amazon Web Services bauen ihre Partnerschaft weiter aus

Da scheinen sich zwei (Giganten) gesucht und gefunden zu haben. Nachdem Amazon jüngst die Zertifizierung für SAP Business-All-In-One erhalten hat und SAP seine Mobile Device Management Lösung Afaria ebenfalls in der Amazon Cloud anbietet, kündigt AWS nun weitere strategische Kooperationen an.

Zunächst wird Amazon weitere von SAP zertifizierte Lösungen mit in die AWS Cloud aufnehmen. Dazu gehören “SAP Business All-in-One für Linux” und “SAP Business All-in-One für Microsoft Windows”. Darüber hinaus wird die Zertifizierung für die “SAP Rapid Deployment Lösung auf Windows Server 2008 R2” und “SAP Business Objects für Windows Server 2008 R2” erweitert.

Weiterhin hat der AWS Partner VMS, ein deutsches Beratungshaus, das aus einer Reihe von ehemaligen SAP Führungskräften besteht, eine SAP TCO Analyse veröffentlicht, die zeigt, dass die Nutzung von SAP auf den Amazon Web Services bis zu 69% der Infrastrukturkosten einsparen kann.

Für das Ausführen von SAP auf der Amazon Cloud hat VMS dabei einen CWI (Cloud Worthiness Index) von 59 errechnet. Der CWI wurde entwickelt, um den ökonomischen Wert der Cloud zu quantifizieren und basiert auf den Messungen von mehr als 2.600 SAP-Systemen durch VMS. Mehr über den CWI kann hier nachgelesen werden.

Zu guter Letzt kann nun neben SAP Afaria ebenfalls die SAP In-Memory Datenbank HANA auf den Amazon Web Services genutzt werden.


Bildquelle: http://fotocommunity.com

Categories
News

IPsoft und wusys kooperieren – Datenhaltung in deutschem Cloud Rechenzentrum möglich

Mit einer weitreichenden Kooperation wollen der Managed Services Provider IPsoft und der Anbieter von Cloud Lösungen wusys gemeinsam verstärkt den Mittelstand penetrieren und kostengünstige und flexible Cloud Services sowie eine garantierte Datenhaltung in Deutschland bieten.

Das Dienstleistungsangebot von IPsoft basiert auf Expertensystem-gesteuerten Automatisierungstechnologien, die zu signifikanten Effizienzsteigerungen und Kostensenkungen in der IT beitragen können. Zentraler Lösungsansatz des Unternehmens ist, durch wissensbasierte Systeme den Anteil der sich täglich wiederholenden IT-Routinetätigkeiten zu reduzieren und damit Freiräume für strategische Aufgaben und Innovationen zu schaffen.

Das Frankfurter Unternehmen wusys ist ein Anbieter branchenunabhängiger IT-Dienstleistungen. Das Portfolio reicht von Hosting-Paketen über Messaging-Lösungen bis hin zu Cloud Services. Für den ausfallsicheren Betrieb der Lösungen betreibt wusys mehrere Hochsicherheitsrechenzentren am Standort Frankfurt.

Im Rahmen der neuen Kooperation werden die beiden Unternehmen nun verstärkt den Mittelstand mit Cloud-Angeboten penetrieren. Mit Leistungen, die bedarfsbasierend bereitgestellt und verbrauchsbasierend abgerechnet werden.

Cloud Services werden gerade von Mittelständlern im Hinblick auf die Themen Datensicherheit und -schutz oft kritisch hinterfragt. Auch hier soll das neue IPsoft- und wusys-Angebot vollständige Transparenz schaffen. Zum einen wird eine Datenhaltung in Deutschland garantiert und zum anderen wird durch den IPsoft-Lösungsansatz einer weitgehenden Automatisierung von IT-Aufgaben sichergestellt, dass nur sehr wenige Provider-Mitarbeiter überhaupt Zugriff auf Kundenapplikationen oder -daten erhalten und der Kunde jederzeit volle Transparenz über den Status seines IT-Betriebs in Echtzeit erhält.


Bildquelle: http://www.konstantintrade.com

Categories
News

Gartner: Europa ist im Cloud Computing hinter den USA weit abgeschlagen

Diese Studie hätte sich Gartner eigentlich auch sparen können! Denn das Ergebnis war bereits im Vorwege klar. Europa hängt den USA beim Thema Cloud Computing meilenweit hinterher. Datenschutzbestimmung, Unterschiede zwischen den mehr als 40 Ländern sowie die schwere Schuldenkrise und eine anhaltende Rezession tragen, laut Gartner, zu einer Verzögerung der Adaption des Cloud Computing in Europa bei.

Zwar sei das Interesse an der Cloud in Europa hoch, jedoch beziffert Gartner den Rückstand auf die USA auf mindestens zwei Jahre. “Die Möglichkeiten das Potential des Cloud Computing für sich zu nutzen sind überall auf der Welt die Gleichen. Ebenso verhält es sich mit potentiellen Risiken, wie der Sicherheit, Transparenz, Integration und den Kosten”, so Paolo Malinverno, Vice President bei Gartner. “Nur in Europa haben diese Themen eine andere Bedeutung.”

Gartner hat vier Bereiche analysiert die in denen kommenden Jahren für Hemmungen in Europa sorgen werden. Dazu gehören die vielfältigen und sich ständig ändernden Datenschutzgesetze, welche die Übertragung personenbezogener Daten in die Cloud erschweren. Laut Gartner meiden viele europäische Unternehmen die US-amerikanischen Cloud Anbieter, da sie Angst vor möglichen Konflikten zwischen dem europäischen Datenschutz und dem US Patriot Act haben.

Weiterhin nennt Gartner die Komplexität des B2B bei der Integration und den Prozessen. Das wird dadurch verschärft, dass bspw. die Prozesse in vielen Fällen über unterschiedliche Ländern verteilt sind. Zudem kritisiert Gartner die EU-Politik und deren Praktiken, welche für die Hindernisse verantwortlich sind. Ganz unrecht hat Gartner damit nicht, der Gesetzgebungsprozess in der EU ist langsam und die daraus resultierende Gesetzgebung kann in den einzelnen Ländern zum Teil immer noch sehr unterschiedlich ausgelegt werden. Als letzten Grund nennt Gartner die Auswirkungen auf Investitionen auf Grund der Schuldenkrise in der Eurozone. Diese hat anscheinend wichtige Investitionen zunächst auf Eis legen lassen, wodurch sich strategische Entscheidungen verzögern.

“Unterm Strich ist das Interesse an der Cloud in Europa so hoch wie im Rest der Welt.”, sagt David Mitchell Smith, Vice President bei Gartner. “Diese Hindernisse werden die Cloud Adaption in Europa sicherlich verlangsamen, aber definitiv nicht aufhalten. Das Potential der Cloud ist zu attraktiv und das Interesse an ihrer Effizienz und Agilität zu hoch als noch länger warten zu können.”


Bildquelle: http://beijing2008.cn

Categories
News

Eucalyptus Systems expandiert mit seiner Cloud Lösung nach Deutschland

Eucalyptus Systems, Hersteller der gleichnamigen on-Premise Cloud Computing Software, hat heute seinen Markteintritt in Deutschland bekannt gegeben. Mit dieser Initiative möchte das US-amerikanische Unternehmen seine Vertriebs- und Support-Aktivitäten in Mitteleuropa verstärken. An der Spitze der neuen Europa-Präsenz steht Paul Holt, der kürzlich zum Executive Vice President für den EMEA-Vertrieb ernannt wurde. Aufbauend auf Eucalyptus schnell wachsender Verbreitung im Markt soll das Angebot und die Unterstützung für deutsche Kunden, zu denen bereits Plinga und PUMA gehören, damit weiter vorangetrieben werden.

Eucalyptus Systems expandiert mit seiner Cloud Lösung nach Deutschland

Strenge Datenschutzgesetze, die festlegen, wie Unternehmen Daten länderübergreifend verwalten und teilen können, führen in Deutschland und Mitteleuropa zu einer zunehmenden Nachfrage nach on-Premise IaaS-Plattformen. Um schnell auf wechselnde Marktbedingungen reagieren zu können, fordern Unternehmen zudem Lösungen, die sich durch hohe Flexibilität und gute Skalierbarkeit auszeichnen. Basierend auf diesen Trends wird der Umsatz im Bereich Cloud Computing 2012 voraussichtlich um 50 Prozent wachsen und damit auf insgesamt 5,3 Milliarden Euro ansteigen. Bis 2016 rechnen Analysten mit einem Wachstum von bis zu 17 Milliarden Euro.

„Wir brauchten unbedingt die Kontrolle, die Zuverlässigkeit und die Kosteneinsparungen, die nur eine eigene private Cloud bieten kann“, sagt Thorsten Lubinski, CTO von Plinga, dem führenden Plattform-Anbieter von Social Games in Europa. „Wir sind eine Plattform für Spiele-Anbieter aus der ganzen Welt mit sehr dynamischen Anforderungen an die Infrastruktur. Die Elastizität einer Cloud-Lösung war aus diesem Grund für uns unabdingbar. 400 Server haben wir von AWS zu Eucalyptus umgezogen. Nicht nur die Zuverlässigkeit und die gute Skalierbarkeit der Plattform haben uns beeindruckt, sondern auch der ausgezeichnete Service des Support-Teams von Eucalyptus.“

Erst im März diesen Jahres kündigte Eucalyptus eine Kooperation mit den Amazon Web Services (AWS) an, die es Kunden ermöglicht, Workloads effizienter zwischen ihren eigenen Rechenzentren und AWS zu verteilen und dabei die gleichen Management-Tools zu nutzen. Kunden können Anwendungen in ihren bestehenden Rechenzentren ausführen, die kompatibel mit populären Webservices von Amazon sind, darunter Amazon Elastic Compute Cloud (Amazon EC2) und Amazon Simple Storage Service (Amazon S3).

„Durch die frühzeitige Nachfrage in Deutschland nach on-premise und hybriden Formen von Cloud-Computing, bietet dieser Teil Europas großes Wachstumspotenzial“, so Said Ziouani, Executive Vice President Worldwide Sales von Eucalyptus. „Unternehmen suchen aktiv nach Möglichkeiten, Kosten zu senken, ohne dabei die Qualität der Dienstleistungen ihrer IT-Abteilungen zu gefährden. Tausende erfolgreiche Cloud-Implementierungen zeugen von der Leistungsfähigkeit der Eucalyptus-Plattform. Mehrere hundert Implementierungen allein in Deutschland bestätigen die Wichtigkeit von On-Premise-Clouds für europäische Unternehmen.“

Categories
News

Microsofts Windows Azure Active Directory steht in den Startlöchern

Identitätsmanagement und Single-Sign-On Lösungen gehören mit zu den wichtigsten Bereichen, wenn es darum geht, seine Mitarbeiter sicher und auf eine für sie komfortable Weise in der Cloud arbeiten zu lassen. Nach etwa zwei Jahren Entwicklungszeit präsentiert Microsoft nun seinen bekannten Verzeichnisdienst Active Directory für die Cloud – Windows Azure Active Directory (WAAD).

Microsoft Windows Azure Active Directory steht in den Startlöchern

Die Windows Azure Active Directory ist als mehrinstanzenfähiger Cloud Service implementiert und stellt Identitäts- und Zugriffsfunktionen für Applikationen in Windows Azure und Microsoft Office 365 bereit. Dabei baut die gesamte Office 365 Identitätsinfrastrukur bereits darauf auf, was Microsoft Distinguished Engineer Kim Cameron auf seinem Blog bestätigt. Die WAAD wird demnach derzeit überwiegend von Microsoft Office 365 und Windows Intune Nutzern eingesetzt, soll in Zukunft aber auch Entwicklern die Möglichkeit bieten, die Active Directory mit anderen SaaS Anwendungen, Cloud Plattformen, sozialen Netzwerken und Kunden zu verbinden.

Anhand des Zugriffssteuerungsdienst (Access Control Service, ACS) können Mitarbeiter mit einer einzigen Anmeldung auf sämtliche Cloud Anwendungen zugreifen, die mit dem ACS verbunden sind. Zudem soll ACS als zentrales Portal genutzt werden können, um darüber die Verwaltung sämtlicher Benutzer und Gruppen aller Cloud Anwendungen vorzunehmen. Dazu unterstützt ACS viele Webplattformen und Sprachen wie .NET, PHP, Python, Java und Ruby und bietet darüber hinaus eine direkte Integration zu bekannten Webidentitäten, darunter Windows Live ID, Google, Yahoo! und Facebook.

Viele Unternehmen werden in Zukunft den hybriden Cloud Ansatz verfolgen. Das hat auch Microsoft bei der WAAD berücksichtigt. Daher lässt sich eine bereits vorhandene lokale Active Directory um die WAAD nathlos erweitern. Dazu wird das bestehende Benutzerverzeichnis als autoritatives Benutzerverzeichnis genutzt, wodurch die Nutzer mit ihren bestehenden Konten bei den Cloud Anwendungen authentifiziert werden.

Es war nur eine Frage der Zeit und eine logische Schlussfolgern, wann Microsoft seinen beliebten Verzeichnisdienst ebenfalls in die Cloud verlagert. In Verbindung mit Office 365 scheint der Verzeichnisdienst bereits gut zu funktionieren. Ob und wie er bei den Entwicklern ankommt, werden die nächsten Monate zeigen. Allerdings hat Microsoft den Vorteil, dass sie im Unternehmensumfeld und bei den Entwicklern über eine breite Basis verfügen und sie es nur noch schaffen müssen, genau diese Basis von der Cloud zu überzeugen. Ich stelle immer wieder fest, das z.B. .NET Entwickler nicht Wissen, was Azure überhaupt ist und was sie damit machen können. Nach einer kurzen Erläuterung erkennen sie jedoch das Potential und haben Interesse sich damit weiter zu beschäftigen.