Categories
Anbieter @de

Cloud Anbieter: MuleSoft

Description

The open source Mule project was founded in 2003 by Ross Mason, CTO of MuleSoft. Frustrated by integration “donkey work,” Ross set out to create a new platform that emphasized ease of development, flexibility, and re-use of components. He created Mule to bring a modern approach, one of assembly, rather than repetitive coding, to developers worldwide. The platform instantly found a following and quickly “went supersonic” in terms of adoption. Today, Mule is the world’s most widely used open source enterprise service bus (ESB), with more than 2 million downloads and over 3,000 production deployments by leading organizations such as Walmart.com, Nokia, Nestlé, Honeywell and DHL, as well as 5 of the world’s top 10 banks and over 35% of the Global 500.

Today, MuleSoft is once again defining the next generation of integration with Mule iON, the first true integration platform as a service (iPaaS). Mule iON is a cloud-based integration platform, built on leading Mule integration technology at the core, that enables developers and application teams to integrate and orchestrate applications and services seamlessly across the enterprise and cloud.

MuleSoft has also taken the principles of lightweight and pragmatic infrastructure software to the next level with Tcat — enterprise Tomcat Server. Tcat is a fully supported Apache Tomcat application server that solves the common pains associated with using Tomcat in production, simplifying the management, monitoring and deployment of Tomcat applications.

Built on the most widely used open source application infrastructure products, Mule ESB, Mule iON and Tcat bring an ideal combination of simplicity and power to today’s web applications.

Category

  • Platform as a Service

Products

  • Mule ESB
  • Mule iON
  • Tcat

Website

Categories
News

Salesforce.com integriert sich selbst in SAPs Kernsystem

Salesforce.com will es nun endgültig wissen und wirbt direkt um SAP Kunden. Mit Beratungs- und Intergrationslösungen stellt Salesforce.com SAP Kunden, die ein “Social Enterprise” aufbauen möchten, Services zur Verfügung, um die Force.com Platform mit SAPs Back-End Systemen zu verknüpfen.

Auf dem Unternehmensblog verkündet Salesforce im context: “Unsere Kunden haben es laut und deutlich ausgesprochen. Sie wollen die Art, wie sie mit Kunden und Mitarbeitern zusammenarbeiten, kommunizieren und Informationen austauschen, verändern. Sie wollen ihre IT von einem Cost Center zu einem Innovationstreiber und Business Enabler machen.”

Nun, wir alle kennen das großspurige Denken und Guerilla Marketing von Salesforce. Aus diesem Grund sollte das Kommentar nicht überbewertet werden. Ob sich nun wirklich alle Kunden dem “Social Enterprise” zuwenden möchten oder doch zugewendet worden sind, lassen wir an dieser Stelle mal offen.

Mit Hilfe von Beratungsdienstleistungen und Integrationsservices sollen derzeitige SAP Kunden auf Basis von Force.com eigene Anwendungen entwickeln, die nahtlos mit den Daten und Prozessen im Backend von SAP integriert werden können.

Was an dieser Stelle aber wirklich durchaus interessant werden kann ist das direkte Umwerben von SAP Kunden und somit der direkte Angriff auf SAP selbst.

Categories
News

Microsoft Office 365's Spam Bremse kann zur Falle werden.

Keine Frage, Microsoft’s Office 365 Software-as-a-Service Lösung macht es für Unternehmen deutlich einfacher E-Mail und Collaboration Services bereitzustellen. Allerdings gibt es einige versteckte Fallstricke in den Allgemeinen Geschäftsbedingungen, wie Ed Bott von ZDNet berichtet.

Der Vorteil von Microsoft Office 365 besteht für Unternehmen insbesondere darin, dass sie anstatt auf lokale Installation von Exchange oder anderen Office Produkten, auf dieselben Lösungen via SaaS zugreifen können und damit die eigenen Infrastrukturkosten usw. einsparen. So haben auch kleine Unternehmen ohne eigene IT-Abteilung die Möglichkeit kostengünstig auf umfangreiche Kollaborationslösungen zuzugreifen, wie es im Normalfall nur großen Unternehmen vorbehalten ist.

Allerdings kann dieses niedrige Preisniveau eine Falle für Unternehmen sein, die abhängig von der E-Mail Kommunikation sind. Als Teil von Microsofts Versuch, die Nutzung des Dienstes für Spam zu vermeiden, hat Office 365 eine tägliche Obergrenze für die maximale Anzahl von externen Empfängern hinterlegt. Sollte diese Grenze einmal erreicht sein, existiert keine einfache Möglichkeit, das Volumen zu erhöhen. Bott zufolge sind diese Einschränkungen tief in den Allgemeinen Geschäftsbedingungen versteckt.

Für den durchschnittlichen Nutzer eines Office 365 Small Business Accounts sind 500 E-Mail Empfänger pro Tag sicherlich schwierig zu erreichen, jedoch kann es zu einem Problem für die Vertrieb- und Marketing-Teams eines Unternehmens werden, wenn diese ihre großen Mailing-Liste bedienen möchten. Wenn bspw. ein neuer CEO eine “Hallo hier bin ich!” Nachricht an seine 400 Kunden verschicken möchte ist das “Tagesziel” bereits weitestgehend erreicht.

Dabei merkt sich Office 365 nicht die Empfängerliste beim Versand einer E-Mail sondern sieht bei einem erneuten Versand denselben Empfänger als einen “neuen” Kontakt an. Ein Beispiel: Ich schicke eine Nachricht an Peter mit CC:Petra. Damit sind bereits zwei Empfänger meiner täglichen Ration aufgebraucht. Schicke ich am selben Tag erneut eine E-Mail an Peter wird dieser als ein anderer Empfänger betrachtet, obwohl ich am selben Tag bereits eine E-Mail an Peter geschickt habe.

Diese Einschränkung ist in den Produktbeschreibungen von Office 365 nirgends beschrieben. Jedoch macht Microsoft in seiner Office 365 FAQ darauf aufmerksam:

We encourage you to buy the plan family (Plans P or E) you want to move forward with in the future. If, after purchase, you decide you want a plan from a different family, you will have to cancel your subscription and then buy a different plan (e.g., cancel your subscription to Plan P and then buy Plan E). Please be aware that your data may not be preserved, and you will have to provide sign up information again.

Auch wenn das eine Migration zu Office 365 nicht abschrecken sollte, macht diese Einschränkung das Angebot für kleine Unternehmen dennoch weniger attraktiv, insbesondere dann, wenn diese zunehmend auf Kundenbetreuung und Marketing angewiesen sind.

Categories
News

Laut Gartner sind Private Clouds der letzte Ausweg

Unternehmen sollten zunächst Public Cloud Services in betracht ziehen und erst dann auf Private Clouds umsteigen, wenn die Public Clouds nicht in der Lage sind die Bedürnfisse zu befriedigen. Diese Ansicht teilt Gartner Analyst Daryl Plummer. Im Vergleich zu einer On-Premise Variante haben Public Clouds neben einer besseren Agilität, der Verringerung von Kosten und Komplexität, dem Antrieb von Innovationen sowie einer besseren Fokussierung auf das Kerngeschäft vor allem den Vorteil, Kenntnisse und Fähigkeiten von Menschen außerhalb des Unternehmens zu nutzen.

IT-Berater sollten daher grundsätzlich analysieren, welche Vorteile sich das Unternehmen durch einen Wechsel in die Cloud erhofft. Selbstverständlich gibt es Gründe, nicht den Weg in die Cloud zu wählen. Plummer nennt hier bspw. nicht die Service Level Agreements zu bekommen die erwartet werden sowie Regulierungs-und Compliance-Fragen. Hinzu kommt das Thema Datenschutz und die mögliche Erkenntnis, dass Cloud Computing am Ende vielleicht doch keine Kosten einspart.

Plummer sagt zudem, dass eine genaue Kosten-Analyse besonders heikel sei, wenn man die Investitionskosten mit den wiederkehrenden Kosten vergleicht. Er fügt hinzu, dass die Kunden die Nutzungskosten der Cloud häufig unterschätzen und das die meisten Unternehmen einen Cloud Broker Service benötigen.

Plummer stellt darüber hinaus potentielle Risiken heraus, zu denen die Themen Sicherheit, Transparenz, Lock-in und Integrationsprobleme gehören. Wenn man als Unternehmen seine Anwendungen in die Cloud migrieren möchte, solle man sich laut Plummer an die äußerste Kante des Unternehmens stellen und sich zum Kern vorarbeiten. Gute Kandidaten zu Beginn sind E-Mail-, Social- sowie Test-und Entwicklungsumgebung, Office-Anwendungen und Webserver.

Zerlegt man Cloud Computing in seine drei Hauptbestandteile SaaS, PaaS und IaaS, machen – laut Gartner – SaaS Lösungen im Jahr 2011 einen Gesamtumsatz von 12 Milliarden Dollar aus, gefolgt von IaaS mit 4,2 Milliarden Dollar und PaaS mit 1,4 Milliarden Dollar. Jedoch prognostiziert Gartner, dass IaaS in den kommenden fünf Jahren um 48% wachsen wird. PaaS hingegen nur um 13% und SaaS um 16,3%.

Categories
Analysen

Der Einfluss des Cloud Computing

Cloud Computing steht für den nächsten Paradigmenwechsel in der IT. Jedoch führen der flexible und auf Basis des Verbrauchs abgerechnete Bezug von Ressourcen ebenfalls zu Einflüssen, denen sich Unternehmen stellen müssen.

Cloud Computing bietet Unternehmen eine Vielzahl von Vorteilen in Bezug auf die Art der Nutzung von IT-Ressourcen wie Hard- und Softwaresysteme. So sind Unternehmen im Normalfall für die Wartung der Systeme alleine verantwortlich, was zu hohen Aufwendungen in Zeit und Kapital führt. Durch den Einsatz von Cloud Computing konzentriert sich ein Unternehmen ausschließlich auf den eigentlichen Unternehmenszweck und bezieht die dafür benötigten Ressourcen. So stehen einem Unternehmen quasi unendliche Speicherkapazitäten zur Verfügung, welche Sie auf Grund der hohen Investitionskosten alleine nicht hätten aufbauen können. Dasselbe gilt für das Mitwachsen der IT mit dem Unternehmen. Neue Mitarbeiter erfordern neben der Vergrößerung der Büroflächen ebenfalls die Erweiterung der IT-Infrastruktur, was implizit dazu führt, dass ebenfalls das Wartungspersonal der Infrastruktur im Laufe der Zeit mitwachsen muss.

Wandel von fixen zu variable Kosten

Neben den technischen Vorzügen, die Cloud Computing gegenüber einer eigenen IT-Infrastruktur bietet, stehen auch die finanziellen Vorteile im Vordergrund, die intensive Auswirkungen auf die Kostenstruktur eines Unternehmens mit sich bringen.

Während des Betriebs einer eigenen Infrastruktur oder eines Rechenzentrums befindet sich ein Unternehmen in der Situation während der Anschaffung von Hard- und Softwaresystemen in Vorleistung zu gehen und darüber hinaus weitere Investitionen und Kosten für den Betriebsaufwand zu übernehmen. Die Kostenstruktur des Unternehmens wird damit durch einen enormen Fixkostenblock belastet. Kapital, das fest und auf einen langen Zeitraum hinweg investiert wird.

Cloud Computing Anbieter dagegen investieren gezielt in ihre Infrastruktur, um diese anschließend als Dienstleistung anzubieten. Das Unternehmen reicht seine Kapitalaufwendungen somit an den Cloud Computing Anbieter weiter und bezahlt nur für den Betriebsaufwand, also die tatsächlich genutzten Ressourcen. Das entlastet die Kostenstruktur des Unternehmens, wodurch der Fixkostenblock verkleinert wird und fixe zu variablen Kosten transformiert werden. Die Kapitaldifferenz steht damit für andere Aufwendungen und Projekte zur Verfügung.

Cloud Computing bietet neben der Variabilisierung der Kosten aber deutlich mehr Vorteile und Möglichkeiten. Es ermöglicht Unternehmen den Wandel zu einer flexibleren Organisation und stärkt damit die Agilität.

Erhöhung der Agilität

Mit dem flexiblen Bezug und der bedarfsgerechten Abrechnung der tatsächlich genutzten Ressourcen sind Unternehmen in der Lage agiler auf die aktuellen Anforderungen reagieren zu können. Das betrifft zum einen den Markt, in dem sich das Unternehmen bewegt und zum anderen die eigenen Mitarbeiter, deren Anforderungen an Ressourcen für die Umsetzung neuer Ideen stetig wächst. Eine Studie von CA ergibt, “[…] dass IT-Profis davon ausgehen, dass Cloud Computing die Agilität (63 Prozent), die Innovation (58 Prozent) und die Zusammenarbeit mit dem Geschäftsbereich (57 Prozent) beschleunigen und vorantreiben.”

Dass ebenfalls der Zusammenarbeit mit den Geschäftsbereichen von den IT-Profis ein hoher Stellenwert beigemessen wird, ist nicht verwunderlich. So gilt die Agilität als eine kontinuierliche und enge Abstimmung zwischen den Geschäftsbereichen und der IT.

So ist es nur eine logische Konsequenz, dass die aus der Nutzung des Cloud Computing gewonnene Agilität zur Entwicklung neuer Produkte und Dienstleistungen führt. Das liegt unter anderem darin begründet, dass sich die IT-Mitarbeiter nicht mehr um die tiefgreifenden Details der IT kümmern müssen, die erforderlich sind, wenn ein neues Projekt initiiert wird und dadurch mehr Zeit gewinnen. Dazu gehören bspw. die Beschaffung neuer oder weiterer Serverressourcen oder die Verwaltung des Projektpersonals (Rechtevergabe, Aufnahme in Projektgruppen etc.).

Die Agilität wird zudem dadurch weiter unterstützt, indem mehr ungebundenes Kapital zur Verfügung steht, welches sonst fix und auf eine langen Zeitraum in die IT-Infrastruktur investiert worden wäre. Diese Kapitalressourcen stehen nun neuen Ideen und Projekten zur Verfügung, auf die Mitarbeiter zurückgreifen können um den Status des Unternehmens zu festigen und weiter auszubauen.

Konzentration auf die Kernkompetenzen

Durch die Nutzung des Cloud Computing versetzen sich Unternehmen in die Lage, sich nicht mehr selbst um die Installation, Wartung und Pflege ihrer IT-Infrastruktur kümmern zu müssen. Stattdessen können sie sich auf ihre Kernkompetenzen fokussieren, was vor allem für kleine und mittelständische Unternehmen von besonderem Interesse ist, da diese im Vergleich zu einem großen Unternehmen in der Regel über ein geringes IT-Budget verfügen. Zudem erhöhen Sie ihre Flexibilität im Kerngeschäft, da die benötigten Anforderungen an und durch die IT schneller umgesetzt werden können.

Unternehmen konzentrieren sich somit auf ihren eigentlichen Unternehmenszweck und nutzen die IT lediglich für die Umsetzung ihrer Ziele. Das kommt auch den IT-Abteilungen entgegen, die oft in der Kritik stehen, keinen konkreten Wertbeitrag in das Unternehmen einfließen zu lassen. Auf Basis schnell verfügbarer Ressourcen können die IT-Abteilungen zusammen mit den Fachbereichen neue Anwendungen entwickeln, die bei der Umsetzung der Kernkompetenzen helfen und das Unternehmen damit nachhaltig und messbar unterstützen.

Erzielen von Wettbewerbsvorteilen

Mit dem Einsatz von Cloud Computing müssen sich Unternehmen nicht mehr um den Betrieb und die Wartung der IT-Infrastruktur (Hardware und Software) kümmern. Das führt dazu, dass die Zeit und personellen Ressourcen, die dadurch freigesetzt werden, damit gezielt auf das eigentliche Vorhaben konzentriert werden können. Hinzu kommt, dass Ressourcen deutlich schneller bezogen werden können, wodurch Ideen schneller umgesetzt und die Laufzeit von IT-Projekten verkürzt wird. So wird der Time to Market von IT-basierten Produkten beschleunigt. Mit der flexiblen Anpassung der IT-Ressourcen kann des Weiteren umgehend auf neue Kundenwünsche oder neue Marktverhältnisse reagiert werden.

Einen weiteren Wettbewerbsvorteil erhalten Unternehmen durch die zeit- und ortsunabhängige Zusammenarbeit ihrer Mitarbeiter. Durch den Einsatz bspw. von SaaS über einen Webbrowser oder das Speichern von Dokumenten in der Cloud mittels Storage-as-a-Service ist die Kollaboration nicht mehr auf eine Stadt, ein Land oder einen Kontinent beschränkt. Somit haben Unternehmen nun die Möglichkeit, weltweit die besten Mitarbeiter zu rekrutieren ohne diese aus ihrem gewohnten Umfeld herausreißen zu müssen.

Neustrukturierung von Geschäftsprozessen

In der Cloud steht Unternehmen ein riesiger Marktplatz mit einer Vielzahl von Services zur Verfügung, mit denen ganze Geschäftsprozesse oder nur Teile unterstützt werden können. So ist es durchaus vorstellbar, dass ein Unternehmen seine gesamten Prozesse in die Cloud verlagert und nur dann aktiv nutzt, wenn diese benötigt werden. Das kann sogar soweit führen, dass ein vollständiger Geschäftsprozess innerhalb der Cloud über mehrere Anbieter hinweg verteilt abgebildet wird. Vorstellbar wäre, dass ein Anbieter den Teilprozess A verarbeitet, ein weiterer den Teilprozess B. Ein dritter Anbieter verarbeitet den Teilprozess C und nutzt dabei die Teilprozesse A und B. Oder es wird eine Vielzahl voneinander unabhängiger Services von unterschiedlichen Anbietern verwendet, die zu einem einzigen Service integriert werden. Der Komplexität sind keine Grenzen gesetzt. Ein vermeintlich trivialeres Beispiel hingegen wäre, dass die Daten bei einem Anbieter A gespeichert sind und ein Anbieter B soll diese Daten verarbeiten.

Speziell im Bereich der Logistik werden bereits jetzt viele Teilprozesse unabhängig voneinander integriert. So stehen einem Versandhaus bspw. die Lager vom Unternehmen I und II zur Verfügung, das Schiff von Unternehmen III, die LKWs von den Unternehmen IV, V und VI, die Rechnungsabwicklung von Unternehmen VII sowie die Archivierungsprozesse von Unternehmen VIII.

Das Cloud Computing Konzept kann auf Grund seiner quasi unendlichen Viehlzahl an Services dabei noch deutlich komplexer werden und über den Ansatz des traditionellen IT-Outsourcing weit hinausgehen.

Die Cloud ist daher eine ideale Umgebung, in der Unternehmen die eigenen Geschäftsprozesse bereitstellen können, um diese gezielt spezifischen Märkten und Kunden anzubieten. Dabei stellt das Business Process Management (BPM) die Grundlage für die Bereitstellung dieser Prozesse über die Cloud dar. Mittels BPM erstellen mehrere Unternehmen gemeinsam einen auf eine spezielle Kundengruppe zugeschnittenen Geschäftsprozess. Ein BPM System ist dann für die Überwachung und das Messen der Performanz der unternehmensübergreifenden Geschäftsprozesse zuständig und stellt allen Parteien Echtzeitinformationen zur Verfügung, um den jeweiligen Teilprozess so zu justieren, dass der Gesamtprozess optimal genutzt werden kann.

Die Studie im Auftrag von CA ergab, “[…] dass die IT zunehmend die Form einer Lieferkette (Supply Chain) annimmt. Das traditionelle Supply Chain-Modell kommt aus der Fertigung. Dort werden für die Lieferung von Gütern und Dienstleistungen an die Kunden verschiedene Ressourcen – Technologie, Prozesse, Güter, Services und Personal – in logischer Weise organisiert. Im Rahmen der Migration von Applikationen, Infrastruktur und sogar von Geschäftsprozessen in die Cloud, werden nun auch IT-Abteilungen zu den Managern einer IT-Lieferkette. Dabei nutzen IT-Manager verschiedene interne und externe Ressourcen mit dem Ziel, das Unternehmenswachstum voranzutreiben.”

IT-Abteilungen müssen sich verändern

Der Ansatz und die Konzepte des Cloud Computing beeinflussen auch insbesondere die IT-Abteilungen der Unternehmen, an denen es nun liegt, entsprechende Lösungen in die IT-Strategie des Unternehmens einfließen zu lassen.

Die CA Studie legt offen, dass mehr als die Hälfte der Teilnehmer (54%) der Meinung ist, “[…], dass der aktuelle Wert der IT größtenteils durch ihre Aufgabe als Betreiber der IT-Infrastruktur definiert ist. Die Befragten gehen jedoch davon aus, dass innerhalb der nächsten zwei Jahre die Hauptrolle der IT in der Verwaltung der IT-Supply Chain liegen wird. 50 Prozent gaben an, dass eine Zunahme der cloud-basierten Services – besonders der bisher intern verwalteten – zu dieser Entwicklung beiträgt.”

Nach Christian Wirth wird es in Zukunft Service-Manager geben, die nicht nur zwischen den Geschäftsbereichen und der IT vermitteln müssen, “[…] sondern sich darüber hinaus auch mit verschiedensten Fragen auseinandersetzen, die durch die Einführung von Cloud Computing eine neue Dimension erlangen.“

So ist laut Wirth der Service-Manager neben der Sicherheit der Daten ebenfalls für die Anforderungen an die Compliance, die Einhaltung der SLAs sowie die Zuverlässigkeit und die Performanzsicherstellung des Cloud Service verantwortlich. So muss der Service-Manager, “[…] im Cloud-Zeitalter beim Überprüfen der Performance die Perspektive der Endanwender einnehmen können, um sicherzustellen, dass sie stabilen Zugriff auf Anwendungen haben, die vollständig oder teilweise in die Cloud ausgelagert wurden. Liegt ein Problem außerhalb des Unternehmensnetzes, ist es zudem entscheidend, schnell zu ermitteln, ob es grundsätzlich in bestimmten Regionen oder nur bei bestimmten Internet-Providern auftritt.”
Die oben genannten Veränderungen werden mit der Studie von CA nochmals bekräftigt. „Da die IT-Abteilungen sich von einer Owner- und IT-Betreiber-Infrastruktur zum Manager komplexer interner und externer Services auf mehreren Plattformen wandeln, stehen CIOs vor der Aufgabe, den Wert der IT für das Business neu zu definieren“, […] „Diese Veränderung schafft für IT-Fachkräfte interessante Möglichkeiten, ihre Fähigkeiten zu erweitern und zum strategischen Berater des Unternehmens zu werden.“

Zudem nennt die Studie konkrete Berufsbezeichnung und Rollen für das Zeitalter des Cloud Computing. Dazu gehören:

  • Cloud Architekt
  • Cloud Service Manager
  • Cloud Integrationsspezialist und -Experte
  • Cloud Security Manager und -Ingenieur
  • Director Cloud Infrastructure
  • Executive Vice President of Cloud Technologies

Anwendungen für die Cloud

Greift ein Unternehmen auf Services aus der Cloud zurück, verwendet es in erster Linie das Konzept des Software-as-a-Service, also der Nutzung von Applikationen über einen Webbrowser. Hier gilt es daher die Entscheidung zu treffen, welche Anwendungen aus der Cloud genutzt und welche weiterhin lokal betrieben werden sollen. Im Falle eines Startups ist die Entscheidung nicht so schwierig, da die Software mit dem Unternehmen langsam mitwachsen kann. Zudem werden unnötige Investitionen in Lizenzen, die Wartung, Installation etc. vermieden. Bei einem renommierten Unternehmen mit einer vorhandenen IT-Infrastruktur und zahlreichen lokalen Softwareinstallationen gestaltet sich die Entscheidung etwas schwieriger. So existieren Anwendungen und ihre Eigenschaften, die prädestiniert dafür sind, in eine Cloud Computing Infrastruktur ausgelagert zu werden bzw. über die Cloud genutzt zu werden.

Dazu gehören zum einen Stand-Alone Anwendungen, bei denen das Risiko für das Unternehmen sehr gering ist. Das betrifft den Ausfall des Systems oder den Diebstahl bzw. die Kompromittierung von Daten. Weiterhin sollten Anwendungen in Betracht gezogen werden, die nur schwer zu berechnende und sehr volatile Datenmengen verarbeiten. Dazu gehören ebenfalls genauso Test- und Entwicklungsplattformen wie Anwendungen, bei denen viele externe Unternehmen gemeinsam auf Informationen zugreifen und miteinander in einer Wertschöpfungskette kollaborieren.

Categories
News

Löst sich Googles Cloud in Los Angeles auf?

Nachdem Google Ende 2009 mit der Stadt Los Angeles einen Deal über 7 Million Dollar für die Umstellung von 30.000 Arbeitsplätzen von Novell GroupWise auf Googles Collaboration Suite Google Apps perfekt machte, hat sich der Wind nun anscheinend ein wenig gedreht.

In einem Schreiben (PDF) der Stadt Los Angeles an den Google Services Integrator CSC werden Bedenken über die Sicherheit der Google Services geäußert. Darin wird auf ein weiteres Schreiben vom 13. Mai 2011 eingegangen, aus dem hervorgehen soll, dass CSC aussagt, nicht in der Lage zu sein, die Sicherheitsanforderungen der Stadt selbst sowie dem Los Angeles Police Departement (LAPD) gerecht zu werden.

Um welche Sicherheitsbedenken es nun genau geht, kann dem Schreiben nicht entnommen werden. Es werden lediglich die “U.S. DOJ Criminal Justice Information Systems (CJIS) policy requirements” angesprochen. Da allerdings nur ein Teil der Arbeitsplätze umgestellt werden kann, erwartet die Stadt Los Angeles nun, dass Google die Kosten für das GroupWise System für den Zeitraum von 1 Juli 2011 bis 20 November 2012 übernimmt.

Google und CSC haben diese Woche bereits darauf reagiert. Über das Magazin Network World lies CSC mitteilen, dass alle Mitarbeiter der Stadt Los Angeles, mit Ausnahme der Strafverfolgungsbehörden, erfolgreich zu Google Apps migriert wurden. Erst nach der Vertragsunterzeichnung hätte die Stadt Los Angeles Änderungen an den Sicherheitsanforderungen für das LAPD vorgenommen.

Quelle: http://arstechnica.com

Categories
Tutorials @de

HowTo: Einrichtung von Witsbits – Private Cloud Management-as-a-Service

Vor kurzem haben wir Witsbits, einen “Private Cloud Management as a Service” aus Schweden vorgestellt. Heute geht es darum, wie vorgegangen werden muss, um Witsbits im eigenen Rechenzentrum/ Serverraum nutzen zu können.

Vorbereitung

Zunächst benötigen wir einen oder mehrere “leere” physikalische Systeme (64bit) als Host für die virtuelle Infrastruktur sowie einen Desktop Computer inkl. Webbrowser, mit dem die webbasierte Management Konsole genutzt werden kann.

Der physikalische Server sollte mindestens über einen 64 bit x86 Prozessor mit Intel VT oder AMD-V Technologie verfügen sowie ein CD-ROM, DVD-ROM oder USB-Ports, um darüber die Installation mittels des Witsbits ISO zu ermöglichen. Der Arbeitsspeicher sollte eine Mindestgröße von 1GB RAM besitzen und die Festplatte sollte nicht zu klein ausfallen, da hier die virtuellen Festplatten und Snapshots der virtuellen Maschinen gespeichert werden.

Weiterhin benötigen wir eine für DHCP konfigurierte Netzwerkumgebung inkl. einer aktiven Internetverbindung. Der DHCP-Server wird IP Adressen für die physikalischen Hosts als auch die virtuellen Maschinen bereitstellen müssen. Jeder physikalische Host benötigt zudem eine Vielzahl an IP Adressen, je nach Anzahl der virtuellen Maschinen, die auf ihm laufen sollen.

Für die Verwaltung der GoCloud Infrastruktur wird ein gewöhnlicher Desktop PC mit Windows, Linux oder Mac Betriebssystem oder ein Smartphone benötigt. Die Managementoberfläche unterstützt derzeit den Internet Explorer 7 und 8, Firefox, Chrome/Chromium und Safari.

Installation und Einrichtung von Go Cloud

Als erstes benötigen wir einen Go Cloud Account. Nach der erfolgreichen Registrierung laden wir uns das ISO Image (ca. 180 MB) herunter und entpacken es.

Nun erstellen wir uns aus dem ISO Image entweder eine bootbare CD/DVD oder einen USB-Stick. Anschließend starten wir den physikalischen Server mit dem ISO Image. Voraussetzung hierfür ist, dass der Server via eines DHCP Servers IP Adressen empfangen kann und das eine aktive Internetverbindung besteht. Der physikalische Host wird sich nun automatisch mit dem Go Cloud Management System verbinden. Nach dem Bootvorgang kann die CD/DVD oder der USB-Stick entfernt werden und dieselbe Prozedur kann mit dem nächsten physikalischen Server erfolgen.

Das zuvor heruntergeladene ISO Image ist mit einer persönlichen Account-ID gekennzeichnet, wodurch alle Server die mit dem ISO Image gebootet werden automatisch an dem Go Cloud Management System dieses Accounts registriert werden. Nachdem das Host System vollständig gebooted wurde, erscheint es auf der Management Konsole in der Weboberfläche. Der physikalische Server ist nun soweit vorbereitet, um virtuelle Maschinen zu starten.

Verwaltung der physikalischen Server und virtuellen Maschinen

Um einen physikalischen Server zu konfigurieren klicken wir in der Web Konsole zunächst auf “Physical Servers”. Hier sollte nun ein neuer Server mit einem Datum sowie einem Timestamp zu sehen sein. Hier wählen wir nun “New Server” und anschließend “Initiate Disks”. Das kann einen Moment dauern. Das darauf folgende Pop-Up bestätigen wir. Go Cloud sucht nun die größte Festplatte, entfernt von dieser alle Partitionen und erstellt eine Große. Wir müssen nun ein paar Mal aktualisieren (F5) bis der “Update Repo (Repository)” Button aktiv ist. Nachdem die Festplatte initialisiert ist, sollte auch die Queue leer sein. Wir klicken anschließen den “Update Repo (Repository)” Button.

Die Public Images von Go Cloud werden nun heruntergeladen und extrahiert. Abhängig von der Internetverbindung kann dieses bis zu 15 Minten dauern. Nach Beendigung wird dieser Job aus der Queue verschwinden.

Um eine erste virtuelle Maschine (VM) auf dem physikalischen Host zu erstellen, geben wir der VM als erstes einen Namen und hinterlegen für das Image ein Passwort. Als nächstes wählen wir ein Image bzw. Gast Betriebssystem und entscheiden uns für die Anzahl an CPUs sowie die Größe des zuzuweisenden Arbeitsspeichers. Mit dem klick auf den Button “Power On” wird ein neues VM Image erstellt, welches unten angezeigt wird. Der Status des Image sollte grün (OK) sein sowie die VM eine zugewiesene IP Adresse haben.

Per Remote Desktop, dem Administrator Passwort und dem Image Passwort der erstellten VM kann die VM nun gestartet werden. Für die Anmeldung benötigen wir hier das Passwort des VM Image und nicht das Passwort für die Anmeldung an Go Gloud.


Quelle: Witsbits

Categories
Events

Event-Tipp: SecTXL '11 | Frankfurt – Cloud Computing Sicherheit

Der Hype um das Thema Cloud Computing hat sich mittlerweile auch in Deutschland gelegt und die heiße Phase der Adaption hat begonnen. Damit stehen Unternehmen neben technischen Herausforderungen ebenfalls Fragen bzgl. der Datensicherheit, des Datenschutzes und rechtlicher Themen gegenüber.

Die SecTXL am 22.November 2011 in Frankurt konzentriert sich mit ihrem Leitsatz “Juristische und Technische Sicherheit für die Cloud!” auf genau diese Bereiche und Themen und betrachtet damit den Bereich der Cloud Computing Sicherheit ganzheitlich. Neben fachlichen Vorträgen von Rechtsanwälten und Experten aus den Bereichen des Datenschutzes und der Datensicherheit werden ebenfalls technische Probleme und deren Lösungen von IT-Architekten vorgestellt. Damit werden Möglichkeiten aufgezeigt, wie sich Unternehmen in Zeiten des Cloud Computing aus dem Blickwinkel der Sicherheit verhalten müssen.

Die SecTXL ’11 | Frankfurt beginnt um 09:00 Uhr im “DE-CIX Convention Center”, Lindleystraße 12, 60314 Frankfurt am Main. Eine Karte kostet im Early Bird bis zum 31.Oktober 149 EUR exkl. Ust. und Gebühren. Ab dem 01. November dann zum Normalpreis für 249 EUR exkl. Ust. und Gebühren.

Referenten und Ihre Themen

  • Andreas Weiss (Director | EuroCloud Deutschland_eco e.V.)
  • “Cloud Computing ist die Zukunft – aber sicher!”

  • Eva Schlehahn (Assessorin jur. | ULD Schleswig-Holstein)
  • “Konzepte & Bedingungen für vertrauenswürdiges Cloud Computing”

  • Georg Meyer-Spasche (Rechtsanwalt/ Partner | Osborne Clarke)
  • “Datenschutz in der Cloud. So geht’s richtig!”

  • Dr. Dietmar Wiedemann (Senior Consultant | Proventa AG)
  • “Cloud Governance – die Wolke fest im Griff”

  • Jan Schneider (IT-Rechtsanwalt | SKW Schwarz Rechtsanwälte)
  • “Cloud-Compliance – Was Provider und Nutzer beachten müssen”

  • Ulf Feger (Competence Leader IBM Tivoli – Cloud & Cloud Security)
  • “Der Weg zur Cloud Security – ein Transformationsprozess!”

  • Markus Mertes (Director | Panda Security)
  • “Cloud-Security – Kollektive Intelligenz gegen die Cyber-Mafia”

Die kostenpflichtige Anmeldung und weitere Informationen sind unter http://sectxl.com zu finden.

Categories
News

Wie geht modernes IT Service Management mit Cloud Computing um?

In den vergangenen zwei Jahrzehnten hat ein Wandel vom IT Infrastruktur-Management (ITIM) zum IT Service Management (ITSM) stattgefunden. Das ITIM kümmerte sich darum, einem Unternehmen eine funktionierende IT-Infrastruktur zur Verfügung zu stellen.

Die Frage, welchen Beitrag die Infrastruktur zur Wertsteigerung des Unternehmens leistet, wurde nicht gestellt. Das ITSM orientiert sich dagegen an IT-Diensten, die vorrangig mit Geschäftszielen des Unternehmens im Einklang stehen. Dieser Wandel wurde u.a. verursacht durch den wachsenden Druck auf Organisationen, sowohl im privaten als auch im öffentlichen Sektor, der sie dazu zwingt, wirtschaftlicher als bisher zu operieren. Hinzu kommen die zunehmende Abhängigkeit von der IT, um unternehmenskritische Aktivitäten durch praktisch Realtime-Informationen zu unterstützen, als auch eine höhere Integrität des Berichtswesens, um strengere regulatorische Anforderungen zu erfüllen. Zu guter Letzt führen aber auch die wachsenden Anforderungen von Kunden und der Firmenleitung, Fehler in der IT-Infrastruktur zu reduzieren, zu weiteren Abhängigkeiten.

Das ITSM-Modell zeigt einen Paradigmenwechsel, da der Schwerpunkt des ITSM nicht auf dem Management des IT-Vermögenswerts liegt sondern auf der Lieferung von qualitativ hochwertigen und durchgehenden (end-to-end) IT-Services. Unter zahlreichen ITSM-Modellen hat sich das ITIL (IT Infrastructure Library) – Modell inzwischen eine weltweite Anerkennung als ein de-Facto-Standard erworben. Die erste Version der ITIL wurde Anfang der 90er Jahre als Anleitung für die Rechenzentren der britischen Behörden, qualitativ gleichwertige IT-Dienstleistungen zu liefern, im Auftrag der britischen Regierung entwickelt. Inzwischen gibt es ITIL v3 seit 2007 als eine Sammlung von Publikationen, die den gesamten Lebenszyklus der IT-Dienstleistungen (IT Services) erfassen. Eine Besonderheit der ITIL-Publikationen besteht darin, dass sie keine Standard-Vorgehensweise der IT-Dienstleistungen vorschreiben. ITIL ist eine Zusammenstellung von Best-Practice-Anleitungen, die die praktischen Erfahrungen und ‚Thought Leadership’ der besten (best-in-class) Dienstleister (Service Provider) der Welt repräsentiert.

Die neueste Ausgabe der ITIL v3 (ITIL 2011 edition) beschreibt (als Best-Practice) den gesamten Service-Lebenszyklus in fünf Phasen – Servicestrategie, Serviceentwurf, Serviceüberführung, Servicebetrieb und kontinuierliche Serviceverbesserung – (siehe ITIL 2011 edition – www.best-management-practice.com). Die 2011-Ausgabe wurde erforderlich, da es seit 2007 zahlreiche Neuerungen im IT-Bereich gab, darunter auch Cloud Computing.

Es wird explizit darauf hingewiesen, dass noch keine Best-Practice-Anleitung über Cloud Services vorliege, weil es sich noch um einen relativ neuen Trend handelt. Es gibt derzeit einen Anhang C im Band ITIL Service Strategy über Cloud Services. Dieser Anhang beschreibt

    a) Merkmale des Cloud Services
    b) Typen von Cloud Services
    c) Typen von Cloud-Nutzern
    d) Komponenten der Cloud-Architektur
Categories
Services @de

Der KOALA Cloud Manager

Derzeit existieren drei unterschiedliche Arten bzw. Tools wie Cloud Computing Infrastrukturen gesteuert und verwaltet werden können, SaaS-Lösungen, Browser Plugins und Kommandozeilentools. Diese haben je nach Einsatzgebiet ihre Vor- und Nachteile.

So ist die AWS Management Console sehr proprietär und kann ausschließlich dazu genutzt werden, um die AWS Infrastruktur zu verwalten. Angebote wie bspw. Rightscale, Enstratus und Ylastic sind kostenpflichtig zu nutzen und unterstützen darüber hinaus nicht alle Cloud Infrastrukturen am Markt. Hinzu kommt, dass bei diesen Drittanbietern sämtliche Zugangsdaten für den Zugriff auf die Cloud Infrastrukturen hinterlegt werden müssen, was das Vertrauen in den Anbieter voraussetzt.

Betrachten wir die Browser Plugins, existieren derzeit nur wenig nennenswerte, wie bspw. Elasticfox oder Hybridfox, die jedoch ausschließlich für den Firefox verfügbar sind. Darüber hinaus muss hier eine lokale Installation erfolgen, die regelmäßigen Updates unterzogen werden muss, wenn sich Eigenschaften an der zu verwaltenden Cloud Infrastruktur vorgenommen ändern.

Die letzte Kategorie sind die Kommandozeilentools. Die EC2 API Tools unterstützen lediglich die AWS Cloud. Die Euca2ools der Eucalyptus Cloud hingegen bereits sich selbst und die AWS Cloud API. Auch hier ist eine lokale Installation erforderlich und die Administration per Kommandozeile ist heutzutage auch nicht mehr jedermanns Sache!

Eine mögliche Lösung?

Der KOALA (Karlsruhe Open Application (for) cLoud Administration) Cloud Manager möchte bei allen oben genannten Problemen Abhilfe verschaffen. Dabei handelt es sich um einen Cloud Service, der IaaS Nutzern dabei helfen soll, Amazon Web Services (AWS) kompatible Cloud Services und Cloud Infrastrukturen zentralisiert zu verwalten. Dazu unterstützt KOALA die AWS Public Cloud Services sowie die Private Cloud Infrastrukturen Eucalyptus, Nimbus und OpenNebula. Darüber hinaus werden die Cloud Storage Services von Google und Host Europe unterstützt. (Anmerkung der Redaktion: Da der Host Europe Cloud Storage auf der Cloud Storage Technology von Scality basiert, sollte KOALA ebenfalls weitere Cloud Storage Services unterstützen.)

KOALAs ist in der Lage mit Cloud Services zu kommunizieren, welche die APIs der Elastic Compute Cloud (EC2), des Simple Storage Service (S3), des Elastic Block Store (EBS) und des Elastic Load Balancing (ELB) implementieren. Der Benutzer kann mit KOALA Instanzen starten, stoppen und monitoren sowie Volumes und Elastic IP Addresses verwalten. Darüber hinaus können Buckets in Amazon S3, S3-kompatiblen Storage Services wie Walrus und Google Storage erstellt und gelöscht werden. Die Verwaltung ist hier vergleichbar mit dem S3Fox oder dem Google Storage Manager.

Der KOALA Cloud Manager selbst wurde als Service in Python für die Google App Engine entwickelt und kann entweder auf der App Engine direkt (Public Cloud) oder als Private Cloud Variante innerhalb eines App Engine kompatiblen Dienstes wie AppScale oder typhoonAE betrieben werden. AppScale als auch typhoonAE können dabei entweder innerhalb einer Public Cloud wie Amazon EC2 oder einer Private Cloud wie Eucalyptus genutzt werden, um bspw. Sicherheits- und Datenschutz-Bedenken vorzubeugen.

Der KOALA Cloud Manager kann kostenlose genutzt werden. Der Quellcode steht unter der Apache License, Version 2.0. und ist somit Open Source.

Weitere Infos unter http://koalacloud.appspot.com.