Categories
Literatur

Buch – Pro Amazon EC2 and WS: Elastic Compute Cloud and Web Services

Titel: Pro Amazon EC2 and WS: Elastic Compute Cloud and Web Services Development with Java

Autor: Max Yankelevich, Mikhail Malamud, Donald Mahaya

Beschreibung:
“Cloud computing is being talked about as the next major trend that is going to change the way businesses use technology to gain competitive advantage in the marketplace, much like the Internet did in the 1990s. Java Enterprise Edition (EE) appears to be the programming platform of choice for most organizations that require scalability and enterprise application features. Java has had tremendous success in the engineering community with a substantial ecosystem of various open source frameworks and utilities

Cloud computing + Java + open source = The next generation of “Internet-scale” applications

Pro Amazon EC2 and WS with Java walks you through a comprehensive and practical approach to working with Amazon’s Elastic Compute Cloud in EC2 and associated web services using Java EE implementations, frameworks, and tools like JBoss, Hibernate, Spring, GridGrain, and more to create the next generation of “Internet-scale” applications.

The Freedom OSS author team has had long-term, close partnerships with Amazon Web Services and JBoss. These relationships give the authors a unique insight into their inner workings and various implementation strategies. And these insights provide a “view from the trenches” that comes from having done over 100 Amazon AWS and over 300 Java EE projects in the last two years.

What you’ll learn

  • Migrate your existing JEE application to EC2/EBS/S3
  • Get your Java web application up and running in minutes in the cloud
  • Avoid common Amazon Web Services pitfalls
  • Secure your application running on JBoss or Tomcat on Amazon EC2
  • Create Amazon Machine Images (AMI) containing Java components
  • Deploy your Spring-based app on EC2
  • Uncover Internet-scale messaging alternatives on the cloud
  • Find out when to best use elastic block storage vs. S3
  • Determine how and when to utilize everything AWS has to offer
  • Explore design strategies on how to stay “cloud agnostic”
  • Handle large usage spikes in your Java EE application through “bursting” and “autoscale” strategies
  • Create High Performance Computing (HPC) Java applications to crunch large data sets
  • Find out how to create highly reliable applications using Java and AWS

Who is this book for?
Java developers and architects with good working knowledge of Java EE and basic concepts of cloud computing. This book can also apply to project managers, system admins, and tech-savvy small business owners who wish to create cloud-based business services.”

Bestellmöglichkeit: Amazon

Cover:

Categories
Management @de

Cloud Computing Nutzen: Datenspeicherung und Datenbackup

Eine der größten Herausforderungen für Unternehmen ist die stetige Zunahme der zu speichernden Daten, welche die Verwaltungsaufgaben immmer komplexer und kostspieliger werden lässt. Nicht nur auf Grund dieser Situation wird die Gewährleistung des Datenschutzes und der Datenverfügbarkeit immer wichtiger. Cloud Storage für das Speichern und Backup der Daten ist hierfür ein idealer Ansatz wenn gewisse Punkte beachtet werden.

Wie kann ich zukünftig auf meine Daten zugreifen und ist der Zugriff ortsunabhängig möglich. Wie ist das Sicherheitsmodell des Anbieters, kann ich den Zugriff verwalten oder hat stets jeder Zugriff auf die Daten? Verfügt der Anbieter über ein Risikomanagement, wodurch Ausfallszeiten und der Verlust meiner Daten vermieden wird? Stehen mir Möglichkeiten zur Verfügung, mit denen ich zuverlässige Backupstrategien implementieren kann und im Worst Case ebenfalls eine Systemwiederherstellung durchführen kann. Wie skalierbar ist die Speicher/Backup Lösung des Anbieters. Wächst diese automatisch mit meinen Bedürfnissen oder bin ich zunächst auf einen fixen Speicherplatz angewiesen der manuell erweitert werden muss, wodurch deutlich höhere Kosten entstehen?

Categories
News

openQRM mit neuen Funktionen

Bereits seit dem 12.03.2010 ist der Funktionsumfang der Cloud Computing Plattform openQRM erweitert. Eines der neuen Features ist die Unterstützung des Windows Betriebssystems. Folgende vier neue Funktionen sind verfügbar:

kvm-storage plug-in

Das kvm-storage Plugin kombiniert die KVM Virtualisierungstechnologie mit der LVM Speichertechnologie. Dadurch können ab sofort lokale virtuelle Maschinen auf Basis von KVM durch die Nutzung von virtuellen Festplatten auf Basis von LVM Volumes schnell bereitgestellt werden.

xen-storage plug-in

Das xen-storage Plugin kombiniert die Xen Virtualisierungstechnologie mit der LVM Speichertechnologie. Dadurch können ab sofort lokale virtuelle Maschinen auf Basis von Xen durch die Nutzung von virtuellen Festplatten auf Basis von LVM Volumes schnell bereitgestellt werden.

sanboot-storage plug-in

Mit dem sanboot-storage Plugin können Windows Betriebssysteme schnell auf dem physischen System bereitgestellt werden. Dazu werden die Windows Server Images auf direktem Weg von einem SAN Speicher (iSCSI oder AOE) mittels gPXE bereitgestellt. Eine der herausragenden neuen Funktionen ist die Möglichkeit Live Snapshots des Windows Betriebssystems direkt in einem SAN zu speichern. Diese Snapshots können anschließend für ein erneutes Deployment/ Rollback verwendet werden.

windows plug-in

Mit dem windows Plugin kann über die Oberfläche des openQRM Servers ein Windows Betriebssystem vollständig verwaltet werden, indem der openQRM-Client auf dem Windows Server Image installiert wird. Durch die Unterstützung des Windows Betriebssystems geht openQRM damit den nächsten Schritt, eine zentrale Management Console für Cloud Computing Rechenzentren und IT-Infrastrukturen bereitzustellen.

Categories
Management @de

Cloud Computing Nutzen: Web-Hosting

Unternehmen haben unterschiedliche Lösungsansätze, um das Web-Hosting ihrer Webseite zu betreiben. Zunächst besteht die Möglichkeit ein eigens Rechenzentrum aufzubauen und zu betreiben. Weiterhin kann ein Drittanbieter damit beaufragt werden die Webseite auf seine dafür dedizierten Servern zu hosten und zu verwalten. Der letzte Ansatz ist die Nutzung Cloud Computing basierter Lösungen.

Egal welcher Ansatz nun verfolgt wird, ist es für Unternehmen unabdingbar eine Infrastruktur auszuwählen, die Ihnen eine größtmögliche Sicherheit, Zuverlässigkeit und Performance bietet. Unabhängig davon rücken die Kosten, also fixe Kosten und variable Kosten immer weiter in den Fokus und betreffen jedes Unternehmen jeder Größe. Zudem ist in den letzten Jahren der Wunsch nach Flexibilität immer weiter gestiegen um die Kosten transparenter im Blick zu behalten.

Cloud Computing Lösungen geben Unternehmen hierbei die Chance ihre vorab Investitionen zu verringern und damit Kapital zu sparen. Ein weiterer Vorteil eine Cloud Lösung besteht in der Skalierbarkeit in beide Richtungen. Steigt die Auslastung an, können die Ressourcen nach oben skaliert werden. Nimmt die Auslastung wieder ab, werden die überschüssigen Ressourcen wieder freigegeben. In beiden Fällen entstehen nur Kosten für die Ressourcen die auch tatsächlich genutzt werden.

Fällt die Entscheidungen auf eine Cloud Computing Lösung müssen sich Unternehmen vorab genau informieren, um nicht doch in eine Kostenfalle oder einen Vendor oder Technik lock-in zu geraten. Dabei sollte zunächst geprüft werden, was für Kosten zu Beginn und während des Webhosting Betriebs entstehen und ob nicht doch versteckte Gebühren in den Verträgen vorhanden sind. Stichwort: Transparenz! Weiterhin ist zu klären, wie verlässlich und hochverfügbar die Infrastruktur des Anbieters ist. Ist dieser ggf. von einer unabhängigen Instanz hinsichtlich dieser Anforderungen geprüft und zertifiziert worden? Wie verhält sich die Infrastruktur des Anbieters, wenn die Anfragen/Last plötzlich unerwartet zunimmt. Wie ist das Ressourcenhandling der Infrastruktur? Hier ist ein unabhängiges Audit eine Möglichkeit (z.B. durch Zusammenschluss mehrerer Kunden).

Wie ist der Anbieter bzgl. seines technischen Angebots und seiner Umgebung ausgestattet. Genauer, gibt der Anbieter die zu verwendenen Programmiersprachen und Webplattform vor, oder kann beides jeweils selbst ausgewählt werden? Findet eine Migration zu dem Anbieter statt, muss geklärt werden, ob u.a. die aktuell verwendeten Betriebssysteme und Umgebungen weiter verwendet werden können, oder ob eine vollständige/ teilweise Erneuerung stattfinden muss.

Categories
Services @de

Scalarium

Scalarium, das Cloud Computing Produkt der Peritor GmbH dient zur Automatisierung der Kommunikation und Konfiguration von Amazon EC2 Cluster.

Eine Beispielkonfiguration für einen Cluster würde z.B. aus einem Load Balancer, drei Rails Applikations-Servern und einem Datenbankserver bestehen. Für den Start dieses Clusters ist anschließend Scalarium verantwortlich, indem es eine Verbindung zur Amazon Compute Cloud (EC2) herstellt und die entsprechenden Instanzen startet. Die Images werden geladen und der Scalarium Agent installiert.

Der Scalarium Agent wird auf jedem Server ausgeführt und ist über eine verschlüsselte Verbindung ständig mit Scalarium in kontakt. Webserver werden dabei automatisch mit Nginx konfiguriert, während Datenbankserver eine MySQL Installation erhalten. Nachdem der Scalarium Agent auf einer Instanz installiert wurde und das System konfiguriert hat, wird die Instanz als online markiert und kann durch den Cluster verwendet werden.

Scalarium bietet die folgenden vier Funktionen, die im Anschluß jeweils kurz vorgestellt werden.

  • Auto Config
  • Auto Healing
  • Auto Scaling
  • One Click Deploy

Auto Config

Mittels der Auto Configuration werden die Server automatisiert konfiguriert, indem die benötigte Software installiert und eingerichtet wird. Werden weitere Instanzen hinzugefügt, konfiguriert Scalarium automatisch die Anwendungen und den gesamten Cluster. Die einzigen Informationen die von Scalarium dazu benötigt werden sind die gewünschten Ubuntu Packages und Rubygems. Anschließend werden alle Pakete und Libraries auf jedem Server installiert und das zu jederzeit.

Weitere Informationen zu Auto Config sind HIER zu finden.

Auto Healing

Mit Auto Healing sorgt Scalarium dafür, dass die vorher festgelegten Services und Hosts des Cluster im Fehlerfall automatisch wiederhergestellt werden. Fällt z.B. ein Server aus, wird dieser durch Scalarium entfernt und in kurzer Zeit durch eine neue Instanz ersetzt, wodurch der gesamte Cluster automatisch neu konfiguriert wird.

Weitere Informationen zu Auto Healing sind HIER zu finden.

Auto-Scaling

Durch das Auto-Scaling können Schwellwerte festgelegt werden die dafür sorgen, dass entweder weitere Instanzen gestartet oder nicht mehr benötigte Instanzen beendet werden. Dazu überwacht Scalarium die CPU- und Arbeitspeicher-Auslastung, sowie die durchschnittliche Belastung jeder Instanz.

Weitere Informationen zu Auto Scaling sind HIER zu finden.

One Click Deploy

Mittels One Click Deploy können Anwendungen über den gesamten Cluster hinweg zu einem Zeitpunkt vollständig automatisiert verteilt, installiert und konfiguriert werden.

Weitere Informationen zu One Click Deploy sind HIER zu finden.

Demo Video

Preise

Quelle

Categories
Services @de

CloudCache

Mit CloudCache stellt das Unternehmen Quetzall eine flexible Caching Infrastuktur als Service bereit, in der über eine API beliebige Objekte zwischengespeichert werden können. Entwickler haben damit die Möglichkeit ihre Daten innerhalb eines in-memory Cache abzulegen um damit die Zugriffe auf die Datenbank zu verringern und die Performance zu erhöhen.

CloudCache kann u.a. für das Zwischenspeichern von Anfragen, Sessions oder Templates genutzt werden und funktioniert ebenfalls in Verbindung mit Amazon’s Netzwerk Topologie.

Funktionen

  • Latenz: 1.5 ms
  • Multi-Get
  • Statistiken: Hits/Misses/Usage
  • Nutzung von 1 bis 1000 Caches
  • AJAX oder XML Unterstützung
  • Inkrementierungs- und Dekrementierungsmöglichkeiten
  • Konfigurierbare Time-to-Live der Objekte für das automatische Löschen

Dokumentation

CloudCache unterstützt derzeit die Programmiersprachen Ruby, Java, PHP und Python sowie eine Raw REST API. Um den Einstieg zu erleichtern existiert eine separate Dokumentationsseite auf der die ersten Schritte für den Umgang mit CloudCache erklärt werden.

Preise

  • $0.05/MB
  • 10 MB Cache frei bis zum 1.November 2010
  • Keine Vertragslaufzeit
  • Keine Einrichtungsgebühr
  • Abrechnung nach dem tatsächlichen Verbrauch
  • Monatliche Abrechnung

Demo Video

http://vimeo.com/7105046

Quelle

  • CloudCache
Categories
Literatur

Buch – Behind the Cloud

Titel: Behind the Cloud: The Untold Story of How Salesforce.com Went from Idea to Billion-Dollar Company-and Revolutionized an Industry

Autor: Marc Benioff, Carlye Adler

Beschreibung:
“How did salesforce.com grow from a start up in a rented apartment into the world’s fastest growing software company in less than a decade? For the first time, Marc Benioff, the visionary founder, chairman and CEO of salesforce.com, tells how he and his team created and used new business, technology, and philanthropic models tailored to this time of extraordinary change. Showing how salesforce.com not only survived the dotcom implosion of 2001, but went on to define itself as the leader of the cloud computing revolution and spark a $46-billion dollar industry, Benioff’s story will help business leaders and entrepreneurs stand out, innovate better, and grow faster in any economic climate.
In Behind the Cloud, Benioff shares the strategies that have inspired employees, turned customers into evangelists, leveraged an ecosystem of partners, and allowed innovation to flourish.

How did salesforce.com grow from a start-up in a rented apartment into the world’s fastest growing software company in less than a decade?

For the first time, Marc Benioff, the visionary founder, chairman, and CEO of salesforce.com, tells how he and his team created and used new business, technology, and philanthropic models tailored to this time of extraordinary change. Showing how salesforce.com not only survived the dot-com implosion of 2001, but also went on to define itself as the leader of the cloud computing revolution and spark a 46 billion-dollar industry, Benioff’s story will help business leaders and entrepreneurs stand out, innovate better, and grow faster in any economic climate.

In Behind the Cloud, Benioff shares the strategies that have inspired employees, turned customers into evangelists, leveraged an ecosystem of partners, and allowed innovation to flourish. Benioff shows how salesforce.com pioneered a simple idea (delivering business applications as a service over the Internet) to change the way all businesses use software applications and, ultimately, change the way the software industry works.

With Marc Benioff’s candid, unconventional advice and unusual call-out lessons from the Salesforce.com Playbook—including Benioff’s proprietary management tool, V2MOM—any business can go against the grain, rapidly change the game, and learn how to achieve lasting success.”

Bestellmöglichkeit: Amazon

Cover:

Categories
Management @de

Umfrage zur Attraktivität von WebOS der Goethe Universität Frankfurt

Im Rahmen einer Diplomarbeit am Lehrstuhl für Electronic Commerce an der Goethe Universität Frankfurt, findet bis Anfang Mai eine Umfrage zum Thema WebOS statt. Die Bearbeitungszeit des Fragebogens beträgt ca. 20 bis 25 Minuten. Dabei konzentriert sich der Fragenbogen auf das Interesse, die generelle Nutzung und die Zahlungsbereitschaft von WebOS Angeboten.

Die Teilnahme an der Umfrage erfordert keine Vorkenntnisse und es gibt keine richtigen oder falschen Antworten. Das Wichtigste ist die persönliche Einschätzung, auch dann, wenn man sich nicht vollkommen sicher ist. Daher sollten bitte alle Fragen beantwortet werden.

Als kleines Dankeschön werden drei Amazon-Gutscheine im Wert von jeweils 20 Euro verlost.

Hier geht’s zur Umfrage!

Categories
Management @de

Cloud Computing – Ein einleitender Überblick

Der Begriff Cloud Computing prägt seit nun mehr zwei Jahren das Bild der Informationstechnologie um Dienste und Infrastrukturressourcen über das Internet zu vermieten. Gartner sieht in Cloud Computing den Hype – siehe Graphik und prophezeit, dass es sich in den kommenden zwei bis fünf Jahren etabliert und die Welt der Informationstechnologie grundlegend verändern wird.

Die Idee IT-Ressourcen zu mieten anstatt diese zu kaufen ist allerdings nicht neu und blickt auf eine
lange Geschichte zurück.

Cloud Computing verspricht kostengünstig und schnell IT-Ressourcen und Dienste zu beziehen, was zunehmend von den Großen der Internetbranche sowie Anbietern von Software as a Service Diensten, Hostingprodukten und Netz- und Infrastrukturen vorangetrieben wird. Letztendlich ist jedes dieser genannten Angebote aber nur ein Teil dieses großen Puzzles. Nur die (Teil-)Kombination aller genannten Angebote führt am Ende zum Cloud Computing.

Cloud Computing soll zu einer dauerhaften Verbesserung der Kostenstruktur durch Kostenreduktion führen, indem die benötigten Leistungen nur nach Bedarf genutzt und anschließend abhängig vom Verbrauch abgerechnet werden. Weitere Vorteile werden in der nachhaltigen Produktivitätssteigerung und Flexibilität einer Organisation gesehen. Aber auch die Anbieter von Cloud Computing Diensten können ihren Profit anhand einer besseren Auslastung ihrer Ressourcen und die Nutzung von Skaleneffekten steigern.

Neben hellen existieren aber auch immer dunkle Wolken. Sicherheit, Datenschutz(!) und Qualitätssicherung sind Themen denen sich Anbieter von Cloud Computing Diensten stellen und Lösungen finden müssen. Des Weiteren macht Cloud Computing für die Anbieter nur Sinn, wenn sie ihre Angebote, Abläufe und Prozesse standardisieren. Stellt sich die Frage, ob Unternehmen bereit sind, sich ihre Geschäftsprozesse und die IT-Infrastruktur bis ins kleinste Detail diktieren zu lassen und die Angebote der Anbieter überhaupt den Anforderungen der Unternehmen entsprechen.

Graphik:

Categories
Grundlagen

Was ist ein Hypervisor?

Der Begriff Hypervisor setzt sich aus den griechischen Worten Hyper (deutsch: über) und Visor (lateinisch videre, deutsch: sehen) zusammen. Er wird auch als Virtual Machine Manager bezeichnet, der Hardware-Ressourcen dynamisch und transparent zuweisen kann, wodruch auf einer physikalischen Hardware mehrere Betriebssysteme parallel ausgeführt werden können. Die einzelnen Betriebssysteme sind so voneinander isoliert, dass sie die Existenz des jeweils anderen nicht kennen. Dadurch wird jedem System suggeriert, dass es alleine über die vollständigen Ressourcen wie Prozessorleistung, Arbeitsspeicher, Festplattenspeicher etc. der darunter liegenden physikalischen Hardware verfügt. Der Hypervisor ist für die Kontrolle des Prozessors und aller Ressourcen zuständig, und weist diese den jeweiligen Betriebssystemen (Gastsysteme, Virtual Machines) je nach Bedarf zu. Weiterhin sorgt er dafür, dass die einzelnen Gastsysteme ungestört voneinander arbeiten können und sich nicht gegenseitig während des Betriebs stören.

In den meisten Fällen wird ein Hypervisor noch vor dem eigentlichen Betriebssystem auf der physikalischen Hardware installiert. Da seine einzige Aufgabe darin besteht Virtualisierungsfunktionen bereitzustellen, ist er sehr Schlank aufgebaut. Er verfügt über spezielle Administrationssschnittstellen mit denen die Gastsysteme später installiert werden können und weitere Schnittstellen die ihn von den Gästen strikt trennen.

Ein Hypervisor arbeitet transparent und flexibel. Daher ist er in der Lage im Prinzip jedes Betriebssystem sei es Windows, Linux, Mac OS, etc. auszuführen. Aktuelle Hypervisor verfügen mittlerweile über eine Performanz, die mit einer direkten Installation des Gastbetriebssystems auf der physikalischen Hardware vergleichbar ist.

Es werden zwei Typen (Typ1, Typ2) von Hypervisorn unterschieden.

Typ 1

Ein Hypervisor vom Typ1 wird direkt auf der darunter liegenden physikalischen Hardware ausgeführt. Von dort aus kontrolliert er die Hardware Ressourcen und überwacht die Gastbetriebssysteme, die auf (über) ihm installiert werden.

Aktuelle Hypervisor vom Typ1 sind VMware ESX Server, Microsoft Hyper-V, IBM POWER Hypervisor (PowerVM), IBM System z Hypervisor (PR/SM), Xen, Citrix XenServer, Oracle VM Server und Parallels Server.

Typ 2

Ein Hypervisor vom Typ2 wird, wie eine gewöhnliche Software, auf einem Betriebssystem ausgeführt, dass auf der physikalischen Hardware installiert ist. Die Gastbetriebssysteme werden anschließend auf (über) ihm installiert und ausgeführt.

Aktuelle Hypervisor vom Typ2 sind VMware Server (GSX), VMware Workstation, VMware Fusion, QEMU, Microsoft Virtual PC, Microsoft Virtual Server, VirtualBox, Parallels Workstation und Parallels Desktop