Categories
Videos

Video: Cloud Computing Workshop an der Princeton University

Dieses Video zeigt einen Workshop am Princeton University Center for Information Technology Policy. Darin werden die sozialen und politischen Einflüsse von Cloud Computing diskutiert.

via YouTube

Categories
Services @de

Was ist "Amazon Virtual Privat Cloud"?

Bei der Amazon Virtual Private Cloud (Amazon VPC) handelt es sich um eine Lösung zur sicheren und nahtlosen Verbindung der vorhandenen Unternehmensinfrastruktur mit den angemieteten Ressourcen innerhalb der Amazon Cloud. Die eigene Infrastruktur wird mittels einer VPN Verbindung (Virtual Private Network) mit der Amazon Infrastruktur verbunden und somit erweitert, wodurch eine Hybrid Cloud entsteht. Aktuell können nur Amazon EC2 Instanzen in die eigene Infrastruktur integriert werden. Die Integration der restlichen Amazon Web Services wie z.B. Amazon S3 soll folgen. Die Abbrechnung der Amazon Virtual Private Cloud erfolgt wie bei allen Amazon Web Services über die tatsächliche Nutzung (VPN Verbindungsdauer pro Stunde, VPN Datentransfer pro GByte).


[2]

Amazon VPC Funktionsweise

Mit der Amazon Virtual Private Cloud können die eigenen (isolierten) Ressourcen innerhalb der Amazon Cloud mit den Ressourcen im eigenen Rechenzentrum über ein verschlüsseltes IPsec VPN verbunden werden.

Dafür sind die folgenden Schritte notwendig:

  • Erstellung der Virtual Private Cloud innerhalb von Amazons Infrastruktur.
  • Festlegen eines eigenen IP-Adressbereiches.
  • Aufteilung des VPCs IP-Adressbereiches in mehrere Subnetze.
  • Verbinden der VPC mit der eigenen Infrastruktur mittels der VPN Verbindung.
  • Hinfzufügen der Amazon EC2 Instanzen zur VPC.
  • Das Routing so konfigurieren, das der Datentransfer zwischen der VPC und dem Internet über die VPN Verbindung vorgenommen wird.
  • Hinzufügen der innerhalb der eigenen Infrastruktur vorhandenen Sicherheits- und Managementregeln zu der VPC.

Funktionen

  • Isolierte Netzwerkverbindung
    Die Amazon Virtual Privat Cloud ermöglicht eine isolierte Ende zu Ende Netzwerkverbindung durch den Einsatz eines vorher festgelegten IP-Adressbereichs. Dadurch wird der gesamten Netzwerkverkehr zwischen der VPC und dem Rechenzentrum geroutet. Eine zusätzliche IPsec VPN Verbindung sorgt für die Verschlüsselung des Datentransfers.
  • Flexibilität
    Die Verwaltung der VPC erfolgt so wie die Verwaltung der eigenen Infrastruktur. Das bedeutet, dass innerhalb der VPC ebenso komplexe Netzwerkstrukturen mittels Subnetzen und Gateways aufgebaut werden kann. Zu den Möglichkeiten gehören:

    1. Erstellung und Verwaltung von Subnetzen.
    2. Hinzufügen von IP-Adressbereichen für Amazon EC2 Instanzen innerhalb der Subnetze.
    3. Konfiguration von sicheren Verbindungen um den Zugriff auf die Amazon Cloud einzuschränken.
  • Skalierung der bestehenden Infrastruktur
    Mit der Amazon Virtual Private Cloud kann die bereits bestehende Infrastruktur im eigenen Rechenzentrum mit den angemieteten Ressourcen innerhalb der Amazon Infrastruktur verbunden und damit erweitert werden – wodurch eine Hybrid Cloud entsteht. Damit besteht die Möglichkeit die Infrastruktur im eigenen Rechenzentrum bei Bedarf schnell, kostengünstig und ohne die Anschaffung weiterer Serverhardware zu erweitern, indem innerhalb der Amazon Cloud zusätzliche Amazon EC2 Instanzen hinzugefügt werden. Darüber hinaus kann z.B. ein Backup (1:1 Abbild) des Rechenzentrums erfolgen, indem das Rechenzentrum in die Amazon Cloud repliziert wird.

Preise

Alle Preise sind hier zu finden: Amazon VPC Preise

Quellen:

[1] Amazon VPC
[2] Graphik: Amazon VPC

Categories
Literatur

Buch – Cloud Computing Best Practices for Managing and Measuring Processes for On-demand Computing, Applications and Data centers in the Cloud with SLAs

Titel: Cloud Computing Best Practices for Managing and Measuring Processes for On-demand Computing, Applications and Data centers in the Cloud with SLAs

Autor: Haley Beard

Beschreibung:
“The #1 best-selling Cloud Computing book of all time, revised and updated to keep pace with today’s ever-changing developments, possibilities and opportunities. Updates and revisions throughout.
The first edition of this book is regarded as a classic in its field. Now, in an expanded and updated version, the authors once again present a step-by-step guide to Managing Cloud Computing Initiatives.

Computing as a utility has arrived. Companies are shifting from a world in which we run computers, to one in which we pay for computing. The benefits are tremendous: Cost-effective infrastructure that scales as needed, and an ability to focus on the business rather than the platforms. But the risks are high, and cloud computing may not be ready for prime time. This book offers a first-time in-depth look into the managed processes for cloud computing.

How reliable is the cloud? Enterprises demand predictable service levels, reliable delivery, and committed availability. This book looks at what level of service we should demand – and can expect – from cloud computing infrastructure, as well as tools and best practices for measuring it.

New computing means new management. This book covers emerging best practices for managing applications when they’re running in the cloud.

Considering the increasing number of IT Professionals and their Organizations who want to be actively involved in Cloud Computing Management, this book, which paves the way for a strong Foundation, should do at least as well as the first edition, which is a bestseller.”

Bestellmöglichkeit: Amazon

Cover:

Categories
Analysen

Gründe für eine "Software as a Service Strategie"!

Von Tag zu Tag wächst der Markt der Cloud Computing Angebote. Neben immer neuen Services sind besonders die Angebote von Anbietern wie z.B. Amazon sehr beliebt, die Rechenleistung pro Stunde oder den Speicherplatzverbrauch pro GByte abrechnen. Dennoch fangen Unternehmen erst langsam an über Cloud Services nachzudenken.

Auf Grund der hohen Erwartungen, haben bisher nur wenige bemerkt, wie leistungsfähig Software as a Service (SaaS) Angebote geworden sind. Allerdings dürfen die Auswirkungen von SaaS auf die IT-Organisation nicht übersehen werden und es muss weiterhin sichergestellt werden, dass ein SaaS Ansatz für das gesamte Unternehmen geeignet ist.

Im Falle von SaaS verschiebt sich die Bereitstellung und die Wartung der Software in Richtung des Anbieters, wodurch sich freie Ressourcen ergeben, die für andere bzw. neue IT-Projekte verwendet werden können. Für die IT-Organisation entstehen dadurch aber neue Aufgaben, denn die Verfügbarkeit, Datensicherheit, mögliche Einhaltung gesetzlicher Vorschriften etc. müssen regelmäßig überprüft und mit dem Anbieter vertraglich festgehalten werden. Auf Grund von möglichen Ausfällen oder schlechten Reaktionszeiten, die nicht im eigenen Einflussbereich liegen und ein Unternehmen in seiner Produktivität einschränken oder vollständig stoppen können, sollten SaaS Anwendungen nicht als ein nice-to-have angesehen werden, sondern ernsthaft evaluiert werden. Der größte Benefit wird durch SaaS Anwendungen nämlich erst dann erzielt, wenn ein ganzheitlicher Ansatz verfolgt und SaaS als ein Teil in die gesamte Unternehmensarchitektur integriert wird.

Für einen SaaS Ansatz sprechen u.a. eine schnelle Implementierung, die Verringerung der eigenen IT-Infrastruktur und die daraus resultierenden Einsparungen hinsichtlich der Investitionskosten und operativen Kosten.

Zu den bereits heute von Unternehmen eingesetzten SaaS Anwendungen gehören z.B. automatische Vertriebs- und Informationsysteme, CRM Systeme, Systeme für die Personalverwaltung, Webseiten, E-Mail Lösungen, Service Desks, Collaboration Suites, Finanzsysteme und Backup Lösungen. Vor allem für Start-Ups ergeben sich hier Chancen die Investitionen in eigene Serverhardware und Softwarelizenzen zu vermeiden, sowie die IT-Infrastruktur schnell einzurichten und bei Bedarf beliebig zu skalieren, indem zu 100% auf SaaS gesetzt wird und z.B. Anwendungen für die Rechnungsstellung, Zeiterfassung, E-Mail bis hin zum Vertriebsmanagement- und Controlling von einem oder mehreren Anbietern bezogen werden.

Ein weiterer offensichtlicher Benefit durch Software as a Service ist die Befriedigung der Nachfrage nach mehr Mobilität durch die eigenen Arbeitnehmer. IT-Organisationen haben durch SaaS die Möglichkeit mit einfachen Mitteln und auf einem sicheren Weg viele Anwendungen außerhalb des Unternehmensnetzwerks bereitzustellen und so für Arbeitnehmer unterwegs, auf dem Smartphone, in Zweigniederlassung oder im Home Office zugänglich zu machen. In herkömmlichen IT-Infrastrukturen führt der Remote-Zugriff auf Grund von unterschiedlichen Plattformen und Umgebungen häufig zu Schwierigkeiten bei der Bereitstellung. Durch den Einsatz von Webbrowser basierenden SaaS Anwendungen kann auch diese Hürde auf einem einfachen Weg genommen werden.

Wie heutzutage bei allen IT Fragen ist auch bei einer SaaS Strategie zu beachten, dass die Entscheidung nicht alleine von der IT-Organisation getragen werden sollte, sondern ebenfalls vom Business mit initiiert und unterstützt wird.

Die IT-Organisation sollte als interner Berater des Business dienen und SaaS berücksichtigen wenn es darum geht, in Zukunft neue Anwendungen für das Unternehmen auszuwählen. Dazu sollte sie sich für die Entwicklung einer SaaS Strategie ein Framework mit klar definierten Regeln für die Bewertung und den Betrieb einer Umgebung mit SaaS Anwendungen aufbauen.

Categories
Videos

Video: Above the Clouds: A Berkeley View of Cloud Computing

Zu dem Paper Above the Clouds: A Berkeley View of Cloud Computing, wurde ebenfalls ein Video veröffentlicht.

via YouTube

Categories
Literatur

Buch – Cloud Computing Best Practice Specialist Guide for Storage Management and Platform as a service (PaaS)

Titel: Cloud Computing Best Practice Specialist Guide for Storage Management and Platform as a service (PaaS): Understanding and Applying PaaS Solutions

Autor: Ivanka Menken, Gerard Blokdijk

Beschreibung:
“Platform as a service (PaaS) is the delivery of a computing platform and solution stack as a service. It facilitates deployment of applications without the cost and complexity of buying and managing the underlying hardware and software layers, providing all of the facilities required to support the complete life cycle of building and delivering web applications and services entirely available from the Internet – with no software downloads or installation for developers, IT managers or end-users.
PaaS offerings include workflow facilities for application design, application development, testing, deployment and hosting as well as application services such as team collaboration, web service integration and marshalling, database integration, security, scalability, storage, persistence, state management, application versioning, application instrumentation and developer community facilitation. These services are provisioned as an integrated solution over the web.

The primary goal of this book is to provide the quality education and support materials needed to enable the understanding and application of PaaS Platform and Storage Management in a wide range of contexts.

The PaaS Platform and Storage Management Certification Scheme has been created to support the IT Professional who needs to be a ‘niche generalist’, especially in a rapidly changing area like PaaS Platform and Storage Management.

This book Covers:

  • Platform As A Service: How to Build applications in days or weeks not months.
  • PaaS Development: How to Develop On-Demand Apps
  • Cloud Platform for ISVs: How to Create and Sell SaaS Applications
  • Storage Management: Manage Storage Virtualization and Reduce Costs
  • Backup and Recovery: How to Improve Backup & Recovery in Your Virtual Environment

Filled with thought provoking questions to challenge your thinking and understanding, this book is your Real World Guide to PaaS Platform and Storage Management Skills, with Key information and real world examples organized around the actual day-to-day tasks and challenges you’ll face in the field of IT Management. Practice what you’ve learned with challenging PaaS Platform and Storage Management Specialist exam style questions.

Bestellmöglichkeit: Amazon

Cover:

Categories
Management @de

Cloud Computing mit Open Source

Ein Vorteil von Cloud Computing besteht in dem einfachen gegenseitigen Bereitstellen und Nutzen von IT Services. Die Herausforderung ist aber, die Voraussetzungen zu schaffen eine einzelne Cloud mit anderen Clouds zusammenarbeiten zu lassen. Dazu sollten die kollaborierenden IT-Systeme über dieselben Sicherheitsanforderungen und robusten Infrastrukturen verfügen, wie es aus traditionellen IT Umgebungen bekannt ist. Auf Grund der Offenheit, Flexibilität, Interoperabilität und einem verringerten Risiko bzgl. eines Vendor lock-in, ist Open Source dafür die geeignete Technologie. Das führt dazu, dass sich Open Source mit Cloud Computing verschmelzen wird und “Open Source Clouds” in den nächsten Jahren zu einem großen Trend werden.

Es existieren bereits Cloud Computing Technologien auf Basis von Open Source, die ebenfalls schon eingesetzt werden. Diese möchte ich kurz vorstellen.

Linux Betriebssysteme

  • Die Ubuntu Enterprise Cloud kombiniert Ubuntu Linux mit Eucalyptus und diversen anderen Cloud Management Tools.
  • Red Hat Enterprise Linux, sowie andere Linux Distributionen können ebenfalls mit vorhanden Open Source Cloud Technologien kombiniert werden um Cloud Computing Umgebungen aufzubauen

Eucalyptus

  • Bei Eucalyptus handelt es sich um ein Forschungsprojekt von der University of California in Santa Barbara. Eucalyptus enthält die Apache Axis2 Web Services Engine, den Mule Enterprise Service Bus, Rampart Security und die Libvirt Virtualisierung API. Eucalyptus verfügt darüber hinaus über seine eigene Umsetzung der Amazon-API.
  • Webseite: http://open.eucalyptus.com

Deltacloud

  • Im September 2009 wurde durch Red Hat das Deltacloud Projekt gegründet. Die Idee hinter dem Projekt ist die einfache Integration von Public und Private Clouds. Deltacloud stellt eine gemeinsame auf REST basierende API zur Verfügung, um Amazon EC2 Instanzen und/oder Private Clouds auf Basis von VMware oder Red Hat Enterprise Linux miteinander zu verbinden. Das Deltacloud Portal dient zur Verwaltung aller Clouds die innerhalb einer Umgebung bereitgestellt werden. Geht es nach Red Hat, soll Deltacloud zu dem Standard des Cloud Computing werden.
  • Webseite: http://deltacloud.org

Nimbus

  • Bei Nimbus handelt es sich um ein Open Source Toolkit, mit dem Clustersystem in eine Infrastructure as a Service Umgebung verwandelt werden können. Mittels der EC2 Schnittstelle können sich Unternehmen mit der Public Cloud Infrastruktur von Amazon verbinden.
  • Webseite: http://www.nimbusproject.org

Virtual Machine Hypervisor

  • Viele Open Source Lösungen beinhalten den Xen Server von Citrix Systems.
  • Webseite: http://www.xen.org

Simple Cloud API

  • Die Simple Cloud API von Zend Technologies kann dafür verwendet werden, um von einem System aus auf mehrere Clouds zuzugreifen. Unterstützt werden u.a. GoGrid, IBM, Microsoft, Nirvanix Storage Delivery Network, and Rackspace Files
  • http://www.simplecloud.org

Damit sich Open Source Clouds durchsetzen, sind natürlich Standards notwendig. Darüber hinaus müssen sich ebenfalls Zuverlässigkeit und Sicherheit beweisen. Werden diese Herausforderungen gemeistert, befinden sich die Open Source Clouds auf einem guten Weg. Durch den Einsatz von Open Source können hier die Vorab-Investitionen minimiert werden. Zusätzlich behält jedes Unternehmen die vollständige Kontrolle über seine eigene Cloud, kann aber trotzdem die Infrastruktur durch shared Services von Public Clouds erweitern.

Categories
Literatur

Buch – Cloud Computing Explained: Implementation Handbook for Enterprises

Titel: Cloud Computing Explained: Implementation Handbook for Enterprises

Autor: John Rhoton

Beschreibung:
“Cloud Computing Explained provides an overview of Cloud Computing in an enterprise environment. There is a tremendous amount of enthusiasm around cloud-based solutions and services as well as the cost-savings and flexibility that they can provide. It is imperative that all senior technologists have a solid understanding of the ramifications of cloud computing since its impact is likely to permeate the entire IT landscape. However, it is not trivial to introduce a fundamentally different service-delivery paradigm into an existing enterprise architecture. This book describes the benefits and challenges of Cloud Computing and then leads the reader through the process of assessing the suitability of a cloud-based approach for a given situation, calculating and justifying the investment that is required to transform the process or application, and then developing a solid design that considers the implementation as well as the ongoing operations and governance required to maintain the solution in a partially outsourced delivery model.”

Bestellmöglichkeit: Amazon

Cover:

Categories
Literatur

Buch – Cloud Computing Best Practice Guide: Strategies, Methods and Challenges To Managing Services in the Cloud

Titel: Cloud Computing Best Practice Guide: Strategies, Methods and Challenges To Managing Services in the Cloud

Autor: Ivanka Menken, Gerard Blokdijk

Beschreibung:
“This book is for business people who want to know how cloud computing will facilitate new breakthroughs in business innovation, how work gets done in organizations, how companies will interact with each other in value chains, and how management will change. If you are in some way responsible for the success of your company, you should read this book. If you are a CEO or CIO, you should definitely read this book.
Modern Chief Information Officers (CIOs) and IT managers are entering a new era of information technology, the era of the ‘cloud’. While many critics claim that there is not a great deal that is actually new with the concept of cloud computing; few would deny the likelihood of it becoming a dominant force in years to come.

Regardless of which definition of cloud computing that you subscribe to (and there are many), the continual drive for increased cost-effectiveness, agility, quality and responsiveness will mean that no CIO can ignore exploring the business case for its potential adoption. Some may claim exemption due to real (or imagined) risks in security, privacy, visibility, availability or latency as reasons for their resistance. But like all technological revolutions, the marketplace and economy will eventually respond as the possibility of strategic disadvantage looms.

As with all practical and common sense approaches though, first consider the problem(s) that cloud computing offers may offer solutions to. While many vocal supporters praise the benefits that cloud computing models bring, fewer have clearly defined the actual problems that have been solved or reasoned why other possible alternatives were not as suitable. So before CIOs spend large amounts of time investigating the virtues of different vendor offerings, thought should be given as to why their current offerings and management practices may (or may not) be stifling business growth, productivity or profitability.

To help individuals navigate through these largely uncharted waters, Managing Services in the Cloud analyzes and explains the strategies, methods and challenges involved with the adoption and ongoing management of cloud computing models as part of their IT service provision.”

Bestellmöglichkeit: Amazon

Cover:

Categories
Services @de

Was ist “Amazon S3?”

Amazon Simple Storage Service (Amazon S3) [1] stellt über einen Webservice eine Schnittstelle bereit, um darüber von überall aus eine unbegrenzte Menge an Daten zu speichern und diese wieder abzurufen.

Amazon S3 Funktionsweise

  • Speichern, Lesen und Löschen einer unbegrenzten Anzahl von Objekten (Dateien). Jedes Objekt kann eine Größe von 1 Byte bis zu 5 GByte haben.
  • Jedes Objekt wird in einem sogenannten Bucket gespeichert und kann über einen eindeutigen Key angesprochen werden.
  • Ein Bucket wird in einer von vielen Regionen gespeichert, wobei eine bestimmte Region z.B. auf Grund von Latenzzeiten zu bevorzugen ist. Jeder Bucket verfügt über einen eindeutigen Identifier und ist damit in der gesamten Amazon Cloud einmalig vorhanden.
  • Objekte die in einer bestimmten Region gespeichert werden, können auch nur in dieser Region wieder angesprochen werden. Sind z.B. Daten in Europa (Irland) gespeichert, kann auf diese Daten auch nur innerhalb von Europa zugegriffen werden. Ein Zugriff aus den USA auf die Daten ist in diesem Fall nicht möglich.
  • Über Authentifizierungs-Mechanismen wird sichergestellt, dass die Daten vor unbefugtem Zugriff geschützt sind. Die Objekte können als privat oder öffentlich gekennzeichnet werden. Jeder Benutzer kann unterschiedliche Zugriffsrechte auf Objekte erhalten.
  • Der Zugriff erfolgt über REST und SOAP Schnittstellen.
  • Amazon S3 ist protokollunabhängig, wobei HTTP das Standard Protokoll ist.


[2]

Amazon S3 Design Anforderungen

In Amazon S3 sollen Daten preiswert und sicher gespeichert werden und darüber hinaus zu jeder Zeit verfügbar sein, wenn sie benötigt werden.

  • Skalierbar: Amazon S3 skaliert anhand des verfügbaren Speicherplatz, der Anzahl der aktuellen Anfragen sowie der Anzahl der Benutzer um eine unbegrenzte Anzahl von Web-Anwendungen bereitzustellen. Indem das System weitere Knoten zur Verfügung gestellt bekommt wird die Verfügbarkeit, Geschwindigkeit, Kapazität, Robustheit und der Durchsatz erhöht.
  • Zuverlässig: Daten werden dauerhaft und mit einer Verfügbarkeit von 99,99% gespeichert. Es darf kein Single Point of Failure vorhanden sein. Alle Fehler müssen toleriert und durch das System automatisch repariert werden.
  • Fast: Die Geschwindigkeit muss hoch genug sein, um High-Performance-Anwendungen zu unterstützen. Die Server-seitige Latenz darf im Vergleich zur Internet Latenz keine Bedeutung haben. Jeder Performance-Engpass kann durch das einfache Hinzufügen von weiteren Knoten gelöst werden.
  • Preiswert: Amazon S3 besteht aus kostengünstiger Standard Hardware. Dadurch ist der Ausfall eines einzelnen Knoten der Normalfall, was aber nicht das gesamte System betreffen darf.
  • Einfach: Der Aufbau von hoch skalierbarem, zuverlässigen, schnellen und kostengünstigen Speicherplatz ist schwierig. Darüber hinaus muss jede Anwendung darauf von überall aus zugreifen können. Die Anforderung besteht also darin, Amazons interne Anwendungen (die Amazon Webseite) und zusätzlich parallel die Anwendungen von externen Entwicklern hoch performant zu handhaben.


[3]

Amazon S3 Design Grundsätze

Folgenden Grundsätze für das Design von verteilten Systemen werden für Amazon S3 eingesetzt:

  • Dezentralisierung: Vollständiger Einsatz von Technologien zur Dezentralisierung um Engpässe und Single Point of Failure zu vermeiden.
  • Asynchronität: Das System macht unter allen Umständen Fortschritte.
  • Autonomität: Das System ist so ausgelegt, dass einzelne Komponenten ihre Entscheidungen auf Basis lokaler Informationen treffen können.
  • Lokale Verantwortung: Jede Komponente ist selbst für seine eigene Konsistenz verantwortlich und muss diese auch selber erreichen.
  • Kontrollierte Nebenläufigkeit: Alle Operationen sind so ausgelegt, dass keine oder nur eine begrenzte Kontrolle der Konsistenz erforderlich ist.
  • Fehlertoleranz: Das System behandelt den Ausfall von Komponenten wie gewöhnliche Operationen und wird dadurch gar nicht oder nur minimal Unterbrochen.
  • Kontrollierte Parallelität: Parallelität kann genutzt werden, um die Leistung und Robustheit der Wiederherstellung zu verbessern, bzw. neue Knoten zu verwenden. Ein einziger Dienst sollte nicht alles für jeden bereitstellen. Stattdessen sollten kleine Komponenten verwendet werden, die als Bausteine für andere Dienste genutzt werden können.
  • Symmetrie: Alle Knoten im System sind bzgl. ihrer Funktionalität identisch und benötigen keine oder nur minimale knotenspezifische Konfigurationen um ausgeführt zu werden.
  • Einfachheit: Das System sollte so einfach wie möglich (aber nicht einfacher) gemacht werden.

Preise

Alle Preise sind hier zu finden: Amazon S3 Preise

Quellen:

[1] Amazon S3
[2] Graphik: Amazon S3 (1)
[3] Graphik: Amazon S3 (2)