Categories
Events

AWS User Group Treffen in Hamburg am 08.02.2011

Es ist wieder so weit: Das erste Treffen der Amazon Web Services User Group Hamburg im Jahr 2011 steht kurz bevor!

Beim kommenden Treffen erhält die User Group tatkräftige Unterstützung direkt von AWS. Neben Torsten Woywod (Sales Manager Deutschland) stehen ebenfalls die Solutions Architects Matt Wood und Carlos Conde allen Teilnehmern Rede und Antwort. Somit steht das Treffen unter einem eher theoretischen und lehrenden Charakter und sollte hoffentlich keine Fragen offen lassen. Ferner können die Teilnehmer den einen oder anderen Gedanken bei einer Erfrischung oder einer Leckerei vertiefen und auch an die entsprechende Stelle bei AWS einfließen lassen.

Neu bei dem Treffen ist eine Get-in-touch Zeit vor dem eigentlichen Treffen. Das richtet sich an all die Teilnehmer, die bisher noch wenig von den Amazon Web Services gehört haben, um damit die Gelegenheit zu bekommen, einen Überblick und Grundlagen zu den Amazon Web Services zu erhalten und danach am Treffen teilzunehmen.

Veranstaltungstermin:

    08.02.2011, 18.00 Uhr

Veranstaltungsort:

    Sinnerschrader AG
    Völckersstraße 38
    22765 Hamburg

Agenda

  • 18.00 Uhr – 19.00 Uhr: Get-in-touch with AWS (Basics erklärt von AWS Solutions Architects)
  • 19.00 Uhr – 22.00 Uhr: AWS User Group Treffen
    Fachvorträge, Diskussionen, User Group relevante Themen mit Bierchen und Leckereien
  • ab 22.00 Uhr: Networking

AWS – Gästeliste

Matt Wood

Before joining Amazon I built web-scale search engines at Cornell University in New York City (of which Amazon CTO Werner Vogels is a fellow alumni), document management systems in Cambridge and genes in Hinxton. At the Wellcome Trust Sanger Institute, I helped build the Institute’s next-generation, petabyte-scale DNA sequencing platform, which allows genomes to be sequenced in days rather than decades. I have a PhD in Bioinformatics, am a big fan of agile software techniques, once trained as a medical doctor and love cycling, film and Swedish indy music.

Carlos Conde

Carlos ist ein Solutions Architect bei AWS und für technische Fragen und neue Themen (SES, Beanstalk) genau der richtige Ansprechpartner.

Torsten Woywod

Torsten steht immer mit Rat und Tat zur Seite und ist auch weiterhin für nicht allzu technische Fragen und Probleme genau der richtige Ansprechpartner bei AWS.

Weitere Informationen und die Anmeldung sind unter AWS User Group Treffen 01/2011 zu finden.

Categories
Analysen

Die versteckten Kosten einer Private Cloud

Eine Public Cloud ermöglicht Unternehmen den Zugriff auf IT-Ressourcen, den sie sich in der Form sonst niemals leisten können. Die Gründe für die Nutzung der Cloud sind mittlerweile weit bekannt – keine Investitionskosten, praktisch unbegrenzte Rechenleistung auf Abruf und eine hoch effiziente Preisgestaltung bei denen die Kunden nur für die Ressourcen zahlen, die sie verwenden. Dazu kommt der geringere Druck für IT-Abteilungen bzgl. der Verwaltung und Budgetierung der Infrastruktur, sowie der Nachfrage nach immer mehr Ressourcen nach Bedarf entgegen zu kommen.

Auf Grund der Sorge um die Sicherheit und den Verlust der Kontrolle bei der Nutzung einer Public Cloud, spielen viele IT-Entscheider mit dem Gedanken zum Aufbau einer Private Cloud. In diesem Fall erhalten die Mitarbeiter auf Basis des Self-Service Gedanken des Cloud Computing je nach Bedarf ihre IT-Ressourcen, während im Hintergrund jedoch das eigene Rechenzentrum betrieben wird.

Mit Servern, Anwendungen und Daten die sich innerhalb des Unternehmens befinden, bieten Private Clouds viele der Vorteile von Cloud Computing, ohne die möglichen Risiken, die bei der Nutzung einer IT-Umgebung eines Cloud Computing Providers entstehen. Leider macht die Wirtschaftlichkeit einer Private Cloud sie von Natur aus weniger effizient als die Public Cloud, zumal neue Technologien eine Public Cloud deutlich sicherer und zuverlässiger machen. Hier nur ein paar Gründe, die gegen die Nutzung einer Private Cloud sprechen:

Infrastrukturkosten

Die Bereitstellung einer Private Cloud erfordert den Aufbau einer Infrastruktur, um die Bedürfnisse aller Benutzer in Unternehmen zu unterstützen. Neben dem Erwerb der notwendigen Hard-und Software, gehören dazu Dinge wie die Konfiguration des Netzwerks, die Zuweisung von Speicherkapazitäten, die Zahlung der Stromrechnung und die entsprechenden Flächen zum Aufbau der Umgebung. Zudem muss diese Infrastruktur verwaltet und stetig gewartet werden.

Überdimensionierung der Kapazitäten

Genau wie bei herkömmlichen IT-Infrastrukturen ist der erwartete Ressourcenbedarf für eine Private Cloud nicht planbar, da jede Anwendung ein unterschiedliches Nutzungsverhalten hat. Einige Anwendungen zeigen einen stetigen Ressourcenverbrauch, während andere zu bestimmten Zeiten eine massive Rechenleistung erfordern. Unternehmen haben keine andere Wahl als ihre Kapazitäten so zu (über) dimensionieren, dass viele Ressourcen die meiste Zeit ungenutzt bleiben, nur um in Spitzenzeiten verfügbar zu sein. Speziell der kurzfristige Ressourcenbedarf ist ein Beispiel, wo sich die Nutzung einer (elastischen) Public Cloud wirklich auszahlt.

Managementplattform

Der Aufbau einer Private Cloud ist mehr als nur Virtualisierung! Einer der wichtigsten Vorteile von Cloud Computing ist der Aspekt des Self-Service, wo Benutzer über ein Portal auf Ressourcen je nach Bedarf zugreifen können. Diese Ressourcen werden dann ohne das Eingreifen eines Administrators automatisch in der Cloud ausgeführt. Der Aufbau so einer Managementplattform ist ein weiterer wesentlicher Bestandteil bei der Umsetzung einer Private Cloud.

Fazit

Alle diese Gründen zeigen, dass der Einsatz einer Private Cloud zu einem deutlich höheren Mehraufwand und höheren Kosten führt, die bei der Nutzung von Ressourcen einer Public Cloud nicht entstehen würden. Hinzu kommt, dass der Schutz und die Kontrolle die eine Private Cloud bietet auch zunehmend in Public Clouds zu finden ist. Damit ist für Unternehmen eine Public Cloud eine kostengünstige Lösung für das Betreiben vieler oder sogar die meisten ihrer Anwendungen.

Es gibt einige geschäftskritische Anforderungen, oder solche die spezielle Hardware benötigen bzw. bei denen die Fragen hinsichtlich der Compliance schwierig zu lösen sind, bei denen es Sinn macht sich Gedanken über den Aufbau einer Private Cloud zu machen. Der Fokus der internen Ressourcen auf speziell diese Art von Anwendungen führt zu einer erheblichen Verringerung der Investitionskosten, die notwendig sind, um den Aufbau, Betrieb und das Wachstum der Unternehmensinfrastruktur zu bewerkstelligen.

Während einige Anwendungen weiterhin intern ausgeführt werden müssen, verfügen viele Unternehmen über eine Menge von weiteren Anwendungen, die heutzutage kostengünstiger in einer Public Cloud betrieben werden können, in der Rechenleistung zusammen mit der erforderlichen Sicherheit, Agilität und Skalierbarkeit nach Bedarf bereitgestellt wird.

Categories
News

AWS stellt den "Amazon Simple Email Service" vor

Mit dem Amazon Simple Email Service (Amazon SES) stellt AWS einen hoch skalierbaren und kostengünstigen Service zum Versand von Massen-EMails für Unternehmen und Entwickler vor. Amazon SES soll dabei helfen, die Komplexität und die Kosten für den Aufbau einer Inhouse E-Mail Lösung bzgl. der Lizenzierung, Installation und dem Betrieb oder der Nutzung eines E-Mail-Service bei einem Drittanbieter beseitigen. Der Dienst lässt sich mit allen anderen AWS Services verwenden, wodurch E-Mails von Anwendungen heraus gesendet werden können, die bspw. auf Amazon EC2 gehostet werden.

Wie bei allen AWS Services sind keine langen Vertragslaufzeiten, Mindestumsätze oder Verhandlungen erforderlich. Nutzer zahlen nur für die Anzahl der gesendeten E-Mails plus Datenübertragung.

Die Nutzung von Amazon SES kann wie gewohnt mit den AWS Software Development Kits für Java und .NET oder über die HTTP Schnittstelle erfolgen.

Categories
Services @de

AWS Elastic Beanstalk

AWS Elastic Beanstalk soll Entwickler dabei helfen, schneller und einfacher ihre Anwendungen in der AWS Cloud bereitzustellen und zu verwalten. Der Entwickler lädt seine Anwendung hoch und Elastic Beanstalk übernimmt automatisch die Deploymentaufgaben, wie die Beschaffung der benötigten Kapazitäten, das Load Balancing, Auto-Scaling sowie die Überwachung der Anwendung.

Während der Nutzung von Elastic Beanstalk behält der Entwickler die volle Kontrolle über die AWS Ressourcen, die für seine Anwendung benötigt werden und kann auf diese jederzeit zugreifen. Elastic Beanstalk verwendet dabei AWS Services wie Amazon EC2, Amazon S3, Amazon Simple Notification Service, Elastic Load Balancing, und Auto-Scaling.

Das erste Release von Elastic Beanstalk richtet sich an Java-Entwickler. Die Basis bildet dabei der Apache Tomcat Software Stack, um damit eine einfache Portierbarkeit der Anwendung zu gewährleisten. Durch die Nutzung von Elastic Beanstalk entstehen keine zusätzlichen Kosten. Es wird lediglich für die AWS Ressourcen bezahlt, die für das Speichern und Ausführen der Anwendung benötigt werden.

AWS Elastic Beanstalk Functionality

Um eine Java Anwendung mit Hilfe von Elastic Beanstalk bereitzustellen, sind die folgenden Schritte notwendig.

  • Erstellen einer Anwendung gewöhnlichen Java Anwendung.
  • Verpacken des Codes in ein standard Java Web Application Archive (WAR Datei).
  • Hochladen der WAR Datei nach Elastic Beanstalk. Das kann mit der AWS Management Console, dem AWS Toolkit for Eclipse, der Web Service API oder den Kommandozeilen Tools durchgeführt werden.
  • Bereitstellen der Anwendung. Im Hintergrund übernimmt Elastic Beanstalk die Beschaffung des Load Balancer und nimmt das Deployment der WAR Datei zu einer oder mehreren EC2 Instanzen vor und startet den Apache Tomcat Applikation Server.
  • Innerhalb von ein paar Minuten kann auf die Anwendung mittels einer eigenen URL z.B. http://myapp.elasticbeanstalk.com zugegriffen werden.

Sobald eine Anwendung ausgeführt wird, bietet Elastische Beanstalk verschiedene Management-Funktionen.

  • Bereitstellung neuer Programmversionen innerhalb der laufenden Umgebung (oder ein Rollback zu einer früheren Version).
  • Zugriff integrierte CloudWatch matriken wie die CPU-Auslastung, Anfragehäufigkeit und die durchschnittliche Latenz.
  • E-Mail Benachrichtigung mittels des Amazon Simple Notification Service, wenn sich der Zustand der Anwendung verändert oder weitere Server hinzugefügt oder entfernt werden.
  • Zugriff auf die Log Dateien des Tomcat Server ohne explizite Anmeldung an den Application Server.
  • Neustart aller Application Server auf allen EC2 Instanzen mit einem einzigen Befehl.

Elastic Beanstalk unterstützt den Entwickler u.a. bei folgenden Themen:

  • Auswahl der am besten geeigneten Amazon EC2 Instanz, welche den CPU- und Speicherbedarf der Anwendung entspricht.
  • Auswahl aus mehreren verfügbaren Datenbank- und Storage-Angeboten wie Amazon RDS, Amazon SimpleDB, Microsoft SQL Server, oder Oracle.
  • Zugriff auf Amazon EC2-Instanzen für unmittelbare und direkte Problemlösungen.
  • Erhöhung der Zuverlässigkeit der Anwendung, durch deren Ausführung in mehr als einer Availability Zone.
  • Verbesserung der Anwendungssicherheit, durch die Nutzung des HTTPS Protokoll auf dem Load Balancer.
  • Einstellen JVM-Einstellungen und Weitergabe von Umgebungsvariablen.
  • Ausführung weitere Anwendungskomponenten, wie bspw. einem Memory Caching Service, parallel zu Amazon EC2.
  • Anpassen der Auto-Scaling Einstellungen, um die Metriken und Schwellwerte zu kontrollieren, die verwendet werden, um festzustellen wann Instanzen in einer Umgebung hinzugefügt oder entfernt werden müssen.

Quelle und weitere Informationen unter http://aws.amazon.com/elasticbeanstalk.

Categories
News

Amazon announcing AWS Elastic Beanstalk

AWS Elastic Beanstalk is an even easier way for developer to quickly deploy and manage applications in the AWS cloud. They can upload their application, and Elastic Beanstalk automatically handles the deployment details of capacity provisioning, load balancing, auto-scaling, and application health monitoring. At the same time, with Elastic Beanstalk, a developer retain full control over the AWS resources powering his application and can access the underlying resources at any time. Elastic Beanstalk leverages AWS services such as Amazon EC2, Amazon S3, Amazon Simple Notification Service, Elastic Load Balancing, and Auto-Scaling to deliver the same highly reliable, scalable, and cost-effective infrastructure that hundreds of thousands of businesses depend on today.

The first release of Elastic Beanstalk is built for Java developers using the familiar Apache Tomcat software stack which ensures easy portability for the application. There is no additional charge for Elastic Beanstalk – you only pay for the AWS resources needed to store and run the applications.

AWS Elastic Beanstalk Functionality

To deploy Java applications using Elastic Beanstalk, do following:

  • Create a application as you normally would using any editor or IDE (e.g. Eclipse).
  • Package a deployable code into a standard Java Web Application Archive (WAR file).
  • Upload the WAR file to Elastic Beanstalk using the AWS Management Console, the AWS Toolkit for Eclipse, the web service APIs, or the Command Line Tools.
  • Deploy the application. Behind the scenes, Elastic Beanstalk handles the provisioning of a load balancer and the deployment of the WAR file to one or more EC2 instances running the Apache Tomcat application server.
  • Within a few minutes you will be able to access the application at a customized URL (e.g. http://myapp.elasticbeanstalk.com/).

Once an application is running, Elastic Beanstalk provides several management features such as:

  • Easily deploy new application versions to running environments (or rollback to a previous version).
  • Access built-in CloudWatch monitoring metrics such as average CPU utilization, request count, and average latency.
  • Receive e-mail notifications through Amazon Simple Notification Service when application health changes or application servers are added or removed.
  • Access Tomcat server log files without needing to login to the application servers.
  • Quickly restart the application servers on all EC2 instances with a single command.

With Elastic Beanstalk, developers retain full control over the AWS resources powering their application, and can perform a variety of functions by simply adjusting default configuration settings from the Elastic Beanstalk management console, including:

  • Selecting the most appropriate Amazon EC2 instance type that matches the CPU and memory requirements of their application
  • Choosing from several available database and storage options such as Amazon RDS, Amazon SimpleDB, Microsoft SQL Server, or Oracle.
  • Enabling login access to Amazon EC2 instances for immediate and direct troubleshooting
  • Quickly improving application reliability by running in more than one Availability Zone
  • Enhancing application security by enabling HTTPS protocol on the load balancer
  • Adjusting JVM settings and passing environment variables
  • Running other application components, such as a memory caching service, side-by-side in Amazon EC2
  • Adjust Auto-Scaling settings to control the metrics and thresholds used to determine when to add or remove instances from an environment

Source and more Information at http://aws.amazon.com/elasticbeanstalk.

Categories
Management @de

TClouds – Cloud Computing angereichert mit einer Prise Vertrauen

Bereits im Oktober 2010 startete das TClouds Projekt (Trustworthy Clouds). Ein von der EU mit 7,5 Millionen Euro gefördertes Projekt. Das Gesamtvolumen des Projekts beträgt ca. 10,5 Millionen Euro und ist auf einen Zeitraum von drei Jahren ausgelegt.

Das Projektziel ist die Entwicklung eines Prototyp einer vertrauenswürdigen, zuverlässigen sowie transparenten Cloud Computing Infrastruktur. Damit soll die Verarbeitung personenbezogener und sensibler Firmendaten in der Cloud ermöglicht werden. Der Forschungsschwerpunkt besteht in der Gestaltung einer sicheren Cloud Computing Umgebung, die den europäischen Datenschutzanforderungen entspricht. Dabei sollen allerdings auf die Vorteile des Cloud Computing wie Kosteneinsparungen, Skalierbarkeit und Hochverfügbarkeit nicht verzichtet werden. Während des Projekts sollen zudem weitere neue offene Sicherheitsstandards sowie neue Cloud Computing Management Komponenten entwickelt werden.

Die TClouds Infrastruktur soll dabei in zwei Szenarien praktisch überprüft werden. Ein Test findet mit dem italienischen Krankenhaus San Raffaele in Mailand für den Gesundheitsbereich statt. Der andere Test erfolgt mit dem portugiesischen Energieversorger Energias de Portugal sowie dem Elektronikunternehmen EFACEC im Bereich von intelligenten Stromnetzen. In beiden Szenarien wird das Datenschutz und Datensicherheitsniveau der Cloud Computing Infrastruktur und der jeweiligen Anwendungen je nach Art und Sensibilität der zu verarbeiteten Daten durch entsprechende Methoden umgesetzt.

Der Ablauf des TClouds Projekts umfasst vier unabhängig geführte Aktivitäten und zwölf eng integrierte Arbeitspakete.

Aktivität A1

Legal and Business Foundations for Cross-border Computing
A1 ist zuständig für die rechtliche und regulatorische Beratung, die Folgenabschätzung bzgl. des Datenschutzes für grenzüberschreitende Clouds und tragfähige Geschäftsmodelle für Cloud-Anbieter.

Aktivität A2

Trustworthy Internet-scale Computing Platform
A2 ist verantwortlich für die TClouds Plattform. Diese Plattform umfasst vertrauenswürdige individuelle Clouds, die entweder auf erweiterte commodity Clouds oder auf erprobte (gestärkte) Cloud Computing Software basieren.

Aktivität A3

Benchmark Application & User-centric Evaluation
A3 ist verantwortlich für die Bereitstellung der Smart Power Grid und Home Healthcare Cloud Computing Szenarien sowie der selbst Erprobung und Verbesserung durch Endbenutzer und dem fachlichen Feedback von Experten.

Aktivität A4

Programme Management and Dissemination
A4 ist verantwortlich für die umfassende und wirksame Verbreitung sowie die ordnungsgemäße Verwaltung der Software, die dafür sorgt, dass alle Ergebnisse zeitnah und qualitativ hochwertig bereitgestellt werden und Konflikte nicht zu Störungen führen.

Weitere Informationen sind unter http://www.tclouds-project.eu zu finden.

Categories
Basics

TClouds – The Trustworthy cloud computing future begins now

TCLOUDS puts its focus on privacy protection in cross-border infrastructures and on ensuring resilience against failures and attacks. TCLOUDS aims to build prototype internet-scale ICT infrastructure which allows virtualised computing, network and storage resources over the Internet to provide scalability and cost-efficiency.
In prototype development, it is a priority to address the challenges of cross-border privacy, end-user usability, and acceptance that are essential for widespread acceptance of such an infrastructure.

Facts

  • Start date: 2010-10-01
  • End date: 2013-09-30
  • Duration: 36 months
  • Project cost: € 10.536.129,00
  • Project funding: € 7.500.000,00

Mission of TClouds

  • To develop an advanced cloud infrastructure that can deliver computing and storage that achieves a new level of security, privacy, and resilience yet is cost-efficient, simple, and scalable.
  • To change the perceptions of cloud computing by demonstrating the prototype infrastructure in socially significant application areas: energy and healthcare.

Motivation

State-of-the-art cloud computing enables seamless access to services and global availability of information, but inherent risks severely limit the application of this technology.

In a cloud environment, pertinent data is accessed via information and communications technology (ICT) using remote hardware instead of being stored only on a local server or computer. The benefits of increased storage at reduced cost allow information to be made readily available.

However, the current cloud computing model comes with perceived risks concerning resilience and privacy. There are three fundamental trends in ICT whose risks mutually reinforce each other:

  • the push towards an Internet of Services – most services are provided on the web as a platform;
  • cost pressures drive a migration of ICT into so-called Infrastructure clouds;
  • growing importance of ICT as the critical “nervous system” for socially relevant “smart” infrastructures – such as healthcare, energy, environmental monitoring, or mobility.

Protecting data and services in the cloud is important to governments,organizations and enterprises across all industries, including healthcare, energy utilities, and banking. Thus, the perceived security and dependability risks of cloud computing are limiting its application.

The TClouds project targets cloud computing security and minimization of the widespread concerns about the security of personal data by putting its focus on privacy protection in cross-border infrastructures and on ensuring resilience against failures and attacks.

Objectives

Trustworthy Clouds (TClouds) aims to build a prototype Internetscale ICT infrastructure which allows virtualized computing, network, and storage resources over the Internet to provide scalability and cost-efficiency. The following objectives contribute to achieving the overall goal:

  • Identifying and addressing the legal and business implications and opportunities of a widespread use of infrastructure clouds, contributing to building a regulatory framework for enabling resilient and privacy-enhanced cross-border infrastructure clouds.
  • Defining an architecture and prototype for securing infrastructure clouds by providing security enhancements that can be deployed on top of commodity infrastructure clouds (as a cloudof-clouds) and assessing the resilience and privacy benefits of security extensions of existing clouds.
  • Providing resilient middleware for adaptive security on the cloud-of-clouds. The TClouds platform will provide tolerance and adaptability to mitigate security incidents and unstable operating conditions for a range of applications running on such clouds-of-clouds.

To demonstrate TClouds, scientists will prototype two scenarios involving critical IT- systems:

  • A smart energy grid with Portugal’s leading energy and solution providers Energias de Portugal and EFACEC: TClouds will show how such energy-preserving systems can be migrated to a cloud infrastructure while increasing their resilience, privacy protection and tolerance against both hackers and hardware failures.
  • A patient-centric home healthcare service with San Raffaele Hospital in Milano, Italy, will remotely monitor, diagnose and assist patients outside a hospital setting. TClouds will demonstrate how the quality of in-home healthcare can be improved cost-efficiently without reducing privacy.

Strategy

The work plan of TClouds encompasses four independently managed Activities and twelve tightly integrated Work Packages.

Activity A1:

Legal and Business Foundations for Cross-border Computing
A1 is responsible for legal and regulatory guidance, the privacy impact assessment for cross-border clouds, and viable business models for cloud providers.

Activity A2:

Trustworthy Internet-scale Computing Platform
A2 is responsible for the TClouds platform. This platform includes trustworthy individual clouds that are based either on extending commodity clouds or on strengthening cloud operation software.

Activity A3:

Benchmark Application & User-centric Evaluation
A3 is responsible for delivering the Smart Power Grid and Home Healthcare cloud scenarios as well as self-evaluation and self improvement through end-user and expert feedback.

Activity A4:

Programme Management and Dissemination
A4 is responsible for wide and effective dissemination as well as the proper programme management that ensures timely and high-quality delivery of all results while mitigating emerging conflicts.

Source and more information at http://www.tclouds-project.eu.

Categories
Events

Der Ablauf des CloudOps Summit

Der CloudOps Summit 2010 am 17.03.2011 will den Focus auf den Betrieb und die Architektur von Cloud Computing Infrastrukturen legen und eine Brücke zwischen den bislang oft Marketing-getriebenen Angeboten hin zum Betrieb und den Architekten solcher Lösungen schlagen. Unter dem Motto “Run your Cloud” wollen die Veranstalter besonders das Thema “Betrieb von dynamischen und cloud-basierten Infrastrukturen” in den Vordergrund stellen und die Teilnehmer zu einer intensiven Diskussion einladen.

Nach einer Serie von Lightning Talks von 5 bis 7 Minuten Länge, sollen die Teilnehmer im Rahmen von 4 Workshop-Tracks mit jeweils 2 Vorträgen die Gelegenheit haben, die Themen zu vertiefen. Die Workshop-Tracks sind wie folgt strukturiert:

Track 1 – Management

  • Datenschutz/Datensicherheit
  • Compliance
  • Strategien
  • Nachhaltigkeit

Dieser Track wird den Schwerpunkt auf Themen legen, mit den sich heute die Vorstände und IT-Strategen befassen müssen, um für einen erfolgreichen und nachhaltigen Einsatz von Cloud Computing im Unternehmen vorbereitet zu sein. Auch wird hier Raum für die Diskussion wirtschaftlichen und ökonomischen Aspekte und der damit verbundenen Chancen des Cloud Computing Paradigmas für Unternehmen sein.

Track 2 – Operations

  • Anbieter/Lösungen/Tools
  • Herausforderungen bei der Umsetzung
  • Migration

Im Operationstrack wollen die Veranstalter die Diskussion auf Erfahrungen bei Durchführung von konkreten Cloud Computing Projekten diskutieren und besonders auf Hindernisse, Herausforderungen und Werkzeuge eingehen. Ein weiterer Schwerpunkt wird die Migration existierender Anwendungen sein.

Track 3 – Architecture

  • Best Practices/Methoden
  • Standards/Zertifizierung
  • Open Source

Dieser Track soll Diskussionen um die Standardisierung und ‘Best Practices’ von Cloud Computing Lösungen und Architekturen umfassen und auch auf damit verbundene Themen wie Stacks, Plattformen und Open Source eingehen.

Track 4 – Investors/Startups

  • Elevator Pitches

Im Rahmen der Elevator Pitches wird ausgesuchten Startups die Gelegenheit gegeben sich und Ihre Cloud Computing Lösungen oder Projekte vorzustellen. Die Veranstalter wollen so die Chancen des Cloud Computing aufzeigen und entsprechende Firmen und Produkte präsentieren, die allen auf dem Weg in die Clouds begleiten werden.

Weitere Informationen und die Anmeldung sind auf http://cloudops.cloudcontrolled.com zu finden.

Categories
News

Amazon Web Services erhöhen das Support-Angebot

Die Amazon Web Services haben am gestrigen Donnerstag neue Premium Support Angebote vorgestellt und angekündigt eine 50-prozentige Preissenkung auf den bestehenden Premium Support zu erlassen.

Für Entwickler wurde ein Bronze Support Angebot vorgestellt. Es bietet Unterstützung an Werktagen mit einer Reaktionszeit von 12 Stunden. Die Kosten betragen dabei 49 Dollar pro Monat.

Ein neuer Platinum Tarif richtet sich an Großunternehmen, welcher eine 15-minütige Reaktionszeit für kritische Fragen bietet. Dazu gehört ebenfalls ein Account Manager, der über ein breites AWS Fachwissen verfügt und die Kunden im Bedarfsfall individuell hinsichtlich ihrre Bedürfnisse berät und damit als primäre Anlaufstelle bei AWS dient. Der Platinum Support kostet mehr als 15.000 Dollar pro Monat oder 10 Prozent der monatlichen AWS Nutzungsentgelte des Kunden.

Der Silver Support bietet für über 100 Dollar pro Monat oder für 5 Prozent der monatlichen AWS Nutzungsentgelte des Kunden einen Support an Werktagen inkl. einer Reaktionszeit von 4 Stunden.

Mit dem Gold Support steht eine 24/7 Support Hotline mit einer Reaktionszeit von ca. 1 Stunde zur Verfügung. Dieser kostet mehr als 400 Dollar pro Monat oder 5 bzw. 10 Prozent der monatlichen AWS Nutzungsentgelte des Kunden. Der Prozentsatz wird entsprechend dem genutzten Volumen verringert.

Weiterhin steht ein kostenloser Basic Support bereit. Dieser bietet Zugriff auf ein Ressource Center, FAQs, Foren und ein “Service Health Dashboard”.

Categories
Management @en

Cloud Computing does not solve all your problems automatically…

…, on the contrary, it initially creates problems! Especially if you want to provide yourself as a provider of Cloud Computing services.

It is a misconception, if you think, that the construction of a private cloud implies, that you no longer have to take care about the high availability of your infrastructure (physical machines, virtual machines, master-slave replication, hot standby, etc.).

Because: The Cloud will make it on their own!

Be careful!!!The Cloud is preparing a (private) cloud operator initially more problems than you think.

A cloud does not work by itself. It must be developed and equipped with intelligence. This applies to the construction of a private cloud as well as for the use of a public cloud offering (in the case of IaaS). Scripts must be written and new software must might be developed, which is distributed over the cloud. It is also important to read the white paper of the respective providers. Build up know how(!) and understand how the cloud works to use it for your own needs. Another possibility is, of course, to obtain advice from professionals (in addition).

There is no different, for example by using a public cloud offering of the Amazon Web Services. If an instance A has a problem, it can suddenly no longer be attainable, like any normal physical server as well. Now you might think: “I just take an instance B as a backup for instance A!” “And then?” One might think that the instance B automatically takes over the tasks of the instance A. It’s not that simple! Scripts etc., must ensure that the instance B is to assume the duties of instance A, if A suddenly is no longer available. Of course Instance B must also be prepared!
Here for example, the important content of the instance A, including all configurations, etc. can be stored in an EBS (Elastic Block Store) and not in the local instance store. Afterwards a script must ensure that the instance B is powered up automatically with the configurations and all the data from the EBS, if the instance A is no longer available.

The Cloud just gives us, in the area of Infrastructure as a Service, the capabilities to get the (infinite) number of resources out of a quasi-infinite pool of resources, at that time when we need them. We thus receive a highly scalable virtual private data center from the provider. This means, conversely for the operator of a Cloud (private, public), that he must hold that amount of physical resources as well, so that the requested virtual resources can be provided at any time and that sufficient resources are always available to the users.