Categories
News

Aufzeichnung: CeBIT WebCiety 2012 – Panel: Herausforderungen von Cloud Services

Am 09.03.12 habe ich auf der diesjährigen CeBIT Webciety die Moderation des Diskussionspanels “Herausforderungen von Cloud Services” übernommen. Neben der Teilnahme vor Ort, konnte die Diskussion ebenfalls via Live Stream mitverfolgt werden, dessen Aufzeichnung sich nun auf der Webseite der Webciety befindet – siehe unten.

Aufzeichnung: http://webciety.c.nmdn.net/playlist/index.php#entryId=0_uk9ah53v oder unter http://webciety.c.nmdn.net/playlist/index.php und dann unter Tag 4.

Categories
News

Erster G-Cloud CloudStore Kunde bezieht Service unter 24 Stunden

Die Maritime and Coastguard Agency (MCA), ein Teil des Verkehrsministeriums Großbritanniens, hat als erste Regierungseinrichtung einen Service über den Online Katalog des CloudStore eingekauft, welcher auf dem G-Cloud Framework gehostet wird.

Das MCA war in diesem Fall in der Lage, den Service inkl. Vertragswerk unter 24 Stunden zu beziehen. Im Vergleich zum traditionellen Vorgehen innerhalb des öffentlichen Sektors, das in der Regel Monate benotigt, handelt es sich hier um eine Spitzenzeit.

Um welchen Service es sich dabei handelt ist derzeit noch nicht bekannt.

Weitere Einkäufe über den CloudStore werden in Kürze erwartet. Um das zu fördern, hat das G-Cloud Team am gestrigen Donnerstag dazu ein BuyCamp organisiert, an dem mehr als 30 Organisationen des öffentlichen Sektors in Großbritannien teilgenommen haben.

Der G-Cloud CloudStore ist von seinem Konzept her ein sehr gutes Vorbild, wie eine Regierung dem öffentlichen Sektor IT-Ressourcen in Form von Cloud Services unkompliziert und bei Bedarf über einen Marktplatz bereitstellen kann.


Bildquelle: http://www.businesscloud9.com

Categories
News

Amazon erlaubt nun die Nutzung von 64-bit AMIs und bringt zwei weitere neue Funktionen für Amazon EC2

Die Amazon Web Services haben heute drei neue Funktionen für Amazon EC2 vorgestellt, die mehr convenience bei der Entwicklung und dem Betreiben von Anwenungen bringen sollen.

Dazu gehört die Möglichkeit, nun auf den m1.small und c1.medium Instanztypen 64-bit Amazon Machine Images (AMIs) zu nutzen. Damit können Anwendungen nun besser vertikal über t1.micro, standard, High CPU und High Memory Instanztypen skaliert werden, indem dasselbe 64-bit AMI dazu eingesetzt wird.

Darüber steht mit m1.medium nun ein weiterer Instanztyp zur Verfügung. Eine Instanz dieser Sorte verfügt über 2 EC2 Compute Units (ECUs) Rechenleistung, 3,75 GB Arbeitsspeicher und 410 GB Instanzspeicher. Damit soll ein Mittelweg für Unternehmensanwendungen geschaffen werden, die zwar eine große Anzahl von Rechenleistung und Speicher benötigen, aber nicht auf alle Ressourcen eines m1.large Instanztyps zurückgreifen müssen. Der m1.medium Instanztyp kann in allen weltweiten Regionen als 32-bit und 64-bit Architektur genutzt werden.

Bei der dritten Erneuerung handelt es sich um eine Funktion in der AWS Konsole, die das Arbeiten mit Amazon EC2 Linux Instanzen vereinfachen soll. Es besteht daher nun die Möglichkeit, sich direkt von der EC2 Konsole auf einer Linux Instanz anzumelden, ohne dabei eine zusätzliche Software auf dem lokalen Betriebssystem installieren zu müssen.

Categories
News

Deutsche Telekom setzt auf OpenStack

Die Deutsche Telekom setzt auf die Open Source Cloud Plattform OpenStack, um darauf die Anwendungen ihres Marktplatzes für Cloud Services zu hosten. Das wurde im Rahmen der CeBIT bekanntgegeben. Das Unternehmen aus Bonn hat dazu extra ein Team aufgestellt, dass sich explizit auf OpenStack konzentriert.

Bei OpenStack handelt es sich um eine Open Source Community, die für die Entwicklung der OpenStack Software zum Aufbau von Private und Public Clouds geeignet ist. Die Deutsche Telekom wird die Cloud Infrastruktur als Grundlage für ihren Cloud Services Marktplatz einsetzen, der es kleinen und mittelständischen Unternehmen ermöglichen soll, ab Sommer 2012 auf Cloud Services bei Bedarf zugreifen zu können.

Die Entscheidung der Telekom für OpenStack hat mehrere Gründe. Neben der Offenheit der Plattform und somit als Nutzer nicht einem Vendor Lock-in zu unterliegen, können Softwareanbieter damit ebenfalls schneller ihre Anwendungen auf der Telekom Cloud bereitstellen.

Neben der Nutzung wird sich die Deutsche Telekom aber ebenfalls an der Weiterentwicklung von OpenStack beteiligen. So wird bspw. gerade an Tools gearbeitet, die bei dem automatisierten Management von OpenStack-basierten Clouds helfen sollen.

Als erster Softwareanbieter hat bereits ClearPath angekündigt seine Anwendung auf der Telekom Cloud zu betreiben. Die Sicherheitslösung soll sich an kleine und mittelständische Unternehmen richten und vor Virenangriffen schützen.

Categories
News

Google senkt die Preise für seinen Cloud Storage

Rückwirkend zum 01. März hat Google die Preise für seinen Entwickler Cloud Storage gesenkt und präsentiert zudem Partner, die auf dessen Basis bereits Produkte entwickelt haben.

In einem Blogpost kündigt Google an, die Preise für seinen Cloud Storage zu senken. Der Storage ermöglicht es Entwicklern in Unternehmen die Daten einer Anwendung direkt in der Cloud zu speichern, anstatt dafür die eigenen Server zu nutzen. Die monatlichen Gebühren fallen dementsprechend zwischen 8 und 15 Prozent, je nach Menge der gespeicherten Daten.

Darüber hinaus nennt Google mit Panzura, StorSimple, TwinStrata, Zmanda und Gladinet Unternehmen, die den Cloud Storage bereits in ihren Produkten nutzen.


Bildquelle: http://gizmodo.com

Categories
News

HP präsentiert weitere Informationen zu seinen cCell Services und nennt Preise

Bei den HP cCell Services handelt es sich um ein neues Cloud-Modell, das HP nun auf den deutschen Markt gebracht hat.

Damit können Kunden erstmals wählen, von welchem Betriebsort sie kommerzielle Cloud-Dienste beziehen möchten: aus dem eigenen Rechenzentrum, von einem regionalen IT-Partner oder aus den HP-Rechenzentren in Frankfurt. Eine zentrale Makler-Plattform sorgt für die Verwaltung und Verteilung der Cloud-Dienste, die von HP und einem Ökosystem an System- und Softwarehäusern bereitgestellt werden. Endkunden können mit diesem Angebot den Standort und den Modus des Cloud-Betriebs an ihre technischen, geschäftlichen und regulatorischen Anforderungen anpassen. HP-Partner erhalten die Möglichkeit, schnell und ohne größere Investitionen ein eigenes Cloud-Angebot aufzubauen.

Als erster HP cCell Service ist ab sofort Infrastructure as a Service (IaaS) verfügbar (Serverleistung, Speicher und Backup). HP wird bis Mitte des Jahres 2012 weitere cCell Services für SAP-Betrieb, Exchange, Sharepoint, Webserver und Datenbanken auf den Markt bringen. Die Software AG hat angekündigt, ihr Portfolio Software AG Cloud-Ready für HP cCell Services zu zertifizieren. Die neue Bereitstellungsoption auf HP cCell Services wird Mitte 2012 verfügbar sein. Software-as-a-Service-Lösungen von Intershop und Seeburger werden im zweiten Kalenderquartal auf der cCell-Plattform verfügbar sein. Die Janz IT AG wird auf der Grundlage von HP cCell Services ihr Angebot „Mittelstandscloud.de“ weiter ausbauen.

Über ein spezielles Cloud-Partnerprogramm (HP Preferred Cloud Partner Program) qualifiziert und unterstützt HP IT-Anbieter, die auf der Grundlage des cCells-Modells eigene Cloud-Angebote aufbauen wollen.

Kunden bezahlen für die HP cCell Services eine Nutzungsgebühr pro Tag. Abgesehen von einer einmaligen Installationspauschale fallen keine Investitionen an. Die Tagespreise pro Dienst variieren je nach gewähltem Service Level. Bestellte Services sind innerhalb von einer Stunde oder schneller verfügbar. HP cCell Services sind Teil des Portfolios HP Enterprise Cloud Services und zunächst für den deutschen Markt verfügbar.

Die Höhe der Kosten beträgt je nach Modell für die Nutzung der Virtual Private Cloud 3,80 EUR pro Tag für eine Maschine von der Kategorie “Small” plus der einmaligen Installationspauschale von 9.842,00 EUR. Für eine Private Cloud werden 4,30 EUR pro Tag für eine Maschine von der Kategorie “Small” plus der einmaligen Installationspauschale von 17.954 EUR berechnet. Die Virtual Private Cloud ist zudem nicht abhängig von einer Mindestvolumennutzung, wo hingegen bei der Private Cloud eine Nutzung von 25% bis 35% Systemauslastung erwartet wird. In der Installationspauschale sind u.a. Workshops Beratung und Integrationshilfen enthalten.

Bei den Service Level werden drei Kategorien 0 bis 2 unterschieden. Wobei hier zwischen dem direkten Hosting in einem HP Rechenzentrum bzw. dem Hosting in einem HP Rechenzentrum oder bei einem Partner unterschieden wird. Die Servicelevel Qualität unterscheidet sich hier jedoch nicht. Beim SLA0 bzw. SLA1 werden jeweils 99,0% (0) bzw. 99,5% (1) angegeben. Den einzigen unterschied macht das SLA Level 2. Hier wird eine garantierte Verfügbarkeit von 99,9% in einem HP Rechenzentrum garantiert. Beim Hosting der Cloud in einem Partner Rechenzentrum werden keine Angaben gemacht, da je nach Projekt und Situation entschieden werden soll.

Categories
News

Deutsche Bundesregierung unterstützt das Thema Cloud Computing

Im Rahmen der CeBIT eröffnete der Staatssekretär des Bundesministerium für Wirtschaft und Technologie (BMWi) Stefan Kampferer die Cloud Computing World des BITKOM.

Nach Aussage von Kampferer habe das BMWi im Jahr 2010 bereits frühzeitig die Wichtigkeit und das Potential des Cloud Computing erkannt und daher zusammen mit dem BITKOM die Initiative Cloud Computing ins Leben gerufen. Kampferer sieht auf Grund des on-Demand Bezugs und pay as you go Modells des Cloud Computing ein großes Produktivitätspotential, was Unternehmen eine deutlich höhere Flexibilität im Vergleich zum klassischen IT-Bezug ermöglicht.

Insbesondere sieht der Staatssekretär noch große Herausforderungen im Mittelstand, bei dem sich in Deutschland jedoch das größte Potential verbirgt. Nach Kampferer erkennen Mittelständler zunächst keinen Nutzen in der Adaption von Cloud Computing. Allerdings sehen diejenigen, die bereits eine Evaluation vorgenommen haben, dass es sich durchaus lohnen kann. Hier müssen die Anbieter über Vertrauen und ein besonderes Maß an Sicherheit die Mittelständler ins Boot holen.

BITKOM mit neuer Umfrage und Whitepaper

Im Anschluß der Eröffnung präsentierte Prof. Dieter Kempf, Präsident des BITKOM, Auszüge aus einer neuen Umfrage, die der BITKOM zusammen mit KPMG erhoben hat und die in Kürze in einem Whitepaper veröffentlicht werden. Diese Umfrage soll alle vier Jahre erneut durchgeführt werden, um einen aktuellen Stand des Cloud Computing in Deutschland aufzuzeigen.

Die Umfrage behandelte u.a. Fragen zur Bedeutung und Verbreitung des Cloud Computing im jeweiligen Unternehmen, die spezifische Branche. Welche Formen eingesetzt werden und welcher Nutzen sich dadurch bisher ergeben hat sowie die Herausforderungen dies es zu bewältigen gab und welche grundsätzlichen Erfahrungen gemacht wurden.

Kempf nannte ebenfalls ein paar Ergebnisse der Umfrage. So sei jedes dritte Unternehmen aufgeschlossen für das Thema Cloud Computing, wobei weiterhin ein hoher Informationsbedarf vorhanden ist. Laut der Umfrage nutzen 27% der befragten Unternehmen Private Cloud Lösungen, wobei bereits 21% planen, dieses Cloud Modell einzusetzen. Zudem nutzt jedes zweite Großunternehmen Private Clouds, wo hingegen 1/4 der KMUs diese Art der Cloud Nutzung bevorzugen. Alle befragten Anwender haben über positive Erfahrungen berichtet. Der Bitkom geht daher davon aus, dass sich die Budgets für die Private Clouds weiter erhöhen werden. 6% der befragten Unternehmen nutzen die Public Cloud, wovon 3/4 bisher positive Erfahrungen gemacht haben.

Der Bitkom sieht weiterhin viel Überzeugungsarbeit die geleistet werden müsse und bei der Vorteile und Vorbehalte wie bspw. das Vertrauen gegenübergestellt werden müssen. In diesem Zuge sollten diverse Rahmenbedingungen weiter definiert und ein entsprechender Rechtsrahmen für die notwendige juristische Sicherheit sorgen.

Besonders für den öffentlichen Sektor sieht der Bitkom durch das Cloud Computing starke Kosteneinsparungen und erhofft sich durch die Cloud zudem einen positiven Einfluss auf das Ökosystem.

Categories
News

Die Amazon Web Services senken die Preise

Wie Amazon heute berichtet, werden rückwirkend zum 01. März die Preise für diverse Cloud Services reduziert.

Dazu gehören Amazon EC2, Amazon RDS sowie Amazon ElastiCache. Die Preise für Reserved Instances für EC2 werden demnach um bis zu 37% günstiger. Die Preise für Amazon RDS fallen um bis zu 42% für alle Regionen. On-Demand Preise für EC2, RDS und ElastiCache werden um bis zu 10% gesenkt.

Darüber hinaus kündigt Amazon Mengenrabatte für Amazon EC2 an. Damit erhalten Kunden, die über eine große Anzahl von Reserved Instances verfügen, zudem eine Preisminderung.

Damit senkt Amazon insgesamt bereits zum 19ten Mal die Preise für seine Cloud Services.

Categories
News

Microsoft bietet der US-Regierung eine spezielle Cloud-Option für Office 365 – Was wird Google tun?

Microsoft will sich mit einem Schachzug die Gunst der US-Regierung sichern und bietet speziell für US-Regierungsbehörden eine Option, Office 365 in einer eigenen “Community Cloud” zu hosten, die nur Kunden der Regierung zur Verfügung steht.

Innerhalb dieser “Community Cloud” werden die Daten der Kunden des öffentlichen Sektors in einer separaten Cloud-Umgebung gespeichert.

Bei der Option handelt es sich um den jüngsten Versuch von Microsoft, US-Regierungsbehörden in das Boot von Office 365 zu bekommen. In einem Blogpost schreibt Microsoft, dass es notwendig sei, Behörden eine Vielzahl unterschiedlicher Optionen zu bieten, da nicht alle Kunden des öffentlichen Sektors die gleichen Bedürfnisse in Bezug auf die Einhaltung gesetzlicher Vorschriften, der Sicherheit, des Datenschutzes und der Produkt-Funktionalität haben.

Daher wird Microsoft den Regierungsbehörden nun die Möglichkeit geben, Office 365 sowohl via einer Public als auch einer Privat Cloud (ITAR [International Traffic in Arms Regulations]) zu nutzen. Zudem gibt es nun eine spezielle Office 365 “Community Cloud” für die US-Regierung, in der die Daten in einer separaten Umgebung nur für die Regierung gespeichert werden.

Chapeau Microsoft! Die Frage ist nun: Was wird Google tun?


Bildquelle: http://www.government-websites.com

Categories
News

Microsoft bestätigt: Windows Azure Ausfall war ein Schaltjahr Problem

Microsoft hat bestätigt, dass der 12-stündige Ausfall am vergangenen Mittwoch auf ein Softwareproblem im Zusammenhang mit dem Schaltjahr (29. Februar) zurückzuführen ist.

Der Fehler führte dazu, dass das System die Zeit nicht korrekt berechnen konnte. In einem Blogeintrag schreibt Azure Lead Engineer Bill Laing, dass sein Team in der Lage war, das Problem zu beheben und der Service für die meisten Kunden um 03.00 Uhr Pazifischer Zeit wiederhergestellt werden konnte. Etwa mehr als neun Stunden nachdem das Problem bekannt wurde. In einem weiteren Eintrag versprach er zudem eine zeitnahe Analyse der Probleme.


Bildquelle: http://blog.mhcache.com