Categories
Kommentar

Woran erkennt man einen (echten) Cloud Service?

Ist es nun Cloud oder nur “vercloudifiziert”? Woran kann ich als Anwender einen echten Cloud Service erkennen? Diese Frage ist nicht immer ganz einfach zu beantworten, da die Kniffe meistens im Detail versteckt sind bzw. sich in der Infrastruktur befinden, in die in der Regel nicht hineingeschaut werden kann. Eines Vorweg, ein Service der über das Internet angeboten wird ist nicht gleich ein Cloud Service!

Einen echten Cloud Service zu erkennen ist nicht immer ganz einfach

Grundsätzlich kann bei der Betrachtung zwischen dem technischen und wirtschaftlichen Bereich unterschieden werden, um einen ersten Eindruck zu erhalten, ob es denn nun ein Cloud Service ist oder nicht. Dazu sollte man sich bspw. ein verifiziertes und echtes Cloud Computing Angebot wie im IaaS Bereich z.B. die Amazon Web Services oder im Bereich SaaS Microsoft Office 365 oder Google Apps vor Augen halten und damit einen Vergleich anstellen.

Wichtige Anzeichen die für einen Cloud Service sprechen sind Flexibilität, Skalierbarkeit und Hochverfügbarkeit. Die Flexibilität spielt insbesondere bei der Abrechnung der Kosten eine wichtige Rolle. Die Skalierbarkeit und Hochverfügbarkeit sind die technischen Themen.

Technik, Technik, Technik

So sollte ein Nutzer z.B. schon ein wenig genauer hinschauen, wenn er plötzlich eine E-Mail erhält, in der ein Wartungsfenster für einen SaaS Dienst angekündigt wird. Auch wenn wir nicht in die Infrastruktur des Anbieters hineinschauen können, Wartungsfenster gehören nicht zum Cloud Computing. Nehmen wir hier die verifizierten Cloud Anbieter Amazon, Google und Microsoft zum Vergleich, gibt es bei allen drei keine Wartungsfenster. Zumindest wurde ich bisher noch nie über so eine Maßnahme informiert. Von anderen Anbietern hingegen schon. Hier sprechen wir nämlich von dem Punkt Hochverfügbarkeit. Wenn die Infrastruktur von Amazon regelmäßig Wartungsfenster benötigen würde, könnten sie ihren Dienst nicht in der Form anbieten.

Skalierbarkeit bedeutet, dass ich entsprechend angeforderte Ressourcen wie Rechenleistung, Speicherplatz aber auch neue Benutzerkonten im Falle von SaaS umgehend erhalte, ohne darauf ein paar Minuten oder gar Stunden warten zu müssen. Hier sind mir bisher keine negativen Beispiele aufgefallen.

Die Kosten im Auge behalten

Wirtschaftlich betrachtet geht Cloud Computing Hand in Hand mit der Flexibilität, die der Anwender durch die Nutzung erhält. Das bedeutet er zahlt nur für die Ressourcen – Rechenleistung, Speicherplatz aber auch wiederum Nutzerkonten – die er tatsächlich in einem bestimmten Zeitraum genutzt bzw. benötigt hat. Hinzu kommt, das für die Nutzung des Angebots keine Einrichtungsgebühr oder gar eine Grundgebühr gezahlt werden muss.

Die Flexibilität zahlt sich zudem dadurch aus, das monatlich abrechnet wird. Eine Abrechnung für ein ganzes Jahr ist schon sehr grenzwertig, da ich den Service evtl. nur für ein halbes Jahr benötige, in diesem Fall dann aber laufende Kosten für ein weiteres halbes Jahr anfallen. Vorsicht, es gibt Anbieter, die monatliche Preise kommunizieren, der Vertrag aber für ein Jahr abgeschlossen wird. Zudem muss hier dann noch separat gekündigt werden.

Vorher informieren oder beraten lassen

Wie zu sehen, gibt es Erkennungsmerkmale für einen (echten) Cloud Service. IaaS Angebote sind die transparentesten Angebote, da anhand der Services und der Nutzung zu sehen ist, wie flexibel, skalierbar und hochverfügbar die Infrastruktur ist. Ebenso sind die Kosten nachvollziehbar. Ähnlich verhält es sich bei PaaS. SaaS Dienste werden leider immer wieder “vercloudifiziert”. D.h. dass hier viel bei den Preisen und Laufzeiten getrixt wird. Daher sollte man sich vorab über den Service genau informieren, einen verifizierten Cloud Anbieter (siehe oben) zum Vergleich heranziehen oder vorab eine unabhängige Beratung einholen.


Bildquelle: http://www.planung-analyse.de

Categories
News

Weltweite Cloud Computing Nutzung: Es variiert je nach Region

In Nordamerika haben das Hosting (42 Prozent) und Cloud IaaS den größten Zuwachs an Kunden zu verzeichnen. Während der Rest der Welt von Rechenzentrums-Outsourcing (80 Prozent) dominiert wird, das berichtet Gartner.

Je nachdem wo sie auf der Welt ansässig sind, kaufen und nutzen Unternehmen Rechenzentrums-bezogene und Cloud-basierte Services sehr unterschiedlich. Das zeigt ein Bericht, den Gartner kürzlich veröffentlicht hat.

Je nach Region werden Infrastructure Services weltweit unterschiedlich genutzt.

Es steht außer Frage, dass neue Dienste auf Basis von Infrastructure-as-a-Service (IaaS) oder Platform-as-a-Service (PaaS) überall stetig wachsen, jedoch haben die weltweiten Regionen unterschiedliche Präferenzen, was sie lieber nutzen. So liegt es laut Gartner in erster Linie bei den Einkäufer in Unternehmen und Organisationen, zwischen dem Hosting und Rechenzentrums-Outsourcing abzuwägen.

Nordamerika hat das größte Wachstum an Cloud Nutzern

Der Markt für Rechenzentrums-Outsourcing in Nordamerika belief sich im Jahr 2011 auf 33 Milliarden Dollar, während Web-Hosting und Co-Location zusammen 23 Milliarden Dollar ausmachten. Der US-Markt hat mit 60% das größte Wachstum bei der Adaption von Public Cloud Services. Der Markt ist dabei sowohl organisch als auch durch neue Angebote, wie z.B. Storage-as-a-Service, gewachsen.

Europa liegt bei der Cloud im Mittelfeld

Der Markt für Rechenzentrums-Outsourcing in Europa belief sich 2011 auf 38 Milliarden Dollar, während das Web-Hosting und Co-Location mit 8,6 Milliarden Dollar hinter Nordamerika zurückblieb. Die Adoption von Public Cloud Services belief sich auf 23 Prozent.

Der asiatische Markt ist noch sehr klein

Auf dem asiatischen/ pazifischen Markt gibt es nicht annähernd so viel Aktivität wie in Nordamerika und Europa. Das Rechenzentrums-Outsourcing belief sich 2011 in der Region auf 10 Milliarden Dollar, während das Web-Hosting und Co-Location nur 2,5 Milliarden Dollar ausmachten. Die Nutzung von Public Cloud Services in Japan lag bei 9,8 Prozent und in den restlichen Teilen der Region bei 3 Prozent.

Weitere Informationen sind im Gartner Bericht “Regional Differences in the Move Toward the Cloud, 2012.” verfügbar.


Bildquelle: http://www.colocationamerica.com

Categories
Analysen

Nach der Cloud, wird Amazon auch der Big Data Gigant?

IaaS Cloud Infrastrukturen haben auf Grund ihrer Skalierbarkeit die idealen Voraussetzungen für die Verarbeitungen großer Datenmengen, wodurch Big Data ein idealer Anwendungsfall für Cloud Computing ist. Aber welcher Anbieter wird das Rennen um die Verarbeitung machen?

Big Data ist ein idealer Anwendungsfall für das Cloud Computing

Amazon Web Services

Ein Kandidat ist Amazon. Zum einen hat das Unternehmen auf Grund seines Kerngeschäfts, dem Web-Shop, eine große Expertise bei der Verarbeitung und Analyse großer Datenmengen aufgebaut und diese, betrachtet an der Evolution und dem Funktionsumfang der Webseite, stetig weiterentwickelt. Hinzu kommen aber auch die Amazon Web Services und der darunter liegenden massiv skalierbaren Infrastruktur, die ideal für die Verarbeitung von Big Data ist und die Unternehmen nutzen können, um dort Anwendungen für die Analyse ihrer Daten zu betreiben. Dazu stehen mit Amazon EC2, Amazon S3 und Amazon Elastic MapReduce gut miteinander zu kombinierende Services zur Verfügung. Neben dem Service AWS Import/ Export, mit dem große Datenmengen auf dem Postweg an Amazon geschickt werden können, die von Amazon dann direkt in die Cloud kopiert werden, hat sich Amazon mit der vor kurzem angekündigten Kooperation mit dem Private Cloud Infrastruktur-Software Anbieter Eucalyptus zudem eine gute Ausgangsposition geschaffen, um Unternehmen die Möglichkeit zu geben, über eine Hybrid Cloud Daten aus der Private in die Amazon Cloud übertragen zu lassen.

Google

Google hat ebenfalls viel Erfahrung bei der Verarbeitung großer Datenmengen, was u.a. auf die Indexierung des Internets und die damit verbundene Suche zurückzuführen ist – ebenfalls beides Kerngeschäfte von Google. Hinzu kommt, das Google kürzlich mit Google BigQuery einen neuen Service für Entwickler vorgestellt hat, auf dem Anwendungen entwickelt werden können, um Big Data zu verarbeiten. Dieser befindet sich aktuell aber noch in der geschlossenen Betaphase.

Anders als die Amazon Web Services scheint Google allerdings nicht so konsequent auf das Business getrimmt zu sein. Zudem wirkt Google an vielen Stellen immer noch wie ein großer Spielplatz für die eigenen Entwickler, was natürlich immer wieder gute Innovationen hervorbringt, Google sich aber bereits eingestehen musste, dass einige Services doch einfach mehr Kapital verbrennen als Nutzen ergeben. So wurde die Google App Engine anfangs stark gepushed, hat im Laufe der Zeit aber etwas an Innovation verloren.

Microsoft

Microsofts Kerngeschäft hat im Vergleich zu Amazon oder Google in erster Linie nichts mit der Verarbeitung großer Datenmengen zu tun. Dennoch steht mit Windows Azure ebenfalls eine skalierbare Infrastruktur bereit, auf der Unternehmen Big Data analysieren können.

Im Vergleich zu Google oder Amazon ist Microsoft aber bereits schon dort lange angekommen, wo die beiden erst genannten erst zielstrebig hinwollen, das Business. Microsoft sollte die Herausforderungen und Wünsche, insbesondere bei den renommierten Unternehmen, kennen und gezielt darauf eingehen können.

Erste infrastrukturelle Schritte hat Microsoft bereits mit der Unterstützung von Hadoop auf Azure unternommen und eine Agenda zeigt die weiteren Vorhaben für das Jahr 2012. So wird das Unternehmen mit Hilfe von Hortonworks und einer ODBC Schnittstelle Apache Hadoop an Microsofts Excel anbinden und so Big Data ins Büro bringen. Damit können Business Intelligence (BI) Tools einen direkten Zugang zu einem Hadoop Cluster erhalten und via Excel Pivot-Analysen durchgeführt werden.

Die Anderen

Es existieren eine Vielzahl an Unternehmen, die mit Big Data tagtäglich in ihrem Kerngeschäft konfrontiert werden. Dazu gehören bspw. ebay, Facebook, XING, LinkedIn oder auch Twitter. Allerdings bietet keines dieser genannten Unternehmen einen Public Cloud Service an, mit dem Big Data von Dritten verarbeitet werden könnte. Die Kosten für den Ausbau einer stärker skalierbaren Infrastruktur wären wohl auch zu hoch.

Allerdings sollten auch renommierte Unternehmen wie SAP, IBM oder Oracle im Bereich Big Data nicht aus den Augen gelassen werden. Die Expertise aus dem Kerngeschäft ist zweifelsohne vorhanden.


Bildquelle: https://www.emcforums2011.com, http://www.techweekeurope.es

Categories
Analysen

Ist IaaS die Lösung für die Herausforderungen von Big Data?

Big Data gehört zu den Trend Themen für das Jahr 2012. Immer mehr Unternehmen suchen in dem Thema Lösungen für die Verarbeitung großer Datenmengen. Dazu gehören neben dem Speichern ebenso die Analysefunktionen auf diesen Daten. Wie aber kann Infrastructure-as-a-Services dabei helfen, mit diesen Problemen umzugehen und Lösungen zu finden?

Big Data ist die größte IT-Herausforderung für Unternehmen

Oracle’s jährlicher Datacentre Index, der im Januar veröffentlicht wurde zeigt, dass Unternehmen in Europa, dem Nahen Osten und Afrika ihre Rechenzentrumsstrategien auf Grund der stetig wachsenden Datenmengen für das Jahr 2012 überdenken müssen. Zudem wird Big Data von vielen als die größte IT-Herausforderung für Unternehmen in den nächsten zwei Jahren gesehen.

Datenflut

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere “normale” Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Welcher Weg ist der Richtige?

Die Öl-und Gasindustrie hat dies durch den Einsatz von eher traditionellen Storage-Lösungen (SANs und NASs) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

IaaS (Infrastructure-as-a-Service), vereint beide Welten und nimmt dadurch eine einzigartige Position ein. Für diejenigen, die das SANs/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Wobei der Grid-Ansatz wahrscheinlich besser funktioniert. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Wettbewerbsfähig bleiben

McKinsey’s Report “Big data: The next frontier for innovation, competition, and productivity”, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Kosteneinsparung für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

IaaS Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.


Bildquelle: http://collaborationforgood.org, http://futurezone.at

Categories
Analysen

Microsoft und Amazon liefern sich Preiskampf in der Cloud

Als Anbieter mit einem großen Public Cloud Portfolio kämpft Microsoft nun nicht mehr nur mit Google, sondern liefert sich seit kurzem auch einen Preiskampf mit den Amazon Web Services. Das gute daran: die Gewinner sind die Nutzer.

Der Kampf verlagert sich in die Cloud

Nachdem Microsoft am Ende der vergangenen Woche seine Preise für Windows Azure Storage und Windows Azure Compute gesenkt hat und damit auf die Preissenkungen der Amazon Web Services, ebenfalls in der vergangenen Woche, reagiert hat, befinden sich die derzeitigen Preise für Speicherplatz und Rechenleistung aus der Cloud auf einem niedrigen Rekordniveau und befinden sich auf dem Stand hiesiger Stromtarife.

Die Frage ist, wie lange das noch so weitergehen kann, denn die Preise können im Prinzip nur weiter fallen. Betrachten wir nämlich die Tatsache, das die Stromtarife auf Erdgaspreisen, saisonalen Einflüssen und weiteren Variablen basieren, kann Cloud Computing noch günstiger werden.

Die Preisgestaltung beider Anbieter ist nicht direkt vergleichbar, da die Preise und Dienstleistungen variieren. Aber die Kernaussage dieses Wettbewerbs ist eindeutig: Die Preise werden weiter sinken.

Beispielweise kostet eine Amazon Small (Standard) On-Demand Instanz mit Linux/Unix 0,090 Dollar (ca. 0,067 EUR) pro Stunde. Eine Windows Instanz 0,115 Dollar (ca. 0,088 EUR) pro Stunde. Ich zahle derzeit ca. 0,244 EUR pro Kilowattstunde an meinen Stromanbieter.

Beide Anbieter argumentieren, dass sie ihre eigenen Einsparungen (Economies of scale) sehr gerne an ihre Kunden weiterreichen und fokussieren Entwickler, Startups, kleine Unternehmen sowie Großkunden.

Nachdem nun aber auch HP und weitere Anbieter in den Cloud Computing Markt für IaaS Ressourcen eingestiegen sind, werden die Preise noch weiter fallen.


Bildquellen: http://www.merkur-online.de, http://diepresse.com

Categories
News

HP präsentiert weitere Informationen zu seinen cCell Services und nennt Preise

Bei den HP cCell Services handelt es sich um ein neues Cloud-Modell, das HP nun auf den deutschen Markt gebracht hat.

Damit können Kunden erstmals wählen, von welchem Betriebsort sie kommerzielle Cloud-Dienste beziehen möchten: aus dem eigenen Rechenzentrum, von einem regionalen IT-Partner oder aus den HP-Rechenzentren in Frankfurt. Eine zentrale Makler-Plattform sorgt für die Verwaltung und Verteilung der Cloud-Dienste, die von HP und einem Ökosystem an System- und Softwarehäusern bereitgestellt werden. Endkunden können mit diesem Angebot den Standort und den Modus des Cloud-Betriebs an ihre technischen, geschäftlichen und regulatorischen Anforderungen anpassen. HP-Partner erhalten die Möglichkeit, schnell und ohne größere Investitionen ein eigenes Cloud-Angebot aufzubauen.

Als erster HP cCell Service ist ab sofort Infrastructure as a Service (IaaS) verfügbar (Serverleistung, Speicher und Backup). HP wird bis Mitte des Jahres 2012 weitere cCell Services für SAP-Betrieb, Exchange, Sharepoint, Webserver und Datenbanken auf den Markt bringen. Die Software AG hat angekündigt, ihr Portfolio Software AG Cloud-Ready für HP cCell Services zu zertifizieren. Die neue Bereitstellungsoption auf HP cCell Services wird Mitte 2012 verfügbar sein. Software-as-a-Service-Lösungen von Intershop und Seeburger werden im zweiten Kalenderquartal auf der cCell-Plattform verfügbar sein. Die Janz IT AG wird auf der Grundlage von HP cCell Services ihr Angebot „Mittelstandscloud.de“ weiter ausbauen.

Über ein spezielles Cloud-Partnerprogramm (HP Preferred Cloud Partner Program) qualifiziert und unterstützt HP IT-Anbieter, die auf der Grundlage des cCells-Modells eigene Cloud-Angebote aufbauen wollen.

Kunden bezahlen für die HP cCell Services eine Nutzungsgebühr pro Tag. Abgesehen von einer einmaligen Installationspauschale fallen keine Investitionen an. Die Tagespreise pro Dienst variieren je nach gewähltem Service Level. Bestellte Services sind innerhalb von einer Stunde oder schneller verfügbar. HP cCell Services sind Teil des Portfolios HP Enterprise Cloud Services und zunächst für den deutschen Markt verfügbar.

Die Höhe der Kosten beträgt je nach Modell für die Nutzung der Virtual Private Cloud 3,80 EUR pro Tag für eine Maschine von der Kategorie “Small” plus der einmaligen Installationspauschale von 9.842,00 EUR. Für eine Private Cloud werden 4,30 EUR pro Tag für eine Maschine von der Kategorie “Small” plus der einmaligen Installationspauschale von 17.954 EUR berechnet. Die Virtual Private Cloud ist zudem nicht abhängig von einer Mindestvolumennutzung, wo hingegen bei der Private Cloud eine Nutzung von 25% bis 35% Systemauslastung erwartet wird. In der Installationspauschale sind u.a. Workshops Beratung und Integrationshilfen enthalten.

Bei den Service Level werden drei Kategorien 0 bis 2 unterschieden. Wobei hier zwischen dem direkten Hosting in einem HP Rechenzentrum bzw. dem Hosting in einem HP Rechenzentrum oder bei einem Partner unterschieden wird. Die Servicelevel Qualität unterscheidet sich hier jedoch nicht. Beim SLA0 bzw. SLA1 werden jeweils 99,0% (0) bzw. 99,5% (1) angegeben. Den einzigen unterschied macht das SLA Level 2. Hier wird eine garantierte Verfügbarkeit von 99,9% in einem HP Rechenzentrum garantiert. Beim Hosting der Cloud in einem Partner Rechenzentrum werden keine Angaben gemacht, da je nach Projekt und Situation entschieden werden soll.

Categories
Analysen

Amazon Web Services vs. Microsoft Windows Azure – Ein direkter Vergleich

Viele Unternehmen befinden sich derzeit in der Evaluation von Public Cloud Services wie IaaS. Die ersten Gedanken streifen dann die beiden großen und vermeintlich bekanntesten Anbieter in der Szene – die Amazon Web Services und Microsoft Windows Azure.

Beide verfügen mittlerweile über ein sehr umfangreiches und stetig wachsendes Angebot an Cloud Services. Möchte man beide Portfolios jedoch miteinander vergleichen steigen die Herausforderungen mit der Anzahl der Services.

Amazon Cloud vs. Windows Azure

Die folgende Tabelle stellt das Cloud Service Portfolio 1:1 gegenüber und schafft Klarheit, wer in welchem Bereich was anbietet, wie der Name des jeweiligen Service lautet und unter welcher URL weitere Informationen zu diesem zu finden sind.

Funktion

Amazon Web Services

Microsoft Windows Azure

Rechenleistung

Virtuelle Maschinen Elastic Compute Cloud Role Instances
High Performance Computing Cluster Compute Instances HPC Scheduler
MapReduce Elastic Map Reduce Hadoop on Azure
Dynamische Skalierung Auto Scaling Auto Scaling Application Block

Speicher

Unstrukturierter Speicher Simple Storage Service Azure Blob
Flexible Entities SimpleDB Azure Tables
Block Level Storage Elastic Block Store Azure Drive
Archivierung Amazon Glacier
Stroage Gateway AWS Storage Gateway

Datenbanken

RDBMS Relational Database Service SQL Azure
NoSQL DynamoDB Azure Tables

Caching

CDN CloudFront CDN
In-Memory ElastiCache Cache

Netzwerk

Load Balancer Elastic Load Balancer Fabric Controller / Traffic Manager
Hybrid Cloud Virtual Private Cloud Azure Connect
Peering Direct Connect
DNS Route 53

Messaging & Anwendungen

Async Messaging Simple Queue Service Azure Queues
Push Notifications Simple Notification Service Service Bus
Bulk Email Simple Email Service
Workflows Amazon Simple Workflow Service
Suche Amazon CloudSearch

Monitoring

Ressourcen Monitoring CloudWatch System Center

Sicherheit

Identitätsmanagement Identity Access Management Azure Active Directory

Deployment

Ressourcenerstellung CloudFormation
Web Application Container Elastic Beanstalk Web Role
Categories
Grundlagen

Servicearten des Cloud Computing (Redux)

Im Cloud Computing existieren grundsätzlich drei verschiedene Arten Dienstleistungen bereitzustellen. Da diese aufeinander aufbauen, wird in diesem Zusammenhang auch von Schichten gesprochen. Anhand dieses Drei-Schichten Modells ergeben sich Möglichkeiten neue Geschäftsmodelle zu entwickeln.

Infrastructure-as-a-Service

Infrastructure-as-a-Service (IaaS) bildet die unterste Schicht des Cloud Computing Service-Modells. Sie ist die Grundlage und stellt die grundlegenden Dienste wie Speicherplatz und Rechenkapazität bereit. Hier wird die Basis-Infrastuktur wie Hardware für Server, Speicherplatz aber auch Router und Switches – mittels Virtualisierung – bereitgestellt. Die gesamte Infrastruktur ist so skaliert, dass sie in Zeiten von Spitzenlast dynamisch erweitert wird und somit unterschiedlichen Auslastungen angepasst werden kann. Bei IaaS ist der Drittanbieter lediglich für die Bereitstellung und Wartung der Hardware zuständig. Alle anderen benötigten Ressourcen wie z.B. das Betriebssystem, Anwendungen etc. obliegen dem Kunden.

Platform-as-a-Service

Platform-as-a-Service (PaaS) bildet die mittlere Schicht des Cloud Computing Service-Models und ist dafür zuständig, eine transparente Entwicklungsumgebung bereitzustellen. Dabei stellt der Drittanbieter eine Plattform zur Verfügung, auf der (Web)-Anwendungen entwickelt, getestet und gehostet werden können. Die Applikationen werden anschließend auf der Infrastruktur des Anbieters ausgeführt und nutzen dessen Ressourcen. Der vollständige Lebenszyklus einer Anwendung kann darüber vollständig verwaltet werden. Über APIs können die Dienste auf der Plattform des jeweiligen Anbieters angesprochen werden. Der Vorteil besteht darin, dass vor allem kleine Unternehmen ihre Entwicklungsinfrastruktur auf ein Minimum beschränken können. Sie benötigen lediglich einen Desktop-PC, einen Web-Browser, evtl. eine lokale IDE, eine Internetverbindung und ihr Wissen, um Anwendungen zu entwickeln. Der Rest obliegt dem Drittanbieter, der für die Infrastruktur (Betriebssystem, Webserver, Entwicklungsumgebung etc.) verantwortlich ist.

Software-as-a-Service

Software-as-a-Service (SaaS) ist die oberste Schicht des Cloud Computing Service-Modells. Sie stellt dem Anwender vollständige Anwendungen bereit. Dadurch kann sie als eine Art Distributionsmodell verstanden werden, bei dem die Nutzung von Software über das Internet von einem Drittanbieter angeboten wird. Der Drittanbieter übernimmt dabei u.a. Hosting und die Wartung der Software. Für den Anbieter besteht der Vorteil darin, dass nur eine Instanz einer Software auf den Servern bereitgestellt werden muss, welche unzählige Anwender gleichzeitig nutzen können. Wird die Software auf einen aktuellen Stand gebracht, genügt ein Update Vorgang an zentraler Stelle und die Software ist für alle Anwender gleichzeitig aktuallisiert. Der Vorteil für den Anwender besteht darin, dass lediglich – wie schon bei PaaS – nur ein Desktop-PC, ein Web-Browser und eine Internetverbindung ausreichen um z.B. Dienste wie E-Mail, Office Anwendungen oder sogar ERP-Systeme nutzen zu können. Die Anschaffung und Wartung großer Serverlandschaften bzw. Softwarepakete entfällt ebenso wie das Updaten der lokalen Anwendungen. Der Drittanbieter sorgt immer für einen aktuellen Stand der Software und stellt die gesamte Infrastruktur für das Hosting der Software bereit. Dazu gehören auch das Speichern von Dateien (Dokumenten) auf den Servern des Anbieters. Der Anbieter ist demnach für alle notwendigen Bereiche des Betriebs wie Verfügbarkeit, Backup, Redundanzen und auch die Stromversorgung verantwortlich.

Categories
Management @de

Cloud Computing ist die Chance für Unternehmen ihre Insellösungen aufzuräumen

Es gibt viele Anwendungsbereiche, mit denen Cloud Computing einem Unternehmen helfen kann agiler, effizienter, kostentransparenter usw. zu arbeiten und sich gegenüber dem Mitbewerb den einen oder anderen Vorteil zu verschaffen. Dafür stehen mit Cloud Services à la SaaS, PaaS und IaaS bereits viele interessante Lösungen bereit.

Für die reinen Cloud Computing Nutzer muss daher zunächst exakt evaluiert werden, wo Cloud Computing tatsächlich helfen kann. Heißt also sich einen Marktüberblick zu verschaffen und schauen: Was gibt es, was kann ich für mich gebrauchen und inwieweit ist der Service kompatible und integrierbar. Denn es gibt durchaus Bereiche, wo Cloud Computing keinen Sinn macht. Die gesamte Infrastruktur per IaaS in die Cloud zu verlagern kann so bereits das Ende bedeuten – nicht technischer, aber finanzieller Natur. Also, nicht alles macht Sinn, aber es gibt dennoch viele Bereiche wo Cloud Computing wirklich nützlich ist. Nehmen wir SaaS oder PaaS. Office Anwendungen und CRM Systeme werden von jedem Berater als erstes genannt. Logisch, ist auch einfach zu identifizieren und sehr naheliegend. 😉 PaaS Angebote sind ebenfalls sehr attraktiv. Speziell wenn bspw. mal kurz eine cloudfähige PHP oder Java Anwendung getestet werden soll oder ein Startup seine Ideen kostengünstig umsetzen möchte.

Schwieriger wird es allerdings, wenn mehr als nur Office und CRM in die Cloud bewegt werden sollen. Viele Unternehmen sind mit proprietären Eigenentwicklungen unterwegs die für die Cloud neu entwickelt werden müssen oder die einzelnen Systeme sind so ineinander integriert, dass der Aufwand einfach zu hoch wäre. Vielleicht haben an dieser Stelle genau die Unternehmen den entscheidenden Vorteil, die noch über eine große Anzahl von Insellösungen (einzelne Systeme die z.B. nicht kompatible zueinander sind) verfügen. Insellösungen sind von Beratern grundsätzlich verpönt und führen zu ein enormes Maß an Beratungsbedarf und $$$! 😉 Bitte nicht falsch verstehen! Ich bin ebenso der Ansicht, dass IT-Systeme nur dann harmonisch miteinander zusammenarbeiten, wenn die Schnittstellen klar definiert und eine vollständige Integration vorgenommen wurde.

Dennoch: Unternehmen mit Insellösungen haben es nun einfacher ein Einzelsystem dieser Insellösung gegen einen Cloud Service auszutauschen, um darüber sukzessive ein vollständig integriertes (Gesamt)-System von mehreren Cloud Services zu erhalten.

Categories
News

T-Systems geht in die Cloud

Mit einer kostenlosen Testphase für bereits vorhandene Unternehmenskunden startet nun auch T-Systems als ein großes deutsches Unternehmen mit einem Infrastructure as a Service Angebot in die Cloud. Die Pilotphase beginnt noch im November 2010 und wird im Februar 2011 enden.

Mit diesem Angebot wird T-Systems in direkter Konkurrenz zu den Amazon Web Services stehen. Das könnte Erfolg versprechend sein, wird alleine die finanzielle Kraft von T-Systems betrachtet.

T-Systems stützt sich vor allem auf die oft diskutierten Bereiche Zugriffskontrolle, Datenschutz und Datensicherheit, sowie die Service Level Agreements (SLAs). Alles im Hinblick auf eine höchstmögliche Skalierbarkeit.

Alle Rechenzentren und damit sämtliche Daten des Kunden werden sich in Deutschland befinden und nach der ISO Sicherheitsnorm 27001 zertifiziert und können darüber hinaus ebenfalls von den Kunden selbst auditiert werden.