Categories
News

Hitachi präsentiert mit der Hitachi Unified Compute Platform eine neue Converged Infrastructure

Hitachi Data Systems hat auf der VMworld Europe mehrere Lösungen aus dem Bereich Converged Infrastructure vorgestellt. Die neu entwickelte Hitachi Unified Compute Platform (UCP) kann, nach eigenen Angaben, schnell implementiert und verwaltet werden, da aufwändige Tests und kostenintensive Integrationen entfallen sollen. Insgesamt umfasst das UCP-Portfolio elf Angebote, die auf zwei konvergenten Infrastrukturfamilien basieren. Die voll integrierten Pakete enthalten sowohl Speicher als auch Server, Netzwerkkomponenten und entsprechende Software zum Management. Sowohl die Hitachi Global Services als auch das Partnernetzwerk unterstützen die Hitachi UCP Pro und UCP Select ab sofort.

Alles für die konvergente Infrastruktur

Die Hitachi Unified Compute Platform Pro ist ein vorkonfiguriertes, stark integriertes System, das Speicher und Server sowie industrieübliche Netzwerkkomponenten enthält. Hitachi startet zunächst mit der UCP Pro für VMware vSphere samt der Unified Compute Platform Director Software, die integriert über VMware vCenter Management und Orchestrierung verfügt. Als zweite Ausprägung stellt das Unternehmen „Hitachi UCP Select“ vor, eine Reihe vorvalidierter Referenzlösungen. Diese können aus den branchenführenden HDS-Speichern und Servern sowie aus Software-Management für eine Vielzahl von Applikationen zusammengestellt werden. Hitachi UCP Select unterstützt auch den Einsatz von Cisco UCS (Unified Computing Systems) Servern. Die Lösung ist insbesondere für Organisationen geeignet, die eine flexible konvergente Infrastruktur benötigen.

Hitachi UCP Pro für VMware vSphere: Automatisierung, Orchestrierung und Monitoring aus vCenter heraus

Die Hitachi Unified Compute Platform Pro ist eine eng integrierte Lösung und sofort verfügbar. Sie besteht als vorkonfiguriertes System Hardware-seitig aus der Hitachi Virtual Storage Platform (VSP), Brocade Fibre Channel und Ethernet Fabric Switches sowie Hitachi Compute Blade 500 Servern. Als Software kommen VMware vSphere und die UCP Director Software zum Einsatz, was die Komplexität senkt und durch die vCenter-Server-Integration ein umfassendes und einfaches Infrastrukturmanagement ermöglicht. So gerüstet kann die UCP Pro für VMware vSphere bis zu mehreren tausend virtueller Maschinen skalieren.

Die UCP Director Software ermöglicht Administratoren detaillierte Einblicke sowie das Management und die Orchestrierung der darunterliegenden physikalischen und virtualisierten Infrastruktur. Administratoren können die vertraute grafische Nutzeroberfläche von VMware vCenter verwenden, um Server, Netzwerk und Speicher zu orchestrieren. Dadurch entfallen fehlerträchtige und zeitaufwändige manuelle Vorgänge.

Hitachi UCP Select: Referenzarchitekturen bieten Auswahl und Flexibilität

Eine von HDS am Markt konvergenter Infrastrukturen für geschäftskritische Aufgaben identifizierte Lücke schließt das Unternehmen nun selbst: Eine ganze Reihe vorgetesteter Referenzlösungen integrieren HDS-Speichersysteme, Server, Netzwerkkomponenten und Datenmanagement. Die Hitachi Unified-Compute-Platform-Select-Referenzlösungen sind vollständig validierte Frameworks. Sie lassen Kunden und Partnern die Wahl zwischen vorgetesteten Elementen des konvergenten Systems ohne die UCP Director Software; diese basieren entweder auf Storage und Servern von Hitachi und Brocade Fibre Channel und Ethernet Fabric Switches oder auf Hitachi-Speicher und Cisco UCS Servern und Netzwerkkomponenten.

Die Hitachi Unified Compute Platform Select für VMware vSphere mit Cisco UCS ist zuerst am Markt erhältlich. Die Lösung kombiniert HDS-Speicher mit Cisco UCS Servern und Netzwerkkomponenten im Zuge eines „Cisco Validated Design“ (CVD) und ist vorvalidiert für VMware vSphere. Zusätzlich zu den technischen und wirtschaftlichen Vorteilen profitieren Anwender von der engen Zusammenarbeit zwischen VMware, Cisco und Hitachi Data Systems.

Das Hitachi-Brocade-Portfolio der UCP Select unterstützt zentrale Software-Technologien wie Hypervisors und Datenbanken sowie Analyse- und Anwendungsumgebungen, darunter Citrix, Microsoft, Oracle, SAP und VMware. IT-Entscheider können einfach die Lösung aussuchen, die am besten zu ihrer Umgebung passt, wobei die Interoperabilität stets gewährleistet ist. Außerdem bietet HDS umfangreiche Guidelines für Referenzarchitekturen und Bereitstellungen. Folgende neun neue UCP-Select-Referenzlösungen sind erhältlich:

  • Hitachi UCP Select for Citrix Xen Desktop
  • Hitachi UCP Select for Microsoft Exchange 2010
  • Hitachi UCP Select for Microsoft Private Cloud
  • Hitachi UCP Select for Microsoft SQL Server 2008
  • Hitachi UCP Select for Microsoft SQL Server 2012
  • Hitachi UCP Select for Oracle Database
  • Hitachi UCP Select for SAP HANA
  • Hitachi UCP Select for VMware View
  • Hitachi UCP Select for VMware vSphere
Categories
News

Savvis erweitert seine Cloud-basierte Datenbank-Plattform Symphony in Europa

Savvis, Anbieter von Cloud-Infrastruktur-Services und Hosted-IT-Lösungen für Unternehmen, hat die Verfügbarkeit der Savvis Symphony Database, einer Cloud-basierten Datenbank-Plattform, in Europa bekannt gegeben.

Oracle- und Microsoft SQL-Server in einer Umgebung

Die Symphony Datenbank, die Savvis im Oktober 2011 in Nordamerika auf den Markt gebracht hat, bietet die Vorteile von Cloud Computing jetzt auch in Oracle- und Microsoft-SQL Server-Umgebungen. Mit wenig Aufwand liefert die Symphony Datenbank alles, was für eine vollständige Datenbank-Lösung notwendig ist. Ohne Unterbrechungen zu verursachen, kann die Cloud, je nach den spezifischen Anforderungen, beliebig hoch und runter skaliert werden. Gleichzeitig soll die Savvis Symphony Database Leistungsgarantien und geringere Kosten im Vergleich zu gehosteten Datenbanklösungen bieten.

VMware Support

Nutzer können für die zugrunde liegende Technologie zwischen Oracle Enterprise 11g RAC und dem Microsoft SQL Server 2008 R2 wählen. Die neue Cloud-Plattform ist für europäische Kunden über das Rechenzentrum von Savvis in Slough, Großbritannien, verfügbar.

Die Symphony Datenbank ergänzt zudem die VMware-basierte Savvis Symphony Suite von Enterprise-Cloud-Lösungen und stellt einen weiteren Meilenstein auf dem Weg von Savvis globaler Expansion dar. Die europäische Markteinführung der Symphony Database ist der logische nächste Schritt nach der erst kürzlich erfolgten Eröffnung des Rechenzentrums von Savvis in Frankfurt.

Categories
Management @de

Warum Unternehmen Angst vor Cloud Computing haben.

Cloud Computing ist angekommen. Dennoch bestehen noch Vorbehalte und Ängste vor der Cloud. CA Technologies hat aus einer Umfrage unter IT-Führungskräften eine Infographik erstellt, die zeigt, warum einige Unternehmen bei der Adaption zögern.

Die Ergebnisse der Umfrage zeigen, dass 80% der Befragten die Meinung vertreten, dass Cloud Computing für Innovationen sorgt. Mehr als 50% antworteten, sie hätten derzeit keine Pläne Cloud Lösungen einzusetzen. 49% sind der Meinung, dass Unternehmen neue IT Jobs schaffen müssen, um den Weg in die Cloud zu ebnen. 56% sind der Meinung, dass aktuelle Mitarbeiter dafür neue IT-Fertigen erlernen müssen. Das entspricht dem, was ich kürzlich für den CloudOps Blog geschrieben habe.

Categories
News

VMware erweitert sein Cloud-Management mit Updates für die VMware vCloud Suite

Zum Start der VMworld Europe 2012 präsentiert VMware ein Update seines Cloud Management-Portfolios, das eine Optimierung der Management-Produkte der kürzlich eingeführten VMware vCloud Suite umfasst. Mit dem VMware vCloud Automation Center 5.1 stellt VMware einen Neuzugang in der Suite vor. Ziel ist es, das Management in physischen, virtuellen und Cloud-Umgebungen weiter zu vereinfachen und zu automatisieren und der IT gleichzeitig die Steuerung multipler, heterogener Clouds zu ermöglichen.

VMware erweitert sein Cloud-Management mit Updates für die VMware vCloud Suite

Private und Hybrid Cloud stehen im Mittelpunkt

Die VMware Cloud-Management-Lösungen unterstützen softwaredefinierte Rechenzentren und eröffnen den Kunden die Effizienz und Flexibilität des Cloud Computings. VMwares Ansatz in Sachen Management hybrider und heterogener Clouds zielt auf drei kritische Bereiche ab:

  • Cloud Service Provisioning: Automatisierung der Bereitstellung und Regulierung von Infrastrukturen, Anwendungen und Desktops als Service – abgestimmt auf die jeweiligen Unternehmens- und IT-Richtlinien.
  • Cloud Operations Management: Nutzung umfassender Analysen und Informationen um Leistung, Compliance und Effizienz von Cloud-Infrastrukturen zu gewährleisten.
  • Cloud Business Management: Management und Regulierung von Cloud Services als kritischen Faktor, wenn IT zur Unterstützung des Geschäftes betrieben wird.

Optimierung von Service Provisioning und Operations Management der VMware vCloud Suite

Die im August 2012 eingeführte VMware vCloud Suite vereint alle Komponenten, die Kunden benötigen um Cloud-Infrastrukturen aufzubauen, zu betreiben und zu verwalten. VMware präsentiert heute weiterentwickelte und neue Management-Komponenten in der VMware vCloud Suite:

vCloud Automation Center 5.1 – Multi-Cloud Infrastrukturen und Desktop Provisioning

Das VMware vCloud Automation Center 5.1, ein Neuzugang in der VMware vCloud Suite, unterstützt Kunden dabei, die Bereitstellung von IT-Services besser zu steuern. Es basiert auf DynamicOps, das im July 2012 von VMware übernommen wurde, fungiert als Service-Regulator und ermöglicht eine richtlinienbasierte Bereitstellung über VMware-basierte private und öffentliche Clouds, physische Infrastrukturen, multiple Hypervisoren und Amazon Web Services hinweg. Über ein Self-Service-Portal – im Grunde eine Cloud-übergreifende Konsole – erlaubt das vCloud Automation Center autorisierten Administratoren, Entwicklern oder geschäftlichen Nutzern neue IT-Services anzufordern oder bestehende Ressourcen zu verwalten. VMware vCloud Automation Center 5.1 fügt sich in den VMware vCloud Director ein und gibt dem Kunden die Möglichkeit virtuelle Rechenzentren zu nutzen, die Software-defined Services der VMware vCloud Suite umfassen. vCloud Automation Center 5.1 fügt sich zudem in den vCenter Orchestrator ein und automatisiert IT-Prozessabläufe von VMware und kundenspezifisch bereits existierende Management-Tools und -Prozesse.

vFabric Application Director 5.0 – Bereitstellen von Anwendungen in jeder Cloud

Mit dem vFabric Application Director kann die Art und Weise wie Kunden mehrschichtige Anwendungen in verschiedenen Clouds entwickeln und anwenden, standardisiert und beschleunigt werden. Dies erfolgt durch so genannte “easy-to-create”-Blueprints mit standardisierten, im Voraus genehmigten Betriebssystem- und Middleware-Komponenten. Obwohl der vFabric Application Director 5.0 für VMware vCloud Suite-basierte Clouds optimiert ist, wird es Kunden ermöglicht, die gleichen Blueprints zu verwenden um Anwendungen über verschiedene virtuelle und hybride Cloud-Infrastrukturen hinweg zu nutzen, einschließlich Amazon EC2. Mit dieser Version erweitert VMware die vFabirc Applikation Director Anwendungensunterstützung sowohl durch alle Microsoft-packaged Applikationen (Exchange, SQL Server, SharePoint), also auch Kunden-spezifische Anwendungen (Java, .Net, Ruby on Rails). Der VMware vFabric Application Director hilft zudem fortlaufende Wartungsarbeiten von Applikationen wie Konfigurationen zu vereinfachen und unterstützt die automatische Skalierung von Anwendungen als Antwort auf sich ändernde Geschäftsanforderungen.

vCenter Operations Management Suite 5.6 – eingebettete, integrierte Verwaltung des Cloud-Betriebs

Die vCenter Operations Management Suite setzt patentierte Analyse-Methoden für integrierte Leistungs-, Kapazitäts- und Konfigurations-Verwaltung ein. Kunden erhalten so Wissen, wie sie proaktiv Service Levels in Hybrid Cloud-Umgebungen ermöglichen können. Die VMware vCenter Operations Management Suite kann operative Einsparungen verdoppeln, die Kunden durch VMware vSphere erhalten. Mit dieser Version der VMware vCenter Operations Mangement Suite wird die Leistungs-Verwaltungs-Funktionen in jeder vSphere Version beinhaltet sein. Verbesserungen in der vCenter Operations Suite 5.6 führen VMwares Strategie verschiedene Verwaltungsbereiche zu verbinden und neue Blicke auf Compliance durch das Operations Dashboard zu ermöglichen. Dies hilft Kunden Compliance proaktiv mit IT-Richtlinien, Sicherheitsleitfäden und regulatorischen Rahmenbedingungen durchzusetzen. Neue anpassbare, gruppen-basierte Ansichten ermöglichen einen IT-Betrieb, der enger auf die Unternehmensziele ausgerichtet ist. VMware vCenter Operations Management Suite 5.6 enthält zudem VMware vFabric Hyperic Applicationlevel Monitoring, um Kunden die proaktive Verwaltung geschäftskritische Anwendungen zu ermöglichen, einschließlich Microsoft SQL Server, Exchange, SharePoint, Windows OS sowie Oracle-Datenbanken und Java-Applikationen.

vCloud Connector 2.0 – Hybrid Cloud Portabilität

Der VMware vCloud Connector dient als Brücke für den Transfer von VMs und Anwendungen über vSphere und vCloud Director Private Cloud-Umgebungen als auch in Public Clouds von VMware vCloud Service Providern. Die Verbesserungen in vCloud Connector 2.0 helfen sowohl Netzwerk- als auch Workload-Kataloge über hybride Cloud-Umgebungen zu erweitern, ohne die Netzwerke oder Einstellungen neu konfigurieren zu müssen, wenn Workloads verschoben werden. Die logischen Grenzen von Rechenzentren können so praktisch erweitert werden. Örtlich verteilten Teams bietet der vCloud Connector die Möglichkeit, ihre Entwicklungensaufwände zu koordinieren, indem jedes Mitglied einen eigenen synchronisierten Workload-Katalog erhält, der die gesamte Cloud-Umgebung umfasst.

Categories
News

BT: Höhere Cloud Performance für die Life-Science-Branche

Der Netzwerk- und IT-Dienstleister BT und die Aspera Inc., Anbieter von Lösungen für Hochgeschwindigkeits-Datenübertragung, werden in Zukunft kooperieren und Asperas Datentransfer-Technologie in „BT for Life Sciences R&D“ integrieren. Dieser speziell für die Pharma Industrie entwickelte Cloud-Service ermöglicht die übergreifende Zusammenarbeit und soll helfen, die Produktivität bei Forschung und Entwicklung zu steigern.

Big Data in der Life-Science-Branche

Unternehmen aus der Life-Science-Branche müssen derzeit eine gewaltige Datenflut, die bei ihren Versuchsreihen entsteht, in den Griff bekommen. Sie müssen diese Datenmengen optimieren, managen, übertragen, speichern und sichern. Um den Datenfluss zu verbessern, nutzt BT for Life Sciences R&D Connect das globale Netzwerk von BT und verwendet künftig fasp von Aspera, eine Technologie für den Hochgeschwindigkeitstransfer. Diese ermöglicht die sichere, berechenbare und skalierbare Übermittlung ungeachtet der Datenmenge, der Entfernung zwischen den Endpunkten sowie den Netzwerkbedingungen.

fasp-Protokoll ersetzt herkömmliche Transfertechnologien

Das fasp-Protokoll von Aspera soll, nach eigenen Angaben, die üblichen Engpässe herkömmlicher Transfertechnologien beseitigen. Es bietet einen schnellen und zuverlässigen Ende-zu-Ende-Transport über öffentliche und private Netzwerke, nutzt dabei die verfügbare Bandbreite voll aus, ist unabhängig von Netzwerkverzögerungen und funktioniert auch bei starkem Paketverlust. Die Aspera-Software, die auf dem Protokoll aufbaut, ermöglicht Datenübertragungen, die bis zu 1.000 Mal schneller als die herkömmlicher Technologien sein sollen. Angewendet wird sie über eine Benutzeroberfläche, die ein grafisches Monitoring in Echtzeit, Anzeige der Bandbreitennutzung sowie Zugriffskontrolle ermöglicht. Für Sicherheit wird durch eine Authentifizierung, Datenverschlüsselung und eine Überprüfung der Datenintegrität gesorgt.


Bildquelle: http://www.semcon.com

Categories
Management @de

Die sieben häufigsten Fehler im SLA-Management

Die Experten für softwaregestütztes Business-Service-Management von der fusionPOINT GmbH haben die sieben häufigsten Fehler im Management von Service-Level-Agreements (SLAs) ausfindig gemacht. Ein Hauptgrund ist das sehr geringe Bewusstsein für das Thema innerhalb des Unternehmens. Denn die Schnittstellen zwischen dem Business und den IT SLAs müssen aktiv gesteuert und kontrolliert werden.

Fehler Nr. 1

Anbieter und Kunde vereinbaren keine SLAs.
Auf beiden Seiten herrschen in diesem Fall nur vage Vorstellungen darüber, welche Leistung eingekauft und welche geliefert wird. Da der Kunde ohnehin 100 Prozent möchte und der Lieferant nur das liefern kann, was seine Infrastruktur hergibt, sind Unstimmigkeiten vorprogrammiert, sobald der Kunde mit einer Leistung unzufrieden ist.

Fehler Nr. 2

Es gibt SLAs, aber diese sind beim Kunden und beim Anbieter nicht ausreichend kommuniziert.
Trotz schriftlicher Vereinbarungen sind die Details der zu erbringenden Leistung den betroffenen Personen häufig nicht bekannt oder wurden im Vorfeld nicht mit ihnen abgestimmt. In der Konsequenz ist es dann nur Zufall, wenn das geleistet wird, was der Kunde erwartet.

Fehler Nr. 3

SLAs enthalten schwammige Begriffe wie maximale Kundenzufriedenheit oder höchste Verfügbarkeit.
Kein Unternehmen wird jedoch Positionen wie „1 mal maximale Kundenzufriedenheit“ auf einem Lieferschein aufführen. SLAs müssen für beide Seiten zweifelsfrei messbar sein. In einem Reporting lässt sich dann automatisiert dokumentieren, wie die Leistungserbringung konkret aussah. Schwachstellen in der Leistungserbringung können so schnell aufgespürt und beseitigt werden.

Fehler Nr. 4

Es gibt SLAs mit messbaren Werten – aber niemand hält sich dran.
Häufig ist sich der Kunde trotz schriftlich fixierter Werten nicht bewusst, dass er keine 100 Prozent abgeschlossen hat oder nicht bereit, eine Mehrleistung zu honorieren. Umgekehrt ist der Lieferant nicht bereit, ein Servicedesign zur Erreichung der spezifischen SLAs zu machen und hierfür zu investieren. Auch hier muss die vereinbarte Leistung in beiden Unternehmen klar und transparent kommuniziert werden.

Fehler Nr. 5

SLAs werden von der Leistungsfähigkeit der IT nach oben zusammengebaut.
Hier stimmt der Ansatz nicht. Ein Business-SLA muss immer vom Geschäftsprozess des Kunden top-down abgeleitet werden. Es wird oft nicht gefragt „Was wird gebraucht?“, sondern „Was kann geleistet werden?“ Will ein Dienstleister seine Kunden zufrieden stellen, muss er die Kundenorientierung in den Vordergrund stellen.

Fehler Nr. 6

Das SLA-Management beim Anbieter erfordert zu viele manuelle Tätigkeiten.
Was nicht automatisiert ablaufen kann, benötigt zu viel Zeit und ist fehleranfällig. Das Reporting zum Kunden ist stets nachträglich und somit nur als Vergangenheitsbewältigung möglich. Eine aktive Steuerung der SLAs ist wichtig, um die eigene Leistung auf einem hohen Niveau zu halten und Verlässlichkeit zu demonstrieren. Auch die Risikominimierung und die Vermeidung von Pönalen wird hiermit gesteuert.

Fehler Nr. 7

Leistung wird nicht kundenbezogen kontrolliert, sondern nur bezogen auf die internen Leistungseinheiten.
Mit diesem Ansatz kann einiges schieflaufen. So kann es beispielsweise vorkommen, dass die geforderte Verfügbarkeit einer Leistungseinheit von x Prozent über alle Kunden eingehalten wurde und damit im grünen Bereich ist. Sind die Ausfälle aber ungleichmäßig verteilt, schreiben manche Kunden bereits die Rechnungen über Pönalen. Wichtig ist daher, auf SLA-Ebene zu managen und für jeden Kunden die spezifizierten Leistungen sicher zu stellen.


Bildquelle: http://auditagency.com.ua

Categories
News

Quantum präsentiert neues Cloud-Backup und Disaster Recovery für Unternehmen

Quantum hat mit der Q-Cloud einen neuen Cloud-basierten Backup-und Disaster Recovery (DR) Service angekündigt, der kostengünstige Sicherung von Unternehmensdaten zu Privatkunden-Preisen bieten soll. Enterprise-Kunden können den Zugang zur Q-Cloud für weniger als 1 Cent pro GB im Monat in Anspruch nehmen. Durch die Integration der Deduplizierungstechnologie von Quantum ermöglicht Q-Cloud Backups von 1 TB bis 1 PB zu schützender Daten sowohl für physische als auch virtuelle Infrastrukturen.

Quantum präsentiert neues Cloud-Backup und Disaster Recovery für Unternehmen

Unterstützt durch Deduplizierung und virtuelle Datensicherung

Q-Cloud nutzt alle Vorteile der DXi-Serie und der vmPRO Virtual Machine Protection-Funktionen für Datensicherung vor Ort und in der Cloud. Die Deduplizierungstechnologie der DXi-Appliances soll nach eigenen Angaben die Rentabilität von Cloud Storage revolutionieren. Diese Appliances ermöglichen Q-Cloud Kunden weiter mit ihren installierten Backup-Anwendungen, einschließlich Backup Exec, CommVault, Data Protector, NetBackup, vRanger, Tivoli Storage Manager und Veeam, zu arbeiten. Quantum vmPRO und DXi sollen eine Reduzierung des Datenvolumens von bis zu 95 Prozent erreichen. Als Basisbestandteil des Angebots für Q-Cloud Disaster Recovery as a Service (DRaaS), können Kunden mit der vmPRO Software von Quantum Snapshots ihrer virtuellen Maschinen anfertigen und diese in die Cloud replizieren.

Edge-to-Cloud-Replikation

Unternehmen mit mehreren Standorten können durch die Q-Cloud direkt von der Zweigstelle in die Cloud replizieren. Diese Replikationsfunktion entbindet den Anwender von der Nutzung primärer Ressourcen für Backup und Disaster Recovery. Unternehmen mit nur einem Standort können die Vorteile eines zweiten Standorts für einen neuen Ansatz zur Sicherung und DR nutzen. Mit einer Appliance der DXi-Serie vor Ort profitieren Q-Cloud-Kunden einerseits von der Geschwindigkeit eines lokalen Recoverys und andererseits von der Sicherheit Cloud-basierter Backups.

Pay as You Go -Preismodell

Die Abrechnung der Datensicherung erfolgt nach dem Pay as you Go Ansatz, so dass Kunden nur die Speicherkapazität, die sie wirklich benötigen, kaufen müssen. Das On-demand Preismodell wandelt Kapital- zu Betriebskosten und beseitigt die Kosten redundanter und ungenutzter Hardware. So kann kosteneffizient eine Offsite-Backup- und Disaster Recovery-Lösung eingesetzt werden.

Q-Cloud ist ab sofort in den USA und Europa verfügbar.

Categories
Events

Cloud Computing ist angekommen. Ein Review des CloudOps Summit 2012

Der CloudOps Summit 2012 in Frankfurt hat gezeigt, dass Cloud Computing endgültig auch in Deutschland angekommen ist. Wer die Cloud weiterhin als einen bald vergessenen Hype abstempelt oder sich ihr verwehrt, wird es in der Zukunft schwer haben, mit dem nationalen und internationalen Wettbewerb mitzuhalten. Das hat der CloudOps Summit eindrucksvoll bewiesen.

Cloud Computing ist angekommen. Ein Review des CloudOps Summit 2012

Transition – Build & Run – Skills

Die Veranstaltung begann mit einem Vortragsmarathon von zwei Keynotes (Tim O’Brien (Microsoft) und Harrick Vin (TCS Consultancy)) sowie zehn Lightning Talks (6 minütige Kurzvorträge) aus den Bereichen “Transition”, “Build & Run” und “Skills”. Also wie man sich in die Cloud bewegt, darin erfolgreich bleibt und welches Wissen dafür benötigt wird. Nach einer Pause starteten zu diesen Bereiche spezifische Workshops (Vorträge je 30 Minuten).

Transition

Der Übergang von on-Premise hinzu Cloud basierten Lösungen stellt Unternehmen vor Herausforderungen. Sollen die bestehenden Systeme 1:1 migriert oder die Chance genutzt werden, um einen Neuanfang zu starten und nur die Daten übernommen werden. Es stellt sich hier also die Frage, wie existierende Anwendungen in die Cloud migriert werden. So oder so muss sich allerdings das Architekturmodell der bestehenden Systeme und Anwendungen vollständig vom statischen zu dynamischen/ skalierbaren Modellen zzgl. Multi-Tenancy Fähigkeiten verändern, um die wahren Möglichkeiten der Cloud zu nutzen.

Build & Run

Cloud Computing Architekturen unterscheiden sich grundsätzlich von traditionellen Systemmodellen. Aber um die Hochverfügbarkeit, Skalierbarkeit usw. der Cloud tatsächlich zu nutzen, gilt es die Prinzipien des Cloud Computing, aber vor allem die Infrastruktur des jeweiligen Anbieter, speziell im Falle von IaaS, bis ins Detail zu durchdringen und bestmöglich für sich und das eigene System zu nutzen.

Cloud Skills

Cloud Computing erfordert den Aufbau neuer Kenntnisse, um mit den neuen Herausforderungen zurecht zu kommen und die Eigenschaften, welche die Cloud bietet, bestmöglich zu nutzen. Insbesondere die IT-Abteilungen werden sich verändern. Zwar wird es künftig weiterhin Systemadministratoren geben, jedoch wird die Anzahl schwinden und diejenigen, die übrig bleiben, werden durch die Cloud bei der Ausführung ihrer Tätigkeit unterstützt und werden diese dadurch besser ausführen.

Cloud Computing Round Table mit Top-Experten

Im Rahmen der Veranstaltung saß ich mit weiteren Cloud Computing Experten wie CSC Innovation Head Mark Masterson, arago CEO Chris Boos, TCS Researcher Harrick Vin sowie Microsoft Cloud Platform Stratege Tim O’Brien zusammen. Als Journalist war exklusiv “Wirtschaftsinformatik” Chefredakteur Peter Pagel vertreten, der dazu einen Artikel geschrieben hat.

Bilder, Videos und Präsentationen

Neben einigen Photos, wurde jeder Vortrag zudem per Video aufgezeichnet. Auch die Slides stellen die Veranstalter jedem im Nachhinein zur Verfügung. Sämtliche Inhalte können unter den folgenden Links abgerufen werden.

Cloud Computing ist gekommen um zu bleiben

Der CloudOps Summit 2012 hat bestätigt, dass das Thema Cloud Computing auch in deutschen Unternehmen für Interesse sorgt. Der Wandel ist bereits eingeleitet und es spricht derzeit nichts mehr dafür, dass Cloud Computing aufgehalten werden kann und sollte. Jedes Unternehmen ist daher angehalten, sich mit den Chancen und Potenzialen des Cloud Computing auseinanderzusetzen und die individuellen Risiken abzuwägen. Denn der Mitbewerb ist bestimmt bereits dabei dies zu tun.

Categories
Kommentar

Schuldzuweisungen in Zeiten des Cloud Computing

Gestern ist mir wieder ein Tweet über den Weg gelaufen, der nicht nachvollziehbar ist. Der Bilderservice Mobypicture twittert “Mobypicture is currently unavailable because of system maintenance by Amazon….”. Währenddessen waren auf dem Statusboard der Amazon Web Services unter http://status.aws.amazon.com keine Auffälligkeiten erkennbar. Der Mobypicture Service hingegen war nicht erreichbar. Ich werde hier Amazon nicht verteidigen. Aber die Schuld per Tweet einfach auf den Anbieter zu schieben, scheint mir dann doch zu einfach. Es scheint eher so, dass Mobypicture die Möglichkeiten der AWS Cloud nicht kennt bzw. diese nicht nutzt – wie schon Instagram.

Wer ist denn “schuld” in der Cloud?

Das kommt darauf an. Nämlich unter anderem davon, was von der Cloud Infrastruktur bzw. dem Cloud Service ausfällt. Bei SaaS als auch PaaS sind mir als Nutzer weitestgehend die Hände gebunden. Beim IaaS halte jedoch ich größtenteils die Fäden selbst in der Hand und muss dafür sorgen, dass meine Applikation auf der Infrastruktur einwandfrei arbeitet. Selbst dann, wenn die darunterliegende Infrastruktur Stückweit ausfällt. Dafür gibt es Mittel und Wege. Wenn ich alles daheim im eigenen Rechenzentrum mache, sorge ich schließlich auch für Redundanz und kann maximal mit dem Finger auf bspw. die kaputte Festplatte zeigen. In der Cloud stehen mir aber deutlich mehr Möglichkeiten zur Verfügung. Extrem(!) gesagt dürfte eine eigene Applikation erst dann ausfallen, wenn die gesamte IaaS-Cloud eines Anbieters ausfällt.

Mehr Eigenverantwortung bitte!

Es ist nicht das erste Mal, dass ich das schreibe. “Beim Cloud Computing geht es um Selbstverantwortung.

Mehr Eigenverantwortung und IaaS bedeutet, darauf zu achten die Möglichkeiten der verteilten Cloud Infrastruktur zu nutzen und die Architektur der Applikation genau diesen Begebenheiten anzupassen und diese dafür zu entwickeln. Stichworte: Parallelität, Skalierbarkeit usw.

Im Falle der Amazon Web Services bedeutet dies:

  • Nicht nur eine virtuelle Maschine einsetzen.
  • Sich nicht nur auf eine Availability Zone verlassen.
  • Nicht nur eine Region nutzen.
  • Eine Multivendor Strategie in Betracht ziehen.

Dann sieht es schon anders aus.


Bildquelle: http://www.akademische.de

Categories
Analysen

"Infrastructure-as-a-Platform" mit mehr Komfort in die Cloud

Die Zukunft der Unternehmens-IT liegt im X-as-a-Service. Vor allem Infrastructure-as-a-Services ermöglichen den schnellen Zugriff auf Rechen- und Speicher-Ressourcen und erfreuen sich immer größerer Beliebtheit. Was jedoch vielen Angeboten fehlt ist die sogenannte “Convenience”, also die bequeme Konfiguration der Infrastruktur. Der Hamburger Managed Hosting Anbieter internet4YOU geht neue Wege und erfindet den Bereich “Infrastructure-as-a-Platform (IaaP)“. Vor allem für kleine- und mittelständische Unternehmen, die nicht über das notwendige IT-Know-How verfügen, um sich Standard IaaS Ressourcen zusammenzubauen, ist IaaP ein sehr interessanter Ansatz.

Infrastructure-as-a-Platform – Die Einfachheit zählt

Was den meisten IaaS-Lösungen fehlt, ist der komfortable Zugriff auf Ressourcen, mit denen sich virtuelle Infrastrukturen aufbauen lassen. Dabei handelt es sich in der Regel um Services von Cloud Anbietern der ersten Generation, wie bspw. den Amazon Web Services. Hier erfolgt der Zugriff über eine API, um damit die virtuellen Maschinen zu steuern und sämtliche Infrastrukturkomponenten und Services miteinander interagieren zu lassen. Graphische Verwaltungs-/ Konfigurationsoberflächen sind nur mit einem sehr kleinen Funktionsumfang vorhanden. Instanzen lassen sich zwar starten, stoppen und herunterfahren, für die Konfiguration einer komplexen Infrastruktur ist aber Expertenwissen sowie umfangreiches Know-How mit paralleler Programmierung usw. erforderlich.

Und das ist der entscheidende Faktor. Der gewöhnliche Cloud Nutzer ist kein Cloud Computing Experte und muss bzw. sollte es auch nicht sein. Er kennt sich nicht mit den Themen aus, die eine Cloud überhaupt zu einer Cloud machen. Das ist für ihn auch nicht notwendig, er will die “Blackbox” schließlich nur für seine Zwecke nutzen. Darüber hinaus hat er nicht das Interesse oder gar die Zeit, sich mit den oft komplexen Systemen und Prozessen auseinanderzusetzen und diese zu erlernen. In der Regel erwartet der durchschnittliche Cloud Nutzer eine in sich stimmige und integrierte Plattform, auf der er sich seine notwendigen IT-Ressourcen zusammenbauen kann, die er über einen bestimmen Zeitraum für seine Zwecke benötigt.

Es gibt keine offizielle Definition von Infrastructure-as-a-Platform. Ursprünglich stammt der Begriff von ScaleUp Technologies. Dabei handelt es sich um eine eigenständige Tochter von internet4YOU, die Lösungen für den Aufbau und die Verwaltung von Cloud Infrastrukturen anbietet. Neben internet4YOU respektive ScaleUp Technologies bieten auch Anbieter wie Profitbricks und Zimory aber auch Open-Source Lösungen wie openQRM die Möglichkeiten einer IaaP.

Infrastructure-as-a-Platform gehört die Zukunft

Neben dem einfacheren Zugriff auf die Ressourcen, bündeln Infrastructure-as-a-Platform Lösungen insbesondere verschiedene IaaS Ressourcen wie Rechenleistung, Speicherplatz, Netzwerkkomponenten usw. und ermöglichen Unternehmen damit den Aufbau eines eigenen Rechenzentrum on-Demand, also ein “Data-Centre-as-a-Service” (DCaaS).

Bereits etablierte Cloud Computing Anbieter – der ersten Generation – müssen damit beginnen in diesem Bereich aufzuholen und ihren bestehenden und neuen Kunden mehr Convenience bieten, mit der diese die Infrastrukturen bequemer nutzen können und während der Konfiguration zudem weniger Zeit und Expertenwissen benötigen. Denn insbesondere IT-Abteilungen von kleinen- und mittelständischen Unternehmen werden in Zukunft auf diesen Komfort achten.


Bildquelle: ©Gerd Altmann / PIXELIO