Categories
Management @de

Cloud Computing verlangt Weiterbildung und fördert die Flexibilität

Cloud Computing erfordert den Aufbau neuer Kenntnisse, um mit den neuen Herausforderungen zurecht zu kommen und die Eigenschaften, welche die Cloud bietet, bestmöglich zu nutzen. Insbesondere die IT-Abteilungen werden sich verändern. Zwar wird es künftig weiterhin Systemadministratoren geben, jedoch wird die Anzahl schwinden und diejenigen, die übrig bleiben, werden durch die Cloud bei der Ausführung ihrer Tätigkeit unterstützt und werden diese dadurch besser ausführen.

Die neuen Jobs? So schauen sie aus.

„Am Server schrauben“ wird in sehr vielen Unternehmen größtenteils aus der Mode kommen. Viel mehr wird es darum gehen, Services zu managen und die IT-Abteilungen werden zum Cloud Service Broker und seinen internen Kunden (Fachabteilungen usw.) die benötigten Services und Anwendungen aus einer Cloud (Private/ Public) bereitstellen.

Seit geraumer Zeit werden daher neue Berufsbezeichnungen diskutiert, die durch die Cloud entstehen werden, darunter:

  • Cloud Architekt
  • Cloud Service Manager
  • Cloud Integrationsspezialist und -Experte
  • Cloud Security Manager und -Ingenieur
  • Director Cloud Infrastructure
  • Executive Vice President of Cloud Technologies

Bei diesen Rollen handelt es sich nur um eine Auswahl von denen, die in nächster Zeit entstehen werden. Denn es gilt zu klassifizieren, welche Aufgaben und Rollen künftig für den Cloud Betrieb notwendig sind und wie sich die jeweiligen Anforderungen dieser einzelnen Rollen verhalten. Zudem werden auf Basis der Cloud neue disruptive Dienstleistungen entstehen, die es gilt zu identifizieren.

Die Cloud erhöht die Flexibilität

Auch die Art wie wir in Zukunft arbeiten wird sich verändern. Die Cloud erlaubt es uns, von überall aus verteilt und vor allem flexibel zu arbeiten. Wann und wo die Leistung erbracht wird, spielt im Prinzip keine Rolle mehr. Der Faktor Zeit wird relativ, da das typische 9 to 5 nicht mehr zwingend erforderlich ist.

Die technischen Möglichkeiten, flexibel und unabhängig von Ort und Zeit zu arbeiten, können wir mittlerweile bereits nutzen. Mit Cloud Services stehen uns Browser-basierte Applikationen zur Verfügung, mit denen wir, zwar weltweit verteilt, aber dennoch im Team parallel und in Echtzeit an ein und demselben Dokument arbeiten können. Cloud Storage Lösungen ermöglichen uns das Echtzeit Backup und ebenso den plattformunabhängigen Zugriff auf unsere Daten.

Gegenwind aus der Politik

Wohingegen viele eine Chance sehen, kommt aus der Politik Gegenwind. So sorgt sich Bundesarbeitsministerin Ursula von der Leyen im Rahmen der DLDwomen: “Cloud-Arbeiter stehen ständig im Wettbewerb miteinander und unter dem ständigen Druck, sich immer wieder neu bewerben zu müssen.” Von der Leyen ist der Meinung, dass es “… künftig eine “virtuelle Belegschaft” geben …” wird, “… einen weltweit verfügbaren Pool von Talenten …”.

Sie hat natürlich recht mit ihrer These. Cloud Lösungen werden Unternehmen dabei helfen, weltweit die besten Mitarbeiter (noch leichter) zu rekrutieren, was darin resultieren kann, dass sich die Arbeitswelt ebenfalls hin zu einem deutlich größeren Anteil von Freiberuflern entwickeln wird. Ob die von von der Leyen titulierten “Cloud-Arbeiter” tatsächlich einem deutlich höheren Druck ausgesetzt werden bleibt fraglich. Denn der Druck in den Unternehmen auf die Mitarbeiter nimmt ebenfalls stetig zu und jeder muss sich tagtäglich in seinem Beruf bewähren und zeigen was er drauf hat.

Ich habe dazu eine nette Anekdote auf dem .comspace Blog gefunden:

Ein Mann sitzt in der Lobby eines Luxushotels. Es ist 3 Uhr nachts und nur hier unten hat er WLAN, um noch einmal schnell seine E-Mails zu checken. Ein junges Pärchen kommt durch die Drehtür des Hotels von einer Strandparty, sie versucht gar nicht erst zu flüstern: “Schau Dir den armen Knilch an, selbst im Urlaub kann er bis tief in die Nacht nicht aufhören zu arbeiten.”
Der Mann mit dem Laptop auf den Knien denkt bei sich “Wer ist denn der arme Knilch – der, der seinen Job liebt und jederzeit von überall aus arbeiten kann oder diejenigen, die sich in 2 Wochen im Jahr von den anderen 50 Wochen Arbeit, die sie nicht gerne machen, erholen müssen?”

Diese Geschichte spiegelt sehr schön wieder, wie jeder einzelne mit der Art zu arbeiten umgeht. Insbesondere die jüngere Generation wird ihre Chancen wittern, dem staubigen Büroalltag entfliehen zu können und entweder von zu Hause oder aus dem Café oder Co-Working Space ihrer Wahl zu arbeiten, um neue und kreative Eindrücke zu erleben. Dann gibt es die “alten Freien”, die seit jeher als Freiberufler tätig sind und die Art so zu arbeiten schätzen und in der Cloud wahrscheinlich ebenfalls Vorteile sehen werden. Die dritte Fraktion bilden diejenigen, die glücklich bzw. scheinbar glücklich mit ihrer Arbeit sind, aber eher resistent gegenüber Veränderungen erscheinen. Zu guter letzt gibt es natürlich Berufe, die von dieser Veränderung nicht betroffen sein können, da es rein physikalisch erforderlich ist, dass die Person an Ort und Stelle tätig ist.

Unternehmen sollten Freiheiten gewähren

Natürlich kann und sollte kein Unternehmen seine Mitarbeiter dazu zwingen, flexibel einer Tätigkeit nachzugehen und sie dazu verpflichten nicht mehr täglich ins Büro zu fahren und stattdessen das nächstgelegene Starbucks aufzusuchen. Allerdings sollte jeder Personaler und jede Führungskraft mit dem Gedanken spielen, den Mitarbeitern zumindest die Gelegenheit zu geben, der Tätigkeit eben nicht 9 to 5 nachzugehen sondern Vertrauen in den Mitarbeiter haben, klare Ziele festlegen und diese am Ende eines Meilensteins prüfen.


Bildquelle: ©Gerd Altmann / PIXELIO

Categories
News

BT bietet Supply-Chain-Lösung in der Cloud

Der Netzwerk- und IT-Dienstleister BT hat BT Trace, ein Lösungs-Portfolio für die Supply Chain, mit neuen, Cloud-basierten Funktionen ergänzt. Diese ermöglichen es Unternehmen, nahezu in Echtzeit eine exakte Sicht auch auf komplexe, weltweite Lieferketten zu erhalten. Unternehmen erkennen somit, an welchen Punkten innerhalb der Supply Chain welche Änderungen nötig sind, um die Effizienz der Prozesse zu erhöhen.

BT bietet Supply-Chain-Lösung in der Cloud

Weltweite Lieferketten werden zunehmend komplexer

Unternehmen mit einer weltweiten Lieferkette müssen sich zahlreichen Herausforderungen stellen – von Produktpiraterie über den Verlust von Gütern, den Transport leicht verderblicher Ware bis hin zu Rückrufaktionen. Dieses Szenario ist typisch für globale Unternehmen aus den Bereichen Konsumgüter, Logistik, Fertigung, Pharma oder Handel. Sie benötigen einen genauen Überblick über ihrer Lagerbestände und über die Verfügbarkeit ihrer Waren. Gleichzeitig müssen sie alle gesetzlichen Bestimmungen und Vorschriften einhalten sowie nachhaltig handeln und wirtschaften. Für Unternehmen ist es allerdings schwierig, die gesamte Lieferkette zu überblicken, zumal eine Vielzahl unterschiedlicher Datenformate, Quellen und Partner integriert werden müssen. Häufig sind ihre verschiedenen Ressourcenplanungs- und Backend-Systeme nicht einmal miteinander verbunden.

BT Trace: Supply-Chain in der Cloud

BT Trace soll Unternehmen dabei helfen, auf diese Herausforderungen zu reagieren. Der neue Cloud-Service sammelt, speichert, verteilt und interpretiert dazu sicher und kostengünstig große Mengen an Daten, die im Rahmen der weltweiten Bewegung von Waren und Gütern entlang der Lieferkette entstehen. Er verbindet die komplexen Informationen aus den unterschiedlichen Ressourcenplanungs- und IT-Systemen globaler Unternehmen und ihrer Zulieferer. Die Anwender erhalten – abrufbar über ein individuell konfigurierbares Webportal – eine einheitliche Sicht auf die gesamte Lieferkette. BT Trace fokussiert sich dabei vor allem auf globale Unternehmen der Branchen Konsumgüter, Fertigungsindustrie, Logistik, Pharma und Einzelhandel umfasst.

Erprobt und getestet wurde der neue Service in Zusammenarbeit mit TNT Express, einem der weltweit größten Express-Dienstleister. Der Service, den BT in enger Zusammenarbeit mit TNT entwickelt hat, wurde eingesetzt, um die betrieblichen Prozesse effizienter zu gestalten, den Kundenservice zu verbessern und das Retouren-Management zu optimieren.

Categories
Kommentar

Erneuter Ausfall der Amazon Web Services zeigt, dass Cloud Nutzer nicht aus den eigenen Fehlern lernen

Gestern war es dann wieder einmal soweit. Amazon hatte erneut mit einem schweren Ausfall in seiner Region US-East-1 zu kämpfen und zog direkt die üblichen Verdächtigen Reddit, Foursquare, Heroku und Co. mit. Dabei handelt es sich bereits um den fünften signifikanten Ausfall in den letzten 18 Monaten in dieser Region. Nach April 2011, März 2012 sowie dem 15. und 30. Juni 2012 plus vier weitere Ausfälle innerhalb nur einer Woche im Jahr 2010, nun der nächste Ausfall.

Die Hintergründe des AWS Ausfall

Die Region US-East-1 ist die älteste aller AWS Regionen. Dabei handelt es sich um das Rechenzentrum in Virginia, das erst vor kurzer Zeit wegen schwerer Gewitter in die Schlagzeilen geraten war. Letzte Woche hatte ich noch geschrieben, dass neue Public Cloud Anbieter zwar mittlerweile über aktuellere Technologien verfügen, es für Amazon auf Grund der losen Kopplung sämtlicher Services aber leicht fallen sollte, einen Austausch vorzunehmen. Es scheint, dass der Zeitpunkt mehr als überschritten ist. Das Grab US-East-1 ist größer als vermutet.

Was ist passiert?

Was genau passiert ist, kann der AWS Statusseite zu Beginn verständlicherweise nicht immer direkt entnommen werden. In der Regel wird ein paar Tage nach dem Ausfall ein ausführlicher Blogpost mit ein paar Details veröffentlicht.

Aus den Statusmeldungen lässt sich nur entnehmen, dass es wieder Performanceprobleme “mit einer kleinen Anzahl von EBS Volumes (Elastic Block Store)” gibt.

10:38 AM PDT We are currently investigating degraded performance for a small number of EBS volumes in a single Availability Zone in the US-EAST-1 Region.
11:11 AM PDT We can confirm degraded performance for a small number of EBS volumes in a single Availability Zone in the US-EAST-1 Region. Instances using affected EBS volumes will also experience degraded performance.
11:26 AM PDT We are currently experiencing degraded performance for EBS volumes in a single Availability Zone in the US-EAST-1 Region. New launches for EBS backed instances are failing and instances using affected EBS volumes will experience degraded performance.

12:32 PM PDT We are working on recovering the impacted EBS volumes in a single Availability Zone in the US-EAST-1 Region.
1:02 PM PDT We continue to work to resolve the issue affecting EBS volumes in a single availability zone in the US-EAST-1 region. The AWS Management Console for EC2 indicates which availability zone is impaired.EC2 instances and EBS volumes outside of this availability zone are operating normally. Customers can launch replacement instances in the unaffected availability zones but may experience elevated launch latencies or receive ResourceLimitExceeded errors on their API calls, which are being issued to manage load on the system during recovery. Customers receiving this error can retry failed requests.

2:20 PM PDT We’ve now restored performance for about half of the volumes that experienced issues. Instances that were attached to these recovered volumes are recovering. We’re continuing to work on restoring availability and performance for the volumes that are still degraded.

Zudem waren auch “eine kleine Anzahl von RDS Instanzen (Relational Database Service)” betroffen. Hier kam es zu Problemen bei der Verbindung und ebenfalls bei der Performance.

11:03 AM PDT We are currently experiencing connectivity issues and degraded performance for a small number of RDS DB Instances in a single Availability Zone in the US-EAST-1 Region.
11:45 AM PDT A number of Amazon RDS DB Instances in a single Availability Zone in the US-EAST-1 Region are experiencing connectivity issues or degraded performance. New instance create requests in the affected Availability Zone are experiencing elevated latencies. We are investigating the root cause.

Die üblichen Verdächtigen: Reddit, Foursquare, Heroku und Co.

Interessant ist, dass immer die üblichen Verdächtigen u.a. Reddit, Heroku und Foursquare von einem Ausfall der US-East-1 Region betroffen sind. Das bedeutet im Umkehrschluss, dass alle Beteiligten nicht aus den eigenen Fehlern vorheriger Ausfälle gelernt haben und genau so weitermachen wie zuvor. Das “Schöne” an solchen Ausfällen ist, dass man einen schönen öffentlichen Rundumblick auf die Robustheit der jeweiligen Angebote der Anbieter erhält, die ihre Anwendungen auf den Amazon Web Services laufen lassen. Auch Instagram, dass bekannterweise für 1 Milliarde Dollar an Facebook verkaufte wurde, war bei einem der letzten Ausfälle schwer getroffen. Da scheint die technische Due Diligence Prüfung nicht funktioniert zu haben.

Es stellt sich die Frage, wie lange die Verantwortlichen von Reddit, Foursquare, Heroku (gehört übrigens zu Salesforce) und Co. noch warten, bis etwas an der Architektur geändert wird. Die Systemarchitekten sollten langsam damit beginnen etwas zu ändern. Gute Vorbilder sind Netflix und Okta.

Was ist zu tun?

Das ist im Einzelfall zu entscheiden. Jedoch reicht es zunächst einmal nicht aus, nur eine Region oder eine Availability Zone zu nutzen. Man muss einfach verstehen, dass Cloud Computing viel mehr bedeutet, als nur ein paar Server zu nutzen und miteinander zu verbinden. Es geht um die gesamte Architektur des eigenen Systems bzw. der eigenen Anwendung, die auf der virtuellen Infrastruktur (IaaS) aufgebaut wird. Wie ich schon in einem Artikel für die Computerwoche geschrieben habe:

Viele Unternehmen entwickeln ihre Cloud-Applikation “daheim” in den eigenen vier Wänden. Erst nach der Fertigstellung soll der Rollout auf eine Cloud-Infrastruktur oder Cloud-Plattform erfolgen. Das ist ein Fehler.

Inbesondere IaaS-Umgebungen (Infrastructur as a Service) wie die Amazon Web Services oder Microsoft Windows Azure vermitteln den Eindruck, nur eine Vielzahl von virtuellen Maschine bereitzustellen. Den Rest übernehme die “Cloud automatisch”. Das ist fatalerweise auch der Tenor, der von vielen Medien verbreitet wird und damit ein völlig falscher Eindruck von einer Cloud entsteht.

Eine Cloud-Anwendung ist nur so viel wert wie die Architektur, auf der sie basiert. Eine Anwendung muss direkt für die Cloudentwickelt werden – Skalierbarkeit und Hochverfügbarkeit sind von Beginn an mit zu bedenken. Eine Anwendung sollte eigenständig weitere virtuelle Maschinen hochfahren können, wenn mehr Leistung benötigt wird (Skalierbarkeit) bzw. die nicht mehr benötigten virtuellen Maschinen auch selbstständig wieder herunterfahren. Genauso verhält es sich, wenn eine virtuelle Maschine in einen fehlerhaften Zustand gerät. Auch hier muss die Anwendung selbst dafür sorgen, dass entsprechend eine virtuelle Maschine als Ersatz hochgefahren wird und die defekte Maschine aus dem System verschwindet (Hochverfügbarkeit).

Die Anwendung muss daher in der Lage sein, auf jeder beliebigen virtuellen Maschine (VM) einer Cloud-Infrastruktur zu funktionieren. Das liegt unter anderem daran, dass jederzeit eine VM ausfallen kann und eine andere neu hochgefahren werden muss. Und auch die Daten, auf die eine Anwendung operiert, befinden sich zwangsläufig nicht mehr an einem einzigen Ort, sondern sind über die Cloud verteilt gespeichert.

Mehr…

Für den Fehlerfall vorbereitet sein

Selbstverständlich darf man Amazon von diesem erneuten Ausfall auf keinen Fall freisprechen. Die Region US-EAST-1 in North Virginia scheint das Problemkind zu sein. Dennoch weißt Amazon regelmäßig und vehement darauf hin: “Design for failure!”

Hierfür hat das Unternehmen eine Webseite geschaffen, auf der Whitepapers zum Download bereitstehen, die dabei helfen, fehlertolerante Anwendungen zu entwickeln und Cloud Architekturen zu verstehen. Dazu gehören u.a. die Folgenden.

AWS Cloud Architecture Best Practices Whitepaper

Dieses Whitepaper gibt einen technischen Überblick aller AWS Services und verschiedener Best Practice Ansätze für die architektonische Gestaltung, um damit effiziente und skalierbare Architekturen zu entwerfen.
Link

Building Fault-Tolerant Applications on AWS Whitepaper

In diesem Whitepaper werden Funktionen für die Erhöhung der Fehlertoleranz vorgestellt, die dazu dienen, um hoch zuverlässige und hochverfügbare Anwendungen innerhalb der AWS Cloud zu entwickeln.
Link

Web Hosting Best Practices Whitepaper

Dieses Whitepaper überprüft detailliert Lösungen für das Web Application Hosting. Dazu gehört unter anderem, wie jeder AWS Service genutzt werden kann, um eine hochverfügbare und skalierbare Webanwendung zu entwerfen.
Link

Leveraging Different Storage Options in the AWS Cloud Whitepaper

Dieses Whitepaper dient dazu, einen Überblick über die Speichermöglichkeiten in der AWS Cloud zu geben und darüber hinaus Szenarien vorzustellen, um eine effektive Nutzung zu erzielen.
Link

AWS Security Best Practices Whitepaper

In diesem Whitepaper werden bestimmte Tools, Funktionen und Richtlinien beschrieben, um zu verstehen, wie Cloud Anwendungen innerhalb der AWS Infrastruktur von Grund auf geschützt werden können.
Link

Netflix und sein Chaos Monkey

Ein Grund warum Netflix ein so robustes und hochverfügbares System auf der Amazon Cloud betreibt, ist der selbst entwickelte und sogenannte Chaos Monkey. Der Chaos Monkey hilft Netflix dabei sicherzustellen, dass alle einzelnen Komponenten unabhängig voneinander arbeiten. Dazu zerstört der Chaos Monkey wahllos Instanzen und Services innerhalb der Netflix AWS Infrastruktur, um seinen Entwicklern dabei zu helfen, zu gewährleisten, dass jede einzelne Komponente antwortet, auch wenn die System-Abhängigkeiten nicht einwandfrei funktionieren.

Das gilt für die gesamte Cloud!

Alle genannten Bereiche gelten nicht nur für die Amazon Web Services, sondern ebenfalls für Windows Azure, Rackspace usw. Bevor man in die IaaS-Cloud eines Anbieter geht, sollte man sich vorher damit auseinandersetzen und verstehen, wie die Infrastruktur funktioniert und wie das eigene Systeme daraufhin entwickelt werden muss.

Categories
News

HP präsentiert mit "Service Anywhere" IT-Service-Desk aus der Cloud

Mit HP Service Anywhere hat HP eine Service-Desk-SaaS-Lösung für das IT-Service-Management (ITSM) angekündigt. Diese unterstützt Unternehmen dabei, Störungen in der IT schnell zu beheben. Das sichert die Verfügbarkeit und Servicequalität geschäftskritischer Dienste. Als SaaS-Lösung ist HP Service Anywhere einfach zu implementieren, zu bedienen und zu aktualisieren. HP bietet zudem einen HP Service Anywhere Foundation Service: Dieser Schnellstart-Service unterstützt Kunden dabei, die Service-Desk-Lösung einzuführen und in ihre IT-Umgebung zu integrieren.

Social Collaboration inklusive

HP Service Anywhere nutzt Schlüsseltechnologien wie die HP Universal Configuration Management Database (UCMDB). Die UCMDB enthält Informationen über IT-Services, Anwendungen und Hardware und deren Beziehungen über die gesamte IT-Umgebung hinweg. Diese erhält die Datenbank unter anderem von der HP Universal Discovery Software: Diese automatisiert die Erkennung kritischer IT Bestandteile und die Darstellung der Beziehungen über das sogenannte „Dependency Mapping“.

Unternehmen brauchen einfache, agile Service-Desk-Lösungen, die sie dabei unterstützen, Störungen in der IT schnell zu beheben. Diese Lösungen sollten auch schnell und ohne großen Aufwand an veränderte Unternehmensanforderungen anpassbar sein. Viele Unternehmen versuchen zudem, Service-Desk-Implementierungen und -upgrades so schnell und günstig wie möglich zu gestalten, um die Unterbrechung oder Qualitätsminderung interner Dienste zu vermeiden.

HP Service Anywhere verfügt über umfassende Service-Desk-Funktionen: Die Lösung beherrscht die Verarbeitung eingehender Anfragen („Inbound Requests“) und IT Service Configuration ebenso wie Incident-, Problem- und Change-Management. Zu den Besonderheiten der Lösung gehört die Integration von „Social Collaboration“: Per Chat können Mitarbeiter Fragen und Hinweise zur Fehlerbehebung austauschen. Service Anywhere speichert diese Informationen fallbezogen und archiviert sie für die Wiederverwendung. Das soll dazu beitragen, die Erstlösungsquote (FCR = „First Call Resolution Rate“) zu erhöhen und die Bearbeitungszeiten zu verkürzen. Zudem hilft die Funktion Eskalationen zu vermeiden, indem sie jede Störungsmeldung schnell demjenigen Servicemitarbeiter zuführt, der für die Beseitigung der Störung am besten geeignet ist. Die per Vertrag zugesicherte Verfügbarkeit von HP Service Anywhere liegt bei 99,9 Prozent.

HP Service Anywhere Hintergründe

Service Anywhere verfügt über vollständig Web-basierte Prozess-Design-Werkzeuge, die sich zu 100 Prozent über grafische Benutzeroberflächen bedienen lassen. Die Werkzeuge entsprechen den „Best Practices“ der Information Technology Infrastructure Library (ITIL) für Vorfall-, Störungs- und Change-Management. Mit den Werkzeugen von Service Anywhere lassen sich auch Upgrade-Workflows ohne Skripte oder Programmierung erstellen.

HP Service Anywhere unterstützt das schnelle Bearbeiten von Stör- oder Sicherheitsvorfällen „im Kontext“. Vorfälle werden per Social-Collaboration-Software HP Enterprise Collaboration aufgenommen, zwischen Service-Desk-Nutzern geteilt und mit den Service-Desk-Objekten in der Datenbank des Systems verknüpft. HP Service Anywhere lässt sich zudem flexibel mit HP’s „On-Premise“-Lösung HP Service Manager kombinieren.

Preise und Verfügbarkeit

HP Service Anywhere ist ab dem vierten Quartal 2012 weltweit erhältlich und kann entweder bei HP selbst oder bei HP-Vertriebspartnern bestellt werden. Die Lizenzpreise variieren je nach Dienstkonfiguration.

HP Service Anywhere ist ein Schlüsselbestandteil sowohl des HP-Converged-Cloud-Portfolios als auch der HP IT Performance Suite; HPs Software Portfolio für IT Governance, Application Lifecycle Management, Management des IT-Betriebs, Information Management und Security.

Categories
Management @de

"Die Cloud-basierte Arbeitswelt."

Uwe Hauck zeigt in diesem Vortrag, wie sich die Cloud und Cloud-basierte Lösungen auf unsere Arbeitswelt auswirken. Dazu zeigt er ebenfalls Beispiele, wie er persönlich dazu übergegangen ist heutzutage zu arbeiten.

Categories
Analysen

Cloud Computing ist das Rückgrat der mobilen Welt

Der Markt für mobile Endgeräte und Lösungen wächst unaufhörlich. Erst vor kurzem hat der BITKOM einen ungebremsten Tablet-Boom vorausgesagt. Demnach werden im Jahr 2012 mehr als 3,2 Millionen Geräte verkauft. Das ist ein Plus von 52 Prozent. Der Umsatz soll auf 1,6 Milliarden Euro steigen. Und ebenfalls der Trend hin zu mobilen Office und Collaborationslösungen hat sich mehr als deutlich gefestigt.

Die Cloud ist das Rückgrat mobiler Lösungen

Bei genauerer Betrachtung wird deutlich, dass Cloud Computing ein Erfolgsgarant für den Markt mobiler Technologien und Angebote ist. Die Cloud ermöglicht es Anbietern wie Google (Google Play) und Amazon (Kindle, Android AppStore) ihren Kunden den für sie tatsächlich einen Mehrwert bringenden Content wie Bücher, Musik ,Apps etc. an jedem Ort und geräteübergreifend bereitzustellen. Anders als Apple verfolgen beide die Strategie überwiegend mit Content ihre Einnahmen zu erzielen und die dafür benötigten Endgeräte zum Selbstkostenpreis zu verkaufen.
Das haben auch Anbieter wie zum Beispiel Samsung und LG erkannt und planen bzw. verfügen ebenfalls über eigene Cloud Angebote, über die sie ihre Kunden mit Inhalten versorgen oder zum ablegen von Daten animieren möchten und somit an sich binden wollen.
Aber nicht nur Anbieter von mobilen Marktplätzen nutzen die Cloud für ihre Zwecke. Auch Entwickler mobiler Applikationen speichern ihre Daten vermehrt nicht mehr nur lokal. Zudem greifen viele Apps auf die Cloud zu, um weitere Informationen und Daten zu erhalten.

Hybrid ist der strategisch richtige Weg

Zwar entwicklen sich mobile Datenverbindungen rasant fort, aber selbst in so einem hochentwickelten Land wie Deutschland existieren sichtlich noch viele Löcher in der mobilen (Breitband)-Versorgung. Dabei geht es weniger um die Innenstädte, sondern um die sogenannten Speckgürtel und ländlichen Regionen. Hier stehen weiterhin nur instabile oder minderwertige Verbindungen (EDGE) zur Verfügung. Und auch der lang ersehnte Hochgeschwindigkeitsstandard LTE (Long Term Evolution) kann die Erwartungen noch nicht erfüllen oder ist für die Masse zudem überteuert.

Ein weiterer Punkt ist die Zuverlässigkeit und das Vertrauen während der mobilen Arbeit. Wurden die Daten beziehungsweise Änderungen tatsächlich erfolgreich gespeichert oder erlebe ich im Büro eine Überraschung? Vor allem während der Arbeit im fahrenden Zug, ist dringend von der Arbeit mit reinen Cloud-basierten Lösungen abzuraten.

Entwickler mobiler Produktivitätslösungen sollten sich daher auf einen hybriden Ansatz konzentrieren. Die Arbeit sollte hauptsächlich auf dem mobilen Endgerät stattfinden. Sämtliche Änderungen/ ausgewählte Daten werden dann im Falle einer Datenverbindung im Hintergrund automatisch synchronisiert (Statusmeldungen nicht vergessen). Die Möglichkeit auf eine Online bzw. einen Cloud Mode umzuschalten wäre aber eine Option, um bspw. auch die Echtzeit Kollaboration mit den Kollegen zu ermöglichen.

Ohne Cloud nichts los

Neben der Entwicklung mobiler Endgeräte und Betriebssysteme wie Android oder iOS, würde sich der mobile Markt ohne Cloud Computing nicht so entwickeln wie es derzeit passiert. Man möge in erster Linie den immer leistungsstärkeren Geräten und komfortabler werdenden Betriebssystemen und Apps dafür verantwortlich machen. Jedoch sollte man nicht vergessen, dass erst durch die Cloud die Möglichkeiten für einen nathlosen und geräteunabhängigen Zugriff und die Synchronisation von Inhalten geschaffen wurde.


Bildquelle: ©Rödi / PIXELIO

Categories
News

SAP HANA One steht nun auf den Amazon Web Services bereit

Seit Anfang 2012 steht SAP HANA bereits für Entwickler auf der Infrastruktur der Amazon Web Services zur Verfügung. Nun wurde HANA One auch für den Produktivbetrieb zertifiziert und steht auf dem AWS Marketplace bereit. Für 0,99 US-Dollar pro Stunde kann die In-Memory Datenbank auf Amazon EC2 genutzt werden.

SAP HANA One auf den Amazon Web Services

Was ist HANA?

Kurz zusammengefasst ist SAP HANA eine In-Memory Datenbank, mit der zum Beispiel Echtzeit-Analysen durchgeführt werden können oder mit der sich Echtzeit-Anwendungen entwickeln und bereitstellen lassen.

HANA Use Cases

Echtzeit-Analysen

Mit HANA lassen sich zum Beispiel Echtzeit-Analysen wie Data Warehouse Aufgaben oder Vorhersagen auf Big Data Analysen als auch Reportings für den Vertrieb, das Finanzwesen oder Versand erstellen.

Echtzeit-Anwendungen

Ein weiterer Use-Case besteht in der Entwicklung von Echtzeit-Anwendungen z.B. für die Beschleunigung von ERP Kern-Prozessen oder für die Planung und Optimierung.

HANA One nutzen

Die Kosten für SAP HANA One auf AWS betragen 0,99 US-Dollar pro Stunde zzgl. 2,50 US-Dollar pro Stunde für eine EC2 Cluster Compute Eight Extra Large Instanz mit 60,5 GB RAM und Dual Intel Xeon E5 Prozessoren. Das macht in der Summe Software + Hardware 3,49 US-Dollar pro Stunde zzgl. den Standard AWS Gebühren für EBS (Elastic Block Store) und dem Datentransfer.

SAP HANA One steht auf dem AWS Marketplace zum Download bereit.

Categories
News

Cloudscaling integriert OpenStack mit der Google Compute Engine

Das Startup Cloudscaling hat einen Fork der Google Compute Engine (GCE) APIs mit dem Open-Source Cloud Projekt OpenStack integriert. Das erlaubt es Nutzern ihre OpenStack basierte Cloud Infrastruktur mit der Google Cloud zu verbinden.

Cloudscaling integriert OpenStack mit der Google Compute Engine

Unterstützung für das OpenStack Projekt

Cloudscaling unterstützt das OpenStack Projekt mit technologischem Wissen und der Code Entwicklung, um die GCE APIs in OpenStack zu integrieren. OpenStack ist mit mehr als 5.600 Mitgliedern, 850 beteiligten Unternehmen in 88 Ländern mittlerweile das weltweit größte Open-Source Projekt. Die kürzlich gegründete OpenStack Foundation ist zudem durch Spenden von Mitgliedern bzw. von 21 Platinum und Gold Sponsoren in höhe von 10 Millionen US-Dollar abgesichert.

API befindet sich noch im Beta-Status.

Mitglieder der OpenStack Community können den Code herunterladen und ihre laufende OpenStack Version damit updaten. Anschließend können sie die GCE API nutzen. Zwar befindet sich der Code noch im Beta-Status, soll laut Cloudscaling aber bereits stabil laufen. Dennoch muss der Live-Test noch zeigen, wie sich der Code bewährt. Cloudscaling ist für den Support und die Weiterentwicklung des GCE API Code innerhalb von OpenStack zuständig, hilft aber auch außerhalb der Community.

Categories
Management @en

"Work 2.0: Give and Take"

arago CEO Chris Boos talks about his view of Work 2.0 and how he is implemented this new kind of worklife in his own company.

Categories
Analysis

Don't compete against the Amazon Web Services just with Infrastructure

More and more providers try to seek their fortune in Infrastructure-as-a-Service (IaaS) hoping to get something from the alpha males cake – Amazon Web Services (AWS). GigaOm recently asked the question: “Will there be an Amazon of Europe?” and they have the clear answer: No. I am also of the opinion, that there will be no significant competition from Europe in the near future. I go even one step further and assume that there is currently no public provider in the world who is able to compete with AWS. Because unlike GigaOm, you have to look at the cloud market from a global point of view. Based on their structure there are no regional limitations for the cloud. Each user can get his ressources from all over the world. I don’t want to exhibit AWS a free ticket, but it will be very tough for the competitors to get a good marekt share in IaaS.

The market is big enough, but…

The IaaS market is big enough and offers plenty of room for multiple infrastructure vendors. However, you should keep in mind who currently decides for the public cloud, and who for the private cloud. After that take a look of each providers offerings to separate the wheat from the chaff. Then it becomes clear why Amazon has the lead, and it will be hard for newbies, if they focus just on pure infrastructure. Some vendors try to compete Amazon, for example with a higher (network) performance. That is certainly a nice try, but not a conclusive argument.

Public Cloud: Developer & Startups

The public cloud is preferentially used by developers and startups. Based on the simple resource access and the pay per use model of the cloud they build their business models. My favorite example is Pinterest. By their own admission they were not as successful without cloud computing. This was partly due to the possibility of an ever-growing and expand the resources to meet the needs without the huge capital for its own server farm. On the other hand, the cloud has allowed Pinterest to work efficiently and experiment cost-effectively. In addition, the website could grow very fast while only a very small team had to worry about maintenance. In December 2011, Pinterest employed only 12 people.

Private Cloud: Enterprise

Many established companies are focused on the subject of data protection and security regardless of the high investment costs and maintenance costs of a private cloud. In addition, I hear in conversations that “investments have already made ​​in hardware/ software” which still has to be exploit. According to a Gartner survey, 75% of respondents plan a strategy in this area until 2014. Many different companies have private cloud solutions in pilot projects and in-production as well. The main goal is to draw the most out of virtualization.

Infrastructure means more than just infrastructure

Most IaaS provider make the mistake to focus on pure infrastructure only. That means they only offer the typical resources such as processing power, memory, operating system images, and other software solutions such as databases. That fits in the basic idea of IaaS, but it is no longer enough to compete against Amazon.

Services, Services, Services

If you look at the offering of the Amazon Web Services in detail, it now consists of much more than just virtual resources, computing power and storage. This is a comprehensive service portfolio, which is being steadily enlarged with a huge pace. All services are fully integrated with each other and form their own ecosystem. With that you are able to built your own virtual data center and develop and host complex applications.

Developers are Amazon’s disciples

On the basis of this cohesive offering Amazon is a popular place for developers and startups, who find a lot of capabilities to implement their own ideas. I have already written about this situation critically and stick to it that Amazon should also focused increasingly on the needs of businesses. Nevertheless, developers are currently Amazon’s trump making the cloud provider to be the leading IaaS in the world.

Convenience

What Amazon currently missing is comfort, convenience. Here new players combine IaaS resources such as computing power, storage, network components, etc. to an “Infrastructure-as-a-Platform” (IaaP) solution. They allow companies to build their own data center on-demand, thus a “Data-Centre-as-a-Service” (DCaaS). In this area Amazon must begin to catch up and offer their existing and new customers more convenience, to let them use their infrastructure more conveniently and need less time and expertise at configuration. IT departments, especially in small-and medium-sized companies will be watching on these comfort in the future.

Difficult but not impossible

Amazon is one of the first generation cloud providers, and there are areas in which they need to catch up. But the concept is very sophisticated. Under the hood, they may no longer be technologically up to date. But the question is how much a customer is interested, whether technology A or technology B is used in the “black box” as long as the services are available, with which the objective can be realized. In addition, certain technologies are based on the loose coupling of infrastructure and services (building blocks) can be exchange.

As I wrote above, the market is big enough and not all companies will go to Amazon. I just would like to point out that it is now no longer enough to focus only on the basic IaaS properties when sending an IaaS offering against Amazon in the ring. Some time ago I had faced the Amazon Web Services with the Google Cloud Platform (AWS vs. Google) and Microsoft Windows Azure (AWS vs. Azure). To me both are those public IaaS providers that are currently in a position to catch up. However looking at Google’s table particularly, some places still have to many service gaps.


Image source: Bildquelle: ©Stephanie Hofschlaeger / PIXELIO