Categories
Analyst Cast @de

Kommentar zu Cloud Marktplätze

Categories
Analysen

Disaster Recovery: Kein Grund mehr für Ausreden!

Das Thema Disaster Recovery spielt im deutschen Mittelstand nur eine untergeordnete Rolle. Diese fahrlässige Haltung kann sich in einem Bruchteil von Sekunden geschäftsschädigend auswirken. Dabei bieten neue Betriebsmodelle aus dem Cloud-Zeitalter keinen Grund mehr für Ausreden.

An einer Disaster Recovery Strategie führt kein Weg mehr vorbei

Der Tsunami der digitalen Transformation wird auch deutsche Unternehmen mit voller Wucht treffen. Wann die Hauptwelle einschlagen wird ist individuell zu betrachten und nicht zu 100 Prozent vorhersagbar. Eines ist allerdings sicher, die Cloud-, Social-, Mobile- und Big Data Beben sind allgegenwärtig und die ersten Ausläufer sind bereits angekommen. Insbesondere der Mittelstand wird die harte Realität zu spüren bekommen. Da er oft nicht in der Lage ist, die Verfügbarkeit seiner geschäftskritischen IT-Services und Applikationen auf einem dafür notwendigem hohem Niveau sicherzustellen.

Sicherheits- und Notfallkonzepte gelten in Unternehmen weitläufig immer noch als lästige und teure Präventionsmaßnahmen, um die geschäftskritischen digitalen Assets zu schützen und das Unternehmen in Ausnahmesituationen am Leben zu erhalten. Erst wenn das Kind in den Brunnen gefallen ist, werden alle Mittel und Wege in Bewegung gesetzt, um die entsprechenden Bergungs- und lebensrettenden Maßnahmen einzuleiten. Dann ist es jedoch meistens zu spät und der Überlebenskampf beginnt. Technische Mängel und durch menschliche Fehler verursachte Mängel an IT-Systemen führen dann zur Ratlosigkeit, wodurch die IT-Infrastruktur vielmals erst nach einem längeren Stillstand wieder im produktiven Betrieb ist. Damit kann der Geschäftsbetrieb über mehrere Tage beeinträchtigt sein und zu hohen internen Kosten als auch substantiellen Imageschäden führen. Das ist fatal und zugleich ein fahrlässiges Verhalten. Heute kann es sich kein Unternehmen mehr leisten, seine Partner, Lieferanten oder Kunden über einen längeren Zeitraum nicht auf die eigene IT-Infrastruktur zugreifen zu lassen.

Wer nun die Schuldigen alleine in den IT-Abteilungen der Unternehmen sucht, der ist auf der falschen Hierarchieebene unterwegs. Administratoren und CIOs haben das Thema auf der Agenda, stehen aber mit dem Rücken zur Wand. Zum einen sind sie handlungsunfähig, da ihnen keine Budgets zur Verfügung stehen, zum anderen halten sie den Kopf hin, wenn der Katastrophenfall eintritt. Der in der IT viel diskutierte ROI ist im Fall von Disaster Recovery Szenarien einfach nicht messbar genug und genießt auf der Entscheider-Ebene eine zu geringe Priorität. Dadurch werden nicht ausreichend Budgets für eine echte Disaster Recovery Strategie bereitgestellt. Gleichzeitig sind Notfallpläne auf Basis eines klassischen Backup-Rechenzentrum Ansatzes sehr komplex sowie kosten- und zeitintensiv.

Eine weitere Herausforderung besteht auf Architekturebene. Cloud-Modelle verändern die Art und Weise wie Applikationen entwickelt, betrieben und bereitgestellt werden. Bereits heute werden Anwendungen nicht mehr nur auf der eigenen on-Premise Infrastruktur betrieben, sondern befinden sich in einem hybriden Modell verteilt bei einem oder mehreren Cloud- oder Hosting-Anbietern. Das Multi-Cloud Konzept ist allgegenwärtiger als man vermutet. Dieser Trend wird sich in den kommenden Jahren weiter verstärken und einen direkten Einfluss auf Disaster Recovery Szenarien haben, um die Informationen und Applikationen im Katastrophenfall ohne Zeit- und Datenverlust wiederherzustellen.

Von der Hardware zum Service: Die Metamorphose des Disaster Recovery

Derzeit fließt der Großteil des IT-Budgets von Unternehmen in Speicher- und Serversysteme sowie Softwarelösungen, um darüber ebenfalls eigene Backup-Konzepte zu realisieren. Heutige Ansätze sehen in den meisten Fällen keine Maßnahmen für eine 24×7 Wiederherstellung von Daten und Systemen vor und beinhalten maximal einfache Backup- und RAID-Architekturen. Umfangreiche Disaster Recovery Szenarien sind sehr komplex. Das wird sich in den kommenden Jahren, durch hybride Applikationsarchitekturen und einer verteilten Datenhaltung, weiter verstärken.

Diese Entwicklung wird mittelfristig auch in den Unternehmen Einzug erhalten, was sich auf das Ausgabenverhältnis für Hard- und Software sowie Services und Audits auswirken wird. Crisp Research sieht vom Jahr 2014 auf das Jahr 2018 eine maßgebliche Verschiebung der Kostenblöcke für IT-Ressourcen in diesen Produktkategorien.

Disaster-Recovery_Resource_Ausgaben

Die Verschiebung der Kostenstruktur erklärt sich durch

• Neue Betriebsmodelle (bspw. Cloud Computing)
• Virtualisierung
• Standardisierung
• Converged Infrastructure

Auf Basis dieser Einflüsse lassen sich neue Betriebskonzepte aufbauen und Unternehmen einfacher und kostengünstiger auf einem Niveau bereitstellen, wie es sich sonst nur große Unternehmenskunden leisten können. Dies führt allerdings dazu, dass in den kommenden Jahren die Investitionen in Technologien (Hardware/ Software) deutlich abnehmen und diese sich auf die anderen Bereiche aufteilen werden. Dadurch erhöhen sie sich die Ausgaben für Services (Cloud- und Managed-Services) als auch im Bereich Audits/ Compliance. Insbesondere Audits werden eine höhere Bedeutung gewinnen. Das liegt zum einen an der sich ständig verändernden Gesetzlage, um die Compliance-Richtlinien zu erfüllen. Zum anderen an dem wachsenden Aufwand, die Disaster Recovery Anbieter hinsichtlich der Einhaltung gesetzlicher Vorgaben (Speicherfristen, rechtskonforme Datenhaltung usw.) zu kontrollieren.

Anforderungen des Mittelstands an moderne Disaster Recovery Lösungen

Der Bereich von Disaster Recovery Lösungen entwickelt sich kontinuierlich. Hierbei stechen drei Anforderungen heraus, die den Markt nachhaltig beeinflussen werden:

1. Kosteneffizienz
Die Ausgaben für Technologien müssen signifikant sinken, um eine Kostenreduktion zu erzielen und andere Disaster Recovery Bereiche (Services, Audits) kosteneffizient zu nutzen. In diesem Zusammenhang sollten ebenfalls die Einsparungen für die Wartung der physikalischen Ressourcen berücksichtigt werden. Die Disaster Recovery Lösung wird entweder als Service genutzt, wodurch sich die Systeme überwiegend auf der Seite der Anbieter befinden. Auf der Kundenseite stehen nur noch marginal benötigte konsolidierte Hardware-/ Software-Ressourcen.

2. Reduzierung der Komplexität
Maßnahmen für eine Disaster Recovery Strategie sind hinsichtlich der Implementierung, dem Betrieb und der Wartung der Infrastruktur aufwändig und komplex. Darüber hinaus wird die Komplexität durch neue Cloud- und Architektur-Konzepte ansteigen, um die DNA und die 24/7 Verfügbarkeit verteilter Daten und Applikationen zu berücksichtigen.

Neue Disaster Recovery Lösungen sollen die Komplexität auf der Kundenseite reduzieren, indem sich die maßgeblichen Aufgaben auf die Seite der Anbieter verlagern bzw. sich in on-Premise Appliances kapseln.

3. Standortübergreifende Disaster Recovery Szenarien
Neue Betriebsmodelle für Produktivumgebungen erfordern für mittelständische Unternehmen ein Umdenken beim Aufbau von Disaster Recovery Szenarien. Durch den Einsatz von Hybrid-/ Multi-Cloud Infrastrukturen, Cloud-Services und der Nutzung von Co-Locations, muss parallel die DNA für den Katastrophenfall angepasst werden, um geschäftskritische Applikationen und Daten ausfallsicher zu betreiben.

Nur damit lässt sich die Konsistenz aller produktiven Systeme über den gesamten Lebenszyklus hinweg erhalten und aktuelle und zukünftige Geschäftsprozesse optimal schützen.

Zwei unterschiedliche Ansätze für Disaster Recovery Lösungen

Der Markt für Disaster Recovery Angebote wächst kontinuierlich. Unternehmen können aus unterschiedlichen Ansätzen und Lösungen wählen. Zwei Anbieter, welche dieses Marktsegment mit unterschiedlichen Ansätzen für bestimmte Bedürfnisse abdecken sind die Claranet GmbH und die DTS Systeme GmbH.

Unternehmen die ihren Hauptfokus auf das Backup von Daten und Systemen legen, finden bei DTS eine Lösung. Der deutsche Systemintegrator setzt auf die Continuous Data Protector (CDP) Technologie von FalconStor. Eine festplattenbasierte Backup und Disaster Recovery Lösung, mit welcher sich die Daten der Produktivsysteme kontinuierlich sichern lassen, anstatt konkrete Backupfenster zu definieren. Im Fehlerfall lässt sich ein konsistenter Zustand der Daten wiederherstellen und ebenfalls im laufenden Betrieb auf ältere Datenstände einzelner Dateien zurückgreifen.

Wer sein Hauptaugenmerk konkret auf eine Disaster Recovery Strategie legt, der wird bei Claranet fündig. Der europäische Managed-Services Anbieter setzt auf einen Disaster Recovery-as-a-Service (DRaaS) Ansatz und hat sich hierzu für die Virtual Computing Platform von Nutanix entschieden, mit der sich nahtlos integrierte und hybride End-to-End Lösungen zwischen der Kundeninfrastruktur und dem Claranet Rechenzentrum aufbauen lassen.

Fahren Sie lieber mit Ersatzreifen an Bord

Eine Disaster Recovery Strategie ist vergleichbar mit dem Ersatzreifen an ihrem Auto. Im Regelfall benötigen Sie diesen nicht. Aber wenn Sie dann mitten auf der Autobahn liegen bleiben, im Regen…

Mit der wachsenden Bedeutung der digitalen Ökonomie und der steigenden Zunahme des Digitalisierungsgrads, kann es sich kein Unternehmen mehr leisten, auf ein Disaster Recovery zu verzichten. Die Bereitstellung von Services und Anwendungen in Echtzeit sowie die zunehmend steigenden Anforderungen, die Ausfallsicherheit und so kurze Wiederherstellungszeiten wie möglich zu garantieren, sind die maßgeblichen Treiber hinter dieser Entwicklung. Eine Disaster Recovery Strategie muss daher zwangsläufig Teil der Geschäftsstrategie sein und eine hohe Priorität auf Geschäftsführungsebene erhalten.

Moderne Disaster Recovery Lösungen führen Unternehmen in Verlegenheit, sich nicht mehr hinter Ausreden zu verstecken und somit auf ein automatisiertes Notfallmanagement zu verzichten. Mit einem klar kalkulierbaren Aufwand und geringer Komplexität können auch kleine und mittelständische Unternehmen dasselbe Disaster Recovery Niveau erhalten wie es sonst nur großen Konzernen vorbehalten ist, und das zu verträglichen Kosten.

Moderne Disaster Recovery-as-a-Service Lösungen werden in Zukunft immer mehr Unternehmen dabei unterstützen, kostengünstig und mit geringem Aufwand eine Disaster Recovery Strategie technologisch umzusetzen. Hierzu bietet der Markt mittlerweile eine Vielzahl unterschiedlicher Ansätze und Lösungen für unterschiedliche Bedürfnisse und Anforderungen.

Mehr Informationen zum Thema Disaster Recovery finden Sie im folgenden White Paper „Disaster Recovery-as-a-Service für den Mittelstand“.

Categories
Cloud Computing

Analyst Comment: The importance of cloud marketplaces (Video)

Cloud marketplaces gain in importance. Like a webshop they bundle software and services of several providers. Why the screening by a marketplace operator is an advantage and what must be improved in the future is discussed in this video.

Categories
Cloud Computing @de

Analysten-Kommentar: Die Bedeutung von Cloud-Marktplätzen (Video)

Cloud-Marktplätze gewinnen an Bedeutung. Wie ein Webshop bündeln sie Software und Services von verschiedenen Anbietern. Warum die Vorauswahl durch einen Marktplatzbetreiber von Vorteil ist und was in Zukunft noch besser werden muss wird in diesem Video-Kommentar erläutert.

Categories
Analysen

Neues White Paper von Crisp Research: Disaster-Recovery-as-a-Service für den Mittelstand

Tagtäglich bekommen Unternehmen den Einfluss des digitalen Wandels zu spüren. Ohne eine angemessene Verfügbarkeit von IT-Services und den stetigen Zugriff auf Daten und Informationen lässt sich in der heutigen Zeit kein moderner Geschäftsbetrieb mehr realisieren.

Trotz dieser Tatsache investieren nur wenige deutsche Unternehmen in ein akzeptables Risiko- und Notfallmanagement, um ihre Geschäftsprozesse auch im Ausnahmefall stabil zu betreiben oder in kurzer Zeit wieder auf Normalniveau reaktivieren zu können. Die tägliche Sicherung von Daten hat sich in den letzten Jahren in den meisten Unternehmen etabliert. Ob und wie sich die Daten im Ernstfall wiederherstellen lassen, bleibt allerdings vielfach offen.

Welche Herausforderungen und Strategien ein Unternehmen bei dem Aufbau hybrider Disaster-Recovery Infrastrukturen berücksichtigen sollten, wurde von Crisp Research im Auftrag von Claranet mit dem White Paper „Disaster-Recovery-as-a-Service für den Mittelstand“ herausgearbeitet.

Das White Paper kann kostenlos unter http://www.claranet.de/DRaaS heruntergeladen werden.

DRaaS-White-Paper

Categories
IT-Infrastructure

White Paper: Disaster-Recovery-as-a-Service

Disaster Recovery is playing a minor part for SMEs. In a fraction of a second, this negligent attitude can cause harm to the business. Thereby new operation models from the cloud-age offers no reason for excuses.

Categories
IT-Infrastrukturen

White Paper: Disaster-Recovery-as-a-Service für den Mittelstand

Das Thema Disaster Recovery spielt im deutschen Mittelstand nur eine untergeordnete Rolle. Diese fahrlässige Haltung kann sich in einem Bruchteil von Sekunden geschäftsschädigend auswirken. Dabei bieten neue Betriebsmodelle aus dem Cloud-Zeitalter keinen Grund mehr für Ausreden.

Categories
Cloud Computing

The OpenStack appeal continues to rise

For many CIOs and cloud strategists the open cloud management framework OpenStack still counts as a pure marketing engine. But this perception is deceiving. With the “Icehouse” release and the serious support of big IT vendors the open source project is evolving into a leading cloud standard.

The OpenStack momentum continues to build

OpenStack can be used in several different scenarios as an infrastructure foundation for public, private and hybrid clouds. Crisp Research sees “Icehouse” as an important step for the OpenStack community to increase its appeal and to help users on their journey of running their own OpenStack based cloud. To be successful with OpenStack, it is important for CIOs to find the right mix of products, services and resources in the community.

The numbers of the recent “OpenStack Summit” are an indicator for the building OpenStack momentum. More than 4,000 attendees testify to the growing importance of the open source cloud infrastructure software. It is the same with the current OpenStack deployments. In comparison to Q1/2014, the worldwide projects increased by 60 percent in Q2/2014.

On-premise private cloud deployments are still in the lead. There were 55 private cloud deployments in Q1/2014 and 85 deployments in Q2/2014. Even the number of worldwide OpenStack public clouds has jumped, from 17 to 29.

Icehouse is a milestone

After a perceived hype, OpenStack is on a good way to become one of the important cloud standards for private and hybrid cloud environments alongside Microsoft’s Cloud OS. The commitments and investments of almost all big technology vendors imply a clear future development. The new “Icehouse” release is a milestone regarding stability and functionality, and former bugs have been fixed.

– –
* The numbers base on the official statistics of the OpenStack Foundation.

Categories
Cloud Computing

Amazon AWS builds a data center in Germany: Nice idea!

The Amazon Web Services will open a new cloud region targeting the German market by establishing a data center in Germany (Frankfurt). But is this so exciting for German companies?

Amazon AWS to touch down in Germany

Apparently, Amazon AWS has recognized the importance of the German market and the concerns of German companies. Crisp Research knows from reliable sources that the cloud provider will open a cloud region for the German market with a location in Frankfurt in the coming weeks.

After the announcement of Salesforce of a German data center location, Amazon is the next big U.S. cloud provider to follow the trend. This again shows the attractiveness of Germany. After all, most American companies treat the German market rather stepmotherly. Typically, the majority of American cloud providers supply the European market through data centers in Ireland (Dublin) and the Netherlands (Amsterdam). This reduces the attractiveness of cloud providers, especially in the case of medium-sized German businesses. Consultations with IT users consistently show that storing data outside of Germany and an agreement that is based on maximum European law are a no-go.

[Update]: Technical evidence

On the 4th of July 2014 German blogger Nils Jünemann published an article technically referencing on a new AWS region “eu-central-1”. Using a traceroute to “ec2.eu-central-1.amazonaws.com” he proved, that something is available. However, when I traceroute ec2.eu-central-1.amazonaws.com on the 5th of July 2014 the host was unknown.

AWS Portfolio: Slowly reaching the enterprise IT

In addition to the data center site, Amazon has announced AWS CloudTrail last year, the first service to allow companies more control over compliance. AWS CloudTrail helps you monitor and record the AWS API calls to one or more accounts. Here views from the AWS Management Console, the AWS Command Line Interface (CLI), from your own applications or third party applications are taken into account. The collected data are stored on either Amazon S3 or Amazon Glacier for evaluation and can be viewed on tools from AWS or external providers. Amazon CloudTrail can be used free of charge. However, costs are associated with storing the data on Amazon S3 and Amazon Glacier as well as with Amazon SNS notifications.

AWS CloudTrail is one of the most important services for enterprise customers that Amazon has released in recent times. The collected logs support the compliance with government regulations by allowing recording of all accesses to AWS services. One can operate more successful security audits based on the log data, identifying the precise origin of vulnerabilities and unauthorized or erroneous hits on data.

Enterprise quo vadis?

After establishing itself as a leading infrastructure provider and enabler for startups and new business models in the cloud, the company from Seattle has been trying to get one foot directly in the lucrative business environment for quite some time. However, one question remains open. Will that be enough to achieve a critical mass of German companies in order to evolve from a provider for startups and developers to a serious alternative for IT workloads for business?

Yes, under certain conditions:

  • Business related services must be launched simultaneously in all regions and not only in the U.S..
  • AWS requires a network of partners in order to reach the mass of attractive German corporate customers.
  • The localization of all information, such as white papers, how-to’s and training is critical.
  • Less self-service, more managed services and professional services, e.g. through the partner network.
  • Reducing complexity by simplifying the use of the scale-out principle.
  • Cloud Connectivity for reliable access to the services.
  • Avoidance of the service lock-in.
  • Strengthening the AWS Marketplace for easier use of scalable standard workloads and applications.
  • Consideration of hybrid cloud scenarios and strengthening of the partner Eucalyptus on the private cloud side.

Note on the Eucalyptus partnership: Nearly all Eucalyptus customers should also be AWS customers (Source: Eucalyptus). This means, conversely, that some hybrid cloud infrastructure exists between on-premise Eucalyptus infrastructure and the Amazon public cloud.

The existing question marks: Microsoft and Google

Medium-sized businesses demand from cloud providers that the data are stored in a German data center. About 75 percent consider physical data location a necessity to enforce German law more easily.

After Salesforce, IBM and Amazon are the only remaining major cloud providers who could be expected to make investments in this direction.

About Google, one can unfortunately say that nothing will happen in the near or far future. The DNA and mentality of the company in terms of data location and customer concerns differ too strongly from those of other providers.

At Microsoft, the cards are basically good. However, the Redmond company doesn’t need to play them now. Microsoft is pursuing a different strategy by using the Cloud OS Partner Network for local providers worldwide (e.g. Pironet NDH in Germany), empowering them with the so-called “Azure Pack” to offer an own Microsoft Azure based cloud infrastructure in a hosted model from a local data center.

How the trend of building local data centers will develop remains to be seen. Bottom line is, Germany and especially the location of Frankfurt, among others due to the DE-CIX, are well prepared to take additional international cloud providers. A key finding of this development is that international providers have understood the concerns and are willing to make compromises in the name of what is good for the user.

Categories
Analysen

Internet of Things: Der Einfluss auf den CIO

Im Jahr 2025 werden geschätzte 30 Milliarden untereinander vernetzter Geräte im Umlauf sein. Das Internet of Things, der durch die Technologie getriebene Trend, bietet zahlreiche Möglichkeiten für CIOs, um neue IT-gestützte Geschäftsfelder zu erschließen.

Der Aufbau eines vollständig miteinander vernetzten Systems global verteilter Rechnersysteme, Sensoren und zahlreicher Endgeräte, die alle untereinander über das Internet kommunizieren, ist in vollem Gange. Dieser Wandel wird einen direkten Einfluss darauf haben, wie sich unser Leben in Zukunft verändern wird und erst dadurch sämtliche Potentiale des digitalen Unternehmens offenbaren.

Das Internet of Things ist Teil des digitalen Unternehmens

Das Internet of Things (IoT) steht für die Vernetzung physischer Objekte, zu denen neben uns Menschen ebenfalls weitere Dinge wie Sensoren, Haushaltsgegenstände, Autos, Industrieanlagen usw. gehören. Das IoT schließt die Brücke zwischen der digitalen und analogen Welt, indem eine maximale Vernetzung und einem möglichst großen Informationsaustausch angestrebt wird.

Die großflächige Verbreitung, Annahme und Adaption des IoT wird noch einige Zeit benötigen, wird aber zu einem ähnlich großen Wandel beitragen, wie es das Cloud Computing seit einigen Jahren vorlebt. Crisp Research geht davon aus, dass im Jahr 2025 etwa 30 Milliarden untereinander vernetzter Geräte auf dem Markt sein werden. Bis zum Jahr 2016 wird für Deutschland ein Marktvolumen von 366 Millionen Euro (5 Milliarden Euro weltweit) für IoT Ausrüstung (Sensoren und Netzwerke) erwartet. Dieser Trend wird sehr schnell zu einem entscheidenden Faktor für die zukünftige Wettbewerbsfähigkeit von Unternehmen werden, die gleichzeitig mit den dafür notwendigen Technologien in den Ring steigen müssen.

Die Welt der Daten

Es existieren bereits einige Unternehmen, welche die Echtzeit-Analyse nutzen, um Trends in Daten zu identifizieren und darauf zu reagieren. Dazu gehört bspw. das bessere Verständnis der Kunden in Echtzeit, um ihnen aktuelle, auf sie zugeschnittene Angebote direkt auf ihr Smartphone oder Wearable zu schicken, die exakt zu dem aktuellen Kontext ihrer Aktivitäten passen. Weitere Anwendungsfälle finden sich in den Bereichen Transport und Logistik und wie das IoT dabei hilft die Ankunftszeit von Lieferungen zu optimieren sowie die CO2-Bilanz anhand der Nutzung von Datenmustern zu verbessern.

Ein gutes Beispiel für ein innovatives IoT Unternehmen ist digitalSTROM. Der Anbieter von Smart Home Technologien aus der Schweiz hat eine intelligente Hausvernetzung entwickelt, mit der sich anhand von Smartphone Apps mit den jeweiligen Geräten im Haus über die Stromleitung kommunizieren lässt. Basis hierfür stellen Lego-artige Bausteine dar, über die jeder angeschlossene Verbraucher angesprochen werden kann. Die Intelligenz eines jeden Endgeräts steckt dabei in einem Baustein. Als technologische Basis setzt digitalSTROM auf  die Azure Cloud Infrastruktur von Microsoft.

Die Einsatzmöglichkeiten des Internet of Things sind unbegrenzt

Die grundsätzlichen Einsatzbereiche und Möglichkeiten des Internet of Things sind nahezu unbegrenzt. Für die kommenden drei Jahre sieht Crisp Research vier wichtige Bereiche auf die das IoT einen erheblichen Einfluss nehmen wird:

  • Eine Verbesserung des Marketings durch die intensivere Überwachung des Verhaltens der Menschen, Dinge und Daten auf Basis der Analyse von Zeit und dem Ort, an dem sich die Objekte aufhalten. Hierzu gehören bspw. die ortsbezogene Werbung und die Auswertung des Kaufverhaltens über unterschiedliche Geschäfte hinweg.
  • Die Verbesserung der Reaktion auf bestimmte Situationen in Echtzeit. Hierzu gehören zum Beispiel die Steuerung von Transportwegen anhand unterschiedlicher Variablen wie das Wetter und dem Benzinverbrauch aber ebenfalls weichere Faktoren wie mögliche Gefahren.
  • Unterstützung bei der Entscheidungsfindung durch Sensor-basierte Analysen anhand von tiefergreifenden Analysen, bspw. für die ständige Überwachung von Patienten für eine bessere Behandlung.
  • Einen höheren Automatisierungsgrad und eine bessere Kontrolle zur Optimierung von Prozessen und der Ressourcennutzung (z.B. Smart Metering) sowie für Risikomanagementsysteme.

CIOs dürfen das Internet of Things keinesfalls unterschätzen

Das Internet of Things löst bestehende Datensilos auf, ermöglicht den Zugriff auf neue Datenquellen und eröffnet Unternehmen damit völlig neue Geschäftsmöglichkeiten. Neue digitale Unternehmen tauchen plötzlich aus dem Nichts auf und wirbeln die bestehende Anbieterlandschaft durcheinander, indem sie neue Märkte mit neuen Angeboten und Services erschließen.

Heutige Industrien sind seit geraumer Zeit nicht mehr so strikt vertikal organisiert wie noch vor mehreren Jahrzehnten. Heute verkaufen Online-Versandhändler ebenfalls IT-Ressourcen; Computerhersteller haben die Musikbranche revolutioniert. Das sind nur zwei Beispiele die zeigen, dass der Mitbewerb nicht mehr derjenige ist, der es zu sein scheint.

Dank Cloud Computing, drahtlose Verbindungen, mobile Lösungen als auch Big Data Analytics und Caching fallen die Kosten für IT-Lösungen beträchtlich. Hinzu kommen die immer günstiger werdenden Sensoren und Endgeräte als auch die steigende Beliebtheit, Daten von Geräten zu jeder Zeit und an jedem Ort zu sammeln.

Sollten CIOs diesen unmittelbaren Angriff auf ihre Unternehmen nicht als eine deutliche und gegenwärtige Bedrohung wahrnehmen, werden sie früher oder später mit den entsprechenden Konsequenzen konfrontiert werden. CIOs sollten sich daher mit den aktuellen und zukünftigen Möglichkeiten auseinandersetzen und damit ihrem Unternehmen mit dem besten Rat zur Seite zu stehen, um von den Chancen zu profitieren die das IoT bietet.

Worauf sollten CIOs bei der Einführung des Internet of Things in Ihrem Unternehmen achten?

CEOs und CMOs gehen verstärkt auf CIOs zu und fragen um deren Hilfe beim Sammeln, Analysieren und Auswerten von Daten. Dabei geht es entweder um das simple Speichern der Daten bis hin zur Nutzung der Daten zur Geschäftsprozessoptimierung, der Entwicklung neuer Geschäftsmodelle oder um neue Geschäftsmöglichkeiten zu evaluieren. Mit der stetig steigenden Menge, Variation und Geschwindigkeit mit welcher die Daten eintreffen, erreichen traditionelle Infrastrukturen schnell den Maximalpunkt ihrer möglichen Skalierbarkeit. Dasselbe Schicksal ereilt sämtliche Applikationen, deren Evolutionsverhalten starr gekapselt ist und diese damit nicht mit den steigenden Anforderungen von der Business-Seite dynamisch mithalten können.

Um den steigenden Anforderungen von IoT Workloads und den wachsenden Sensor- und Metadaten zu begegnen sind neue agile Plattformen und massiv skalierbare Infrastrukturen notwendig. Standardisierte Toolkits und Schnittstellen helfen bei der schnellen Einführung von leistungsfähigen IoT Anwendungsfällen und sorgen für eine stabile Kommunikation zwischen den Anwendungen, Services, Sensoren, Plattformen, Dashboards sowie der Sammlung, Analyse, Auswertung und Aufbereitung der gewonnen Daten.