Categories
Analysis

The Amazon Web Services to grab at the enterprise IT. A reality check.

The AWS re:Invent 2013 is over and the Amazon Web Services (AWS) continue to reach out to the corporate clients with some new services. After AWS has established itself as a leading infrastructure provider and enabler for startups and new business models in the cloud, the company from Seattle tries to get one foot directly into the lucrative business environment for quite some time. Current public cloud market figures for 2017 from IDC ($107 billion) and Gartner ($244 billion) to give AWS tailwind and encourage the IaaS market leader in its pure public cloud strategy.

The new services

With Amazon WorkSpaces, Amazon AppStream, AWS CloudTrail and Amazon Kinesis, Amazon introduced some interesting new services, which in particular address enterprises.

Amazon WorkSpaces

Amazon WorkSpaces is a service which provides virtual desktops based on Microsoft Windows, to build an own virtual desktop infrastructure (VDI) within the Amazon Cloud. As basis a Windows Server 2008 R2 is used, which rolls out desktops with a Windows 7 environment. All services and applications are streamed from Amazon data centers to the corresponding devices, for what the PCoIP (PC over IP) by Teradici is used. It may be desktop PCs, laptops, smartphones or tablets. In addition, Amazon WorkSpaces can be combined with a Microsoft Active Directory, what simplifies the user management. By default, the desktops are delivered with familiar applications such as Firefox or Adobe Reader/ Flash. This can be adjusted as desired by the administrators.

With Amazon WorkSpaces Amazon enters a completely new territory in which Citrix and VMware, two absolute market players, already waiting. During VMworld in Barcelona, VMware just announced the acquisition of Desktone. VDI is basically a very exciting market segment because it redeemed the corporate IT administration tasks and reduces infrastructure costs. However, this is a very young market segment. Companies are also very careful when outsourcing their desktops as, different from the traditional on-premise terminal services, the bandwidth (network, Internet, data connection) is crucial.

Amazon AppStream

Amazon AppStream is a service that serves as a central backend for graphically extensive applications. With that, the actual performance of the device on which the applications are used, should no longer play a role, since all inputs and outputs are processed within the Amazon Cloud.

Since the power of the devices is likely to be more increasingly in the future, the local power can probably be disregarded. However, for the construction of a real mobile cloud, in which all the data and information are located in the cloud and the devices are only used as consumers, the service is quite interesting. Furthermore, the combination with Amazon WorkSpaces should be considered, to provide applications on devices that serve only as thin clients and require no further local intelligence and performance.

AWS CloudTrail

AWS CloudTrail helps to monitor and record the AWS API calls for one or more accounts. Here, calls from the AWS Management Console, the AWS Command Line Interface (CLI), own applications or third party applications are considered. The collected data are stored either in Amazon S3 or Amazon Glacier for evaluation and can be viewed via the AWS Management Console, the AWS Command Line Interface or third-party tools. At the moment, only Amazon EC2, Amazon ECS, Amazon RDS and Amazon IAM can be monitored. Amazon CloudTrail can be used free of charge. Costs incurred for storing the data to Amazon S3 and Amazon Glacier and for Amazon SNS notifications.

AWS CloudTrial belongs, even if it is not very exciting (logging), to the most important services for enterprise customers that Amazon has released lately. The collected logs assist during compliance by allowing to record all accesses to AWS services and thus demonstrate the compliance of government regulations. It is the same with security audits, which thus allow to comprehend vulnerabilities and unauthorized or erroneous data access. Amazon is well advised to expand AWS CloudTrail as soon as possible for all the other AWS services and make them available worldwide for all regions. In particular, the Europeans will be thankful.

Amazon Kinesis

Amazon Kinesis is a service for real-time processing of large data streams. To this end, Kinesis is able to process data streams of any size from a variety of sources. Amazon Kinesis is controlled via the AWS Management Console by assigning and saving different data streams to an application. Due to Amazon’s massive scalability there are no capacity limitations. However, the data are automatically distributed to the global Amazon data centers. Use cases for Kinesis are the usual suspects: Financial data, social media and data from the Internet of Things/ Everything (sensors, machines, etc.).

The real benefit of Kinesis, as big data solution, is the real-time processing of data. Common standard solutions on the market process the data via batch. Means the data can never be processed direct in time and at most a few minutes later. Kinesis removes this barrier and allows new possibilities for the analysis of live data.

Challenges: Public Cloud, Complexity, Self-Service, “Lock-in”

Looking at the current AWS references, the quantity and quality is impressive. Looking more closely, the top references are still startups, non-critical workloads or completely new developments that are processed. This means that most of the existing IT systems, we are talking about, are still not located in the cloud. Besides the concerns of loss of control and compliance issues, this depends on the fact that the scale-out principle makes it to complicated for businesses to migrate their applications and systems into the AWS cloud. In the end it boils down to the fact, that they have to start from scratch, because a non-distributed developed system is not working the way it should run on a distributed cloud infrastructure – key words: scalability, high availability, multi-AZ. These are costs that should not be underestimated. This means that even the migration of a supposedly simple webshop is a challenge for companies that do not have the time and the necessary cloud knowledge to develop the webshop for the (scale-out) cloud infrastructure.

In addition, the scalability and availability of an application can only be properly realized on the AWS cloud when you stick to the services and APIs that guarantee this. Furthermore, many other infrastructure-related services are available and are constantly being published, which make life clearly easier for the developer. Thus the lock-in is preprogrammed. Although I am of the opinion that a lock-in must not be bad, as long as the provider meets the desired requirements. However, a company should consider in advance whether these services are actually needed mandatory. Virtual machines and standard workloads are relatively easy to move. For services that are very close engaged into the own application architecture, it looks quite different.

Finally. Even if some market researchers predict a golden future for the public cloud, the figures should be taken with a pinch of salt. Cloud market figures are revised downwards for years. You also have to consider in each case how these numbers are actually composed. But that is not the issue here. At the end of the day it’s about what the customer wants. At re:Invent Andy Jassy once again made ​​clear that Amazon AWS is consistently rely on the public cloud and will not invest in own private cloud solutions. You can interpret this as arrogance and ignorance towards customers, the pure will to disruption or just self-affirmation. The fact is, even if Amazon will probably build the private cloud for the CIA, they have not the resources and knowledge by far to act as a software provider on the market. Amazon AWS is a service provider. However, with Eucalyptus they have set up a powerful ally on the private cloud side, which makes it possible to build an AWS-like cloud infrastructure in the own data center

Note: Nearly all Eucalyptus customers should also be AWS customers (source: Eucalyptus). This means conversely, that some hybrid cloud infrastructures exist between on-premise Eucalyptus infrastructures and the Amazon public cloud.

Advantages: AWS Marketplace, Ecosystem, Enabler, Innovation Driver

What is mostly ignored during the discussions about Amazon AWS and corporate customers is the AWS Marketplace. In addition, Amazon also does not advertised it too much. Compared to the cloud infrastructure, customers can use to develop their own solutions, the marketplace offers full-featured software solutions from partners (eg SAP), which can be automatically rolled out on the AWS infrastructure. The cost of using the software are charged per use (hour or month). In addition, the AWS fees for the necessary infrastructure are charged. Herein lies the real added value for companies to easily outsource their existing standard systems to the cloud and to separate from the on-premise systems.

One must therefore distinguish strictly between the use of infrastructure for in-house development and operation of ready-made solutions. Both are possible in the Amazon cloud. There is also the ecosystem of partners and system integrators which help AWS customers to develop their solutions. Because, even if AWS itself is (currently still) a pure infrastructure provider, they must equally be understood as a platform for other providers and partners who operate their businesses on it. This is also the key success and advantage over other providers in the market and will increase the long-term attractiveness of corporate customers.

In addition, Amazon is the absolute driving force for innovation in the cloud, no other cloud provider technologically is able to reach at the moment. For this purpose, it does not require re:Invent. Instead, it shows almost every month anew.

Amazon AWS is – partly – suitable for enterprise IT

Depending on the country and use case the requirements vary, Amazon has to meet. European customers are mostly cautious with the data management and store the data rather in their own country. I already met with more than one customer, who was technically confident but storing the data in Ireland was not an option. In some cases it is also the lack of ease of use. This means that a company dones’t want to (re)-develop its existing application or website for the Amazon infrastructure. Reasons are the lack of time and the knowledge to implement, what may results in a longer time to market. Both can be attributed to the complexity to achieve scalability and availability at the Amazon Web Services. After all, there are not just a few API calls. Instead, the entire architecture needs to be oriented on the AWS cloud. In Amazon’s case its about the horizontal scaling (scale-out) which makes this necessary. Instead, companies prefer vertical scaling (scale-up) to migrate the existing system 1:1 and not to start from scratch, but directly achieve success in the cloud.

However, the AWS references also show that sufficient use cases for companies exist in the public cloud in which the data storage can be considered rather uncritical, as long as the data are classified before and then stored in an encrypted way.

Analysts colleague Larry Carvalho has talked with a few AWS enterprise customers at re:Invent. One customer has implemented a hosted website on AWS for less than $7,000, for what an other system integrator wanted to charge $ 70,000. Another customer has calculated that he would pay for an on-premise business intelligence solution including maintenance about $200,000 per year. On Amazon AWS he only pays $10,000 per year. On the one hand these examples show that AWS is an enabler. However, on the other hand, that security concerns in some cases are yield to cost savings.

Categories
Analysen

Die Amazon Web Services greifen nach der Enterprise IT. Ein Realitätscheck.

Die AWS re:Invent 2013 ist vorbei und die Amazon Web Services (AWS) haben mit einigen neuen Services begonnen, die Hände weiter nach den Unternehmenskunden auszustrecken. Nachdem sich AWS als führender Infrastrukturanbieter und Enabler für Startups und neue Geschäftsmodelle in der Cloud etabliert hat, versucht das Unternehmen aus Seattle schon seit geraumer Zeit einen Fuß direkt in das lukrative Unternehmensumfeld zu bekommen. Aktuelle Public Cloud Marktzahlen für das Jahr 2017 von IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) geben AWS Rückenwind und bestärken den IaaS Marktführer in seiner reinen Public Cloud Strategie.

Die neuen Services

Mit Amazon WorkSpaces, Amazon AppStream, AWS CloudTrail und Amazon Kinesis hat Amazon interessante neue Services präsentiert, die insbesondere Unternehmenskunden adressieren.

Amazon WorkSpaces

Amazon WorkSpaces ist ein Service, der virtuelle Desktops auf Basis von Microsoft Windows bereitstellt, mit dem sich eine eigene Virtual Desktop Infrastructure (VDI) innerhalb der Amazon Cloud aufbauen lässt. Als Basis kommt der Windows Server 2008 R2 zum Einsatz, der Desktops mit einer Windows 7 Oberfläche ausrollt. Alle Services und Applikationen werden aus Amazon Rechenzentren auf die entsprechenden Endgeräte gestreamt, wobei das PCoIP (PC over IP) von Teradici zum Einsatz kommt. Dabei kann es sich um Desktop-PCs, Notebooks, Smartphones oder Tablets handeln. Zudem lässt sich Amazon WorkSpaces mit einer Microsoft Active Directory kombinieren, was die Benutzerverwaltung vereinfacht. Standardmäßig werden die Desktops mit bekannten Anwendungen wie Firefox oder Adobe Reader/ Flash ausgeliefert. Dies lässt sich von den Administratoren beliebig anpassen.

Mit Amazon WorkSpaces betritt Amazon völlig neues Terrain, in welchem mit Citrix und VMware bereits zwei absolute Marktgrößen warten. VMware hatte erst während der VMworld in Barcelona die Übernahme von Desktone bekanntgegeben. VDI ist grundsätzlich ein sehr spannendes Marktsegment, da es die Unternehmens-IT von Administrationsaufgaben erlöst und Infrastrukturkosten reduziert. Allerdings handelt es sich hierbei um ein noch sehr junges Marktsegment. Unternehmen sind zudem noch sehr vorsichtig bei der Auslagerung ihrer Desktops, da anders als bei klassischen on-Premise Terminal Services, die Bandbreite (Netzwerk, Internet, Datenverbindung) von entscheidender Bedeutung ist.

Amazon AppStream

Amazon AppStream ist ein Service, der als ein zentrales Backend für graphisch umfangreiche Applikationen dient. Damit soll die eigentliche Leistung des Endgeräts, auf dem die Applikationen genutzt werden, keine Rolle mehr spielen, da sämtliche Ein- und Ausgaben innerhalb der Amazon Cloud verarbeitet werden.

Da die Leistung der Endgeräte in Zukunft wahrscheinlich eher noch mehr zunehmend wird, muss die lokale Leistung vermutlich nicht berücksichtigt werden. Allerdings ist der Service für den Aufbau einer echten Mobile Cloud, bei der sich sämtliche Daten und Informationen in der Cloud befinden und die Geräte lediglich als Konsumenten genutzt werden, durchaus interessant. Weiterhin ist die Kombination mit Amazon WorkSpaces zu betrachten, um Applikationen auf Endgeräte bereitzustellen, die lediglich als ThinClients dienen und keine weitere lokale Intelligenz und Leistung benötigen.

AWS CloudTrail

AWS CloudTrail hilft beim Überwachen und Aufzeichnen der AWS API Aufrufe von einem oder mehrerer Accounts. Dabei werden Aufrufe über die AWS Management Console, dem AWS Command Line Interface (CLI), von eigenen Anwendungen oder Anwendungen von Drittanbietern berücksichtigt. Die erhobenen Daten werden entweder in Amazon S3 oder Amazon Glacier zur Auswertung gespeichert und lassen sich über die AWS Management Console, dem AWS Command Line Interface oder Tools von Drittanbietern betrachten. Derzeit lassen sich nur Amazon EC2, Amazon ECS, Amazon RDS und Amazon IAM überwachen. Amazon CloudTrail kann kostenlos genutzt werden. Kosten entstehen für das Speichern der Daten auf Amazon S3 und Amazon Glacier sowie für die Benachrichtigungen über Amazon SNS.

AWS CloudTrial gehört, auch wenn er nicht sehr spannend ist (Logging), zu den wichtigsten Services für Unternehmenskunden, die Amazon in letzter Zeit veröffentlicht hat. Die gesammelten Logdateien helfen bei der Compliance, indem sie sämtliche Zugriffe auf AWS Services aufzeichnen und damit das Einhalten von gesetzlichen Rahmenbedingungen nachweisen können. Ebenso verhält es sich mit Sicherheitsaudits, bei denen sich damit Sicherheitslücken und unberechtigte oder fehlerhafte Zugriffe auf Daten nachvollziehen lassen. Amazon ist gut beraten, AWS CloudTrail schnellstmöglich über alle weiteren AWS Services zu erweitern und für sämtliche Regionen weltweit verfügbar zu machen. Insbesondere die Europäer werden es danken.

Amazon Kinesis

Amazon Kinesis ist ein Service zur Echtzeitverarbeitung von großen Datenströmen. Hierzu ist Kinesis in der Lage Datenströme beliebiger Größe aus einer Vielzahl unterschiedlicher Quellen zu verarbeiten. Die Steuerung erfolgt aus der AWS Management Console, indem sich einer Anwendung unterschiedliche Datenströme zuweisen und darüber speichern lassen. Auf Grund von Amazons massiver Skalierbarkeit bestehen keine Kapazitätsbegrenzungen. Allerdings werden die Daten automatisch auf die weltweiten Amazon Rechenzentren verteilt. Als Use Cases für Kinesis gelten die üblichen Verdächtigen: Finanzdaten, Social Media sowie Daten aus dem Internet of Things/ Everything (Sensoren, Maschinen usw.).

Der eigentliche Vorteil von Kinesis, als Big Data Lösung, besteht in der Echtzeitverarbeitung von Daten. Gängige Standard-Lösungen am Markt verarbeiten die Daten via Batch, wodurch die Daten niemals zum direkten Zeitpunkt, sondern maximal ein paar Minuten später verarbeitet werden können. Kinesis hebt diese Barriere auf und ermöglicht neue Möglichkeiten zur Auswertung von Live-Daten.

Herausforderungen: Public Cloud, Komplexität, Self-Service, “Lock-in”

Schaut man auf die aktuellen AWS Referenzen, ist die Quantität als auch die Qualität beeindruckend. Schaut man genauer hin, handelt es sich bei den Top-Referenzen allerdings weiterhin um Startups, unkritische Workloads oder komplett neue Entwicklungen die dort verarbeitet werden. Das bedeutet, dass die meisten bestehenden IT-Systeme, um die es tatsächlich geht, sich noch gar nicht in der Cloud befinden. Das hängt neben den Bedenken vor dem Kontrollverlust und Compliance Themen damit zusammen, dass das Scale-out Prinzip es für Unternehmen beliebig kompliziert macht, ihre Anwendungen und Systeme in die AWS-Cloud zu migrieren. Am Ende läuft es darauf hinaus, dass sie von Vorne beginnen müssen, da ein nicht verteilt entwickeltes System nicht so funktioniert, wie es auf einer verteilten Cloud Infrastruktur laufen sollte – Stichworte: Skalierbarkeit, Hochverfügbarkeit, Multi-AZ. Das sind Kosten die nicht unterschätzt werden sollten. Das führt dazu, dass selbst die Migration eines vermeintlich einfachen Webshops zu Herausforderungen für Unternehmen werden, die nicht über die Zeit und das notwendige Cloud-Wissen verfügen, um den Webshop für die (Scale-out) Cloud Infrastruktur neu zu entwickeln.

Hinzu kommt, dass sich die Skalierbarkeit und Verfügbarkeit einer Applikation auf der AWS Cloud nur sauber realisieren lässt, wenn man sich an die Services und APIs hält, mit denen dies sichergestellt wird. Weiterhin stehen viele weitere infrastrukturnahe Services zur Verfügung bzw. werden ständig veröffentlicht, die das Leben für den Entwickler sichtlich einfacher machen. Der Lock-in ist damit vorprogrammiert. Zwar bin ich auf dem Standpunkt, dass ein Lock-in nichts Schlechtes sein muss, solange der Anbieter die gewünschten Anforderungen erfüllt. Dennoch sollte sich ein Unternehmen vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.

Zum Schluss. Auch wenn einige Marktforscher der Public Cloud eine goldende Zukunft prophezeien, sollte man die Zahlen nicht zu sehr auf die Goldwaage legen. Cloud Marktzahlen werden schon seit Jahren immer mal wieder nach unten korrigiert. Außerdem muss man im Einzelfall betrachten, wie sich diese Zahlen tatsächlich zusammensetzen. Aber darum geht es hier nicht. Am Ende des Tages geht es darum, was der Kunde will. Andy Jassy hat auf der re:Invent noch einmal deutlich gemacht, dass Amazon AWS konsequent auf die Public Cloud setzen wird und in keine eigenen Private Cloud Lösungen investieren wird. Man kann dies nun als Arroganz und Ignoranz gegenüber den Kunden, dem puren Willen nach Disruption oder einfach nur Selbstbestätigung interpretieren. Fakt ist, auch wenn Amazon wohl die Private Cloud für die CIA bauen wird, haben sie bei weitem nicht die Ressourcen und Kenntnisse, um als Softwareanbieter am Markt aufzutreten. Amazon AWS ist ein Service-Anbieter. Allerdings haben sie mit Eucalyptus einen starken Verbündeten auf der Private Cloud Seite, der es ermöglicht eine AWS-ähnliche Cloud Infrastruktur im eigenen Rechenzentrum aufzubauen.

Anmerkung hierzu: Nahezu alle Eucalyptus Kunden sollen ebenfalls AWS Kunden sein (Quelle: Eucalyptus). Das bedeutet im Umkehrschluss, dass einige Hybrid Cloud Infrastrukturen zwischen on-Premise Eucalyptus Infrastrukturen und der Amazon Public Cloud bestehen.

Vorteile: AWS Marketplace, Ökosystem, Enabler, Innovationstreiber

Was bei den ganzen Diskussionen um Amazon AWS und Unternehmenskunden leider immer wieder kläglich vergessen und auch von Amazon viel zu wenig beworben wird, ist der AWS Marketplace. Im Vergleich zu der Cloud Infrastruktur, die Kunden nutzen können, um eigene Lösungen zu entwickeln, bietet der Marketplace voll funktionsfähige Softwarelösungen von Partnern (z.B. SAP), die auf der AWS Infrastruktur automatisch ausgerollt werden können. Die Kosten für die Nutzung der Software werden pro Stunde oder pro Monat abgerechnet. Hinzu kommen die AWS Gebühren für die dafür benötigte Infrastruktur. Hier steckt der eigentliche Mehrwert für Unternehmen, ihre bestehenden Standardsysteme bequem in die Cloud auszulagern und sich von den on-Premise Systemen zu trennen.

Man muss bei den Amazon Web Services daher strikt zwischen der Nutzung von Infrastruktur für die Eigenentwicklung und dem Betrieb von fertigen Lösungen trennen. Beides ist in der der Amazon Cloud möglich. Hinzu kommt das Ökosystem von Partnern und Systemintegratoren, die AWS Kunden dabei helfen, ihre Lösungen zu entwickeln. Denn auch wenn AWS selbst (derzeit noch) ein reiner Infrastruktur Anbieter ist, müssen sie gleichermaßen als Plattform für andere Anbieter und Partner verstanden werden, die darauf ihre Geschäfte betreiben. Darin besteht auch der maßgebliche Erfolg und Vorteil gegenüber anderen Anbietern am Markt und wird langfristig die Attraktivität bei den Unternehmenskunden erhöhen.

Hinzu kommt, dass Amazon der absolute Innovationstreiber in der Cloud ist, dem kein anderer Cloud-Anbieter derzeit technologisch das Wasser reichen kann. Dazu bedarf es keiner re:Invent. Stattdessen zeigt sich dies nahezu jeden Monat von Neuem.

Amazon AWS ist – bedingt – tauglich für die Enterprise IT

Je nach Land und Use Case variieren die Anforderungen, die Amazon für Unternehmen erfüllen muss. Europäische Kunden sind hier meist bedachter mit der Datenhaltung und speichern die Daten lieber im eigenen Land. Ich saß schon mit mehr als einem Kunden zusammen, der technisch überzeugt war aber das Speichern der Daten in Irland nicht in Frage kam. In einigen Fällen ist es aber auch die fehlende Einfachheit der Nutzung. Das bedeutet, dass ein Unternehmen seine bestehende Anwendung oder Webseite nicht für die Amazon Infrastruktur (neu) entwickeln möchte. Gründe hierfür sind die fehlende Zeit und das Wissen um dies umzusetzen, was gleichzeitig zu einen längeren Time to Market führen würde. Beides lässt sich auf die Komplexität zurückführen, um auf den Amazon Web Services Skalierbarkeit und Verfügbarkeit zu erreichen. Es sind nun einmal nicht nur ein paar API-Aufrufe. Stattdessen muss die vollständige Architektur auf die AWS Cloud ausgerichtet werden. In Amazons Fall liegt es insbesondere an der horizontalen Skalierung (scale-out) die dies erforderlich macht. Die Unternehmen würden lieber die vertikale Skalierung (scale-up) bevorzugen, um das bestehende System 1:1 migrieren zu können und nicht von vorne zu beginnen, sondern direkt in der Cloud Erfolge zu erzielen.

Die AWS Referenzen zeigen allerdings auch, dass ausreichend Use Cases für Unternehmen in der Public Cloud existieren, bei denen die Datenhaltung eher als unkritisch betrachtet werden kann, solange die Daten vorher klassifiziert und anschließend verschlüsselt abgelegt werden.

Analysten Kollege Larry Carvalho hat sich auf der re:Invent mit ein paar AWS Unternehmenskunden unterhalten. Ein Kunde hat eine gehostete Webseite auf AWS für weniger als $7.000 Dollar implementiert, wofür ein anderer Systemintegrator $70.000 berechnen wollte. Ein anderer Kunde hat ausgerechnet, dass er für eine on-Premise Business Intelligence Lösung inkl. Wartung etwa $200.000 pro Jahr zahlen würde. Auf Amazon AWS lediglich $10.000 pro Jahr. Diese Beispiele zeigen, dass AWS auf der einen Seite ein Enabler ist. Auf der anderen Seite aber auch, dass die Sicherheitsbedenken in einigen Fällen den Kosteneinsparungen in den Unternehmen weichen werden.

Categories
Comment

The keys belong into the hands of the users: TeamDrive receives fourth ULD data privacy recertification in a row

The confidence in an encrypted communication for the transmission of sensitive information over the Internet is becoming increasingly important. Here, the Independent Regional Centre for Data Protection of Schleswig-Holstein
(Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein (ULD)) lead by Thilo Weichert is a pioneer when it comes to independent verification and certification of privacy and security-related issues in the field of information technology. In recent years TeamDrive has established itself as the Dropbox alternative for the enterprise and in terms of safety sets consistently on an end-to-end encryption. The vendor from Hamburg, Germany and Gartner Cool Vendor 2013 in Privacy successfully received its fourth ULD data privacy recertification in a row.

The keys belong exclusively into the hands of the users

As part of the recertification the security of TeamDrive in version 3 was increased again. In addition to the 256-bit AES end-to-end encryption, the security has been further enhanced with an RSA 3072 encryption. The importance of the end-to-end encryption of all communication still rises. This means that the whole process, which a user passes through the solution, is encrypted continuously from start to the end.

In this context it is very important to understand that the private key which is used to access the data and the system only may exclusively be owned by the user. And is only stored encrypted on the local system of the user. The vendor may have no ways to restore this private key and never get access to the stored data.

Despite all the promises, encryption is useless if providers like Dropbox or Box have the key and can decrypt all the data. The control over this exclusively belongs into the hands of the users. This must be taken into account by each company when choosing a trusted vendor.

Categories
Kommentar

Die Schlüssel gehören in die Hände der Anwender: TeamDrive erhält vierte ULD Datenschutz Rezertifizierung in Folge

Das Vertrauen in eine verschlüsselte Kommunikation zur Übertragung von sensiblen Informationen über das Internet wird immer wichtiger. Dabei gilt das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein (ULD) unter der Leitung von Thilo Weichert als Vorreiter, wenn es um die unabhängige Überprüfung und Zertifizierung von Datenschutz und sicherheitsrelevanter Themen im Bereich der Informationstechnologie geht. TeamDrive hat sich im Laufe der letzten Jahre als die Dropbox Alternative für Unternehmen etabliert und setzt in Punkto Sicherheit konsequent auf eine End-to-End Verschlüsselung. Der Anbieter aus Hamburg und Gartner Cool Vendor in Privacy 2013 hat erfolgreich seine vierte ULD Datenschutz Rezertifizierung in Folge erhalten.

Die Schlüssel gehören ausschließlich in die Hände der Anwender

Im Rahmen der Rezertifizierung wurde die Sicherheit von TeamDrive in der Version 3 erneut erhöht. Neben der 256 Bit AES End-to-End Verschlüsselung wurde die Sicherheit zusätzlich mit einer RSA 3072 Verschlüsselung erweitert. Die Bedeutung der End-to-End Verschlüsselung der gesamten Kommunikation nimmt immer weiter zu. Das bedeutet, dass der gesamte Prozess, den ein Nutzer mit der Lösung durchläuft, von Anfang bis Ende durchgehend verschlüsselt ist.

In diesem Zusammenhang ist es wichtig zu verstehen, dass sich der private Schlüssel für den Zugriff auf die Daten und des Systems ausschließlich im Besitz des Anwenders befinden darf. Und auch nur ausschließlich auf dem lokalen System des Anwenders verschlüsselt gespeichert wird. Der Anbieter darf über keine Möglichkeiten verfügen, diesen privaten Schlüssel wiederherzustellen und niemals auf die gespeicherten Daten Zugriff erhalten.

Trotz aller Versprechungen ist eine Verschlüsselung nutzlos, wenn Anbieter wie Dropbox oder Box über den Schlüssel verfügen und alle Daten entschlüsseln können. Die Kontrolle darüber gehört ausschließlich in die Hände der Anwender. Das muss jedes Unternehmen bei der Auswahl eines vertrauenswürdigen Anbieters berücksichtigen.

Categories
Analysis

Runtastic: A consumer app in the business cloud

The success stories from the public cloud do not stop. Constantly new web and mobile applications appear that rely on infrastructure-as-a-service (IaaS) offerings. This is just one reason that animates market researcher like IDC ($107 billion) and Gartner ($244 billion) to certify a supposedly golden future for the public cloud by the year 2017. The success of the public cloud cannot be argued away, the facts speak for themselves. However, there are currently mostly startups, and many times non-critical workloads moving to the public cloud. Talking to IT decision-makers from companies that have mature IT infrastructures, the reality looks quite different. This also shows our study on the European cloud market. In particular, the self-service and the complexity is underestimated by the public cloud providers, when they go to corporate customers. But also for young companies the public cloud is not necessarily the best choice. I recently spoke with Florian Gschwandtner (CEO) and Rene Giretzlehner (CTO) of Runtastic who decided against the public cloud and choose a business cloud, more precisely T-Systems.

Runtastic: From 0 to over 50 million downloads in three years

Runtastic consists of a series of apps for endurance, strength & toning, health & wellness and fitness, helping users to achieve their health and fitness goals.

The company was founded in 2009 in Linz (Austria) and has, due to its huge growth in the international mobile health and fitness industry, now locations in Linz, Vienna and San Francisco. The growth figures are impressive. After 100,000 downloads in July 2010, there are now over 50 million downloads (as of October 2013). Of these, 10,000,000 downloads alone in Germany, Austria and Switzerland, which roughly means more than one download per second. Runtastic has 20 million registered users, up to 1 million daily active users and more than 6,000,000 monthly active users.


Source: Runtastic, Florian Gschwandtner, November 2013

In addition to the mobile apps Runtastic is also offering its own hardware to use the apps and services more conveniently. Another interesting service is “Story Running”, which should lead to more variety and action while running.

Runtastic: Reasons for the business cloud

Considering this growth numbers and the number of growing apps and services Runtastic is an ideal candidate for a cloud infrastructure. Compared to similar offerings even for a public cloud. You would think. Runtastic began with its infrastructure on a classic web host – without a cloud model. In recent years, some experience with different providers were collected. Due to the continuing expansion, new underlying conditions, the growing number of customers and the need for high availability the reason was to outsource the infrastructure into the cloud.

Here, a public cloud was never an option for Runtastic because of the dedicated(!) location of the data as a top priority, not only because of security concerns or the NSA scandal. So, the Amazon Web Services (AWS) just for technical reasons are out of the question, since many demands of Runtastic can not be mapped. Among other things, the core database comprises about 500GB on a single MySQL node, which AWS can not meet, according to Giretzlehner. In addition, the cost for such large servers in a public cloud are so expensive that an own hardware quickly pays for itself.

Instead Runtastic decided for the business cloud of T-Systems. This was due to a good setup, a high quality standard and two data centers in one location (in two separate buildings). In addition, a high level of security, a professional technical service as well as the expertise of the staff and partners and a very good connection to the Internet hub in Vienna and Frankfurt.

To that end Runtastic combines the colocation model with a cloud approach. This means that Runtastic covers the base load with its own hardware and absorbs peak loads with infrastructure-as-a-service (IaaS) computing power of T-Systems. The management of the infrastructure is automated by Chef. Although the majority of the infrastructure is virtualized. However Runtastic drives a hybrid approach. This means that the core database, the storage and the NoSQL clusters are operated on bare metal (non-virtualized). Because of the global reach (90 T-Systems data centers worldwide) Runtastic can continue to ensure that all apps work seamlessly and everywhere.

A unconventional decision is the three-year contract, Runtastic closed down with T-Systems. These include the housing of the central infrastructure, a redundant Internet connection and the demand of computing power and storage of the T-Systems cloud. Runtastic chose this model because they see the partnership with T-Systems in the long term and do not want to leave the infrastructure from one day to another.

Another important reason for a business cloud was the direct line to counterparts and professional services. This also reflects in a higher price, what Runtastic consciously takes into account.

The public cloud is not absolutely necessary

Runtastic is the best example that young companies can be successful without a public cloud and that a business cloud is definitely an option. Although Runtastic runs not completely on a cloud infrastructure. However, the business case must be calculated in each case, whether it is (technically) worthwhile to invest parts in an own infrastructure and intercept the peak by cloud infrastructure.

This example also shows, that the public cloud is not easy sledding for providers and consulting and professional services from a business or managed cloud are in demand.

During the keynote at AWS re:Invent 2013 Amazon AWS presented its flagship customer Netflix and the Netflix cloud platform (see the video from 11 minutes), which was developed specifically for the Amazon cloud infrastructure. Amazon sells the Netflix tools of course as a positive aspect, what they definitely are. However, Amazon conceals the effort that Netflix operates in order to use the Amazon Web Services.

Netflix shows very impressive how a public cloud infrastructure is used via self-service. However, when you consider what an effort Netflix operates to be successful in the cloud, you just have to say that cloud computing is not simple and a cloud infrastructure, no matter what kind of provider, needs to be built with the corresponding architecture. This means, conversely, that the use of the cloud does not always lead to the promised cost advantages. In addition to savings in infrastructure costs which are always pre-calculated, the other costs may never be neglected for the staff with the appropriate skills and the costs for the development of scalable and fault-tolerant application in the cloud.

In this context, the excessive use of infrastructure-near services should be reconsidered. Although these simplify the developers life. As a company, you should think in advance whether these services are actually absolutely needed to keep your options open. Virtual machines and standard workloads are relatively easy to move. For services that engage very close to the own application architecture, it looks different.

Categories
Analysen

Runtastic: Als Consumer App in der Business Cloud

Die Erfolgsmeldungen aus der Public Cloud reißen nicht ab. Ständig erscheinen neue Web- und mobile Applikationen, die auf Infrastructure-as-a-Service (IaaS) Angebote setzen. Das ist nur ein Grund, der Marktforscher wie IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) dazu bewegt, der Public Cloud bis zum Jahr 2017 eine vermeintlich goldene Zukunft zu bescheinigen. Den Erfolg der Public Cloud kann man nicht wegdiskutieren, die Fakten sprechen für sich. Jedoch sind es derzeit überwiegend Startups und vielmals unkritische Workloads die sich in die Public Cloud bewegen. Spricht man hingegen mit IT-Entscheidern von Unternehmen, die über ausgewachsene IT-Infrastrukturen verfügen, sieht die Realität anders aus. Das zeigt auch unsere Studie über den Europäischen Cloud Markt. Insbesondere der Self-Service und die Komplexität wird von den Public Cloud Anbietern unterschätzt, wenn sie auf Unternehmenskunden zugehen. Aber auch für junge Unternehmen ist die Public Cloud nicht zwangsläufig die beste Wahl. Ich habe kürzlich mit Florian Gschwandtner (CEO) und Rene Giretzlehner (CTO) von Runtastic gesprochen, die sich gegen die Public Cloud und für eine Business Cloud, genauer T-Systems, entschieden haben.

Runtastic: Von 0 auf über 50.000.000 Downloads in drei Jahren

Runtastic besteht aus einer Reihe von Apps für Ausdauer, Kraft & Toning, Gesundheit & Wellness sowie Fitness und hilft den Nutzern dabei ihre Gesundheits- und Fitnessziele zu erreichen.

Das Unternehmen wurde im Jahr 2009 in Linz (Österreich) gegründet und hat auf Grund seines enormen Wachstums in der internationalen Mobile Health und Fitness-Branche mittlerweile Standorte in Linz, Wien und San Francisco. Die Wachstumszahlen sind beeindruckend. Nach 100.000 Downloads im Juli 2010 sind es mittlerweile über 50.000.000 Downloads (Stand: Oktober 2013). Davon alleine 10.000.000 Downloads in Deutschland, Österreich und der Schweiz, was in etwa mehr als ein Download pro Sekunde bedeutet. Runtastic verfügt über 20.000.000 registrierte Nutzer, bis zu 1.000.000 täglich aktive Nutzer und mehr als 6.000.000 monatlich aktive Nutzer.


Quelle: Runtastic, Florian Gschwandtner, November 2013

Neben den mobilen Apps setzt Runtastic ebenfalls auf das Angebot eigener Hardware, um die Apps und Services bequemer nutzen zu können. Ein weiterer interessanter Service ist das “Story Running”, der zu mehr Abwechslung und Action beim Laufen führen soll.

Runtastic: Gründe für die Business Cloud

Angesichts dieser Wachstumszahlen und Anzahl der ständig wachsenden Apps und Services ist Runtastic ein idealer Kandidat für eine Cloud Infrastruktur. Im Vergleich zu ähnlichen Angeboten sogar für eine Public Cloud. Möge man meinen. Runtastic begann mit seiner Infrastruktur bei einem klassischen Webhoster – ohne Cloud Modell. In den vergangenen Jahren wurden einige Erfahrungen mit unterschiedlichen Anbietern gesammelt. Auf Grund der ständigen Expansion, neuer Rahmenbedingungen, der wachsenden Kundenanzahl und der Bedarf an Hochverfügbarkeit war der Grund die Infrastruktur in eine Cloud auszulagern.

Dabei war eine Public Cloud für Runtastic nie eine Option, da der dedizierte(!) Speicherort der Daten höchste Priorität besitzt und das nicht nur auf Grund von Sicherheitsaspekten oder dem NSA-Skandal. So kamen die Amazon Web Services (AWS) allein aus technischen Gründen nicht in Frage, da viele Ansprüche von Runtastic sich darauf nicht abbilden lassen. Unter anderem umfasst die Kerndatenbank in etwa 500GB auf einem einzelnen MySQL-Node, was laut Giretzlehner AWS nicht erfüllen kann. Zudem sind die Kosten in einer Public Cloud für solche großen Server dermaßen teuer, das sich eine eigene Hardware schnell rechnet.

Stattdessen hat sich Runtastic für die Business Cloud von T-Systems entschieden. Gründe hierfür waren ein gutes Setup, ein hoher Qualitätsanspruch sowie zwei Rechenzentren an einem Standort (in zwei getrennten Gebäuden). Hinzu kommt ein hoher Sicherheitsstandard, ein professioneller technischer Service als auch die Kompetenz der Mitarbeiter und Ansprechpartner und eine sehr gute Anbindung an die Internetknoten in Wien und Frankfurt.

Dabei kombiniert Runtastic das Colocation Modell mit einem Cloud-Ansatz. Das bedeutet, dass Runtastic die Grundlast mit eigener Hardware abdeckt und Lastspitzen über Infrastructure-as-a-Service (IaaS) Rechenleistung von T-Systems abfängt. Das Management der Infrastruktur läuft automatisiert mittels Chef. Der Großteil der Infrastruktur ist zwar virtualisiert. Allerdings fährt Runtastic einen hybriden Ansatz. Das bedeutet, dass die Kerndatenbank, der Storage und der NoSQL Cluster auf Bare Metal (nicht virtualisiert) betrieben werden. Auf Grund der globalen Reichweite (90 T-Systems Rechenzentren weltweit) kann Runtastic auch in Zukunft sicherstellen, dass alle Apps nahtlos und überall funktionieren.

Eine etwas unkonventionelle Entscheidung ist der Drei-Jahresvertrag, den Runtastic mit T-Systems eingegangen ist. Dazu gehören das Housing der zentralen Infrastruktur, ein redundanter Internetzugang sowie der Bezug von Rechenleistung und Speicherplatz aus der T-Systems Cloud. Runtastic hat sich für dieses Modell entschieden, da sie die Partnerschaft mit T-Systems langfristig sehen und nicht von heute auf morgen die Infrastruktur verlassen wollen.

Ein weiterer wichtiger Grund für eine Business Cloud war der direkte Draht zu Ansprechpartnern und Professional Services. Das spiegelt sich zwar auch in einem höheren Preis wieder, den Runtastic jedoch bewusst in Kauf nimmt.

Es geht auch ohne Public Cloud

Runtastic ist das beste Beispiel dafür, dass junge Unternehmen auch ohne eine Public Cloud erfolgreich sein können und eine Business Cloud definitiv eine Option ist. Zwar setzt Runtastic nicht vollständig auf eine Cloud-Infrastruktur. Jedoch muss in jedem Einzelfall der Business Case gerechnet werden, ob es sich (technisch) lohnt, Teile in eine eigene Infrastruktur zu investieren und die Lastspitzen per Cloud-Infrastruktur abzufangen.

Man sieht an diesem Beispiel allerdings auch, dass die Public Cloud kein Selbstgänger für die Anbieter ist und Beratung und Professional Services aus einer Business bzw. Managed Cloud gefragt sind.

Während der Keynote auf der AWS re:Invent 2013 präsentierte Amazon AWS seinen Vorzeigekunden Netflix und dessen Netflix Cloud Plattform (siehe Video, ab 11 Minuten), die speziell für die Amazon Cloud Infrastruktur entwickelt wurde. Amazon verkauft die Netflix Tools selbstverständlich als einen positiven Aspekt, was sie definitiv sind. Allerdings verschweigt Amazon den Aufwand, den Netflix betreibt, um die Amazon Web Services zu nutzen.

Netflix zeigt sehr eindrucksvoll wie eine Public Cloud Infrastruktur via Self-Service genutzt wird. Wenn man jedoch bedenkt, was für einen Aufwand Netflix betreibt, um in der Cloud erfolgreich zu sein, muss man einfach sagen, dass Cloud Computing nicht einfach ist und eine Cloud Infrastruktur, egal bei welchem Anbieter, mit der entsprechenden Architektur aufgebaut werden muss. Das bedeutet im Umkehrschluss, dass die Nutzung der Cloud nicht immer zu den versprochenen Kostenvorteilen führt. Neben den Einsparungen der Infrastrukturkosten die immer vorgerechnet werden, dürfen niemals die weiteren Kosten z.B. für das Personal mit den notwendigen Kenntnissen und die Kosten für die Entwicklung der skalierbaren und ausfallsicheren Applikation in der Cloud vernachlässigt werden.

In diesem Zusammenhang sollte auch der übermäßige Einsatz von infrastrukturnahen Services überdacht werden. Auch wenn diese das Entwicklerleben vereinfachen. Als Unternehmen sollte man sich vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden, um sich alle Türen offen zu halten. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.

Categories
Comment

Disruptive world of IT: New technologies constantly change enterprises status quo. #tsy13

At first, Zero Distance sounds like one of these new marketing phrases, with which vendors try to tell us how to make the world a better place. Well, it is one of these marketing phrases. But one in which can be found a lot of truth. Looking at the use cases that were shown at the T-Systems Symposium 2013 and further from all over the world, it is clear what potentials modern information technologies are offering. Here cloud and cloud computing are just a means to the end and serve as an enabler for new business models and help to change our world.

Who does not change dies out!

A fact, traditional companies are doomed, if they do not try to change. To hug the old assets is not the best strategy – especially in the age of digital business. Startups seem to appear from nowhere and overrun the market leaders in its areas, which do not have any chance to react at the same pace. It is the advantage of the greenfield startups using and do not have to deal with nuisance inherited liability of IT and further areas. But there are also companies who are successful on the market for quite a long time and understand the signs of the times. New technologies and concepts always have some influence on the business. Some companies have understood to reinvent themselves and profitable use cloud computing, big data, mobile and collaboration for their own purposes to change. Others, however, cannot or will not understand it and prefer to remain faithful to their status quo.

Hey farmer, where is the bull?

It is frequently surprising in what kind of industries information technology has a massive impact and thus leading to more efficiency. Let’s take for example agriculture. More concrete, the mating behavior of cows. This is important, because a cow just can give milk when she freshened. For the farmer it is therefore very important, that everything works frictionless.

The solution: Is a cow in heat, she is doing some typical head movements. Therefore the cow wears a collar including a mobile communications chip. The farmer gets the needed information to make the bull ready. Even for the freshen the solution helps. Here the tool transmits the values of a thermometer with an integrated SIM card. About 48 hours before the birth the body temperature of the cow changes. Two hours before the birth the farmer gets a SMS to be on site in time.

IT departments need to act more proactively

IT departments are and have always been the scapegoats in the company. Justifiably? Well, some yes, others not. But, is the IT department responsible on its own for the transformation of the business? Yes and no. Primarily, the management is responsible for the alignment of the corporate strategy. They have to say which way the company should go, finally they have the vision. But, the big question is the way the IT department behaves in this context. Is it just the supportive force that responds as necessary to the needs of the management and colleagues, or rather acting proactively?

Offense is the best defense. Today, IT departments should be really close to the technical and innovative pulse and be informed about the changes in the market. Based on a permanent internal or external market and trend research they need to know what to expect for themselves and possibly for the business site and respond as quick as possible and proactively, not to lose too much time, and in the best case to create a competitive advantage. Depending on the trend, they do not need to jump on every bandwagon, but they should at least deal with it and understand the influence, and whether they or their company are affected. If they see potential for new business models, they should carry these into the management, which also needs to understand that IT today is an enabler and not just maintenance. This means that the IT department in the company today has a much larger role as it had ten years ago.

To that end, the management needs to give the IT department a hand and rid the IT department of their routine tasks. About 80 percent of IT spending’s today are invested in IT operations, only to keep things running. These are investments in the status quo and do not lead to innovation. By contrast, only 20 percent of expenditures are invested in improvements or further developments. This ratio must twist, and the management together with the CIO have the task to make this change, so that a company remains innovative and competitive in the future.

Stop hugging the status quo.

Categories
Kommentar

Disruptive Welt der IT: Neue Technologien verändern ständig den Status quo der Unternehmen #tsy13

Zero Distance klingt im ersten Moment wie eine dieser neumodischen Marketingphrasen, mit denen uns Anbieter tagtäglich erzählen, wie sie die Welt verbessern wollen. Nun, es handelt sich dabei auch um genau eine von diesen Marketingphrasen. Aber eine, in der viel Wahrheit steckt. Betrachtet man die Use Cases, die auf dem T-Systems Symposium 2013 gezeigt wurden und viele weitere weltweit, dann wird deutlich, was für Potentiale uns die moderne Informationstechnologie ermöglicht. Die Cloud bzw. Cloud Computing sind dabei nur ein Mittel zum Zweck und dienen als Enabler für neue Geschäftsmodelle und helfen bei der Veränderung unserer Welt.

Wer nicht handelt der stirbt aus!

Fakt ist, dass traditionelle Unternehmen dem Untergang geweiht sind, wenn sie sich nicht verändern. An alten Werten festzuhalten ist nicht immer die beste Strategie – insbesondere im Zeitalter des Digital Business. Startups tauchen wie aus dem nichts auf und überrennen Marktführer in ihrem Bereich, die gar keine Chance haben so schnell zu reagieren. Es ist der Vorteil der grünen Wiese, den die Startups ausnutzen und sich nicht mit lästigen Altlasten in der IT und anderweitigen Bereichen auseinandersetzen müssen. Aber es gibt auch die Unternehmen, die schon eine geraume Zeit erfolgreich auf dem Markt verweilen und die Zeichen der Zeit erkannt haben. Neue Technologien und Konzepte haben immer irgendeinen Einfluss auf das Business. Einige Unternehmen haben es verstanden sich neu zu erfinden und Cloud Computing, Big Data, Mobile und Collaboration gewinnbringend für die eigene Zwecke zu nutzen, um sich dadurch zu verändern. Andere hingegen können oder wollen es nicht verstehen und bleiben lieber ihrem Status quo treu.

Hey Bauer, wo bleibt der Bulle?

Es ist immer wieder erstaunlich in welchen Bereichen der Industrie die Informationstechnologie einen massiven Einfluss nimmt und dabei für mehr Effizienz sorgt. Nehmen wir das Beispiel der Landwirtschaft. Konkreter das Paarungsverhalten der Kühe. Das ist wichtig, denn eine Kuh gibt nur dann Milch, wenn sie gekalbt hat. Es ist für den Bauer daher von besonderem Interesse, das hier alles reibungslos abläuft.

Die Lösung: Ist eine Kuh brünstig, macht sie währenddessen typische Kopfbewegungen. Daher bekommt jede Kuh ein Halsband inkl. einem Mobilfunkchip. Der Bauer erhält darüber die Information, dass er den Bullen startklar machen kann. Auch beim Kalben hilft die Lösung. Dazu überträgt das Tool die Werte eines Thermometers mit integrierter SIM Karte. Etwa 48 Stunden vor der Geburt verändert sich die Körpertemperatur der Kuh. Der Bauer erhält zwei Stunden vor der Geburt eine SMS, um rechtzeitig vor Ort zu sein.

IT-Abteilungen müssen proaktiver werden

IT-Abteilungen sind und waren schon immer die Prügelknaben im Unternehmen. Zu recht? Nun, einige ja, andere wiederum nicht. Aber sind es die IT-Abteilungen alleine, die für die Transformation des Business zuständig sind? Jein. In erster Linie ist die Geschäftsführung für die Ausrichtung der Unternehmensstrategie verantwortlich. Sie muss sagen, welchen Weg das Unternehmen gehen soll, schließlich hat sie die Visionen. Das große Aber besteht allerdings in der Art wie die IT-Abteilung sich in diesem Kontext verhält. Ist sie einfach nur die unterstützende Kraft, die je nach Bedarf auf die Wünsche der Geschäftsführung und der Kollegen reagiert oder agiert sie lieber proaktiv?

Angriff ist die beste Verteidigung. IT-Abteilungen sollten heute am technischen und innovativen Puls der Zeit sitzen und über die Veränderungen im Markt informiert sein. Über eine ständige interne oder externe Markt- und Trendforschung müssen sie wissen, was auf sie und ggf. auf ihr Unternehmen zukommt und darauf schnellstmöglich und proaktiv reagieren, um nicht zu viel Zeit zu verlieren und im besten Fall einen Wettbewerbsvorteil zu schaffen. Je nach Trend müssen sie nicht auf jeden Zug aufspringen, aber sie sollten sich damit zumindest auseinandersetzen und verstanden haben, welcher Einfluss dadurch entsteht und ob sie oder ihr Unternehmen davon betroffen sind. Wenn sie Potential für neue Geschäftsmodelle erkennen, sollten sie diese in die Geschäftsführung tragen, die auch verstehen muss, dass IT heute Enabler und nicht nur Instandhalter ist. Das bedeutet, dass die IT-Abteilung im Unternehmen heute einen viel größeren Stellenwert hat als noch vor zehn Jahren.

Hierzu muss die Geschäftsführung der IT-Abteilung jedoch unter die Arme greifen und die IT-Abteilung von ihren Routineaufgaben befreien. In etwa 80 Prozent der IT-Ausgaben werden heute in den IT-Betrieb investiert und das nur, um die Dinge am Laufen zu erhalten. Es handelt sich also um Investitionen in den Status quo, die zu keinen Innovationen führen. Hingegen werden lediglich nur 20 Prozent der Ausgaben in Verbesserungen oder Weiterentwicklungen investiert. Dieses Verhältnis muss sich drehen, und die Geschäftsführung zusammen mit dem CIO haben die Aufgabe, diesen Wandel vorzunehmen, damit ein Unternehmen auch in Zukunft innovativ und wettbewerbsfähig bleibt.

Hören Sie auf den Status quo zu umarmen.

Categories
Analysis

Airbus separates the traveler from the luggage #tsy13

During the T-Systems Symposium 2013, Airbus has introduced Bag2Go an intelligent suitcase which can travel completely independently and transported to the destination without the owner. Travelers Airbus want to allow more flexibility and mobility by arriving the target free of luggage by plane, ship, train, car, bike or by foot. The Bag2Go service relies on the business cloud infrastructure of T-Systems.

Background of Bag2Go

A Bag2Go is self-weighing, self-labeling, self-travelling, self-tracing and has features of a continuous tracking. In addition, according to Airbus, it consistently adhere with all common standards today, so that the current infrastructure at airports must not be changed. Using a smartphone app the status and whereabouts can constantly be monitored.

Airbus plans to cooperate with different transport services (eg DHL). So, for example, the traveler can fly by plane to the destination, but his baggage arrive by land, ship or another aircraft to the target. Package services or door-to-door luggage transportation services to provide transportation of luggage to any destination in inland or abroad in a hotel or cruise booking.

A follow-up is generally convenient, but makes only sense if one can also intervene in the action. For this purpose, Airbus relies on a GPS tracking in conjunction with a transport service provider, such as transportation / logistics or the airline.

Motivation of Airbus

Airbus has obviously developed the concept Bag2Go not without self-interest. The point is to make the first steps for the aircraft of the future. This means that Airbus is building sustainable and ultra-light aircrafts, for which is as little weight as possible required. At the same time, fuel consumption is significantly decreasing. To remove the heavy luggage from the plane is the key component. The separation of passenger and baggage streams to enable Airbus and the entire industry to control the carriage of baggage proactively and open up completely new business opportunities.

According to Airbus, the containerization of luggage is continuously gaining in importance as more and more people will take a door-to-door transport in and claim their baggage up to three days prior to departure or use a baggage kiosk. For this reason, Airbus will try to establish fully networked transport capsules as a standard.

Interesting approach – but not for everyone

Airbus faces with his concept less technical but more legal problems. Means a traveler and his luggage need to fly together. A suitcase can fly afterwards the passenger, but not ahead. In addition, business executives challenged the three days in advance luggage check-in during the presentation, because they pack their suitcase itself up to one hour before the flight. A few more conversations after the presentation confirmed the general opinion and attitudes of business travelers on the subject.
​​
Nevertheless, Bag2Go is an interesting concept we will see soon in reality. At the same time it is a great use case for the Internet of Things. Bag2Go forms an analogous to the architecture of the Internet routing, where a single IP packet, normally associated with a complete data stream, can also take different paths to the goal.

Categories
Analysis

The fully interconnected world becomes reality #tsy13

Companies are constantly exposed to shorter cycles of change in their everyday lives. The consumerization of IT is a great driver that will retain an important role in the future. For several years mobility, cloud, new applications, the Internet of Things and Big Data (analysis) show their effects. Besides these technological influences there is also the business impact, such as new business models, constant growth, globalization, and at the same time issues of security and compliance that lead to new challenges.

The evolution of the Internet leaves its marks

Looking at the evolution of the Internet, it is clear that the impact on companies and our society grow with the growth of smart connections. Started with simple connections via e-mail or web and therefore the digitization of information access, followed by the networked economy, in which it came with e-commerce and collaboration to digitize business processes. This was followed by something Cisco called as “realistic experiences”. This includes the digitization of business and social interactions such as social media, mobile and cloud. The next state we will achieve is the “Internet of Everything”, where people, processes, data and things are connected – the digitization of the world.

Each block has its own importance in the Internet of Everything. The connections between people become more relevant and valuable. The right person or machine receives the right information about intelligent processes at the right time. The data are processed into valuable information for decision making. Physical devices (things) are connected via the Internet with each other to enable intelligent decisions.

At the T-Systems Symposium 2013 in Dusseldorf, Cisco said, that they expect about 50 billion Smart Objects in 2020 that are connected to each other. On the contrary, there are just 7.6 billion people expected worldwide. Furthermore, Cisco is of the opinion that currently 99 percent of the world is not interconnected and that we will see trillions of smart sensor in the future. These are installed e.g. in intelligent buildings, cities or houses and help to save energy and to live more efficiently. But they will also lead to increase productivity or improve healthcare.

Technological foundations for the fully interconnected world

Due to its massive scalability, distribution, new applications and the possibilities for anywhere access, the cloud is one of the main bases for the fully interconnected world. Therefore, Cisco’s cloud strategy is to enable cloud providers and enterprises to deploy and broker different kinds of cloud services. At the same time Cisco application platforms should be provided for different of cloud categories.

However, the cloud needs to be enriched by approaches from the Internet of Things. These include intelligent business processes, people to machine-2-machine communication as well as other things such as sensors and actuators which are distributed everywhere. In the end, a worldwide highly scalable infrastructure is necessary that can control temporal variations and requirements between the different workloads.

Another key component is therefore something that Cisco called Fog Computing. The fog hast he task to deliver data and workloads closer to the user who is located at the edge of a data connection. In this context it is also spoken about „edge computing“. The fog is organizationally located below the cloud and serves as an optimized transfer medium for services and data within the cloud. The term „fog computing“ was characterized by Cisco as a new paradigm , which should support distributed devices during the wireless data transfer within the Internet of Things. Conceptual fog computing builds upon existing and common technologies like Content Delivery Networks (CDN), but based on cloud technologies it should ensure the delivery of more complex services.

As more and more data must be delivered to an ever-growing number of users, concepts are necessary which enhance the idea of the cloud and empower companies and vendors to provide their content over a widely spread platform to the enduser. Fog computing should help to transport the distributed data closer to the enduser and thus decrease latency and the number of required hops and therefore better support mobile computing and streaming services. Besides the Internet of Things, the rising demand of users to access data at any time, from any place and with any device, is another reason why the idea of fog computing will become increasingly important.

So, the essential characteristic of Fog Computing is that workloads can autonomously operate from the cloud to ensure the rapid, timely and stable access of a service.

The interconnected world needs intelligent technologies

To use the cloud as the fundamental basis for the Internet of Things and the Internet of Everything, some hurdles still need to convey out of the way.

The current cloud deployment model set aside that the data are normally delivered directly and without an intermediate layer to the device or the end user. (Remark: There already exist CDN and edge locations, which thus provide caching and acceleration.) It is therefore assumed that the bandwidth for transmission of the data is maximum, and theoretically there is a delay of zero. However, this is only theoretically. In practice, high latencies and thus delays, poor elasticity and compared to the bandwidth significantly faster increasing amounts of data, lead to problems.

For this reason, approaches such as fog computing are required to be able to assume that a limited bandwidth, different delay times and dropped connections are available yet. Ideas such as the fog establish themselves as an intelligent intermediate layer, cache or as a kind of amplifier and coordinate the requirements of different workloads, data and information so that they are delivered independently and efficiently to the objects in the Internet of Everything.