Categories
Kommentar

Ein deutscher Patriot Act schadet dem deutschen Cloud Computing Markt

Wie netzpolitik.org berichtet, arbeiten das deutsche Bundesfinanzministerium sowie das Bundesinnenministerium an der Überwachung von Daten in der Cloud. Ebenso arbeiten das Zollkriminalamt (ZKA) sowie das Bundesamt für Verfassungsschutz im Rahmen internationaler Arbeitsgruppen an Methoden, um Daten aus der Cloud abzuhören. Zusammen mit der Bundesnetzagentur gehören beide dazu dem „European Telecommunications Standards Institute“ (ETSI) an. Zwar sei das Bundeskriminalamt (BKA) nicht direkt mit involviert, sei aber in Kontakt mit dem ZKA und habe Einfluss auf Entwicklungen und Beschlüsse.

Das ETSI soll Datenschutz umgehen

Bereits im August hatte ich darüber geschrieben, dass sich das ETSI mit Technologien beschäftigt, um den Datenschutz trotz Mechanismen wie z.B. SSL auszuhebeln.

Das ETSI soll dazu “eine geheime Hintertür für die Cloud” entwickeln. Dabei soll es darum gehen, den Sicherheitsbehörden das Abhören und Überwachen von Kommunikationsdaten in der Cloud zu erleichtern. Das soll neben Angeboten wie Facebook, Twitter usw. ebenfalls Unternehmensangebote wie die Amazon Web Services, Microsoft Windows Azure und andere Anbieter betreffen. Dazu habe sich das ETSI eine Backdoor überlegt, um unkompliziert den unautorisierten Zugriff zu ermöglichen.

SSL wird ausgehebelt

Bei der ETSI Idee handelt es sich, wie sonst oft diskutiert, allerdings nicht um rechtliche Themen wie bspw. dem “Patriot Act”. Hier geht es um reine Technik. Das ETSI will eine Schnittstelle definieren, mit der europäische Sicherheitsbehörden Zugriff auf die Cloud Services der Anbieter erhalten. Die ETSI-Arbeitsgruppe “TC Lawful Interception” stellt sich die Umsetzung so vor, dass die Internet-Anbieter sämtlichen Verkehr standardmäßig umleiten. Nutzt ein Anwender eine verschlüsselte HTTPS-Verbindung (was mittlerweile Standard ist), soll der Datenverkehr auf spezielle Server in das Rechenzentrum des Internet-Anbieter umgeleitet werden. Hier sollen die Sicherheitsbehörden dann den Zugriff auf die Daten erhalten. Um das zu realisieren, müssen die entsprechenden SSL-Zertifikate ausgehebelt werden. Der ETSI geht es nach eigenen Angaben nur um die Erfassung der Datenkommunikation und nicht um die Kontrolle der Inhalte. Der britische Sicherheitsspezialisten und Leiter des Computer Laboratory der Universität Cambridge Ross Anderson hingegen schreibt nach einer Analyse des ETSI-Entwurfs allerdings: “Wenn man die Infrastruktur baut, auf die sich das ETSI geeinigt hat, kann diese für Überwachungsaktivitäten genutzt werden.”

Konsortium hilft beim Forschen zum Schnüffeln

Wie netzpolitik weiter schreibt, arbeiten die Deutsche Telekom und die 1&1 Internet AG zusammen unter der Firma „Strategie- und Forschungszentrum Telekommunikation“ (SFZ TK) an dem gemeinsamen Projekt mit dem Namen “CLOUD” an der Überwachung von Cloud-Diensten. Zwar geht es nur um die “Fragestellungen zu Cloud-Computing und dessen Implikationen auf die Telekommunikationsüberwachung“, aber was man zwischen den Zeilen lesen kann ist besorgniserregend:

“Die unter Umständen weltweite und nicht transparente Verteilung der Daten, Software, Betriebssysteme und Speicher sowie der in der Regel auf verschlüsselten Kommunikationsprotokollen basierende Zugang zu Cloud-Diensten erschwert einen Zugriff der Sicherheitsbehörden.”

Neben dem BKA und der Bundespolizei arbeitet ebenfalls das Bundesamt für Verfassungsschutz mit SFZ TK zusammen.

Deutschland verbaut sich selbst einen kleinen Wettbewerbsvorteil

Im Mai hatte ich im Verlauf der SecureCloud 2012 in Frankfurt noch die Gelegenheit mit mehreren Beratern zu sprechen. Die durchweg einstimmigen Aussagen waren, dass sich Cloud Angebote aus Deutschland mit dem Verkaufsargument des hohen Datenschutzniveau sehr gut verkaufen lassen.

Ein deutscher Patriot Act schadet dem deutschen Cloud Computing Markt

Einige Cloud Anbieter aus Deutschland werben u.a. mit solchen Geschichten wie “Made in Germany” und hohen Datenschutzanforderungen in unserem Land. So ganz unrecht haben sie damit natürlich nicht. Im Vergleich zu anderen Ländern ist der Zugriff auf Daten bei einem deutschen Anbieter so ohne weiteres nicht möglich.

Dieser Wettbewerbsvorteil – TRUST (wir erinnern uns an die CeBIT 2012) – wird, geht es nach der deutschen Bundesregierung, jedoch bald verschwinden. Es geht dann nicht mehr darum, wer den besseren Datenschutz bieten kann oder vertrauenswürdig ist, sondern einzig und allein darum wer die besten Services und die innovativsten Produkte hat. Unternehmen müssen in Zukunft zudem noch besser darauf achten, ihre Daten zu klassifizieren und entscheiden, was in die Cloud soll und was doch lieber on-Premise bleibt. Darüber hinaus wird diese Entwicklung Einfluss auf den Markt haben, da sich immer mehr Unternehmen für eine eigene Private Cloud entscheiden.

Willkommen Private Cloud

Das Vertrauen in die Public Cloud wird weiter sinken und Public Cloud Services – die für das Cloud Computing in Reinform stehen – werden demnach einen weiteren Dämpfer erhalten! Interessant ist, dass die Marktforscher von Gartner für 2012 ein großes Wachstum in der Public Cloud sehen. Zudem sollen die Ausgaben für Enterprise Public Cloud Services bis 2016 die 207 Milliarden US-Dollar erreichen.

Ziehen wir diese neue Entwicklung heran, wird Gartner seine Prognosen wohl herunterschrauben müssen. Die Bedenken von CIOs, Public Cloud Services zu nutzen, sind derzeit eh schon höher als gedacht. Der Hauptgrund sind die Befürchtungen vor Datenlecks in der Public Cloud. Deutsche Unternehmen werden die Gedanken der deutschen Regierung ebenfalls nicht gerne hören. Eine Umfrage von IDC ergab vor kurzem, das ein Drittel der befragten deutschen Unternehmen in 2013 zwischen 26% – 50% ihres IT-Budget in die Private Cloud investieren wollen. Allerdings interessieren sich 90% der Unternehmen nicht(!) für die Public Cloud.

Categories
Comment

Failures in the cloud are in the nature of man

If the cloud falls it has to do with the people who are responsible for it. How could it be otherwise. Finally, the systems do not program or configure on their own. And even if it means “No cloud without automation” you have to say “(No cloud without automation) without human skills”. In particular, we see our human weaknesses in the cloud when an outage occurs. Especially this year, we have seen a few of them.

People make mistakes

And that’s ok. As long as we are learning from those mistakes. What at one or the other vendors was not the case this year. I will not mention any names here, because those certainly know itself that they need to do something much better. But if an emergency generator does not work twice and also all emergency plans fail, something is wrong!
Although this failure, I am writing about, was not primarily a human error. Because against a hurricane and storm we are helpless. But the cascade of failures that happened during the storm is inexplicable.

Other errors that have happened this year, can be assigned directly to the people. On the one hand we had for example misconfigured network interfaces which ensure that the vendor networks were flooded with data and have therefore set themselves checkmate. Or a provider recently changes the configuration of the load balancer, which led to a prolonged outage.

Like I said, people make mistakes. And therefore one should not always blame “the big bad cloud”, but rather look behind the facade and keep in mind that there are just sitting humans like you and I.

Along these lines, let’s have a better 2013. 🙂

Categories
Kommentar

Ausfälle in der Cloud liegen in der Natur des Menschen

Wenn die Cloud fällt sind es wir Menschen, die dafür verantwortlich sind. Wie soll es auch anders sein. Schließlich programmieren und konfigurieren sich die Systeme nicht von alleine. Und auch wenn es heißt “No cloud without automation” muss man eigentlich sagen “(No cloud without automation) without human skills”. Insbesondere zeigen sich unsere menschlichen Schwächen in der Cloud dann, wenn es wieder mal zu einem Ausfall kommt. Vor allem in diesem Jahr haben wir ein paar davon gesehen.

Menschen machen Fehler

Und das ist ok. Solange aus diesen Fehlern auch gelernt wird. Was bei dem einen oder anderen Anbieter dieses Jahr nicht der Fall war. Ich will und werde hier keine Namen nennen, denn diejenigen Wissen bestimmt selbst, dass sie etwas deutlich besser machen müssen. Aber wenn ein Notstromaggregat innerhalb kürzester Zeit zweimal nicht funktioniert und ebenfalls sämtliche Notfallpläne scheitern, läuft etwas falsch!
Zwar war dieser Ausfall, von dem ich hier spreche, in erster Linie kein menschliches Versagen. Denn gegen einen Wirbelsturm und Gewitter sind wir machtlos. Aber die Kaskade von Fehlern die während des Unwetters passiert war, ist unerklärlich.

Andere Fehler die in diesem Jahr passiert sind, lassen sich dem Menschen direkt zuordnen. Zum einen waren da bspw. falsch konfigurierte Netzwerkschnittstellen die dafür gesorgt haben, dass die Netze der Anbieter mit Daten überflutet wurden und sich somit selbst Schachmatt gesetzt haben. Oder es wurden erst kürzlich bei einem Anbieter Änderungen an der Konfiguration der Load-Balancer vorgenommen, die zu einem längeren Ausfall führten.

Wie gesagt, Menschen machen Fehler. Und daher sollte man nicht immer “der großen bösen Cloud” die Schuld geben, sondern hinter die Fassade schauen und bedenken, dass dort auch nur Menschen wie Du und ich sitzen.

In diesem Sinne, auf in ein besseres 2013. 🙂

Categories
Management @en

Amazon improves EC2 with automatic failover and details their billing reports

Amazon improves one of their biggest “weak points” and with that comes towards their customers. It’s about the failover for individual EC2 instances. Typically, a customer must take care themselves to ensure that a new EC2 instance boots up, when a running fails. Amazon has now optimized its infrastructure and introduces automatic failover for EC2 instances. Furthermore there are more detailed information on the bills.

Automatic failover for Amazon EC2

As an Amazon customer it is not easy to build your own infrastructure in the AWS cloud. For the promised high availability in public cloud computing it is necessary that the customer ensures that for themselves, which many users have not been implemented.

Amazon comes towards their customers now and extends its Auto Scaling function with the Amazon EC2 status checks. That means, when an instance in an Auto Scaling group becomes unreachable and fails a status check, it will be replaced automatically.

As Amazon writes, it is not necessary to take any action to begin using EC2 status checks in Auto Scaling groups. Auto Scaling already incorporates these checks as part of the periodic health checks it already performs.

More details within the invoices

Furthermore new detailed billing reports give access to new reports which include hourly line items of the Amazon infrastructure.

Categories
Management @de

Amazon erweitert EC2 mit automatischem Failover und liefert detaillierte Rechnungen

Amazon hat einen seiner größten “Schwachpunkte” ausgebessert und kommt seinen Kunden damit weit entgegen. Es geht um die Ausfallsicherung einzelner EC2 Instanzen. Normalerweise muss sich ein Kunde selbst darum kümmern und dafür sorgen, dass eine neue EC2 Instanz hochfährt, wenn eine laufende ausfällt. Amazon hat nun seine Infrastruktur optimiert und führt das automatische Failover von EC2 Instanzen ein. Zudem gibt es nun detaillierte Informationen in den Rechnungen.

Automatischer Failover für Amazon EC2

Als Amazon Kunde hat man es nicht leicht, wenn man seine Infrastruktur in der AWS Cloud aufbauen will. Für die vom Public Cloud Computing versprochene Hochverfügbarkeit muss man als Kunde nämlich selbst sorgen, was viele Nutzer nicht umgesetzt haben.

Amazon kommt den Kunden nun ein Stück entgegen und erweitert seine Auto Scaling Funktion mit den Amazon EC2 Status Checks. Das bedeutet, wenn eine Instanz innerhalb einer Auto Scaling Gruppe nicht mehr verfügbar ist und den status check nicht besteht, wird diese Instanz automatisch durch eine neue Instanz ersetzt.

Wie Amazon schreibt, ist es nicht notwendig dafür selbst aktiv zu werden, da die EC2 Status Checks automatisch in die Auto Scaling Gruppen integriert wurden.

Mehr Details innerhalb der Rechnungen

Darüber hinaus geben neue Abrechnungen nun mehr Informationen über die stündliche Nutzung der Amazon Infrastruktur.

Categories
Analysis

Cloud Computing: It is about agility and flexibility and secondarily about the costs

The German Computerwoche discussed in their article “How much is the Cloud” the costs of cloud computing. In this case, the piece focuses on the topic of software-as-a-Service (SaaS) and does not consider the bandwidth of the cloud area. The general result of the article is, driving an on-premise solution for five years is cheaper than using cloud services in the same period. This conclusion is of course not surprising. Investing vigorously once and use my purchased resources over a very long period without renewing them I’m going definitely cheaper than using a SaaS model, where I pay monthly or annual contributions. But what is not noted, I always hang behind the current trends and above all never use the latest software versions. Because cloud computing is secondary about cost and primarily about the agility and flexibility a company wins with it.

Cloud Computing is necessarily not cheaper

The article includes some analysts statement e.g. from Gartner as well. Their conclusion is, that SaaS “… can be cheaper over the first five years of on-premise operations.” Therefore, a long-term view and comparison of on-premise and cloud computing is recommended. This indicates that after a few years the break even is reached and then the on-premise solutions have significant cost advantages. Nicholas Krasser, Board member of Pentos AG, says: “The license costs in SaaS mode are from the sixth or seventh year definitely higher than the amortized cost of the on-premise licenses and servers and the ongoing operation.”

Mr. Krasser’s statement of course is right. As I mentioned above, it is a very simple calculation. If I initially invest a large sum in software licenses and let my employees working over six to seven years with outdated software versions, of course, I save in the long term. The situation is similar with hardware. But am I able to make my employees happy and productive with that strategy?

With a SaaS solution you invest on a monthly or yearly basis in the required software and of course at the same time you pay for innovation, updates, security fixes, new releases etc. That should not be forgotten. In addition, I get more flexibility to introduce a new SaaS solution quickly, without long-term investment in licenses.

Cloud computing makes the IT infrastructure more flexible

The foundation of cloud computing is the consolidation of hardware resources based on virtualization. This allows companies to reduce up to 40 percent of their total costs in the own data center. Singularly, 25 to 30 percent of these savings fall to the lower power consumption and investment for cooling systems. This allows the target of a “Green IT” pursue as well. Traditional data centers had to be construed strongly over dimensioned to provide sufficient IT resources even during peak periods. Throughout the year but only 20 percent of this capacity is needed. The remaining 80 percent are unproductive.

Because of virtualization, the design of a data center is no longer sent to the maximum need of the anticipated demand. With the scalability of cloud computing, the resources are automated and flexible provided to the relevant business areas. Following the resources are shut down again. This operational efficiency leads to 30 percent cost savings.

In short, cloud computing can maximize the economies of scale and improve resource utilization of the entire IT infrastructure.

Cloud computing improves the agility of the entire company

Cloud Computing optimizes all technology processes and improves efficiency. It also reduces access to resources and increases the ability to innovate. Employees can access to information and applications more quickly, enabling them to analyze information summarily and immediately make decisions. A location-independent access to the data can also increase the productivity of each employee.

Cloud computing also ensures an optimized operation of the IT infrastructure, making it possible to compensate for peak times convenient and timely manner. Unexpected successful advertising campaigns, monthly and annual or seasonal influences may therefore be addressed without long term investments in costly hardware resources. The scalability of the cloud automatically (after manual configuration) adjusts the needed resources and provides them. This can be computing power, storage or applications.

It’s the same with the ability to innovate the enterprise. Any new initiative requires resources. Personnel as well as the supporting IT in the background. The cloud reduces the evaluation of new ideas and the time-to-market by the necessary IT resources are available on-demand.

Furthermore cloud computing promotes a better collaboration between employees and optimize the coordination with customers and partners. Within the company the cloud ensures a close integration of the employees as well as the processes and systems. This provides a more efficient collaboration. In the external communications with customers and partners the cloud is a platform that allows a seamless interaction.

Innovations must come to the foreground

IT is traditionally regarded as the drag of any business and it seems that this will not change in the era of cloud computing. A cost analysis is important and everyone who does it not makes a mistake. However, with cost-cutting you will not get a competitive advantage. To innovate you have to invest. Companies like Amazon (Amazon Web Services, Amazon Kindle) or Google have shown that impressively. With cloud computing the doors are open to any company also to increase the level of innovation and improve agility. And even the communication between employees, partners and customers can be optimized. Preferably startups and young companies that have built their business models based on the cloud and would not exist without these scalable infrastructures show how this works.

Categories
News

Savvis präsentiert seinen Symphony Cloud Storage

Bereits am 4. Dezember hatte Savvis den limitierten Launch seines Savvis Symphony Cloud Storage bekanntgegeben. Anhand einer weltweiten Anbindung, unbegrenzten Kapazitäten sowie höchster Zuverlässigkeit und Sicherheit soll die neue Lösung die Anforderungen von Unternehmen erfüllen.

Kostenloser Datentransfer für Savvis Kunden

Während jedes Unternehmen über das Internet auf den Symphony Cloud Storage zugreifen kann, fallen für bestehende Kunden, die das private Netzwerk von CenturyLink (Mutterunternehmen von Savvis) nutzen, keine Gebühren für die Datenübertragung beim Herunterladen von Daten an. Für Savvis Kunden, die eine Hosting- oder Colocation-Lösung in einem Rechenzentrum, in dem Cloud Storage angeboten wird, verwenden, ist der Datentransfer zwischen Cloud Storage und Infrastruktur nicht mit Kosten verbunden.

Die wichtigsten Funktionen im Überblick

  • Replikationen ermöglichen es Unternehmen, den Speicherort ihrer Daten flexibel zu bestimmen. Durch ein globales Namespace-Modell können Kunden die gesamten Daten analysieren, auch wenn einzelne Teilstücke an verschiedenen Standorten liegen.
  • Aufgrund der globalen Reichweite und den weltweiten Rechenzentren von Savvis ist der Zugriff von überall und jedem Gerät möglich – einschließlich mobiler Geräte wie Laptops, Tablets und Smartphones.
  • Unbegrenzte und kostengünstige Speicherlösung ohne vertragliche Bindungen hinsichtlich Laufzeiten oder Kapazitäten – es wird ausschließlich nach dem tatsächlichen Verbrauch abgerechnet.
  • Hohe Skalierbarkeit, die es Anwendern ermöglicht, ohne die Einschränkungen einer normalen Speicher-Infrastruktur, flexibel größer oder kleiner zu skalieren.
  • Abrechnung nach dem Pay as you go Modell.
  • Sicherheit durch Vertragsstrafen bei Verletzung der Service-Levels und 24/7 Support.

Aufgebaut auf der EMC Atmos Plattform und kompatibel zum EMC Atmos API-Framework ermöglicht der Symphony Cloud Storage den Anwendern, Lösungen von Anbietern, die bereits EMC-Technologien nutzen, zu integrieren.

Symphony Cloud Storage Partnerprogramm

Zusammen mit der eingeschränkten kommerziellen Nutzung des Symphony Cloud Storage führt Savvis das Symphony Cloud Storage Partnerprogramm ein, zu dem Lösungen von Anbietern wie Riverbed, zur Modernisierung von Datensicherung und Archivierung, gehören. Die Oxygen Cloud ermöglicht Unternehmen den intelligenten Dateizugriff auf mobile Geräte und Panzura bietet Storage-Konsolidierung für globale Netzwerkspeichersysteme (NAS) zur Archivierung und der Erstellung von Backups.

Der weltweit zugängliche Savvis Cloud Storage wird zunächst in Rechenzentren in London, Singapur, Toronto, Washington, D.C., und Santa Clara, Kalifornien, gehostet. Der Symphony Cloud Storage ergänzt das auf VMware basierende Portfolio der Savvis Symphony Enterprise Cloud Solutions.

Start in 2013

Symphony Cloud Storage ist derzeit für eine begrenzte Anzahl von Savvis Kunden verfügbar, die volle kommerzielle Verfügbarkeit ist für Anfang 2013 geplant.

Categories
Analysis

Cloud Computing is the backbone of the mobile world

The market of mobile devices and solutions is growing constantly. Recently the German BITKOM predicts a thriving tablet boom. Accordingly, more than 3.2 million units are sold in 2012. This is an increase of 52 percent. Sales are expected to rise to 1.6 billion euros. And also the trend towards mobile office and collaboration solutions has strengthened obviously.

The cloud is the backbone of mobile solutions

On a closer view it is clear that cloud computing is a guarantee of success for the mobile technology market and offers. The cloud allows providers such as Google (Google Play), Amazon (Kindle Android AppStore) and Microsoft (Windows Store) to deliver their customers the (for them actually-bringing added value) content such as books, music, apps, etc. anywhere and across devices. Unlike Apple, Google and Amazon have the strategy achieving its revenue mostly with content in particular and sell the needed devices at cost price. Also suppliers such as Samsung and LG recognized it and (plan to) have their own cloud offerings, to provide their customers with content or want to animate to store data and therefore want to lock them in.
But not only provider of mobile marketplaces use the cloud for their purposes. Even developers of mobile applications store their data more and more in the cloud instead locally.

Hybrid is the right strategic path

Wireless data connections continuing to develop rapidly but there are obviously still a lot of holes in the mobile (broadband) coverage. It is less about the inner cities, but the rural areas. Here are just still unstable or substandard connections (EDGE) available. And also the long-awaited high-speed standard LTE (Long Term Evolution) is not able meet the expectations or is overpriced for the masses.

Another point is reliability and trust while the mobile work. Ist the data respectively are the changes actually stored successfully or do I experience a surprise in the office? Especially when working in a moving train, it is strongly unadvisable working with pure cloud-based solutions.

Developers of mobile productivity solutions should therefore focus on a hybrid approach. The main work should take place on the mobile device. Any changes/ selected data is then in the event of a data connection synchronized in the background automatically (remember status messages). The ability to switch to an online or a cloud mode would be an option, for example to enable the real-time collaboration with colleagues.

No cloud, no fun.

Besides the development of mobile devices and operating systems such as Android, iOS and Windows Phone, the mobile market would not develop the way it is happening now without cloud computing. One the one hand the increase of powerful devices and more comfortable operating systems and apps are responsible for this progress. However, we should not forget that it is the cloud which created the possibilities for a seamless and device-independent access and synchronization of content.

Categories
News

Hitachi und Infosys starten Initiative für Private Clouds

Hitachi Data Systems (HDS) und Infosys unterstützen Unternehmen künftig gemeinsam bei der Einführung von Private Clouds für geschäftskritische Anwendungen. Als technologische Basis wird hierbei insbesondere die vorvalidierte Hitachi Unified Computer Plattform (UCP) Select für Microsoft Exchange Server 2012 dienen, die Server, Storage und Netzwerkkomponenten enthält. Anwender können die konvergente Infrastruktur auch für den Einsatz mit Microsoft-SharePoint-Anwendungen nutzen. HDS und Infosys werden hierzu gemeinsam Architekturen entwickeln und technische Trainings sowie Zertifizierungsprogramme anbieten.

Konvergente Infrastruktur mit 99,999 Prozent Verfügbarkeit

Die jüngst vorgestellten konvergenten Infrastrukturen von HDS bieten Anwendern die notwendige Leistungsfähigkeit und Skalierbarkeit für den Einsatz in privaten Cloud-Umgebungen. Die Verfügbarkeit von Anwendungen und Services liegt bei 99,999 Prozent. Durch die gemeinsame Nutzung der UCP können Infosys und HDS Vor-Ort-Cloud-Lösungen und Rechenzentrums-Hosting für Dritte bei extremer Skalierbarkeit anbieten: Bis zu 96.000 Mailboxen lassen sich – unterstützt durch Mailbox Availability Group (DAG) – hochverfügbar erstellen und betreiben. Außerdem sind ein N+1 Server Failover sowie RAID-Schutz auf Enterprise-Level möglich.

Im Zuge der weltweiten Partnerschaft unterstützt HDS auch das Infosys Cloud Ecosystem Hub, das im August 2012 vorgestellt wurde. Der Hub bietet umfangreiche Lösungen, mit deren Hilfe Unternehmen Cloud-Services über verschiedene Umgebungen hinweg erstellen, einführen und betreiben können.

Kernpunkte der Partnerschaft von HDS und Infosys

Beide Unternehmen arbeiten seit über zehn Jahren zusammen. Die jetzt erweiterte Kooperation enthält:

  • Solution Development: Gemeinsames Entwerfen von konvergenten Infrastrukturen für den Einsatz in Cloud-Umgebungen, unter anderem für Microsoft Lync, Exchange und SharePoint sowie Cisco UCS-Migrationen. Hitachi Data Systems und Infosys planen den Ausbau des Angebots an konvergenten Infrastrukturen, um künftig auch Big Data und Content Management abbilden zu können.
  • Schulungen und Zertifizierungsprogramme: Neue Schulungen und technologische Zertifizierungsprogramme für HDS-Speichertechnologie.
  • Gemeinsame Sales-Ansätze: Enterprise-Anwender auf breiter Front mit führenden Storage- und IT-Lösungen versorgen durch gemeinsame Sales- und Marketing-Programme.
Categories
Analysen

Windows 8 ist ein "Übergangsmodell"

Ich habe Windows 8 nun seit ein paar Tagen im echten produktiven Einsatz. Mir gefällt das neue Betriebssystem sehr gut, auch wenn die Mischung aus “Kachel-Umgebung” und dem bekannten Windows Desktop “etwas Anderes” ist. Wobei ich sagen muss, dass ich insbesondere mit der Kachel-Oberfläche sehr gerne arbeiten “würde”! Würde genau deswegen, da ich mich ca. 99% meiner Zeit auf der klassischen Desktop Oberfläche befinde. Und das aus dem Grund, weil alle Anwendungen die ich nutze zwar über die Kacheln gestartet werden, aber dann automatisch auf den Desktop wechseln.

Hauptarbeitsbereich: Browser

Hauptsächlich arbeite ich im Browser. Und auch diese öffnen automatisch den Windows Desktop, selbst der Internet Explorer. Selbstkritisch wie ich bin, muss ich eingestehen, dass ich den Windows Store noch nicht nach möglichen Kandidaten durchforstet habe. Dort gibt es bestimmt den einen oder anderen Schatz zu finden, der mir weiterhelfen kann.

Die Nutzung ist eine Gratwanderung

Die Nutzung von Windows 8 ist dennoch eine Gratwanderung. Auf einem Tablet sind die Kacheln und die Bedienung sehr gut umgesetzt. Das konnte ich bereits ausführlich testen. Mit einer Maus kommt dabei nicht so das Feeling auf. Auf der anderen Seite benötigt man, nicht nur für die alten Anwendungen, noch den klassischen Desktop. Hier kommt man mit den Fingern auf einem Tablet aber nicht weit. Es sei denn man hat Finger wie ein Buchfinkenweibchen. Hier ist eine Maus angebracht.

Aber grundsätzlich kann ich Windows 8 nur empfehlen.

Windows 8 kann nur ein “Übergangsmodell” sein

Windows 8 ist bzw. kann “nur” ein Übergangsmodell sein. Das ist nicht so negativ gemeint wie es klingen mag. Aber Microsoft musste nun einmal einen Weg finden um den Nutzern und Entwicklern ein hybrides Modell zu liefern. Mit der kommenden Version – Windows 9 oder vielleicht sogar “Windows X” – wird der klassische Desktop vollständig verschwinden. Beziehungsweise wird es nur noch einen schmalen Kompatibilitätsmodus für den Desktop geben, um sämtliche Nachzügler nicht komplett zu verlieren.

Im Laufe der Zeit werden aber alle Software-Entwickler und Anbieter ihre Lösungen entweder ganz auf das Software-as-a-Service (SaaS) Modell via Browser umstellen oder ihre Apps für die Windows Kachel-Oberfläche optimieren und im Windows Store anbieten.

Wann kommt das “Microsoft Cloudbook”?

Eine interessante Frage bleibt dennoch. Geht Microsoft in Zukunft vielleicht sogar den Google Weg. Gibt es möglicherweise bald ein Chromebook Pendant aus dem Hause Microsoft? Wie ich oben angemerkt habe, ist der Browser mein Hauptarbeitsbereich Nummer eins und da bin ich definitiv nicht der Einzige. Hinzu kommt, dass immer mehr Anwendungen per SaaS in die Cloud wandern. Nicht vergessen sollte man dabei, dass Microsoft mit seiner Windows Azure Infrastruktur bereits über eine ausgereifte und leistungsfähige Cloud Umgebung verfügt, auf der ebenfalls Office 365 betrieben wird und über die ein “Microsoft Cloudbook” ohne weiteres mit Applikationen usw. versorgt werden kann. Mit Windows Azure, Office 365 (Office 2013), Outlook.com, SkyDrive, Skype, dem Windows Store etc. hat Microsoft in den letzten Monaten und Jahren zumindest die notwendigen Rahmenbedingungen geschaffen.