Categories
Analysen

Die vollständig vernetzte Welt wird Wirklichkeit #tsy13

Unternehmen sind in ihrem Alltag ständig kürzeren Veränderungszyklen ausgesetzt. Dabei ist die Consumerization of IT ein großer Treiber, die auch in Zukunft eine wichtige Bedeutung behalten wird. Seit mehreren Jahren zeigen Mobilität, Cloud, neue Applikationen, das Internet of Things und Big Data (Analysen) ihre Auswirkungen. Neben diesen technologischen Einflüssen sind es aber auch die geschäftlichen Auswirkungen wie neue Geschäftsmodelle, ständiges Wachstum, Globalisierung und gleichzeitig die Themen Sicherheit und Compliance die zu neuen Herausforderungen führen.

Die Evolution des Internets hinterlässt ihre Spuren

Betrachtet man die Evolution des Internets, wird deutlich, dass die Auswirkungen auf die Unternehmen und unsere Gesellschaft mit dem Wachstum von intelligenten Verbindungen wachsen. Gestartet mit einfachen Verbindungen über E-Mail oder Web und damit der Digitalisierung des Informationszugangs, folgte die vernetzte Wirtschaft, bei der es mit E-Commerce und Collaboration darum ging, Geschäftsprozesse zu digitalisieren. Anschließend folgte etwas, das Cisco als „Realitätsnahe Erfahrungen“ bezeichnet. Dazu gehört die Digitalisierung von geschäftlichen und sozialen Interaktionen wie Social Media, Mobile und Cloud. Der nächste Zustand den wir erreichen werden ist das „Internet of Everything“, bei dem Menschen, Prozesse, Daten und Dinge verbunden werden – die Digitalisierung der Welt.

Jeder Baustein hat im Internet of Everything seine eigene Bedeutung. Die Verbindungen zwischen den Menschen werden relevanter und wertvoller. Die richtige Person oder auch Maschine erhält über intelligente Prozesse zum richtigen Zeitpunkt die richtigen Informationen. Die Daten werden zu wertvolleren Informationen für die Entscheidungsfindung verarbeitet. Physische Geräte (Dinge) werden über das Internet untereinander vernetzt, um die intelligenten Entscheidungen zu ermöglichen.

Auf dem T-Systems Symposium 2013 in Düsseldorf sagte Cisco, dass sie im Jahr 2020 etwa 50 Milliarden untereinander vernetzte Smart Objects erwarten. Hingegen wird dann weltweit gerade einmal mit 7,6 Milliarden Menschen gerechnet. Weiterhin ist Cisco der Meinung, dass derzeit 99 Prozent der Welt noch nicht vernetzt ist und wir in Zukunft Billionen von Smart Sensors sehen werden. Diese werden unter anderem in intelligenten Gebäuden, Städten oder Häusern verbaut und dabei helfen Energie zu sparen und effizienter zu leben. Sie werden aber ebenfalls dazu führen, die Produktivität zu erhöhen oder das Gesundheitswesen zu verbessern.

Technologische Grundlagen für die vollständig vernetzte Welt

Auf Grund seiner massiven Skalierbarkeit, Verteilung, neuartigen Anwendungen und den Möglichkeiten des Überallzugriffs, ist die Cloud eine der Hauptgrundlagen für die vollständig vernetzte Welt. Ciscos Cloud Strategie besteht daher darin, Cloud Anbieter und Unternehmen es zu ermöglichen, unterschiedliche Arten von Cloud Services bereitzustellen und zu „brokern“. Gleichzeitig sollen von Cisco Applikationsplattformen für verschiedene Cloud Kategorien angeboten werden.

Die Cloud muss allerdings um Ansätze aus dem Internet der Dinge angereichert werden. Dazu gehören intelligentere Geschäftsprozesse, Menschen zu Machine-2-Machine Kommunikation sowie weitere Dinge wie Sensoren und Aktoren die überall verteilt sind. Im Endeffekt ist eine weltweit stark skalierbare Infrastruktur notwendig, die zeitliche Schwankungen und Anforderungen zwischen den unterschiedlichen Workloads steuern kann.

Eine weitere Schlüsselkomponente ist daher etwas, dass Cisco als Fog Computing bezeichnet. Der Fog hat die Aufgabe, Daten und Workloads näher an den Nutzer zu bringen, der sich am Rande einer Datenverbindung befindet. In diesem Zusammenhang wird dann auch vom „Edge Computing“ gesprochen. Der Fog befindet sich organisatorisch unterhalb der Cloud und dient als optimiertes Übertragungsmedium für die Services und Daten, die sich in der Cloud befinden. Der Begriff „Fog Computing“ wurde von Cisco als ein neues Paradigma geprägt, der verteilte Endgeräte innerhalb des Internet of Things bei dem kabellosen Datentransfer unterstützen soll. Fog Computing baut konzeptionell auf bestehende und weit verbreitete Technologien wie den Content Delivery Networks (CDN) auf, soll aber, auf Grund von Cloud Technologien, das Bereitstellen von viel komplexeren Services ermöglichen.

Da immer größere Datenmengen an eine immer größer werdende Anzahl an Benutzern ausgeliefert werden müssen, sind Konzepte notwendig, welche die Idee der Cloud verbessern und es Unternehmen und Anbietern ermöglichen, ihre Inhalte an den Endkunden über eine geographisch weit verbreitete Plattform bereitzustellen. Fog Computing soll dabei helfen, die verteilten Daten näher an den Endkunden zu transportieren und dabei die Latenz und Anzahl der dafür benötigten Hops zu verringern und Mobile Computing und Streaming Services dadurch besser zu unterstützen. Neben dem Internet of Things ist die steigende Nachfrage der Nutzer, zu jeder Zeit, von jedem Ort und mit jedem Gerät auf ihre Daten zugreifen zu können, ein weiterer Grund, warum die Idee des Fog Computing an Bedeutung zunehmen wird.

Die wesentliche Eigenschaft des Fog Computing besteht also darin, dass Workloads völlig autark von der Cloud agieren können, um den schnellen, nahen und stabilen Zugriff eines Service sicherzustellen.

Die vernetzte Welt benötigt intelligentere Technologien

Um die Cloud als die grundlegende Basis für das Internet of Things bzw. des Internet of Everything zu nutzen, müssen noch einige Hürden aus dem Weg geschafft werden. Das aktuelle Cloud Bereitstellungsmodell sieht vor, dass die Daten, in der Regel, direkt und ohne eine Zwischenschicht zum Endgerät bzw. den Endnutzer ausgeliefert werden. (Anmerkung: Es existieren bereits CDN und Edge Locations, die für das Caching und somit Beschleunigen sorgen.) Es wird daher davon ausgegangen, dass die Bandbreite zur Übertragung der Daten maximal ist und theoretisch eine Verzögerung von Null existiert. Das ist jedoch nur theoretisch der Fall. In der Praxis sorgen hohe Latenzen und somit Verzögerungen, eine schlechte Elastizität und die zur Bandbreite wesentlich schneller ansteigenden Datenmengen, für Probleme.

Aus diesem Grund sind Ansätze wie Fog Computing erforderlich, um davon ausgehen zu können, dass eine limitierte Bandbreite vorhanden, unterschiedliche Verzögerungszeiten sowie unterbrochene Verbindungen vorhanden sind. Ideen wie der Fog etablieren sich als eine intelligente Zwischenschicht, Cache bzw. wie eine Art Verstärker und koordinieren die Anforderungen unterschiedlicher Workloads, Daten und Informationen, so dass diese unabhängig voneinander und performant an die Objekte im Internet of Everything ausgeliefert werden.

Categories
Analysis IT-Infrastructure

Fog Computing: Data, Information, Application and Services needs to be delivered more efficient to the enduser

You read it correctly, this is not about CLOUD Computing but FOG Computing. After the cloud is on a good way to be adapted in the broad, new concepts follow to enhance the utilization of scalable and flexible infrastructures, platforms, applications and further services to ensure the faster delivery of data and information to the enduser. This is exactly the core function of fog computing. The fog ensures that cloud services, compute, storage, workloads, applications and big data be provided at any edge of a network (Internet) on a trully distributed way.

What is fog computing?

The fog hast he task to deliver data and workloads closer to the user who is located at the edge of a data connection. In this context it is also spoken about „edge computing“. The fog is organizationally located below the cloud and serves as an optimized transfer medium for services and data within the cloud. The term „fog computing“ was characterized by Cisco as a new paradigm , which should support distributed devices during the wireless data transfer within the Internet of Things. Conceptual fog computing builds upon existing and common technologies like Content Delivery Networks (CDN), but based on cloud technologies it should ensure the delivery of more complex services.

As more and more data must be delivered to an ever-growing number of users, concepts are necessary which enhance the idea of the cloud and empower companies and vendors to provide their content over a widely spread platform to the enduser. Fog computing should help to transport the distributed data closer to the enduser and thus decrease latency and the number of required hops and therefore better support mobile computing and streaming services. Besides the Internet of Things, the rising demand of users to access data at any time, from any place and with any device, is another reason why the idea of fog computing will become increasingly important.

What are use cases of fog computing?

One should not be too confused by this new term. Although fog computing is a new terminology. But looking behind the courtain it quickly becomes apparent that this technology is already used in modern data centers and the cloud. A look at a few use cases illustrates this.

Seamless integration with the cloud and other services

The fog should not replace the cloud. Based on fog services the cloud should be enhanced by isolating the user data which are exclusively located at the edge of a network. From there it should allow administrators to connect analytical applications, security functions and more services directly to the cloud. The infrastructure is still based entirely on the cloud concept, but extends to the edge with fog computing.

Services to set vertical on top of the cloud

Many companies and various services already using the ideas of fog computing by delivering extensive content target-oriented to their customer. This includes among others webshops or provider of media content. A good example for this is Netflix, who is able to reach its numerous globally distributed customers. With the data management in one or two central data centers, the delivery of video-on-demand service would otherwise not be efficiently enough. Fog computing thus allows providing very large amounts of streamed data by delivering the data directly performant into the vicinity of the customer.

Enhanced support for mobile devices

With the steadily growth of mobile devices and data administrators gain more control capabilities where the users are located at any time, from where they login and how they access to the information. Besides a faster velocity for the enduser this leads to a higher level of security and data privacy by data can be controlled at various edges. Moreover fog computing allows a better integration with several cloud services and thus ensures an optimized distribution across multiple data centers.

Setup a tight geographical distribution

Fog computing extends existing cloud services by spanning up an edge network which consist of many distributed endpoints. This tight geographical distributed infrastructure offers advantages for variety of use cases. This includes a faster elicitation and analysis of big data, a better support for location-based services by the entire WAN links can be better bridged as well as the capabilities to evaluate data massively scalable in real time.

Data is closer to the user

The amount of data caused by cloud services require a caching of the data or other services which take care of this subject. This services are located close to the enduser to improve latency and optimize the data access. Instead of storing the data and information centralized in a data center far away from the user the fog ensures the direct proximity of the data to the customer.

Fog computing makes sense

You can think about buzzwords whatever you want. Only if you take a look behind the courtain it’s becoming interesting. Because the more services, data and applications are deployed to the end user, the more the vendors have the task of finding ways to optimize the deployment processes. This means that information needs to be delivered closer to the user, while latency must be reduced in order to be prepared for the Internet of Things. There is no doubt that the consumerization of IT and BYOD will increasing the use and therefore the consumption of bandwidth.

More and more users rely on mobile solutions to run their business and to bring it into balance with the personal live. Increasingly rich content and data are delivered over cloud computing platforms to the edges of the Internet where at the same time are the needs of the users getting bigger and bigger. With the increasing use of data and cloud services fog computing will play a central role and help to reduce the latency and improve the quality for the user. In the future, besides ever larger amounts of data we will also see more services that rely on data and that must be provided more efficient to the user. With fog computing administrators and providers get the capabilities to provide their customers rich content faster and more efficient and especially more economical. This leads to faster access to data, better analysis opportunities for companies and equally to a better experience for the end user.

Primarily Cisco will want to characterize the word fog computing to use it for a large-scale marketing campaign. However, at the latest when the fog generates a similar buzz as the cloud, we will find more and more CDN or other vendors who offer something in this direction as fog provider.

Categories
Analysen

Fog Computing: Daten, Informationen, Anwendungen und Services müssen effizienter zum Endnutzer

Richtig gelesen, hier geht es nicht um CLOUD Computing sondern um FOG Computing. Nachdem sich die Cloud auf einem guten Weg befindet in der Breite adaptiert zu werden, folgen erste Konzepte, um die Nutzung skalierbarer und flexibler Infrastrukturen, Plattformen und Applikationen um weitere Services zu erweitern, um die Daten und Informationen schneller an den Endnutzer auszuliefern. Das ist im Kern genau die Aufgabe des Fog Computing. Der Fog soll dafür sorgen, dass Cloud Services, Rechenleistung, Speicherplatz, Workloads, Anwendungen und große Datenmengen an jegliche Ecken (Edge) eines Netzwerkes (Internet) auf einer echten verteilten Art und Weise bereitgestellt werden.

Was bedeutet Fog Computing?

Der Fog hat die Aufgabe, Daten und Workloads näher an den Nutzer zu bringen, der sich am Rande einer Datenverbindung befindet. In diesem Zusammenhang wird dann auch vom „Edge Computing“ gesprochen. Der Fog befindet sich organisatorisch unterhalb der Cloud und dient als optimiertes Übertragungsmedium für die Services und Daten, die sich in der Cloud befinden. Der Begriff „Fog Computing“ wurde von Cisco als ein neues Paradigma geprägt, der verteilte Endgeräte innerhalb des Internet of Things bei dem kabellosen Datentransfer unterstützen soll. Fog Computing baut konzeptionell auf bestehende und weit verbreitete Technologien wie den Content Delivery Networks (CDN) auf, soll aber, auf Grund von Cloud Technologien, das Bereitstellen von viel komplexeren Services ermöglichen.

Da immer größere Datenmengen an eine immer größer werdende Anzahl an Benutzern ausgeliefert werden müssen, sind Konzepte notwendig, welche die Idee der Cloud verbessern und es Unternehmen und Anbietern ermöglichen, ihre Inhalte an den Endkunden über eine geographisch weit verbreitete Plattform bereitzustellen. Fog Computing soll dabei helfen, die verteilten Daten näher an den Endkunden zu transportieren und dabei die Latenz und Anzahl der dafür benötigten Hops zu verringern und Mobile Computing und Streaming Services dadurch besser zu unterstützen. Neben dem Internet of Things ist die steigende Nachfrage der Nutzer, zu jeder Zeit, von jedem Ort und mit jedem Gerät auf ihre Daten zugreifen zu können, ein weiterer Grund, warum die Idee des Fog Computing an Bedeutung zunehmen wird.

Was sind Use Cases von Fog Computing?

Man sollte sich von diesem neuen Begriff nicht zu sehr verwirren lassen. Zwar handelt es sich beim Fog Computing um eine neue Terminologie. Schaut man jedoch hinter die Fassade wird schnell deutlich, dass diese Technologie bereits in modernen Rechenzentren und der Cloud eingesetzt wird. Der Blick auf ein paar Use Cases verdeutlicht dies.

Nahtlose Integration mit der Cloud und anderweitigen Services

Der Fog soll die Cloud nicht ersetzen. Durch Fog Services soll die Cloud erweitert werden, indem die Nutzerdaten isoliert werden, die sich ausschließlich am Rande (Edge) eines Netzwerks befinden. Von dort aus soll es Administratoren ermöglicht werden, analytische Auswertungen, Sicherheitsfunktionen und weitere Services direkt mit eigenen Cloud Modell zu verbinden. Die Infrastruktur wird hierbei weiterhin vollständig auf dem Cloud Konzept basieren, am Rande jedoch um das Fog Computing erweitert.

Services die vertikal auf der Cloud aufsetzen

Viele Unternehmen und unterschiedliche Arten von Services nutzen bereits die Ideen des Fog Computing, indem sie umfangreiche Inhalte zielgerichtet an ihre Kunden ausliefern. Dazu gehören u.a. Webshops oder Anbieter von Medieninhalten. Ein gutes Beispiel hierfür ist Netflix, die damit ihre zahlreichen weltweit verteilten Kunden erreichen können. Mit der Datenhaltung in einem oder zwei zentralen Rechenzentren wäre die Auslieferung des Video on-Demand Service sonst nicht effizient möglich. Fog Computing ermöglicht somit das Bereitstellen von sehr großen gestreamten Datenmengen, indem die Daten performant direkt in die Nähe des Endkunden ausgeliefert werden.

Bessere Unterstützung für mobile Endgeräte

Mit dem stetigen Wachstum mobiler Endgeräte und Daten erhalten Administratoren durch Fog Computing mehr Kontrollmöglichkeiten darüber, wo sich die Nutzer gerade befinden, von wo sie sich anmelden und wie sie auf Informationen zugreifen. Dies führt neben einer höheren Geschwindigkeit für den Endnutzer ebenfalls zu einer höheren Sicherheit und Datenschutz, indem die Daten an unterschiedlichen Eckpunkten kontrolliert werden können. Zudem erlaubt Fog Computing eine bessere Integration mit verschiedenen Cloud Services und sorgt somit für eine optimierte Verteilung über mehrere Rechenzentren hinweg.

Aufbau einer sehr engen geographischen Verteilung

Fog Computing erweitert bestehende Cloud Services, indem es ein Edge Network aufspannt, das aus vielen verteilten Endpunkten besteht. Diese dichte geographisch verteilte Infrastruktur bietet Vorteile für unterschiedliche Use Cases. Dazu gehören eine schnellere Erhebung und Analyse von Big Data, eine bessere Unterstützung für Location-based Services indem sich die gesamten WAN Strecken besser überbrücken lassen, sowie die Möglichkeit, Daten in Echtzeit und dazu noch massiv skalierbar auszuwerten.

Daten befinden sich nah beim Nutzer

Die Menge an Daten, die durch Cloud Services entsteht, erfordert das Caching der Daten oder weitere Services, die sich dieser Thematik annehmen. Diese Services befinden sich in der Nähe des Endnutzers, um damit die Latenz zu verbessern und den Datenzugriff zu optimieren. Anstatt die Daten und Informationen zentral in Rechenzentren weit entfernt von dem jeweiligen Nutzer abzulegen, sorgt der Fog für die direkte Nähe der Daten beim Kunden.

Fog Computing ergibt einen Sinn

Man kann von Buzzwords halten was man möchte. Erst wenn man hinter die Kulisse schaut wird es interessant. Denn je mehr Services, Daten und Applikationen für den Endnutzer bereitgestellt werden, desto mehr haben die Hersteller die Aufgabe Wege zu finden, um die Bereitstellungsprozesse zu optimieren. Das bedeutet, dass Informationen näher an den Nutzer herangetragen und gleichzeitig die Latenzen verringert werden müssen, um auf das Internet of Things vorbereitet zu sein. Es besteht kein Zweifel daran, dass die Consumerization of IT und BYOD die Nutzung und demnach den Verbrauch an Bandbreiten ansteigen lassen werden.

Immer mehr Nutzer greifen auf mobile Lösungen zurück, um ihre Geschäfte abzuwickeln und mit dem Privatleben in Einklang zu bringen. Immer reichhaltigere Inhalte und Daten werden über Cloud Computing Plattformen an die “Ecken” des Internets ausgeliefert wo gleichzeitig die Bedürfnisse der Anwender immer größer werden. Mit der Zunahme der Daten-und Cloud-Services Nutzung wird Fog Computing eine zentrale Rolle spielen und dabei helfen die Latenzen zu verringern und die Qualität für den Nutzer zu verbessern. In Zukunft werden wir neben immer größeren Datenmengen ebenfalls mehr Services sehen, die auf Daten zurückgreifen und dem Nutzer effizienter bereitgestellt werden müssen. Administratoren und Anbieter erhalten durch Fog Computing die Möglichkeit ihren Kunden umfangreiche Inhalte deutlich schneller und effizienter und vor allem viel wirtschaftlicher bereitzustellen. Dies führt zu einem schnelleren Zugriff auf die Daten, bessere Auswertungsmöglichkeiten für Unternehmen und gleichermaßen zu einer verbesserten Nutzung für den Endnutzer.

In erster Linie wird Cisco das Wort Fog Computing prägen wollen, um es für s(eine) groß angelegte Marketingkampagne zu nutzen. Allerdings, spätestens wenn der Fog einen ähnlichen Buzz wie die Cloud erzeugt, werden wir immer mehr CDN oder anderweitige Hersteller, die etwas in die Richtung anbieten, als Fog-Anbieter wiederfinden.

Categories
News

HP Cloud Object Storage verspricht eine monatliche Verfügbarkeit von 99,95%

HP wird zwei Public Cloud Services aus der Public Beta freigegeben. HP Cloud Object Storage und HP Cloud Content Delivery Network können ab dem 01. August 2012 von der Allgemeinheit genutzt werden. Nach eigenen Angaben habe HP ausreichend Tests durchgeführt, die zu einer durchweg positiven Kundenresonanz hinsichtlich Leistung und Verfügbarkeit der Daten geführt haben.

Service Level mit 99,95% Verfügbarkeit

HP wird beide Cloud Services mit einem Service Level Agreement (SLA) veröffentlichen, dass eine monatliche Verfügbarkeit von mindestens 99,95 Prozent hat. Kann HP das nicht gewährleisten, erhält der Kunde bis zu 30% Ermäßigung auf seine Rechnung. Um das sicherzustellen, will HP kontinuierlich die Ausfallzeiten überwachen.

HP Cloud Block Storage und HP Cloud Relational Database for My SQL können weiterhin kostenlos in der Private Beta getestet werden.


Bildquelle: http://www.enterprisecioforum.com

Categories
News

Facebook erweitert sein eigenes Edge Network

Facebook erweitert sein eigenes Edge Network, um damit das Ausliefern der Photos zu beschleunigen. Das erzählte Facebook Vice President Frank Frankovsky auf der GigaOM Structure 2012 während einer Diskussion zu den Absichten von Facebook die Skalierbarkeit seiner Infrastruktur zu erhöhen. Dabei will Facebook nicht seinen CDN Partner (Content Delivery Network) kündigen, sondern lediglich eigene Server in die POPs (Point of Presence) von ISPs stellen, um damit die Inhalte an seine weltweit verteilten Nutzer schneller auszuliefern.

Facebook macht derzeit weniger als 2 Prozent des gesamten Internetverkehrs aus. Dennoch würde es sich laut Frankovsky bereits nur wegen der Masse an Photos, die sich auf Facebook befinden, lohnen über ein eigenes CDN nachzudenken. Hinzu kommen zukünftige Services.

Open Compute Project treibt Innovation

Frankovsky erzählte darüber hinaus, wie das Open Compute Project Facebook dabei hilft den Betrieb zu optimieren. So benötigt Facebook gerade mal einen Systemadministrator im Rechenzentrum um 10.000 Server(!) zu verwalten. Er äußerte sich ebenfalls zu Plänen die Server neu zu entwerfen, um bei einer höheren Dichte mehr Komponenten unterzubringen und die Racks modularerer zu konfigurieren.

Er setzt sich zudem für Innovation in mehreren Bereichen ein, einschließlich wie man ein Rechenzentrum mit maximaler Kapazität durch die intelligente Verteilung von Workloads betreibt.

Facebook VP Frank Frankovsky auf der GigaOM Structure 2012

gigaomstructure on livestream.com. Broadcast Live Free

Bildquelle: http://mashable.com

Categories
News

AWS erweitert Amazon CloudFront um dynamische und personalisierte Inhalte

Ist zwar nicht mehr ganz aktuell, aber dennoch interessant! Amazon hat sein CDN (Content Delivery Network) CloudFront um die Unterstützung von dynamischen Inhalten erweitert, wodurch auf CloudFront gehostete Webseiten nun pro Besucher personalisiert werden können.

AWS erweitert Amazon CloudFront um dynamisch und personalisierte Inhalte

Webseiten, deren Inhalte bereits statisch auf CloudFront gehostet werden, können den Dienst nun nutzen, um die Webseite mit dynamischen Inhalten zu erweitern und somit für jeden Besucher zu personalisieren. Die Preise unterscheiden sich dabei nicht vom statischen Hosting der Daten, also 0,120 Dollar pro GB für die ersten 10 TerraByte bzw. 0,020 Dollar pro GB für die ersten 5 PetaByte sowie 0,0090 Dollar pro 10.000 HTTP-Anfragen.

CloudFront liefert die Inhalte über weltweit 30 Standorte aus. Im Vergleich zum Akamai CDN mit 1700 Standorte ein Tropfen auf dem heißen Stein.

Einer der ersten Anbieter die das neue CloudFront Feature unterstützen ist CloudBerry, der ebenfalls Tools für das Management und Verwalten von Dateien in CloudFront und Amazon S3 entwickelt. Das Unternehmen hat bereits ein kleines Tutorial veröffentlicht, das zeigt, wie man den CloudBerry S3 Explorer konfiguriert, um CloudFront mit dynamischen Inhalten zu nutzen.

AWS baut sein CDN kontinuierlich aus. Erst Anfang April wurde CloudFront um eine Live-Streaming Funktion für iOS und Silverlight erweitert.

Categories
News

CloudCache.com: Neues CDN soll E-Commerce Webseiten beschleunigen

Der US-amerikanische Content Delivery Network (CDN) Anbieter NetDNA hat mit CloudCache.com sein neues CDN für Web- und E-Commerce-Seiten vorgestellt. CloudCache.com bietet ein CDN zum Download an, welches in die selbst gehostete Software u.a. über Plugins integriert wird und über ein Control Panel verfügt. Zudem können Auswertungen in Echtzeit vorgenommen und der Datentransfer analysiert werden.

CloudCache.com: Neues CDN soll den E-Commerce Webseiten beschleunigen

Der Service arbeitet mit weiteren Web Services zusammen, um die Integration in bestehende Webseiten und Portale so einfach wie möglich zu gestalten. Ein Partner ist PrestaShop, der über 120.000 Web-Shops in den USA bereitstellt und CloudCache.com bereits als eine One-Click Installationsoption in seine aktuelle Software integriert hat.

CloudCache.com bietet weiterhin EdgeSSL, eine kostengünstige und dedizierte Secure Sockets Layer (SSL) Integration und Zertifizierung für sichere Online Kreditkarten Transaktionen. Über die Weboberfläche kann der Nutzer EdgeSSL aktivieren und muss nicht auf die Freischaltung anderer SSL-Services warten.

Das CDN liefert auf Basis eines Netzwerks von Edge-Standorten die Inhalte mit unter 10 ms Latenz in den USA aus. Jeder Edge-Knoten ist dafür über eine 10 Gigabit Leitung angebunden. Zudem arbeitet CloudCache.com mit weltweit über 600 verschiedenen Peering Partnern zusammen.

Für die Integration in Blogs und Content Management Webseiten bietet CloudCache Plugins. Unter anderem für Drupal, WordPress, Joomla etc.

Während neue Produkte wie bspw. CloudCache.com in den letzten Jahren auf dem Markt erschienen sind, haben eine Reihe von Studien gezeigt, dass eine erhebliche Anzahl von Online-Kunden auf Grund langsamer Ladezeiten auf den Einkauf verzichten bzw. diesen genervt abbrechen. Es herrscht also noch eine Menge Potenzial und eine Notwendigkeit für performante und günstige CDNs.

Categories
News

Amazon erweitert CloudFront mit Live-Streaming Funktion für iOS und Silverlight

Amazon hat seinen Content Delivery Network (CDN) Services um Live-Streaming Funktionen für Apples iOS und Microsofts Silverlight erweitert. Das wurde gestern im offiziellen Unternehmensblog angekündigt.

Mit Amazon CloudFront können Inhalte wie Bilder, Videos andere Mediadaten und Software so verteilt werden, dass auf sie schnell und performant zugegriffen werden kann. Dazu nutzt CloudFront, typisch für ein CDN, unterschiedliche Edge Locations in Asien, Europa, Südamerika und den USA, um die Inhalte möglichst nah an den Nutzer auszuliefern und damit die Zugriffszeit zu verkürzen.

Mit der neuen Funktion “Live Smooth Streaming for Amazon CloudFront” können Inhalte nun zusätzlich live auf Microsoft Silverlight Clients und Apple iOS Endgeräte wie iPhone, iPod Touch oder iPad streamen. Dazu werden Microsofts Live Smooth Streaming und Apples HTTP Live Streaming (HLS) Formate genutzt.

Amazon erweitert CloudFront mit Live-Streaming Funktion für iOS und Silverlight

Live Smooth Streaming Inhalte werden fragmentiert an die Clients übertragen, so dass die CloudFront Edge Server die Daten zwischenspeichern (cachen) können.

Die Clients selbst haben die Möglichkeit den aktuellen Netzwerk- und lokalen Systems-Status dynamisch zu überwachen. Sollte sich z.B. die Netzwerkleistung verschlechtern, kann der Client umgehend kommunizieren, dass das nächste Fragment mit einer niedrigeren Bitrate gesendet werden soll, um sich damit an die ändernden Bedingungen anzupassen. Laut Amazon sollen damit das Stottern, Puffern und Einfrieren des Streamings verhindert werden.

Der Stream kann über eine Amazon EC2 Instanz mit Windows IIS Media Services bereitgestellt werden. Wird der Live Stream von einem Client angefragt, lädt CloudFront den Inhalt automatisch von der EC2 Instanz, cached ihn in der Edge Location zwischen und liefert ihn an den Client aus. Um Inhalte mit Apples HLS Format zu streamen, wird auf der Amazon EC2 Instanz ein Adobe Flash Media Server 4.5 benötigt. Laut Amazon handelt es sich bei beiden Formaten aber um dieselbe Grundkonfiguration. Um die Nutzung von “Live Smooth Streaming for Amazon CloudFront” zu vereinfachen, hat Amazon ein CloudFormation Template erstellt, dass die notwendigen Ressourcen für ein Live Event bereitstellt.

Die CloudFront Preise orientieren sich an den regionalen Datentransferkosten für die jeweiligen Amazon Edge Locations, die Anzahl an HTTP-Anfragen und die Anzahl an ungültigen Anfragen. Letzteres wird verwendet, um ein Objekt aus der CloudFront Edge Location vor dem angegebenen Ablaufdatum zu entfernen.

Bspw. kosten in Europa und in den USA die ersten 10TB 0,12 US-Dollar pro Gigabyte und die weiteren 40TB 0,08 US-Dollar pro Gigabyte. Die Menge an verbrauchten Traffic wird dabei monatlich zurückgesetzt.


Bildquelle: http://www.ewdisonthen.com

Categories
Analysen

Cloud Computing Nutzen: Content bereitstellen

Unternehmen stehen vor der Herausforderung Inhalte wie Bilder, Videos oder sonstige Downloads auf Ihren Webseiten den Kunden hochperformant und zuverlässig bereitzustellen. Eine Möglichkeit dieses zu realisieren ist das Erhöhen des Durchsatzes sowie die Verringerung der Latenz innerhalb des Netzwerks.

Mittels eines Content Delivery Network (CDN), in welchem die Inhalte auf sogenannten Edge-Servern gespeichert werden und die sich in einem Rechenzentrum dass sich möglichst nah am Benutzern befinden, können Teile der oben genannten Anforderungen erfüllt werden. Zusätzlich können Algorithmen verwendet werden, welche die Inhalte zum Zeitpunkt der Anfrage auf die Server in der Nähe des Benutzers kopieren, wodurch die Leistung weiter erhöht wird.

Soll ein Content Delivery Network eines Anbieters eingesetzt werden, muss zunächst die Zuverlässigkeit und die Größe/Reichweite des Netzwerks bestimmt werden. Weiterhin ist die Kompatibilität und Integrationsmöglichkeit mit den eigenen zu veröffentlichen Ressourcen zu klären.

Neben den technischen Anforderungen sind ebenfalls die vertraglichen Rahmenbedingungen zu prüfen. Mit welchen Kosten muss gerechnet werden. Existieren Mindestgebühren die monatlich gezahlt werden müssen? Entstehen Kosten für die erstmalige Einrichtung und werde ich mich für einen längeren Zeitraum vertraglich binden müssen? Wie ist der Zeithorizont vom Vertragsbeginn bis erstmalig die Inhalte eingestellt werden können? Passt sich der Anbieter/ das System meinen Anforderungen an, wenn diese sich ändern – erfolgt also eine bedarfsabhängige Abrechnung?