Categories
News

Facebook erweitert sein eigenes Edge Network

Facebook erweitert sein eigenes Edge Network, um damit das Ausliefern der Photos zu beschleunigen. Das erzählte Facebook Vice President Frank Frankovsky auf der GigaOM Structure 2012 während einer Diskussion zu den Absichten von Facebook die Skalierbarkeit seiner Infrastruktur zu erhöhen. Dabei will Facebook nicht seinen CDN Partner (Content Delivery Network) kündigen, sondern lediglich eigene Server in die POPs (Point of Presence) von ISPs stellen, um damit die Inhalte an seine weltweit verteilten Nutzer schneller auszuliefern.

Facebook macht derzeit weniger als 2 Prozent des gesamten Internetverkehrs aus. Dennoch würde es sich laut Frankovsky bereits nur wegen der Masse an Photos, die sich auf Facebook befinden, lohnen über ein eigenes CDN nachzudenken. Hinzu kommen zukünftige Services.

Open Compute Project treibt Innovation

Frankovsky erzählte darüber hinaus, wie das Open Compute Project Facebook dabei hilft den Betrieb zu optimieren. So benötigt Facebook gerade mal einen Systemadministrator im Rechenzentrum um 10.000 Server(!) zu verwalten. Er äußerte sich ebenfalls zu Plänen die Server neu zu entwerfen, um bei einer höheren Dichte mehr Komponenten unterzubringen und die Racks modularerer zu konfigurieren.

Er setzt sich zudem für Innovation in mehreren Bereichen ein, einschließlich wie man ein Rechenzentrum mit maximaler Kapazität durch die intelligente Verteilung von Workloads betreibt.

Facebook VP Frank Frankovsky auf der GigaOM Structure 2012

gigaomstructure on livestream.com. Broadcast Live Free

Bildquelle: http://mashable.com

Categories
News

Armutszeugnis: Cloud Computing Ausfälle haben seit 2007 mehr als 71 Million US-Dollar an Kosten verursacht.

Seit 2007 haben 568 Stunden Ausfallzeit von 13 namhaften Cloud Services mehr als 71.700,000 US-Dollar an Kosten verursacht, das sagt zumindest die International Working Group on Cloud Computing Resiliency (IWGCR). Dabei liegt die durchschnittliche Nichtverfügbarkeit von Cloud Services bei 7,5 Stunden pro Jahr. Das entspricht einer garantierten Verfügbarkeit von 99,9 Prozent, die weit weg von dem liegt, was von geschäftskritischen Systemen (99,999 Prozent) erwartet wird. Im Vergleich dazu beträgt die durchschnittliche Nichtverfügbarkeit von Strom in einer modernen Großstadt weniger als 15 Minuten pro Jahr. Ein Armutszeugnis für die Public Cloud Anbieter?

Mit “Availability Ranking of World Cloud Computing (ARWC)” handelt es sich um die erste Publikation der im März 2012 von ParisTech und 13 pariser Universitäten gegründeten Gruppe. Grundlage ihrer Forschung sind Presseberichte von Cloud Computing Ausfällen von Services wie Twitter, Facebook, Amazon, Microsoft, Google, Yahoo, Paypal und Weiteren.

Public Cloud Anbieter stehen unter Druck

Seit die Cloud Anbieter damit begonnen haben, immer mehr staatliche Einrichtungen und weltweit agierende Unternehmen anzusprechen wird es zunehmend wichtiger, dass die bereitsgestellten Services zuverlässig arbeiten, insbesondere dann, wenn es sich um geschäftskritische Systeme handelt. Das scheinen die Cloud Anbieter aber scheinbar nicht zu 100% verinnerlicht zu haben.

Die Kosten pro Ausfall sind nicht zu vernachlässigen

Die Forscher fanden heraus, dass die Kosten für einen einstündigen Ausfall variieren. Der Reiseanbieter Amadeus hätte demnach mit 89.000 US-Dollar zu rechnen, Paypal hingegen mit 225.000 US-Dollar pro Stunde. Die Zahlen basieren auf den stündlichen Kosten, mit der die jeweilige Industrie in ihrem Markt rechnet. Ausfälle bei Unternehmen wie Google, Microsoft und Amazon belaufen sich, laut den Forschern, auf schätzungsweise 200.000 US-Dollar pro Stunde.

Neben den wirtschaftlichen Auswirkungen für den Service Anbieter, sollte hier aber nicht der Kunde aus den Augen verloren werden. Der ist viel wichtiger! Manche Ausfälle haben sich schließlich schon über mehrere Tage hingezogen.

Der Zustand ist wahrscheinlich noch viel schlimmer

Die Forscher merken an, dass ihre Vorgehensweise nicht perfekt sei, da die vorliegenden Informationen bei weitem nicht vollständig seien. Sie gehen daher davon aus, das sie die vorliegenden Zahlen wahrscheinlich unterschätzen. Viele Ausfälle wurden von der Presse nicht publiziert, was viel Platz für weitere bietet. Darüber hinaus standen den Forschern ebenfalls nicht die exakten Werte für die wirtschaftlichen Kosten pro Ausfall oder die durchschnittlichen Kosten pro Stunde von jedem Cloud Anbieter zur Verfügung.

Liebe Anbieter entschädigt richtig!

Wie ich erst vorgestern geschrieben habe, sind Public Cloud Ausfälle nun einmal öffentlich. Probleme in einem privaten Rechenzentrum interessieren niemanden. Kein Journalist würde darüber berichten, da es einfach langweilig ist und keine Leser anziehen würde.

Aber der “Witz” an der ganzen Cloud Ausfall Geschichte ist, dass die Cloud Anbieter lediglich die Kosten für den Zeitraum, in welchem der Service nicht verfügbar war, erlassen. So haben Azure Nutzer für den Ausfall am 29. Februar eine Gutschrift über 33% erhalten. Amazon ist hier nicht besser.

Es ist ja schön und gut und vor allem zwingend erforderlich, dass man als Nutzer zumindest nicht einen Service berechnet bekommt, der nicht funktioniert. Wo kommen wir denn dahin: Pay as you go! Aber die Cloud Anbieter müssen hier etwas ändern, sonst werden sie von Seiten der Kunden früher oder später ihr blaues Wunder erleben. Sie müssen sich an dieser Stelle mit mehr Transparenz und Glaubwürdigkeit durch eine strengere Selbstkontrolle und Verpflichtung gegenüber ihren Kunden abheben.

Die Erstattung der Kosten für einen nicht verfügbaren Service ist das eine. Aber wie schaut es mit Vertragsstrafen aus, wenn ich als Unternehmen auf Grund des Ausfalls meinen Kunden wiederum nicht die erwartete Serviceleistung erbringen kann und von diesem wiederum in Regress genommen werde bzw. wenn ich dadurch Umsatzeinbußen habe. Hier halten sich die Cloud Anbieter derzeit (noch) schön raus. Ich denke hier gibt es eine Menge Stoff für Diskussionen. Rechtsanwälte bitte zuerst. 😛


Bildquelle: http://www.deerns.nl

Categories
News

NetSuite veröffentlicht Commerce-as-a-Service Plattform SuiteCommerce

Mit SuiteCommerce präsentiert NetSuite seine Commerce-as-a-Service (CaaS) Plattform, die das Unternehmen selbst als eine einheitliche Schnittstelle für sämtliche e-Commerce Aktivitäten betrachtet. NetSuite geht damit in den Wettbwerb zu bestehenden Cloud basierten e-Commerce Plattformen wie Demandware.

Zwar hat NetSuite seit längerem e-Commerce Technologien im Portfolio. Allerdings zielt diese neue Lösung darauf ab, alle bisherigen Lösungen zu ersetzen. Glaubt man CEO Zach Nelson, nutzen e-Commerce Kunden nicht mehr nur die klassischen Webseiten bzw. Webshops für ihre Einkäufe, sondern greifen vermehrt auf Smartphones und Social Media zurück oder gehen tatsächlich noch “analog” einkaufen, kaum zu glauben. Hier will SuiteCommerce ansetzen und alle möglichen Arten von Transaktionen verarbeiten, selbst dann, wenn die Schnittstelle zum Kunden noch nicht definiert ist.

Das sich das Thema e-Commerce defintiv auf mobile Endgeräte verlagert hat, zeigen Lösungen wie der Amazon Windowshop für das iPad oder deutsche Startups wie CouchCommerce.

Aber auch neue Labels wie Adidas Neo versuchen neue Wege im Store selbst zu gehen, indem der Kunde von sich Photos macht und diese mit seinen Twitter Follower und Facebook Freunden teilt, um deren Meinung (in Echtzeit) zu erhalten. Da bekommt das Thema digitaler Einkaufsberater doch eine völlig neue Bedeutung, wenn man sich überlegt, dass der Facebook “Freund” aus den USA bestimmt, was der Deutsche tragen soll und sich vielleicht ein wenig ins Fäustchen lacht, da dieser Trend in den USA bereits längst out ist.

SuiteCommerce gibt es in zwei Varianten. Die eine nennt sich “SuiteCommerce Experience” und dient der parallelen Entwicklung von Benutzeroberflächen für mehrere Endgeräte. Bei der anderen handelt es sich um eine Reihe von Services, mit der die unter “SuiteCommerce Experience” entwickelten Schnittstellen mit den Back-End Komponenten, wie das Abrechnungs- und Bestellmanagement, des NetSuite Kernsystems verbunden werden. Unternehmen die bereits über ein ERP System z.B. von Oracle oder SAP verfügen, können SuiteCommerce auch separat nutzen und mit dem jeweiligen ERP-System integrieren.

Die Kosten der Version für kleine- und mittelständische Unternehmen starten bei 1.900,00 Dollar pro Monat, wohingegen die Enterprise Version erst ab 3.900,00 Dollar zu haben ist.


Bildquelle: http://www.port80.it

Categories
Analysen

Nach der Cloud, wird Amazon auch der Big Data Gigant?

IaaS Cloud Infrastrukturen haben auf Grund ihrer Skalierbarkeit die idealen Voraussetzungen für die Verarbeitungen großer Datenmengen, wodurch Big Data ein idealer Anwendungsfall für Cloud Computing ist. Aber welcher Anbieter wird das Rennen um die Verarbeitung machen?

Big Data ist ein idealer Anwendungsfall für das Cloud Computing

Amazon Web Services

Ein Kandidat ist Amazon. Zum einen hat das Unternehmen auf Grund seines Kerngeschäfts, dem Web-Shop, eine große Expertise bei der Verarbeitung und Analyse großer Datenmengen aufgebaut und diese, betrachtet an der Evolution und dem Funktionsumfang der Webseite, stetig weiterentwickelt. Hinzu kommen aber auch die Amazon Web Services und der darunter liegenden massiv skalierbaren Infrastruktur, die ideal für die Verarbeitung von Big Data ist und die Unternehmen nutzen können, um dort Anwendungen für die Analyse ihrer Daten zu betreiben. Dazu stehen mit Amazon EC2, Amazon S3 und Amazon Elastic MapReduce gut miteinander zu kombinierende Services zur Verfügung. Neben dem Service AWS Import/ Export, mit dem große Datenmengen auf dem Postweg an Amazon geschickt werden können, die von Amazon dann direkt in die Cloud kopiert werden, hat sich Amazon mit der vor kurzem angekündigten Kooperation mit dem Private Cloud Infrastruktur-Software Anbieter Eucalyptus zudem eine gute Ausgangsposition geschaffen, um Unternehmen die Möglichkeit zu geben, über eine Hybrid Cloud Daten aus der Private in die Amazon Cloud übertragen zu lassen.

Google

Google hat ebenfalls viel Erfahrung bei der Verarbeitung großer Datenmengen, was u.a. auf die Indexierung des Internets und die damit verbundene Suche zurückzuführen ist – ebenfalls beides Kerngeschäfte von Google. Hinzu kommt, das Google kürzlich mit Google BigQuery einen neuen Service für Entwickler vorgestellt hat, auf dem Anwendungen entwickelt werden können, um Big Data zu verarbeiten. Dieser befindet sich aktuell aber noch in der geschlossenen Betaphase.

Anders als die Amazon Web Services scheint Google allerdings nicht so konsequent auf das Business getrimmt zu sein. Zudem wirkt Google an vielen Stellen immer noch wie ein großer Spielplatz für die eigenen Entwickler, was natürlich immer wieder gute Innovationen hervorbringt, Google sich aber bereits eingestehen musste, dass einige Services doch einfach mehr Kapital verbrennen als Nutzen ergeben. So wurde die Google App Engine anfangs stark gepushed, hat im Laufe der Zeit aber etwas an Innovation verloren.

Microsoft

Microsofts Kerngeschäft hat im Vergleich zu Amazon oder Google in erster Linie nichts mit der Verarbeitung großer Datenmengen zu tun. Dennoch steht mit Windows Azure ebenfalls eine skalierbare Infrastruktur bereit, auf der Unternehmen Big Data analysieren können.

Im Vergleich zu Google oder Amazon ist Microsoft aber bereits schon dort lange angekommen, wo die beiden erst genannten erst zielstrebig hinwollen, das Business. Microsoft sollte die Herausforderungen und Wünsche, insbesondere bei den renommierten Unternehmen, kennen und gezielt darauf eingehen können.

Erste infrastrukturelle Schritte hat Microsoft bereits mit der Unterstützung von Hadoop auf Azure unternommen und eine Agenda zeigt die weiteren Vorhaben für das Jahr 2012. So wird das Unternehmen mit Hilfe von Hortonworks und einer ODBC Schnittstelle Apache Hadoop an Microsofts Excel anbinden und so Big Data ins Büro bringen. Damit können Business Intelligence (BI) Tools einen direkten Zugang zu einem Hadoop Cluster erhalten und via Excel Pivot-Analysen durchgeführt werden.

Die Anderen

Es existieren eine Vielzahl an Unternehmen, die mit Big Data tagtäglich in ihrem Kerngeschäft konfrontiert werden. Dazu gehören bspw. ebay, Facebook, XING, LinkedIn oder auch Twitter. Allerdings bietet keines dieser genannten Unternehmen einen Public Cloud Service an, mit dem Big Data von Dritten verarbeitet werden könnte. Die Kosten für den Ausbau einer stärker skalierbaren Infrastruktur wären wohl auch zu hoch.

Allerdings sollten auch renommierte Unternehmen wie SAP, IBM oder Oracle im Bereich Big Data nicht aus den Augen gelassen werden. Die Expertise aus dem Kerngeschäft ist zweifelsohne vorhanden.


Bildquelle: https://www.emcforums2011.com, http://www.techweekeurope.es

Categories
News

Microsoft erweitert sein CRM mit Social Media und verbindet es mit Office 365

Mit der Erweiterung seiner Dynamics CRM Online und On-Premise Produkte mit Facebook-und Twitter-ähnlichen Social Media Funktionen will Microsoft die Zusammenarbeit verbessern und hat zudem den CRM Cloud-Service mit Office 365 verknüpft.

Kunden, die sowohl CRM Online als auch Office 365 nutzen erhalten nun eine gemeinsame Verwaltungs-, Abrechnungs- und Provisioning-Plattform, lässt Microsoft in einer Pressemitteilung verkünden. Zusätzlich bekommt Dynamics CRM jetzt Social Media Funktionen, einschließlich Activity Feeds, ähnlich der Facebook Beiträge, die von Microsoft als konfigurierbare Echtzeit-Benachrichtigungen für wichtige Beziehungen und wesentliche Geschäftsvorgänge beschrieben werden.

Neben dem Micro-Blogging ähnlich Twitter oder der Facebook Timeline, in der ein Benutzer Statusupdates und Benachrichtigungen schreiben kann, sollen per “Conversations” die Nutzer besser zusammenarbeiten können, um darüber schneller an Informationen zu gelangen und von Erfahrungen anderer zu profitieren.

Eine weitere Funktion sind die “Automated Activity Updates”, mit denen auf Basis von hinterlegten Regeln automatisch Nachrichten in die Timeline geschrieben werden, bspw. wenn ein Auftrag abgeschlossen wurde. Kollegen können einem “Activity Feed” folgen um darüber ständig informiert zu sein.

Die letzte Erweiterung sind die “Mobile Activity Feeds”. Dabei handelt es sich um eine neue mobile Anwendung speziell für Microsoft Dynamics CRM, mit der Nutzer von Windows 7 Smartphones “Activity Feeds” Statusupdates auch dann verfolgen können, wenn sie nicht im Büro sind.

Categories
Services @de

Facebook macht CRM mit Sales Cloud

München – Facebook hat für das Management seiner wachsenden Vertriebsaktivitäten die CRM-Lösung Sales Cloud von salesforce.com ausgewählt. Der Social Networking Anbieter stand vor der Entscheidung, das eigene System weiter auszubauen oder eine komplett neue Lösung einzusetzen. Die Vorteile eines webbasierten Ansatzes haben überzeugt: Durch die schnelle Implementierung und die hohe Skalierbarkeit kann die Cloud Computing Lösung mühelos mit der rasanten Wachstumsgeschwindigkeit eines Unternehmens wie Facebook Schritt halten. Das neue CRM-System wird bei allen Vertriebsteams sowie für das Management der Entwicklerpartnerschaften eingesetzt, um komplexe Workflows und Freigabeprozesse zu automatisieren.

Kommentare:
Sheryl Sandberg, Chief Operations Officer bei Facebook: „Facebook und salesforce.com teilen eine Vision: Wir wollen Menschen dabei unterstützen, miteinander in Kontakt zu treten und Informationen effizienter auszutauschen. Das Cloud Computing Modell von salesforce.com passt perfekt zu uns. Mit unserer derzeitigen Wachstumskurve und den zukünftigen Vertriebszielen brauchen wir ein Produkt, das mit uns mit wachsen kann.“

Marc Benioff, Gründer und CEO von salesforce.com: „Facebook schließt sich den Tausenden von Unternehmen an, die ihre Vertriebsaktivitäten bereits in der Cloud verwalten. Damit können sich Vertriebsverantwortliche auf das Wachstum des Unternehmens konzentrieren, anstatt auf die Bedienung von Hard- und Software.“