Categories
Analysen

Was Unternehmen aus dem Amazon EC2 Problem in North Virginia lernen sollten!

Am 21. April haben wir es wieder erlebt. Auch eine hochverfügbare Cloud wie die von Amazon ist nicht vor Fehlern geschützt. Natürlich erhalten Kritiker nun wieder die Gelegenheit gegen die Nutzung der Cloud zu argumentieren. Aber um es vorweg zu nehmen, Anbieter wie Hootsuite, Mobypicture, Foursquare und Reddit hätten von dem Ausfall nicht betroffen sein müssen, hätten Sie auf eine ausfallsichere Architektur gesetzt.

Aus diesem Grund ist es nicht nachvollziehbar, dass diese Unternehmen mit dem Finger auf Amazon zeigen und sagen: “Uns trifft keine Schuld, Amazon ist down!”. Es wäre interessant zu wissen, wer zur Rechenschaft gezogen worden wäre, hätten diese Anbieter keinen Public Cloud Service genutzt, sondern betrieben ein eigenes Rechenzentrum. Denn eines ist klar, (solche) Probleme können in jedem Rechenzentrum auftreten und hätten dann bedeutend schwerwiegendere Probleme. Und wenn die Cloud richtig genutzt worden wäre, wären auch die Probleme bei Amazon in der Form nicht sichtbar geworden.

Was ist passiert?

Hintergrund
Die Amazon Cloud besteht aus mehreren Regionen, verteilt über mehrere Kontinente, in denen sich wiederum mehrere sogenannte Availability Zones befinden. Availability Zones sind verschiedene Standorte innerhalb einer Region, die so konstruiert sind, dass sie isoliert betrieben werden und von Fehlern in anderen Availability Zones nicht betroffen sind.

Durch das Starten von Instanzen in separaten Regionen, können Web Anwendungen so konstruiert werden, dass sich diese geographisch in der Nähe von bestimmten Kunden befinden und rechtlichen oder anderen Anforderungen gerecht werden.

Weiterhin werden Anwendungen vor dem Ausfall eines einzelnen Standorts geschützt, indem Instanzen in separaten Availability Zones ausgeführt werden.

Wie das Konzept genau funktioniert, kann unter Das Konzept hinter den AWS Regionen und Verfügbarkeitszonen nachgelesen werden.

Das Problem
Um 1:41 AM PDT begann das Problem mit Latenzen und Fehlerraten innerhalb der EBS Volumes und Verbindungsproblemen zu den EC2 Instanzen in mehreren Availability Zones der Region US-EAST-1.

Das führte dazu, dass die Webseiten bzw. Webanwendungen, die auf den EC2 Instanzen betrieben werden, nicht mehr erreichbar waren.

Design For Failure

Zunächst muss eines klar sein. Amazon stellt “nur” virtuelle Ressourcen zum Aufbau einer eigenen virtuellen Infrastruktur bereit. Amazon ist NICHT für die Anwendung und deren Funktionalität zuständig, sondern stellt nur die Infrastruktur bereit, auf der die Anwendungen ausgeführt werden.

“Everything fails, all the time” Werner Vogels, CTO Amazon.com

Aus diesem Grund rät Amazon: “Design for failure!” und gibt Tipps, dieses umzusetzen:

  • Avoid single points of failure
  • Assume everything fails, and design backwards
  • Goal: Applications should continue to function even if the underlying physical hardware fails or is removed or replaced.

Und nennt Möglichkeiten für die Realisierung des Designs:

  • Use Elastic IP addresses for consistent and re-mappable routes
  • Use multiple Amazon EC2 Availability Zones (AZs)
  • Create multiple database slaves across AZs
  • Use Amazon Elastic Block Store (EBS) for persistent file systems

Design for failure! Ist im Prinzip nichts Neues. Im Grunde sollte das ebenfalls bei jedem anderen nicht Cloud Anbieter und im eigenen Rechenzentrum beachtet werden. Der Entwickler sollte immer in der Pflicht stehen, seine Anwendung gegen Hardware oder sonstige Ausfälle abzusichern und die Verfügbarkeit sicherzustellen.

Hootsuite und Mobypicture bspw. haben den Fehler gemacht, sich nur auf eine AWS Region zu konzentrieren, anstatt ihren Service über die gesamte Amazon Cloud hinweg zu verteilen. Speziell bei Mobypicture, als einen europäischen Anbieter mit Sitz in Holland, ist genau dies ein wenig verwunderlich. Die deutsche Seite von Foursquare hingegen war bspw. erreichbar und lief stabil, ebenso die von Reddit.

Nicht alles auf eine Karte setzen

Für jedes Unternehmen, das seinen Service über die Cloud anbietet, gilt es daher: “Nutze die gesamte Cloud eines Anbieters und verlasse Dich nicht nur auf einen einzigen Anbieter!”

Durch die Verteilung einer Anwendung über mehrere Regionen und Availability Zones bei einem Anbieter wird die Verfügbarkeit der Anwendung drastisch erhöht. Zudem ist eine MultiVendor Strategie zwingend erforderlich. Außerdem müssen bereits von Beginn an Fallback Szenarien entwickelt werden, um gegen einen plötzlichen Ausfall vorbereitet zu sein.

Es geht also bspw. darum, Systeme aufzubauen, die im Fehlerfall automatisch eine gespiegelte Infrastruktur bei einem anderen Anbieter aufbauen. Besser wäre es, mehrere Anbieter parallel zu nutzen und die Services über mehrere Anbieter hinweg zu verteilen. Dazu gehört z.B.: Instanzen von unterschiedlichen Anbietern parallel produktiv einzusetzen, um damit das Risiko zu streuen.

Denn: Cloud Computing löst nicht alle Probleme automatisch…

Für die Zukunft

Amazon darf auf keinen Fall von einer Schuld freigesprochen werden, dazu werben sie viel zu deutlich mit der eigenen Verfügbarkeit. Dennoch, beim Cloud Computing handelt es sich um bedeutend mehr als nur das Nutzen von ein paar virtuellen Ressourcen und jeder Nutzer der Cloud ist für die Verfügbarkeit seiner Anwendung selber verantwortlich. Dafür stehen ihm ausreichend Mittel und Wege auf Grund der Cloud zur Verfügung!

Categories
News

Amazon kämpft in North Virginia mit seiner Cloud

Seit 1:41 AM PDT kämpfen die Amazon Web Services mit Problemen in ihrer Amazon Elastic Compute Cloud in North Virginia. In Bezug auf Ihre Status Seite, begann das Problem mit Latenzen und Fehlerraten innerhalb der EBS Volumes und Verbindungsproblemen zu den EC2 Instanzen in der Region US-EAST-1.

Viele Webseiten und Anbieter, die EC2 nutzen, um ihre Services anzubieten, wie Hootsuite oder Mobypicture sind aktuell nicht erreichbar.

Hier sind die derzeit aktuellen Fakten zu der Amazon Elastic Compute Cloud (N. Virginia) auf Basis von http://status.aws.amazon.com.

1:41 AM PDT We are currently investigating latency and error rates with EBS volumes and connectivity issues reaching EC2 instances in the US-EAST-1 region.

2:18 AM PDT We can confirm connectivity errors impacting EC2 instances and increased latencies impacting EBS volumes in multiple availability zones in the US-EAST-1 region. Increased error rates are affecting EBS CreateVolume API calls. We continue to work towards resolution.

2:49 AM PDT We are continuing to see connectivity errors impacting EC2 instances, increased latencies impacting EBS volumes in multiple availability zones in the US-EAST-1 region, and increased error rates affecting EBS CreateVolume API calls. We are also experiencing delayed launches for EBS backed EC2 instances in affected availability zones in the US-EAST-1 region. We continue to work towards resolution.

3:20 AM PDT Delayed EC2 instance launches and EBS API error rates are recovering. We’re continuing to work towards full resolution.

4:09 AM PDT EBS volume latency and API errors have recovered in one of the two impacted Availability Zones in US-EAST-1. We are continuing to work to resolve the issues in the second impacted Availability Zone. The errors, which started at 12:55AM PDT, began recovering at 2:55am PDT

5:02 AM PDT Latency has recovered for a portion of the impacted EBS volumes. We are continuing to work to resolve the remaining issues with EBS volume latency and error rates in a single Availability Zone.

Amazon CloudWatch (N. Virginia)

2:26 AM PDT We are working on restoring connectivity to a small number of EC2, EBS, and RDS resources in multiple availability zones in the US-EAST-1 region. While we restore connectivity, CloudWatch metrics for those resources will be delayed.

3:04 AM PDT We are continuing to see connectivity issues impacting EC2, EBS, and RDS resources in multiple availability zones in the US-EAST-1 region. While we restore connectivity, CloudWatch metrics for those resources will be delayed. We continue to work towards resolution.

4:47 AM PDT CloudWatch metrics are delayed for some EBS and RDS resources in the US-EAST-1 region. The delays began at 12:55AM PDT. We have isolated the impact to a single availability zone, and are working towards a full resolution.

Amazon Relational Database Service (N. Virginia)

1:48 AM PDT We are currently investigating connectivity and latency issues with RDS database instances in the US-EAST-1 region.

2:16 AM PDT We can confirm connectivity issues impacting RDS database instances across multiple availability zones in the US-EAST-1 region.

3:05 AM PDT We are continuing to see connectivity issues impacting some RDS database instances in multiple availability zones in the US-EAST-1 region. Some Multi AZ failovers are taking longer than expected. We continue to work towards resolution.

4:03 AM PDT We are making progress on failovers for Multi AZ instances and restore access to them. This event is also impacting RDS instance creation times in a single Availability Zone. We continue to work towards the resolution.

5:06 AM PDT IO latency issues have recovered in one of the two impacted Availability Zones in US-EAST-1. We continue to make progress on restoring access and resolving IO latency issues for remaining affected RDS database instances.

AWS CloudFormation (N. Virginia)

3:29 AM PDT We are experiencing delays in creating and deleting stacks that include EBS, EC2 and RDS resources in multiple availability zones in the US-EAST-1 region. Existing stacks are not impacted.

AWS Elastic Beanstalk

3:16 AM PDT We can confirm increased error rates impacting Elastic Beanstalk APIs and console, and we continue to work towards resolution.

4:18 AM PDT We continue to see increased error rates impacting Elastic Beanstalk APIs and console, and we are working towards resolution.

Categories
Management @de

DataCenter 2020

Unter dem Namen “DataCenter 2020” entwickeln Intel und T-Systems zusammen das Rechenzentrum der Zukunft.

Von moderner Technologie erwarten Anwender heute mehr als nur Performance. Intel und T-Systems stellen in den Mittelpunkt ihrer Technologie-Partnerschaft deshalb Themen wie zukunftsweisende Geschäftsmodelle und Energieeffizienz für Anwender und Kunden. Intel und T-Systems haben sich unter dieser Prämisse gemeinsam das Ziel gesetzt, zukunftsweisende ICT-Lösungen zu entwickeln, die sowohl höchst energiesparend arbeiten als auch Kosten einsparen und neue ICT-Services ermöglichen. Die Ergebnisse der gemeinsamen Arbeit werden ganz nach dem Open-Source-Prinzip veröffentlicht und können von jedem Interessierten genutzt werden

Die strategische Partnerschaft von Intel und T-Systems hat sich das ambitionierte Ziel gesetzt, gemeinsam an Lösungen zu arbeiten, die es Kunden ermöglichen neueste flexible Lösungen einzusetzen, Betriebskosten einzusparen und den Energieverbrauch ihrer IT zu reduzieren. Im Fokus steht dabei unter anderem die Konzeption eines Rechenzentrums der Zukunft. Basierend auf der Intel Architektur und umfassenden Lösungen von T-Systems stehen zudem neue PC-Arbeitsplatzkonzepte sowie die Themen Gesundheits- und Bildungswesen auf der Agenda.

Der Kern der Zusammenarbeit beider Unternehmen fokussiert sich auf essentielle Fragen des Einsatzes von Technologie heute und in naher Zukunft. Daher sollen die Ergebnisse ihrer Kooperation und entsprechende Handlungsempfehlungen öffentlich für jedermann zugänglich gemacht werden. Womit sich Intel und T-Systems versprechen, das Innovationstempo in der gesamten IT Industrie zu beschleunigen. Beide sehen darin eine Win-Win-Win Situation für die Anwender, die Branche und die beiden Partner.

Webseite:http://www.datacenter2020.de

Categories
Analysen

Wo bleibt der Killer PaaS?

Es gibt nunmehr eine Vielzahl von Platform as a Service (PaaS) Angeboten auf dem Markt, die mehr oder weniger jede moderne Programmiersprache unterstützen. Doch eines haben alle gemeinsam. Jedes Angebot setzt auf maximal einem Infrastructure as a Service (IaaS) Angebot auf. Sei es ein Proprietäres oder das eines Drittanbieters. Wie zu erwarten ist derzeit noch die Infrastruktur von AWS die bevorzugte Wahl.

Betrachten wir eine kleine Auswahl von PaaS Angeboten und das darunter eingesetzte IaaS Angebot.

Was also fehlt ist ein unabhängiges gehostetes PaaS Angebot. Eine richtige PaaS Innovation! Eine Art PaaS Broker. SteamCannon geht in diese Richtung. Jedoch ist er 1. kein unabhängiger gehosteter Service (es steht ein AWS AMI zur Verfügung) und 2. wird derzeit nur AWS EC2 unterstützt.

Selbstverständlich muss der Service auch auf einer Plattform betrieben werden, aus diesem Grund mag das Verlangen nach einem unabhängigen gehosteten Service zunächst missverständlich sein. Aber bereits hier muss die Macht der Cloud genutzt werden. Der Killer PaaS darf nicht nur als AMI auf einer Infrastruktur laufen, sondern muss über mehrere Anbieter hinweg verteilt sein. So ist bereits dessen Ausfallsicherheit gewährleistet.

Der Killer

Warum ich diesen Service als Killer PaaS bezeichne ist ganz einfach. Er muss alle IaaS Anbieter und nicht nur einen bestimmten am Markt, sowie alle gängigen Programmiersprachen, unterstützen. Die Funktionalität ist in der Theorie recht simpel. Als Nutzer des Killer PaaS habe ich bereits vorher bei unterschiedlichen IaaS Anbietern wie AWS, Rackspace, GoGrid etc. einen Account registriert. Alternativ bietet mir der Killer PaaS an, dort einen erstellen zu lassen.

Nach belieben werden die Zugangsdaten für den jeweiligen IaaS Anbieter hinterlegt, auf die der Killer PaaS zugreifen kann. Ich kann bereits hier, wenn ich möchte, meinen primäre, sekundären etc. Anbieter festlegen. Mehr habe ich als Nutzer nicht zu tun.

Möchte ich meine Anwendungen in der Cloud betreiben, lade ich den Programmcode auf den Killer PaaS hoch. Dieser kümmert sich nun um den Rest und deployed die Anwendung auf die von mir hinterlegten Infrastrukturen. Das kann er entweder willkürlich vornehmen, da er den Status der jeweiligen Infrastruktur bzgl. Performance etc. kennt, oder er zieht die von mir vorher festgelegten Einstellungen in betracht und verteilt die Anwendung auf den primären Anbieter. Falls dieser zu ausgelastet ist auf den Sekundären usw..

Der Killer PaaS ist so intelligent, dass er die gesamte Anwendung über mehrere Anbieter hinweg verteilt und damit die bestmögliche Performanz und Verfügbarkeit gewährleistet. Habe ich mich als Nutzer jedoch zu Beginn dafür entschieden die Anwendung bei einem primären Anbieter ausführen zu lassen und hat dieser nun Performance- oder anderweitige Probleme, sorgt der Killer PaaS dafür, dass automatisch weitere (oder alle) Ressourcen von einem anderen Anbieter genutzt werden. Mir sind Fälle bekannt, bei denen Anwender bei AWS keine neuen Instanzen in einer AWS Region mehr starten konnten, weil nicht genügend Ressourcen vorhanden waren. Davon darf ich bzw. meine Anwendung jedoch nichts mitbekommen. Wenn meine Anwendung plötzlich einer enormen Belastung, z.B. auf Grund eines Besucherandrangs, ausgesetzt ist und der IaaS Provider ebenfalls einen Ressourcenengpass hat, sorgt der Killer PaaS dafür, dass Ressourcen von einem anderen Anbieter bezogen oder andere Maßnahmen eingeleitet werden.

Mit so einem Killer PaaS können ebenfalls viele Fragen bzgl. SLAs geklärt werden. Die Ausfallsicherheit und Verfügbarkeit der Anwendung wird hier durch den Killer PaaS sichergestellt. Da dieser ebenfalls über mehrere IaaS Anbieter hinweg in der Cloud betrieben wird, ist auch dessen Verfügbarkeit gewährleistet.

Was also benötigt wird ist eine unabhängige Cloud Management Platform wie bspw. enstratus, nur für PaaS.

Categories
Comment

Searching for the Killer PaaS!

There are a variety of Platform as a Service (PaaS) offerings on the market by now. Each supports more or less every modern programming language. But one thing they have all together! Each offering uses a maximum of one Infrastructure as a Service (IaaS) provider. Whether it is a proprietary or a third party. As expected, the infrastructure of AWS is still the preferred choice.

Let’s have a look on a small variety of PaaS offerings and the underlying IaaS offering.

So what is missing is an independent hosted PaaS offering. A real PaaS innovation! A kind of PaaS Broker. SteamCannon goes in this direction. However, he is 1. not an independent hosted service (there is just one AWS AMI available) and 2. only AWS EC2 is currently supported.

Of course, the service must be run on a platform. For this reason, the desire for an independent hosted service is a little bit mistakable initially. But even here, the power of the cloud must be used. The Killer PaaS must not only run as an AMI on one infrastructure, but must be distributed across multiple providers. This has already ensured its reliability.

The Killer

Why I describe this service as a Killer PaaS is easy. It must support all IaaS provider on the market and not just one, plus all popular programming languages. The functionality is quite simple in theory. As a user of the Killer PaaS I have previously registered at different IaaS providers such as AWS, Rackspace, GoGrid, etc. for an account. Alternatively, the Killer PaaS offers me to create one. The credentials for each IaaS provider are deposited, which will be accessible to the Killer PaaS. Here I already can set my primary, secondary, etc. provider. As a user I have nothing to do more.

If I would like to run my applications in the cloud, I upload the code on the killer PaaS. It is now taking care of the rest and deployed the application on my deposited infrastructures. It can either make it arbitrary, since it knows the status of the infrastructure with respect to performance, etc., or it takes the settings I previously defined and distributed the applications to the primary provider. If this is too busy on the secondary, etc.

The killer PaaS is so smart that it distributed the entire application across multiple vendors and thus ensures the best possible performance and availability. If I decided to let the application run on a primary provider and he has now performance or other problems, the Killer PaaS makes sure that more (or all) resources automatically be used from another provider. I know cases in which AWS users couldn’t run new instances in a AWS region because not enough resources were available. However, my application may not notice anything like this. If my application suddenly exposed to an enormous burden, e.g. due to a run of visitors, and the IaaS provider also has a resource bottleneck, the Killer PaaS makes sure that available resources from another IaaS providers will be applied, or other measures are taken.

With such a Killer PaaS even many questions can be answered with respect to SLAs. The reliability and availability of the application here is ensured by the Killer PaaS. Since it is also run over several IaaS provider in the cloud, its availability is also ensured.

So what is needed is an independent Cloud Management Platform such as enstratus, just for PaaS.

Categories
Services @de

Big Blues Kampf im Jungle – IBM gegen Amazon

Mit den “Smart Business Clouds” hat nun auch IBM seine Public Cloud Infrastruktur für Unternehmenskunden vollständig geöffnet und hat angekündigt im Laufe des Jahres ein weiteres Angebot mit einer deutlich höheren Verfügbarkeit zu veröffentlichen.

IBMs “Smart Business Clouds” (SmartCloud) bestehen aus den eigenen vorkonfigurierten x64-basierten CloudBurst Stacks und werden in einer Vielzahl von Cloud Rechenzentren überall auf der Welt betrieben. IBM unterscheidet seine SmartCloud in den Angeboten Enterprise und Enterprise+, die von den IBM’s Global Technology Services vertrieben werden.

Die bereits verfügbare “SmartCloud Enterprise” Infrastruktur umfasst ausschließlich x64-basierte Server und bietet ein Service Level Agreement (SLA) mit einer Verfügbarkeit von 99,5%. Weiterhin unterstützt IBM auf seinen virtuellen Maschinen 32-bit und 64-bit Betriebssysteme wie Microsoft Windows 2003 und 2008, Red Hat Enterprise Linux 5.4 und 5.5 und Novell SUSE Linux Enterprise 11

Die “SmartCloud Enterprise+” Infrastruktur wird in der zweiten Jahreshälfte von 2011 erwartet. Kunden erhalten hier die Möglichkeit, x64 basierte oder Power Server zu kaufen, auf denen sie ihre Anwendungen betreiben können. Hier erhöht IBM zudem seine SLAs auf 99,9% Verfügbarkeit

Im Gegensatz zu seinem Angebot “Smart Business Development and Test on the IBM Cloud”, bei dem IBM als Hypervisor auf eine RedHat/ KVM Kombination setzt, nutzen die “SmartClouds” den VMware ESXi Hypervisor. Um auch Kunden zu bedienen, die auf andere Hypervisor setzen als den von VMware, wird IBM dazu übergehen müssen, ebenfalls KVM und Microsofts Hyper-V zu unterstützen. Auf den Power Servern in der “SmartCloud Enterprise+” setzt IBM auf seinen eigenen PowerVM Hypervisor und unterstützt hier die Betriebssysteme AIX Unix, Red Hat Enterprise Linux, sowie den SUSE Linux Enterprise Server.

Die Abrechnung der SmartClouds erfolgt pro VM pro Stunde. Zudem steht ein Softwarekatalog bereit, aus dem sich Kunden IBM spezifische Anwendungen wie Middleware, Groupware und Datenbanken, sowie Anwendungen von Drittanbietern wie die Cloud Management Software von Kaavo oder Plattformen zur Entwicklung von Webanwendungen wie von Aviarc, beziehen können.

Die Preise für die SmartClouds sind ebenfalls öffentlich. Vergleichbar mit Amazons EC2 rechnet IBM auch hier on-Demand ab und bietet seinen Kunden Optionen auf reservierte Kapazitäten. Das “SmartCloud Enterprise+” Angebot hingegen wird nicht stündlich on-Demand abgerechnet. Hier muss sich der Kunde entweder für eine monatliche Abrechnung oder einen festen Vertrag mit Laufzeit entscheiden. Jedoch stehen ihm hier weitere Managed Services, sowie mehrere Sicherheitsstufen zur Verfügung.

Wie ebenfalls von Amazon EC2 bekannt, kann ein Kunde auch bei den “SmartClouds” zwischen unterschiedlichen Konfigurationen von virtuellen Maschinen wählen. Je nach Leistungsstufe wird hier von Copper bis Platinum unterschieden.

Für eine 32-bit Konfiguration kann je nach Leistungsstufe zwischen 1 bis 4 virtuellen CPUs mit 1,25 GHz, zwischen 2GB bis 4GB virtuellen RAM und zwischen 60GB und 350GB virtuellen Instanzspeicher gewählt werden. Für einen Red Hat Enterprise Linux Server und einer Copper Konfiguration berechnet IBM 15.4 Dollar(cent) pro Stunde.

Für eine 64-bit Konfiguration kann je nach Leistungsstufe zwischen 2 bis 16 virtuellen CPUs mit 1,25 GHz, zwischen 4GB bis 16GB virtuellen RAM und zwischen 60GB und 2TB virtuellen Instanzspeicher gewählt werden.

Im Vergleich zu Amazon EC2 ist die IBM SmartCloud erheblich teurer, was aber daran liegt, das IBM mit seinem Angebot gezielt nur Unternehmen anspricht. So kostet die kleinste 32-bit Copper Instanz mit einem SUSE Enterprise Linux Server 11.0 0,095 Dollar pro Stunde und eine 64-bit Platinum Instanz mit einem Red Hat Linux Enterprise Server 5.4 und 5.5 1,84 Dollar pro Stunde. (Jeweils für nicht reservierte Kapazitäten.)

Das sich das Angebot an Unternehmen richtet, wird bei der Registrierung deutlich. Hier kann zwischen weiteren “Optional Premium Services” wie “On-boarding support” (Remote on-boarding support | Einmalig 3.000 Dollar), “Virtual Private Network service” (Network isolation of your instances through a virtual private network on the IBM Cloud | Einmalig 1.000 Dollar plus 300 Dollar monatlich) oder weiterem “Support” unterschieden in “Premium support” für 5% von der Gesamtnutzungsgebühr pro Monat (aber mindestens 75$ pro Monat) und “Advanced Premium support” für 10% von der Gesamtnutzungsgebühr pro Monat (aber mindestens 1000$ pro Monat), gewählt werden.

Die SmartCloud Enterprise Infrastruktur befindet sich in unterschiedlichen Cloud Rechenzentren überall auf der Welt. Kunden aus den USA beziehen die Services aus Raleigh in North Carolina und Boulder in Colorado. Kanadische Kunden werden aus Toronto in Ontario bedient. Für Europa, den mittleren Osten und Afrika werden die Services über ein Rechenzentrum aus Ehningen in Deutschland bereitgestellt, sowie für asiatische Kunden über ein Rechenzentrum in Singapur und Tokio.

Fazit

Für Unternehmenskunden sind die IBM “SmartCloud Enterprise Services” auf Grund ihrer umfangreichen Serviceleistungen ein attraktives wenn auch teures Angebot. Ob IBM damit tatsächlich den Kampf mit Amazon aufnehmen kann und möchte bleibt fraglich. Denn einen entscheidenen und attraktiven Vorteil hat Amazon gegenüber IBM. Die AWS Cloud ist ein echtes Public Cloud Angebot und ist für jedermann zugänglich. So haben auch Entwickler oder “normale Menschen” mit einer Idee die Möglichkeit die Services von Amazon zu nutzen. IBM hingegen richtet sich gezielt an Unternehmenskunden und hat nicht den Bedarf auf die Wünsche einfacher Benutzer einzugehen.

Aus eigener Sicht betrachtet, muss IBM sich darauf auch nicht einlassen, da die Dienstleistungen seit jeher Unternehmen adressierten. Spannend bleibt, ob und wie Amazon darauf reagiert. Wie bereits oben erwähnt, kann sich Amazon jedoch darauf berufen, die “Cloud für jedermann” zu sein. Vor allem Startups, Entwickler mit innovativen Ideen und Fachabteilungen die “nur mal etwas ausprobieren wollen”, werden weiterhin auf Grund des unkomplizierten Ressourcenbezugs und der einfachen und kostengünstigen Abrechnung auf die AWS Cloud zurückgreifen.

Categories
Anbieter @de

Cloud Anbieter: Scopevisio

Description

Scopevisio bietet kleinen und mittleren Unternehmen kaufmännische Online-Lösungen
für Buchhaltung, Faktura, Kundenbeziehungs- und Projektmanagement. Die Kombination aller Anwendungen lässt eine komplett integrierte Unternehmenslösung entstehen, mit deren Hilfe Unternehmen jeder Größe durchgängige Geschäftsprozesse von der Kundengewinnung über die Angebots- und Rechnungserstellung bis hin zur Buchhaltung etablieren.

Category

  • Software as a Service

Products

  • Buchhaltungssoftware
  • Rechnungsprogramm
  • CRM-Software
  • Projektmanagementsoftware

Website

Categories
Anbieter @de

Cloud Anbieter: Emnis

Description

Emnis lenkt tägliche Akquise-Arbeit in geordneten Bahnen, verbessert den Organisationsgrad der Vertriebsmannschaft, hilft Mitarbeitern zielgerichteter und effizienter zu verkaufen. Umsatzerfolge werden wiederholbar. Das haben wir zuerst für uns selbst praktiziert, dann auch Unternehmerkollegen dabei geholfen.

Category

  • Software as a Service

Products

  • Verkaufsorganisation
  • Vertriebsdatenbank
  • Vertriebsplattform
  • CRM

Website

Categories
Anbieter @de

Cloud Anbieter: mite

Description

mite ist ein schlankes Online-Tool zur Erfassung und Auswertung von Arbeitszeit. Entworfen in enger Zusammenarbeit mit und für Teams und Freiberufler: Werbeagenturen, Architekten, Rechtsanwälte, Designer, Unis und und und.

mite gestaltet die Zeiterfassung für dich und dein Team so bequem wie möglich. Gib deine Zeiten manuell ein oder lass die Stoppuhr für dich arbeiten – sofort stehen ausführliche Reports parat. Zur Auswertung direkt in mite oder Programmen Dritter.

mite ist webbasiert. Du brauchst eine Internetverbindung, einen aktuellen Browser oder ein iPhone. Fertig. Kümmere dich um dein Business, nicht um Zeitfresser wie Installationen, Updates oder Wer-hat-denn-das-Excelsheet.

Category

  • Software as a Service

Products

  • Zeiterfassung

Website

Categories
Anbieter @de

Cloud Anbieter: Collmex

Description

Die Firma Collmex besteht seit 2003, hat bisher über 10.000 Kunden gewonnen und ist seit mehreren Jahren profitabel. Die beteiligten Entwickler waren über 10 Jahre bei der SAP AG in Entwicklung und Beratung tätig und verfügen über langjährige Erfahrung im Bereich Business-Software. Als SaaS Pionier ist Collmex heute einer der wichtigsten Anbieter von Online-Software für Unternehmen in Deutschland.

Category

  • Software as a Service

Products

  • Collmex komplettpakete – Warenwirtschaft, Buchhaltung, E-Commerce
  • Collmex buchhaltung – Buchhaltungssoftware für Nicht-Buchhalter
  • Collmex rechnung – Rechnungsprogramm mit Auftragsverwaltung

Website