Categories
Kommentar

Oracle treibt sein Cloud-Washing tapfer voran

Oracle arbeitet weiter an seiner Cloud-Washing Strategie und treibt sie vehement und ungeachtet jeder Kritik voran. Unter dem Namen “Infrastructure as a Service on Premise mit Capacity on Demand” bietet Oracle seine Hardware Unternehmen nun auch zur Miete für das eigene Rechenzentrum an.

Vorkonfigurierte Applikationsserver

Oracle erweitert sein Private Cloud Infrastruktur Angebot um die Möglichkeit, vorkonfigurierte Applikationsserver für eine monatliche Gebühr anzumieten, die dann im Rechenzentrum des Kunden installiert werden. Die von Oracle genannten “engineered systems” beinhalten Oracle Exadata Database Machine, Oracle Exalogic Elastic Cloud, Oracle Sparc SuperCluster, Oracle Exalytics In-Memory Machine und Oracle Sun ZFS Storage.

Die Idee soll darin bestehen, dass Oracle damit extra Kapazitäten bereitstellt, die über die bereits genutzten Ressourcen einer Oracle Private Cloud hinaus gehen. Genau das bezeichnet Oracle als Infrastructure-as-a-Service (IaaS), was allerdings mit einem IaaS Cloud Angebot nichts zu tun hat, sondern ganz gewöhnliche Oracle Rechenzentrumslösungen sind.

Ein Drei-Jahres-Vertrag ist kein Cloud!

Genauso wenig, wie es sich bei Oracles “Cloud Infrastructure” um ein echtes Cloud Angebot handelt, so schaut es mit dem neuen “Oracle IaaS On-Premise” aus. Der Drei-Jahres-Vertrag beinhaltet nur die Hardware für die Applikationsserver, die Wartung und ein gewisses Maß an Nutzung. Für die Oracle Software Lizenzen fallen weitere Kosten an. Zudem muss für “Peaks” bezahlt werden. Was das genau sein soll und was es kostet, wird nicht gesagt.

Oracle verliert den Anschluss

Leider wird immer deutlicher, wie Oracle dem Markt seine Philosophie vom Cloud Computing verkaufen will. Es wird schlichtweg die Hardware, Software usw., die früher teuer verkauft wurden, nun einfach vermietet und als Cloud bezeichnet!

Oracle scheint alles daran gelegen zu sein, den Anschluss im Cloud Markt nicht zu verlieren. Dafür haben sie jedoch nicht die richtige Strategie. Die echten Public Cloud Anbieter, allen voran Amazon Web Services, Windows Azure, Google und Rackspace werden Oracle immer stärker den Rang ablaufen. Auf der Private Cloud Seite sieht es für Oracle aber nicht besser aus. Hier sichern sich Anbieter wie openQRM-Enterprise, Eucalyptus, OpenStack-Partner und CloudStack immer mehr Marktanteile.

Categories
News

Die Amazon Web Services erweitern Amazon RDS um weitere Funktionen für Oracle Datenbanken

Die Amazon Web Services haben vier neue Funktionen für Amazon RDS for Oracle präsentiert. Darunter die Möglichkeit, die Datenbank in einer Private Cloud zu betreiben. Dazu können Unternehmen nun RDS (Relational Database Service) Instanzen mit einer Oracle Datenbank innerhalb einer VPC (Virtual Private Cloud) nutzen. Administratoren erhalten, im Vergleich zu einer Standard Instanz oder einer virtuellen Maschine, damit mehr Kontrolle.

Die Amazon Web Services erweiterten Amazon RDS um weitere Funktionen für Oracle Datenbanken

Erweiterter Oracle Support

Weitere neue Funktionen sind die Unterstüzung für Oracle APEX (Application Express), XML DB und Time Zone. Mit Time Zone können Administratoren Informationen zu Timestamps persistent speichern, wenn Benutzer die Amazon Web Services über mehrere Zeitzonen hinweg verteilt einsetzen.

Bei APEX handelt es sich um eine freies Web-basiertes Entwicklungstool für Oracle Datenbanken. Mit dem Tool sollen ebenfalls Entwickler mit geringen Programmierkenntnissen Anwendungen entwickeln und ausrollen können. Das Entwicklungs-Framework für APEX bietet Wizards und Eigenschaftsfenster für die jeweiligen Objekte, mit denen Anwendungen geschrieben und gewartet werden sollen. Amazon RDS unterstützt die APEX Version 4.1.1.

XML DB ist eine Funktion von Oracle Datenbanken und bietet native XML Speicher- und Abfrage-Möglichkeiten.

Amazon RDS for Oracle

Mit Amazon RDS lassen sich Oracle Database 11g auf der Amazon Cloud bereitstellen. Der Service bietet Datenbank-Administrationsaufgaben wie das Provisioning, Backups, Software-Patches, Monitoring und Hardware-Skalierung.

Unternehmen können entweder ihre eigenen Datenbanken-Lizenzen nutzen oder lassen Amazon sich um die Lizenzierung kümmern. Die Preise betragen dann 0,11 Dollar pro Stunde bzw. 0,16 Dollar pro Stunde.

Erst kürzlich hatte Amazon eine Reihe von Verbesserungen für seinen Cloud-basierten Datenbank-Service Dynamo vorgestellt. Darunter die Aktualisierung der DynamoDB Management-Konsole.

Categories
News

Oracle präsentiert eigenes Public Cloud Angebot im Juni

Man sollte nicht immer alles glauben was Oracle CEO Larry Ellison erzählt. Das Unternehmen wird im Juni mit einem eigenen Public Cloud Angebot offenbar an den Markt gehen. Vor ein paar Jahren machte sich Ellison noch über die Cloud lustig und stellte sich als unwissend dar, womit er die Lacher zwar auf seine Seite zog, aber völlig falsch lag. Scheinbar hat aber auch er langsam gemerkt, dass in der Cloud eine Menge Geld zu verdienen ist.

Die Webseite des Cloud Angebots ist bereits online und die Registrierung ist ebenfalls eröffnet. Nach der Anmeldung erhält man die Nachricht, dass die Services in nächster Zeit veröffentlicht werden und man informiert wird, sobald diese verfügbar sind.

Das Angebot unterscheidet zwei Bereiche, die “Application Services” und die “Platform Services”. Zu den erst genannten zählen Fusion CRM (Customer Resource Management), Fusion HCM (Human Capital Management) sowie Oracle Social Network (ein Pendant zu Salesforce Chatter). Die “Platform Services” beinhalten Java und die Oracle Database.

Oracles Cloud Strategie wird sich zudem auf drei Bereiche konzentrieren. Demnach stellt sich Oracle als Cloud Infrastruktur Anbieter (IaaS), als Hersteller von Cloud Anwendungen (SaaS) sowie als Cloud Plattform Anbieter (PaaS) auf.

Oracle bietet seine Fusion Anwendungen sowohl als On-Premise, Private Cloud, Public Cloud sowie Hybrid Lösung an. Neben den bereits oben genannten Anwendungen stehen hier mehr als 100 Module in sieben unterschiedlichen Produktfamilien bereit.

Oracle verfügt (seit 2010) ebenfalls über eine eigene Cloud basierte API, mit der Workloads zwischen Clouds hin- und her verschoben werden können. Dabei besteht die Oracle Cloud Resource Model API aus einer Untermenge verschiedener Cloud APIs die auf Standard HTTP Methoden basieren und die Provisionierung und Konfiguration von Ressourcen ermöglichen.

Categories
News

BigQuery: Big Data Analyse mit Google

Google BigQuery, ein Cloud basierter Service für die Analyse sehr großer Datenmengen, kann nach einer geschlossenen Testphase mittlerweile von allen genutzt werden.

BigQuery ist ein Online Analytical Processing (OLAP) System, um Datensätze mit Milliarden von Zeilen und Terabytes an Daten zu verarbeiten und zielt auf Unternehmen und Entwickler in Unternehmen ab, die mit riesigen Datenmengen (Big Data) balancieren müssen.

BigQuery kann auf unterschiedliche Arten genutzt werden. Entweder mit einer Web-Oberfläche, einer REST API oder via Kommandozeile. Die Daten können zur Verarbeitung per CSV Format auf die Google Server hochgeladen werden.

Die Preise orientieren sich an der Menge der gespeicherten Daten und der Anzahl der Anfragen. Für den Speicherplatz berechnet Google 0,12 Dollar pro GB pro Monat bis zu einer maximalen Speichermenge von 2TB. Für die Anfragen werden 0,035 Dollar pro verarbeitetes GB berechnet. Die Limits liegen hier bei 1000 Anfragen pro Tag sowie 20TB zu verarbeitende Daten pro Tag. Für die ersten 100GB an verarbeitenden Daten pro Monat entstehen keine Kosten. Weitere Informationen stehen hier.

BigQuery ist nicht für die OLTP (Online Transaction Processing) Verarbeitung geeignet. Genauso wenig können Änderungen an den auf BigQuery gespeicherten Daten vorgenommen werden. Unternehmen, die eher eine klassische relationale Datenbank für OLTP benötigen, empfiehlt Google seine Cloud basierte Datenbank Google Cloud SQL, welche die volle SQL-Syntax unterstützt.

Mit seiner Portfolio Erweiterung um BigQuery präsentiert Google einen weiteren Service in dem mittlerweile stark umkämpften Markt von Cloud basierten Produkten für Unternehmen, in dem sich bereits namhafte Unternehmen wie Amazon, Oracle, IBM, Microsoft und viele weitere tummeln.

Categories
Analysen

Nach der Cloud, wird Amazon auch der Big Data Gigant?

IaaS Cloud Infrastrukturen haben auf Grund ihrer Skalierbarkeit die idealen Voraussetzungen für die Verarbeitungen großer Datenmengen, wodurch Big Data ein idealer Anwendungsfall für Cloud Computing ist. Aber welcher Anbieter wird das Rennen um die Verarbeitung machen?

Big Data ist ein idealer Anwendungsfall für das Cloud Computing

Amazon Web Services

Ein Kandidat ist Amazon. Zum einen hat das Unternehmen auf Grund seines Kerngeschäfts, dem Web-Shop, eine große Expertise bei der Verarbeitung und Analyse großer Datenmengen aufgebaut und diese, betrachtet an der Evolution und dem Funktionsumfang der Webseite, stetig weiterentwickelt. Hinzu kommen aber auch die Amazon Web Services und der darunter liegenden massiv skalierbaren Infrastruktur, die ideal für die Verarbeitung von Big Data ist und die Unternehmen nutzen können, um dort Anwendungen für die Analyse ihrer Daten zu betreiben. Dazu stehen mit Amazon EC2, Amazon S3 und Amazon Elastic MapReduce gut miteinander zu kombinierende Services zur Verfügung. Neben dem Service AWS Import/ Export, mit dem große Datenmengen auf dem Postweg an Amazon geschickt werden können, die von Amazon dann direkt in die Cloud kopiert werden, hat sich Amazon mit der vor kurzem angekündigten Kooperation mit dem Private Cloud Infrastruktur-Software Anbieter Eucalyptus zudem eine gute Ausgangsposition geschaffen, um Unternehmen die Möglichkeit zu geben, über eine Hybrid Cloud Daten aus der Private in die Amazon Cloud übertragen zu lassen.

Google

Google hat ebenfalls viel Erfahrung bei der Verarbeitung großer Datenmengen, was u.a. auf die Indexierung des Internets und die damit verbundene Suche zurückzuführen ist – ebenfalls beides Kerngeschäfte von Google. Hinzu kommt, das Google kürzlich mit Google BigQuery einen neuen Service für Entwickler vorgestellt hat, auf dem Anwendungen entwickelt werden können, um Big Data zu verarbeiten. Dieser befindet sich aktuell aber noch in der geschlossenen Betaphase.

Anders als die Amazon Web Services scheint Google allerdings nicht so konsequent auf das Business getrimmt zu sein. Zudem wirkt Google an vielen Stellen immer noch wie ein großer Spielplatz für die eigenen Entwickler, was natürlich immer wieder gute Innovationen hervorbringt, Google sich aber bereits eingestehen musste, dass einige Services doch einfach mehr Kapital verbrennen als Nutzen ergeben. So wurde die Google App Engine anfangs stark gepushed, hat im Laufe der Zeit aber etwas an Innovation verloren.

Microsoft

Microsofts Kerngeschäft hat im Vergleich zu Amazon oder Google in erster Linie nichts mit der Verarbeitung großer Datenmengen zu tun. Dennoch steht mit Windows Azure ebenfalls eine skalierbare Infrastruktur bereit, auf der Unternehmen Big Data analysieren können.

Im Vergleich zu Google oder Amazon ist Microsoft aber bereits schon dort lange angekommen, wo die beiden erst genannten erst zielstrebig hinwollen, das Business. Microsoft sollte die Herausforderungen und Wünsche, insbesondere bei den renommierten Unternehmen, kennen und gezielt darauf eingehen können.

Erste infrastrukturelle Schritte hat Microsoft bereits mit der Unterstützung von Hadoop auf Azure unternommen und eine Agenda zeigt die weiteren Vorhaben für das Jahr 2012. So wird das Unternehmen mit Hilfe von Hortonworks und einer ODBC Schnittstelle Apache Hadoop an Microsofts Excel anbinden und so Big Data ins Büro bringen. Damit können Business Intelligence (BI) Tools einen direkten Zugang zu einem Hadoop Cluster erhalten und via Excel Pivot-Analysen durchgeführt werden.

Die Anderen

Es existieren eine Vielzahl an Unternehmen, die mit Big Data tagtäglich in ihrem Kerngeschäft konfrontiert werden. Dazu gehören bspw. ebay, Facebook, XING, LinkedIn oder auch Twitter. Allerdings bietet keines dieser genannten Unternehmen einen Public Cloud Service an, mit dem Big Data von Dritten verarbeitet werden könnte. Die Kosten für den Ausbau einer stärker skalierbaren Infrastruktur wären wohl auch zu hoch.

Allerdings sollten auch renommierte Unternehmen wie SAP, IBM oder Oracle im Bereich Big Data nicht aus den Augen gelassen werden. Die Expertise aus dem Kerngeschäft ist zweifelsohne vorhanden.


Bildquelle: https://www.emcforums2011.com, http://www.techweekeurope.es

Categories
Analysen

Ist IaaS die Lösung für die Herausforderungen von Big Data?

Big Data gehört zu den Trend Themen für das Jahr 2012. Immer mehr Unternehmen suchen in dem Thema Lösungen für die Verarbeitung großer Datenmengen. Dazu gehören neben dem Speichern ebenso die Analysefunktionen auf diesen Daten. Wie aber kann Infrastructure-as-a-Services dabei helfen, mit diesen Problemen umzugehen und Lösungen zu finden?

Big Data ist die größte IT-Herausforderung für Unternehmen

Oracle’s jährlicher Datacentre Index, der im Januar veröffentlicht wurde zeigt, dass Unternehmen in Europa, dem Nahen Osten und Afrika ihre Rechenzentrumsstrategien auf Grund der stetig wachsenden Datenmengen für das Jahr 2012 überdenken müssen. Zudem wird Big Data von vielen als die größte IT-Herausforderung für Unternehmen in den nächsten zwei Jahren gesehen.

Datenflut

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere “normale” Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Welcher Weg ist der Richtige?

Die Öl-und Gasindustrie hat dies durch den Einsatz von eher traditionellen Storage-Lösungen (SANs und NASs) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

IaaS (Infrastructure-as-a-Service), vereint beide Welten und nimmt dadurch eine einzigartige Position ein. Für diejenigen, die das SANs/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Wobei der Grid-Ansatz wahrscheinlich besser funktioniert. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Wettbewerbsfähig bleiben

McKinsey’s Report “Big data: The next frontier for innovation, competition, and productivity”, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Kosteneinsparung für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

IaaS Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.


Bildquelle: http://collaborationforgood.org, http://futurezone.at

Categories
News

Oracle kauft cloud-basierten Kundenservice RightNow für 1,5 Milliarden Dollar

Oracle kauft RightNow, einen Anbieter für cloud-basiertes Kundenmanagement für 1,5 Milliarden Dollar, um damit sein eigens Public Cloud Angebot aufzuwerten.

RightNow’s Lösungen helfen Unternehmen dabei, Kundeninteraktionen über eine Vielzahl von Kanälen, darunter Call und Contact Center sowie Web und soziale Netzwerke zu verwalten. Nach eigenen Aussagen nutzen weltweit ca. 2.000 Organisation Produkte von RightNow.

Die Übernahme durch Oracle wird voraussichtlich Ende diesen Jahres oder Anfang 2012 zu abgeschlossen. Das ist bereits die 6 Akquisition von Oracle in diesem Jahr. Neben der jetzigen Übernahme von RightNow gehörten 2011 bereits Datanomic, FatWire, InQuira, Ndevr, Ksplice und Pillar Data Systems zu den Kandidaten.

Categories
Services @de

Oracle Cloud Office

Mit seinem Cloud Office stellte Oracle auf seiner OpenWorld seine Antwort für Webbasierte und mobile Collaboration Suites vor. Es basiert auf dem Open Document Format (ODF), wodurch ein Austausch mit lokalen OpenOffice Installationen stattfinden kann und ist zu Microsoft Office kompatibel.

Das Cloud Office richtet sich in erster Linie an Unternehmen, für die Oracle das Cloud Office in seiner eigenen Public Cloud hostet und an Service Provider (wie Telekommunikationsanbieter und Internet Service Provider), die ihren Geschäfts- und Privatkunden eigene Office-Lösungen anbieten möchten.

Link: www.oracle.com/office