Categories
Management @de

CloudWashing: 16 Aussagen die beschreiben, dass es sich nicht um Cloud Computing handelt

In den zwei Artikeln “Woran erkennt man echtes Cloud Computing” und “Hört endlich mit eurem CloudWashing auf! Ihr habt eh verloren”, habe ich auf den Missstand hingewiesen, dass manche Anbieter auf den Cloud Computing Zug aufspringen, aber ihre eigenen Vorstellungen davon haben, um was es sich beim Cloud Computing tatsächlich handelt. James Governor von RedMonk hat vor längerer Zeit ebenfalls einen Artikel geschrieben, in dem er 16 Aussagen trifft, die man gut nutzen kann um zu zeigen, dass es sich bei einem vermeintlichen Cloud Computing Angebot nun einmal nicht um Cloud handelt.

Selbst prüfen: Dann handelt es sich nicht um Cloud Computing

  • Wenn man das Etikett entfernt und darunter etwas von “Grid” oder “OGSA” steht… ist es kein Cloud Computing!
  • Wenn man ein 40 Seiten starkes Pflichtenheft an den Anbieter schicken muss… ist es kein Cloud Computing!
  • Wenn man das Angebot nicht mit der privaten Kreditkarte bezahlen kann… ist es kein Cloud Computing!
  • Wenn man Hardware kaufen muss… ist es kein Cloud Computing!
  • Wenn es keine API gibt… ist es kein Cloud Computing!
  • Wenn man die eigenen Systeme dafür neu entfernen muss… ist es kein Cloud Computing!
  • Wenn für das Provisieren länger als 10 Minuten benötigt wird… ist es kein Cloud Computing!
  • Wenn das de-Provisieren länger als 10 Minuten dauert… ist es kein Cloud Computing!
  • Wenn man weiß wo sich die Maschinen befinden… ist es kein Cloud Computing!
  • Wenn sich ein Consultant im Raum befindet… ist es kein Cloud Computing!
  • Wenn man vorab die Anzahl der benötigten Maschinen spezifizieren muss… ist es kein Cloud Computing!
  • Wenn maximal ein Betriebssystem unterstützt wird… ist es kein Cloud Computing!
  • Wenn man sich nicht mit dem eigenen System dorthin verbinden kann… ist es kein Cloud Computing!
  • Wenn man Software installieren muss um das Angebot nutzen zu können… ist es kein Cloud Computing!
  • Wenn man die gesamte Hardware besitzt… ist es kein Cloud Computing!
  • Wenn es länger als 20 Folien benötigt um das Angebot zu erklären… ist es kein Cloud Computing!

Bildquelle: http://freddieandcinnamon.wordpress.com

Categories
Kommentar

ZDF: Ahnungslosigkeit im technischen Jenseits

Das ZDF scheint aus den Problemen, die sie während der WM 2010(!) hatten, keine Lehren gezogen zu haben. Zumindest liest sich so ein Kommentar von Eckart Gaddum, verantwortlich für die Neuen Medien im ZDF.

Rückblick: WM 2010

Während des Spiels Deutschland gegen Serbien bei der WM 2010 konnte man als Zuschauer ein klassisches Szenario erleben, wo Cloud Computing hätte helfen können. Das ZDF übertrug das WM Spiel ab 13:30 Uhr, also zu einer Uhrzeit wo die Vielzahl der Menschen in Deutschland arbeiten muss. Parallel zur Fernsehübertragung existiert(e) ganz modern ebenfalls ein Live Stream, erreichbar über die Internetseite des ZDF – http://zdf.de. Die Vorberichte des Spiels wurden stabil übertragen. Es wurde nicht einmal der Eindruck vermittelt, einen Internet Stream zu sehen. Doch bereits während der Nationalhymnen brach der Stream zusammen!

ZDF: Stand 2012

Zusammen mit der ARD bietet das ZDF zusätzlich zum Fernsehprogramm ebenfalls bis zu sechs weitere Olympia Sportarten live über das Internet an. Dabei griffen am 28. Juli über 1,6 Millionen auf die Highlightvideos zu. Live schauten knapp über eine Million zu.

Und jetzt kommt Herr Gaddum: “Kurzzeitig – wie gestern beim Tischtennis – hat uns das große Interesse der Leute auch schon mal in die Knie gezwungen. Mit einem solchen Ansturm haben selbst wir nicht gerechnet.” Das ZDF plant seine Systeme aufzurüsten, aber man höre: “Und dennoch können wir nicht jeden Nutzungs-Peak vorausahnen – das ist eben das Netz“, so Gaddum.

Ahnungslosigkeit im technischen Jenseits

Sehr geehrter Herr Gaddum, Sie müssen nicht jeden Nutzungspeak vorausahnen können. Denn Sie haben es richtig erkannt, das Netz ist unberechenbar. ABER, es gibt Technologien und Systeme, die Ihnen dabei helfen und Ihnen das Vorausahnen abnehmen. Schauen Sie doch mal wie es der moderne Mittbewerb wie bspw. Netflix macht.

In diesem Sinne.

Categories
News

Netflix veröffentlicht seinen Chaos Monkey

Netflix hat den Quellcode für seinen Chaos Monkey veröffentlicht. Das schreiben Cory Bennett und Ariel Tseitlin auf dem Netflix-Blog. Unternehmen die ernsthaft Systemarchitekturen in der Cloud der Amazon Web Services (AWS) betreiben wollen und sich auf Ausfälle von AWS vorbereiten möchten, sollten auf den Chaos Monkey zurückgreifen, um das eigene System zu stabilisieren.

Der Chaos Monkey

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht Instanzen (virtuelle Maschinen) pro Guppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Weitere Informationen zum Chaos Monkey und der Simian Army gibt es unter “Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur“.

Chaos Monkey Quellen

Categories
News

Cloud Computing erhöht die Innovationsfähigkeit der IT-Abteilung

Cloud Computing erhöht die Innovationsfähigkeit innerhalb der IT-Abteilung. Das ist das Ergebnis einer IBM Umfrage unter 119 IT-Verantwortlichen in Neuseeland. Auch wenn diese Studie nur die Rückmeldung aus Neuseeland berücksichtigt, kann das Ergebnis weltweit hochgerechnet werden und zeigt, dass in den IT-Abteilungen noch eine Menge Potential steckt, die durch das Cloud Computing geweckt wird.

Cloud Computing erhöht die Innovation in der IT

Cloud Computing verschafft IT-Abteilungen mehr Weitblick

75% der 119 befragten IT-Verantwortlichen sind der Meinung, dass Cloud Computing ihren IT-Abteilungen einen besseren Weitblick verschaffen wird um den Bereich damit zu verbessern. Zwei Drittel glauben, dass es in den Cloud-basierten Umgebungen mehr strategische Partnerschaften zwischen den IT-Anbietern geben wird, was zu einer höhen Adaption von nicht IT-relevanten Eigenschaften führt und die Abhängigkeit von klassischen IT-Kenntnissen abnehmen wird.

Die Manager gehen zudem davon aus, dass in Zukunft mehr Fähigkeiten für das Design von Architekturen für Applikationen, Storage und Daten benötigt werden und Enterprise Architekten gute Chancen haben.

Die Mehrheit der Befragten glauben darüber hinaus, das sich die Nachfrage nach IT-Services innerhalb der Unternehmen konstant (38%) bleiben bzw. erhöhen (44%) wird. Dabei sei für größere Unternehmen der Hauptvorteil von Cloud Computing die bessere Flexibilität der IT-Infrastruktur. Für alle Befragten war der größte Vorteil der Cloud der bessere Zugriffe der Mitarbeiter auf IT-Ressourcen.

Weitere Ergebnisse der Studie

Weitere wichtige Erkenntnisse aus der Studie sind:

  • Über 70% der Befragten planen Cloud Lösungen in den nächsten fünf Jahren in der eigenen IT-Abteilung einzuführen.
  • 47% denken, dass die IT-Abteilung darauf vorbereitet ist die veränderten Erwartungen zu erfüllen. Wo Cloud derzeit noch nicht eingesetzt wird sank das Ergebnis auf 33%.
  • 44% glauben, dass es mehr Nachfrage nach IT-Services geben wird. 38% denken, dass die Nachfrage stabil bleibt. 13% sind der Meinung, dass die Nachfrage sinken wird, 5% sind unentschlossen.
Categories
News

Public Cloud is out: Unternehmen bevorzugen die Private Cloud

Das Interesse von Unternehmen an Cloud Computing Lösungen und Technologien, um damit die eigenen IT-Infrastrukturen zu dynamisieren und mehr Agilität zu schaffen steigt weiter an. Allerdings scheuen Sie das Risiko, Services aus der Public Cloud zu beziehen und ihre Daten dort zu speichern. Mehr als die Hälfte der Unternehmen die mit Cloud Anbieter zusammenarbeiten entscheiden sich für Private Clouds. Etwa ein Drittel wählt die Public Cloud. Zu diesem Ergebnis kommt die “Service Providers Put Their Heads in the Cloud” Studie von CA Technologies.

Sicherheitsbedenken der Kunden ist groß

Für die Studie befragte CA mehrere Cloud Anbieter bzgl. ihrer Kunden und dem laufenden Geschäft. Im Schnitt gehen die Anbieter davon aus, dass sie für dieses Jahr mit einem Wachstum von 30% rechnen können. Die Frage zu den größten Herausforderungen führte zu dem folgendem Ergebnis:

  • 47% – Sicherheitsbedenken der Kunden.
  • 39% – Wie sollen die Services mit dem Kunden abgerechnet werden.
  • 27% – Sicherstellung der Kundenzufriedenheit.
  • 26% – Wartung des Mix aus Cloud und nicht Cloud Services.
  • 22% – Kunden von den Vorteilen von Cloud Computing überzeugen.
  • 21% – Marketing-und Vertriebs-Ressourcen.
  • 21% – Betriebskosten der Rechenzentren.
  • 20% – Wettbewerb mit größeren Cloud Anbietern.
  • 20% – Generierung hochwertiger Leads.
  • 17% – Die Suche nach einer Marktnische, in der man sich spezialisieren kann.
  • 17% – Durchsetzung von Richtlinien für die Kunden.
  • 13% – Aufbringen von Kapital um in diesem Bereich Wettbewerbsfähig zu sein.
  • 12% – Die Verwaltung der Beziehungen mit Technologie-Lieferanten.
  • 12% – Kapitalkosten des Rechenzentrums.

Public Cloud is out

Insbesondere die Sicherheitsbedenken der Kunden zeigen, wie schwer es Public Cloud Anbieter haben werden, Kunden von diesem Schritt zu überzeugen. Eine erst kürzlich durchgeführte KPMG Studie unter deutschen Unternehmen hat ebenfalls zu dem Ergebnis geführt, dass sich ca. 90% der Unternehmen nicht(!) für die Public Cloud entscheiden.

Categories
News

Fehlerhafte Netzwerkkonfiguration war Schuld am Windows Azure Ausfall für die Region "West Europe"

Grund für den ca. 2,5-stündigen Ausfall von Microsoft Cloud Service Windows Azure Compute am vergangenen Donnerstag (26.07.12) war offenbar eine fehlerhafte Netzwerkkonfiguration. Das schreibt Windows Azure General Manager Mike Neil in einem Blogbeitrag.

Fehlerhafte Netzwerkkonfiguration war Schuld an Windows Azure Ausfall für die Region

Fehlerhaft konfiguriertes Netzwerk-Device

Wie Neil schreibt, war nur Azure Compute in der Region “West Europe” von dem Ausfall betroffen. Das Problem sei auf ein falsch konfiguriertes Netzwerk-Device zurückzuführen, was dafür gesorgt hat, dass der Datenverkehr nicht mehr zu einem zuständigen Cluster in dieser Region übertragen wurde. Als die Grenze für ausgehende Verbindungen erreicht wurde, führte dies zu weiteren Problemen in einem anderen Netzwerk-Device innerhalb dieses Clusters, was das Netzwerkmanagement und die Wiederherstellung erschwerte.

Microsoft will in der kommenden Woche weitere detaillierte Informationen zu dem Ausfall veröffentlichen.

Microsoft holt gegenüber Amazon auf – Salesforce spielt auch mit

Es handelt sich bereits um den zweiten schweren Ausfall von Windows Azure in den letzten Monaten. Erst am 29. Februar 2012 wurde die Microsoft Azure Cloud Opfer des diesjährigen Schaltjahres und war damit für 12 Stunden nicht erreichbar.

Ausfall-Könige bleiben in diesem Jahr jedoch (noch) die Amazon Web Services, die das negative Duell mit einem Vorsprung von einem Ausfall anführen. Zwischenstand 3 (AWS) zu 2 (Microsoft). Aber auch Salesforce spielt langsam in der Liga mit und bietet bereits zwei Ausfälle.

Categories
Services @de

Die Revolution beginnt: instantnavi – Mobile Navigation direkt aus der Cloud

Es handelt sich um eine Revolution und zeigt die steigende Bedeutung der Cloud auch im Consumer-Umfeld. instantnavi, ein Sub-Projekt der sozialen Mitfahrzentrale flinc, macht lokale Apps für die Navigation auf Smartphones überflüssig und überträgt die Routendaten direkt aus der Cloud auf den mobilen Webbrowser.

Die Revolution beginnt: instantnavi - Mobile Navigation direkt aus der Cloud

instantnavi: Die Revolution der mobilen Navigation hat begonnen

Zwar benötigt Googles mobile Navigation App “Google Navigation” ebenfalls eine Datenverbindung, um die Routeninformationen live aus dem Web zu übertragen, jedoch ist dafür eine native lokale App mit einer Größe von immerhin 33,84 MB (Google Maps) notwendig.

instantnavi hingegen kann geräteunabhängig in jedem HTML-5 fähigen Webbrowser genutzt werden. Die Konfiguration erfolgt ebenfalls im Browser am PC/ Mac. Dazu meldet man sich zunächst per OAuth entweder mit seinem Twitter, Facebook Account oder per E-Mail an. Anschließend kann man neben der Zieladresse weitere Informationen (Symbole) die später auf dem Display angezeigt werden hinzufügen. Dazu gehören bspw. die aktuelle Geschwindigkeit, die Ankunftszeit oder die noch zu fahrenden Kilometer. Nun wählt man nur noch eine Farbe für die Symbole aus und gibt der Route einen Namen.

InstantNavi erzeugt anschließend einen Link in der Form http://instantnavi.com/to/[Bezeichnung] plus zusätzlichem QR-Code, der diesen Link enthält. Hinter diesen Link sind sämtliche Informationen und Konfigurationen gespeichert, die für Navigation benötigt werden. Sehr schick, die angelegten Routen lassen sich in Dosen abspeichern, um später ggf. Änderungen daran vornehmen zu können.

Dieser Link muss nun nur noch auf dem mobilen Webbrowser geöffnet, das GPS eingeschaltet werden und los geht’s.

Die Konfiguration muss derzeit noch über den Browser am Computer oder Tablet erfolgen, da die mobilen Displays für die Anordnung der Symbole zu klein sind. Hierfür sollen in Zukunft mobile Apps entwickelt werden, mit denen die Konfiguration vorgenommen werden kann.

OpenStreetMap dient als Datenbasis

Als Datenbasis greift instantnavi auf die Karten des OpenStreetMap Projekts zurück. Auf dem Rückweg vom Barcamp Bodensee 2012 habe ich die HTML-5 App (damals noch in einer geschlossenen Alpha) parallel zum “klassischen” Navi laufen lassen. Der erste Eindruck überzeugt. Nach kurzer Zeit wurde mein aktueller Standort erkannt und der Navigationspfeil bewegte sich mit uns. Die Karte wird derzeit nur im 2D-Modus dargestellt und ist ständig nach Norden ausgerichtet, was nicht weiter stört, nur ein wenig ungewohnt für denjenigen sein kann, der sonst den 3D-Modus nutzt. Was noch fehlt ist die Sprachausgabe, aber das System befindet sich in einem frühen Status und Silvia hat mir bereits von vielen weiteren Ideen erzählt, die in die App einfließen werden. Die erstellte Route kann übrigens ebenfalls über Facebook und Twitter geteilt oder in eine Webseite oder Blog als Graphik/ Link eingebunden werden.

Die instantnavi Navigation selbst wird kostenlos bleiben. Die bereits oben angesprochene mobile App – für die Konfiguration – soll ein paar Cent kosten. Die Monetarisierung kann bspw. über Zusammenarbeit mit Restaurants, Geschäfte oder Events erfolgen, indem die Route zu der Location via Link/ Barcode auf der Webseite eingebunden wird.

Aus der Studentenbude zum professionellen Sub-Projekt

Das Projekt entstammt urspünglich einer Master Thesis von Silvia Hundegger und ihrem Kommilitonen/ Kollegen Christian Bäuerlein an der UNI Darmstadt. Beide arbeiten aktuell für die soziale Mitfahrzentrale flinc. Das soziale Netzwerk hat die Idee der beiden als ein unabhängiges Co-Projekt mit dem Ziel „eingekauft“, bald selbst ein eigenes Navigationsystem im Portfolio zu haben, um es in flinc zu integrieren. Dazu erhalten Silvia und Christian von flinc entsprechend Arbeitszeit und Ressourcen wie Entwickler, Designer usw. zur Verfügung gestellt, um InstantNavi zu realisieren. Seit Ende Juni befindet sich instantnavi im Live-Betrieb.

Categories
News

Microsoft Windows Azure Compute in der Region "West Europe" ausgefallen

Microsoft kämpft laut dem offiziellen Statusboard aktuell mit einem Ausfall seiner Cloud Computing Plattform Azure in der Region “West Europe” und hier speziell mit dem Bereich Azure Compute. Microsoft liefert seine Cloud Services für Westeuropa aus Rechenzentren in Amsterdam und Dublin aus.

Windows Azure Compute in der Region

Ursachen für den Ausfall sind nicht genauer bekannt

Die Ursache für den Ausfall wurde bisher noch nicht veröffentlicht. Es wird lediglich von Problemen mit der Verfügbarkeit der Services gesprochen. Allerdings sollen die Accounts für den Cloud Storage davon nicht betroffen sein.

26-Jul-12 · 11:09 AM UTC
We are experiencing an availability issue in the West Europe sub-region, which impacts access to hosted services in this region. We are actively investigating this issue and working to resolve it as soon as possible. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers

26-Jul-12 · 12:09 PM UTC
We are still troubleshooting this issue, and capturing all the data that will allow us to resolve it. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers

26-Jul-12 · 1:09 PM UTC
We are still troubleshooting this issue, and verifying the most probable cause. Storage accounts in this region are not affected. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

Update

26-Jul-12 · 1:33 PM UTC
The issue has been addressed. Full service functionality has been restored in the region. Storage accounts and running applications were not impacted throughout the duration of the incident. We apologize for any inconvenience this caused our customers.

Ausfälle häufen sich

Nachdem die Amazon Web Services erst kürzlich innerhalb von 14 Tagen mit zwei schweren Ausfällen zu kämpfen hatten, wurde Microsofts Cloud Infrastruktur Opfer des diesjährigen Schaltjahres am 29. Februar. Bisher steht es in diesem Jahr allerdings noch 3:2 für die Amazon Web Services.

Categories
News

SAP wächst und profitiert von der Cloud

Mit dem Verkauf von Software erzielte die SAP AG im zweiten Quartal 2012 einen Rekordumsatz von mehr als 1 Milliarde EUR. Zudem wiesen alle Regionen ein zweistelliges Wachstum bei den Softwareerlösen aus. Das Cloud-Wachstum setzte sich für SuccessFactors (auf Stand-alone-Basis) mit einem Anstieg der durch Neu- und Erweiterungsgeschäft generierten 12-Monats-Abrechnungsvolumina um 112 % im Vorjahresvergleich fort. Insbesondere SuccessFactors sei für SAP der Treiber für die Strategie, führender Anbieter im Cloud-Bereich zu werden. Die Big Data Lösung SAP HANA sorgte für einen Umsatz von 85 Millionen EUR. Der Bereich Mobile bescherte SAP einen Umsatz von 54 Millionen EUR.

Cloud, Mobile und In-Memory-Computing sind auf Kurs

Die Innovationsstrategie sei laut SAP klar auf die Bedürfnisse der eigenen Kunden ausgerichtet und soll den Kunden einen Mehrwert bringen. Insbesondere durch innovative Lösungen in den Bereichen Cloud, Mobile und In-Memory-Computing möchte SAP seinen Kunden neben den bestehenden Kernanwendungen weitere Lösungen liefern und sieht sich auf einem guten Weg bis 2015 die gesteckten Ziele zu erreichen.

Positive Vorzeichen für das Gesamtjahr 2012

SAP erwartet, dass die Software- und softwarebezogenen Serviceerlöse (Non-IFRS) für das Geschäftsjahr 2012 ohne Berücksichtigung der Wechselkurse um 10 % bis 12 % steigen werden (2011: 11,35 Mrd. €). Dies beinhaltet einen Beitrag ihres Cloud Stars SuccessFactors von bis zu 2 Prozent-punkten. Zudem wird erwartet dass das Betriebsergebnis (Non-IFRS) für das Geschäftsjahr 2012 ohne Berücksichtigung der Wechselkurse in einer Spanne von 5,05 Mrd. € bis 5,25 Mrd. € (2011: 4,71 Mrd. €) liegen wird. Das Betriebsergebnis (Non-IFRS) ohne den Beitrag von SuccessFactors soll in einer ähnlichen Spanne liegen.

Categories
News

Jaspersoft wird Teil des Google Cloud Platform-Partnerprogramm – Big Data Analyse mit Google BigQuery

Business Intelligence-(BI)-Plattform Anbieter Jaspersoft wird Teil des Google Cloud Platform-Partnerprogramm. Über dieses Programm stellt das Unternehmen als Technologiepartner seinen Open Source-Konnektor für Google BigQuery-Kunden bereit, mit dem Business Intelligence-Berichte und Analysen auf der Google Cloud Platform durchgeführt werden können. Mit diesem Konnektor lassen sich die BI-Tools von Jaspersoft in die Google Cloud Platform integrieren. Auf diese Weise wird der Zugriff auf Reporting- und BI-Analyse-Anwendungen über ein integriertes Tool ermöglicht.

Jaspersoft wird Teil des Google Cloud Platform-Partnerprogramm

Das Google Cloud Platform-Partnerprogramm

Dem Google Cloud Platform-Partnerprogramm sind bereits Technologiepartner wie Internetdienst- und SaaS-Anbieter, Plattformunternehmen, Anbieter von Management- und Entwicklungstools, Anbieter von Analyse-, BI- und ETL-Lösungen sowie Speicherspezialisten beigetreten. Diese Partner tragen Zusatztechnologien bei, die bereits in die Plattform integriert wurden, um den Kunden leistungsfähige neue Lösungen auf der Basis der Google Cloud Platform anbieten zu können.

Die Google Cloud Plattform im Detail

Die einzelnen Services der Cloud Platform von Google ermöglichen die Implementierung der folgender Lösungen:

  • Cloud Apps wie mobile Anwendungen, Social Media-Anwendungen, Geschäftsprozess-Anwendungen und Websites mit der Google App Engine und Google Cloud SQL.
  • Cloud Storage Lösungen wie High-End-Backup und -Recovery, aktive Archivierung, globales File Sharing/Zusammenarbeit und primäres SAN/NAS mit Google Cloud Storage.
  • Lösungen für die Verarbeitung umfangreicher Datenmengen wie Batch- und Datenverarbeitung sowie High Performance Computing mit der Google Compute Engine.
  • Big Data-Lösungen wie interaktive Tools, Trenderkennung und BI-Dashboards mit Google BigQuery und der Google Prediction-API.

Jaspersoft setzt auf Google BigQuery

Jaspersoft will die Möglichkeit nutzen, seine Business Intelligence-Produkte mit der Leistungsfähigkeit von Googles Cloud Platform zu vereinen. Zudem stellt sie eine breite Palette von Funktionen für die Anwendungsentwicklung, Cloud Storage sowie für die Verarbeitung umfangreicher Datenmengen und die Big Data-Verarbeitung bereit und bietet unseren Kunden Big Data-Reporting- und -Analysefunktionen für beliebige Datentypen.

Dazu fokussiert sich Jaspersoft mit seinem Konnektor auf Google BigQuery, um damit weitere Funktionen bereitzustellen:

  • Sicherheit. Jaspersoft nutzt die OAuth-Token-Authentifizierung von Google für die Bereitstellung einer sicheren Verbindung.
  • Schnelligkeit. Mit dem Konnektor soll die Skalierbarkeit von BigQuery voll ausgenutzt werden können um auf diese Weise Millionen oder sogar Milliarden von Zeilen zu verarbeiten.
  • Flexibilität. Der Konnektor unterstützt die unbeschränkte Verwendung der gesamten BigQuery-SQL-Abfragesyntax.
  • Nahtlose Integration. Mit dem Konnektor lassen sich die Leistungsfähigkeit von BigQuery und die Stabilität der Dashboards, interaktiven Berichte und Ad-hoc-Analysen von Jaspersoft kombinieren.
  • Offenheit. Der Konnektor steht als Open Source-Komponente unter www.jasperforge.com kostenlos zur Verfügung. Der Quellcode steht unter http://code.google.com/p/jaspersoft-bigquery-datasource unter der AGPL-Lizenz zur freien Verwendung für Entwickler bereit.