Während des Android Developer Hangout am vergangenen Freitag stellte ein Google Mitarbeiter ein paar Funktionen auf seinem Smartphone vor. Dabei zeigte er ebenfalls eine Liste mit Freigabe Optionen, in der eine Google Drive Option inkl. Icon zu erkennen war. Dieses wurde in einem 28 Sekunden Video festgehalten.
Nach all den Spekulationen handelt es sich hiermit nun wohl um das endgültige Indiz dafür, dass Google seinen eigenen Cloud Storage bald der Öffentlichkeit präsentieren dürfte.
Vom 9. bis 10. Mai 2012 findet die SecureCloud 2012, ein internationales Treffen von Cloud Computing Sicherheitsexperten, im Sheraton Congress Hotel in Frankfurt am Main statt.
Die SecureCloud 2012 wird von der Cloud Security Alliance (CSA), der European Network and Information Security Agency (ENISA), dem Center for Advanced Security Research Darmstadt (CASED)/Fraunhofer Institute for Secure Information Technology und der ISACA (previously the Information Systems Audit and Control Association) veranstaltet.
Die zweitägige Veranstaltung fokussiert sich auf neue technische Entwicklungen, erfolgreiche Strategien für das Risikomanagement sowie Änderungen der EU-Datenschutzrichtlinien und deren Bedeutung für Unternehmen. Zu den Themen der Englisch sprachigen Konferenz gehören:
Die neuen EU-Richtlinien und ihre Bedeutung für Cloud-Nutzer und Anbieter
Umgang mit Zwischenfällen in der Cloud
Cloud-Sicherheit aus der Kundenperspektive
Steuerung, Risiko und Compliance in der Cloud
Überwachung von Sicherheits- und Dienstebenen
Sicherheit von Virtualisierung
Praxisnahe Verschlüsselung für die Cloud
Cloud Forensic
Zu den Referenten der SecureCloud 2012 gehören unter anderem:
Dr. Carl-Christian Buhr European Commission, Mitglied im Kabinett der EU-Vizepräsidentin Neelie Kroes
Dr. Waldemar Grudzien Bundesverband Deutscher Banken e.V., Direktor
Thomas Endres Lufthansa, CIO
Eran Feigenbaum Google, Director of Security Google Apps
Billy Hawkes Irish Data Protection Commissioner
CJ Moses
Amazon, Amazon Web Services Deputy, Chief Information Security Officer
Vom 23. bis 25. April 2012 findet der Telecom Cloud Services Summit im Scandic Hotel, Potsdamer Platz in Berlin statt. Daran teilnehmen werden auch Rüdiger Baumann, CEO von Zimory, zusammen mit Rainer Zeitler, Vice President Enterprise Solutions Engineers EMEA von ASG Software Solutions.
Baumann präsentiert mit Zeitler die Session „Next-Generation Cloud: it just got a lot easier!” Der Zimory-CEO wird ausführen, wie künftiges Cloud Computing und Applikations-Management die Kosten reduzieren, den Anwendern entgegenkommen und das Business agiler gestalten kann. Baumann und Zeitler diskutieren gemeinsam die besten Integrationsverfahren und umfassenden Vorteile von Public SaaS Clouds und IaaS Cloud Services.
Themen der Session von Baumann und Zeitler am 24. April um 15.25 Uhr sind unter anderem:
Wie carrier-grade Cloud Computing die unternehmenseigene IT in private und hybride Clouds überführen kann, und dabei den Anforderungen nach Sicherheit, Verfügbarkeit und Connectivity gerecht wird
Warum Public SaaS Clouds neue Umsätze erschließen, die Kundentreue verbessern und Wettbewerbsvorteile verstärken werden
Die besten Wege, um IaaS Cloud Services profitabel in ein Angebotsset zu integrieren
Die Lehren großer Referenzprojekte für eine erfolgreiche IT-Transformation
„Cloud Computing ist für Unternehmen die Zukunft des effizienten und ökologischen Betriebs von Rechenzentren. Die Strategien für Cloud Computing und Applikations-Management der nächsten Generation werden für Unternehmen unverzichtbar sein, um neue Einnahmequellen zu erschließen, die Kundentreue zu verbessern und Wettbewerbsvorteile auszubauen“, erklärt Zimory-CEO Rüdiger Baumann.
Bereits im Jahr 2010 hat Google den Service Cloud Print vorgestellt, mit dem Nutzer ihre Dokumente über Smartphones und Chromebooks ausdrucken können. Ein Update bringt nun weitere Funktionen, darunter eine verbesserte Android Integration und die Möglichkeit, eine Datei an einen lokalen FedEx Office Drucker in den USA zu schicken. Darüber hinaus reiht sich Canon in die Riege der Hersteller ein, die den Service unterstützen werden.
Mittels Google Cloud Print können Nutzer ihren Google Account mit einem Drucker verbinden und den Zugriff über das Internet darauf erlauben. Diese Funktion ist mit Druckern möglich die Cloud-fähig sind und Googles entsprechendes Protokoll unterstützen. Gewöhnliche Drucker können ebenfalls genutzt werden. Voraussetzung dafür ist jedoch eine spezielle Software, die auf dem Computer installiert ist, an dem der Drucker angeschlossen ist. Zudem muss der Computer angeschaltet sein. Einige Modelle von Canon, Epson, Kodak und HP unterstützen bereits diese Funktionen.
Mit dem Update präsentiert Google eine “Print to FedEx Office” Funktion. Diese wird nur für Shops in den USA unterstützt und leitet den Druckauftrag an FedEx weiter. Der Benutzer erhält einen Code, mit dem er den Auftrag dann an einer “Print & Go” Station in einem lokalen FedEx Shop sofort drucken kann. Diese Funktion ist seit etwa einem Jahr HPs ePrint Service verfügbar und wird nun mit FedEx erweitert.
Eine weitere Erneuerung ist das Drucken auf Smartphones mit Android 4, auf denen Chrome für Android installiert ist. Wurde ein Android Smartphone, das diese Voraussetzungen erfüllt, mit einem Google Account verknüpft, wird es als ein Druck-Ziel in der Google Cloud Print Liste aufgeführt. Der Druckauftrag an ein Android Smartphone erzeugt eine PDF Datei, die anschließend automatisch im mobilen Chrome Browser geöffnet wird.
Cloud Computing Anbieter sind die kommenden Giganten im Internet. Sie werden dafür sorgen, dass wir auf Informationen zugreifen und werden den Handel und weitere Geschäftsmodelle mit ihren hochskalierbaren und hochverfügbaren Infrastruktruren stützen. Jedoch ist es schwierig nachzuvollziehen, wie groß ein Anbieter wirklich ist.
Der Cloud Intelligence Anbieter DeepField Networks hat auf seinem Unternehmensblog interessante Zahlen veröffentlicht, die zeigen, für welchen Internet-Traffic Amazon verantwortlich ist.
Demnach greifen ein Drittel aller Internetnutzer mindestens einmal pro Tag auf die Amazon Cloud zu. Zudem fließen 1% des gesamten Internet-Verkehrs (Verbraucher) von Nordamerika in die Amazon Cloud. YouTube machte im vergangenen Jahr einen Anteil von 6% des gesamten Internetverkehrs aus.
DeepField hat seine Daten, nach eigenen Angaben, von einer Reihe von großen Netzbetreibern, mit denen sie kooperieren. Dabei wurde nur der Verkehr von Teilnehmern der Studie gemessen und die direkte Maschine-zu-Maschine Kommunikation ebenso ausgeschlossen wie konstante Scanning und Einbruchsversuche aus China.
Der Zugriff von Unternehmen auf die Amazon Cloud-Infrastruktur wurde ebenfalls gemessen. An erster Stelle befindet sich Truste.com. Ein Service der ein Online Datenschutz Gütesiegel anbietet, das häufig in kommerziellen Webseiten eingesetzt wird. Fast 21% des täglichen Verbraucher-Traffics, der die Amazon Cloud erreicht, ist auf TRUSTe zurückzuführen.
Cloud Computing Anbieter machen ein großes Geheimnis um ihre Rechenzentren. Google und Amazon bspw. geben nur wenige Informationen bzgl. der Standorte und weiterer Informationen bekannt. Auch ein Besuch der Einrichtungen ist nicht möglich. Der Grund sind hohe Sicherheitsvorkehrungen, um den Datenschutz und weiteren Anforderungen gerecht zu werden.
Das Kerngeschäft muss geschützt werden
Hin und wieder werden Videos von den Rechenzentren und auch aus dem Inneren veröffentlicht.
http://www.youtube.com/watch?v=1SCZzgfdTBo
Zudem stellt Google auf einer Webseite Informationen zu den Rechenzentren und deren Locations zur Verfügung. Die Geheimniskrämerei ist irgendwo auch berechtigt, die Rechenzentren sind nun einmal ein Teil des Kerngeschäfts und Coca Cola verrät schließlich auch nicht seine Rezeptur. Jedoch schürt dieses Verhalten Misstrauen, insbesondere bei deutschen Unternehmen und den hiesigen Datenschutzbehörden. Die möchten nämlich mehr sehen und am besten Mal einen Blick hineinwerfen.
Microsoft möchte mehr Transparenz schaffen
Microsoft stellt sich in diesem Bereich etwas anders auf. So sagte mir Florian Müller, Produkt Manager Microsoft Office 365, in einem Gespräch, dass Microsoft seine Kunden und Partner gerne die Rechenzentren besuchen lässt, damit sich diese einen Überblick verschaffen können. Transparenz sei im Cloud Computing von besonderer Bedeutung und Microsoft ist bestrebt, trotz hoher Sicherheitsvorkehrungen, den Nutzern seiner Cloud Services so offen wie möglich gegenüber zu stehen.
Neben diesen Aktivitäten hat Microsoft mit seinen Global Foundation Services eine Webseite mit weiteren Informationen veröffentlicht.
Global Foundation Services
Die Global Foundation Services (GFS) sind zunächst nicht nur einfach eine Webseite. Es handelt sich um einen Geschäftsbereich von Microsoft, der für den Betrieb hinter den Cloud Services zuständig ist.
GFS stellt die Kern Infrastruktur und die grundlegenden Technologien für Microsofts über 200 Cloud und Web Services wie Bing.com, Microsoft.com, Microsoft Developer Network, Microsoft Dynamics CRM, Microsoft Environment, Microsoft Server & Cloud Platform, Microsoft Strategy Software & Services, Microsoft TechNet Blog, Microsoft Trustworthy Computing, Office 365, Office 365 Trust Center, Windows Azure, Windows Azure Trust Center und Windows Intune bereit.
Die Webseite GlobalFoundationServices.com bietet dazu viele Informationen zum Thema Rechenzentrum und was Microsoft unternimmt, um den Betrieb und die Sicherheit zu gewährleisten. Was allerdings fehlt sind Informationen über die Standorte der jeweiligen Rechenzentren.
Die Amazon Web Services (AWS) haben heute ihren AWS Marketplace vorgestellt. Dabei handelt es sich um einen Online-Shop, auf dem AWS Kunden und Partner Software suchen, kaufen oder bereitstellen, die auf der Infrastruktur der AWS Cloud genutzt werden kann.
Es steht bereits Software von vielen bekannten Anbietern zur Verfügung, darunter CA, Canonical, Couchbase, Check Point, IBM, Microsoft, SUSE, Red Hat, SAP und Zend sowie viele Open Source Lösungen wie WordPress, Drupal und das MediaWiki.
Der AWS Marketplace beinhaltet pay-as-you-go Lösungen, freie Software und gehostete Anwendungen. In jedem Fall entstehen zusätzliche Kosten für die Nutzung der AWS Infrastruktur.
Die entsprechende Software kann über den von Amazon.com bekannten 1-Click Mechanismus eingekauft werden und wird anschließend entweder als ein vorkonfiguriertes Server Image zur Verfügung gestellt oder kann z.B. auch über die AWS Management Konsole deployed werden. Abgerechnet wird nach der tatsächlichen Nutzung, entweder pro Stunde oder pro Monat. Zudem werden die Kosten für die jeweilige Software auf der Rechnung der restlichen AWS Services mit aufgeführt.
Ab sofort ist System Center 2012 von Microsoft verfügbar. Das hat Microsoft jetzt auf dem alljährlichen Management Summit, der Konferenz für System Management in Las Vegas (Nevada, USA), bekannt gegeben. Die Management-Lösung soll die Administration von IT-Infrastrukturen, sowohl in komplexen Rechenzentren als auch bei der Einbindung von Desktop-PCs und mobilen Endgeräten in die Unternehmens-IT vereinfachen. Zudem sind auch die Realisierung einer serviceorientierten Infrastruktur und der Aufbau von Private Clouds auf Basis von System Center möglich.
Eine weitere Neuheit des Management Summit: Das kommende Server-Betriebssystem, das bisher unter dem Codenamen Windows Server 8 bekannt ist, wird Windows Server 2012 heißen.
Das System Center 2012 unterstützt die Arbeit der IT-Administratoren in Bereichen wie Softwareverteilung, Inventarisierung, Patch Management, Monitoring, Datensicherung sowie Service Management und Prozessautomatisierung. Diese werden mit den acht Produkten der System Center-Familie integriert umgesetzt. Unternehmen steuern damit heterogene IT-Landschaften und können Private Clouds sehr einfach bereitstellen und verwalten.
System Center 2012 ist flexibel aufgebaut und bietet Unternehmen damit die Option, die Lösung an ihre spezifischen Bedürfnisse anzupassen: Anwender können sowohl virtuelle als auch physische Infrastrukturen, Applikationen und Lösungen verschiedener Anbieter verwalten und steuern – vorhandene IT-Landschaften und -Investitionen bleiben damit geschützt.
Rechenzentrumsressourcen lassen sich logisch zu einem sogenannten Pool zusammenfassen. Dadurch ergibt sich die Möglichkeit, die Infrastruktur als Service zu standardisieren und Rechenkapazitäten beispielsweise für spezifische Anforderungen einzelner Fachbereiche individuell zuzuteilen, zu verwalten und zu optimieren.
Auch die Benutzeroberfläche wurde mit der neuen Version von System Center 2012 optimiert. Die Management-Lösung verfügt nun über die gleiche Bedien- und Menüstruktur, die dem Anwender durch die Office-Anwendungen vertraut ist (Ribbon User Interface). Flexible Delegations- und Kontrollfunktionen vereinfachen die Verwaltung und Administration der IT über verschiedene Umgebungen hinweg.
Die acht System Center 2012 Module im Überblick
System Center Virtual Machine Manager 2012 ermöglicht die Verwaltung und Bereitstellung von virtuellen Maschinen auch in heterogenen Umgebungen für Private Cloud.
System Center Configuration Manager 2012 bietet eine umfassende Konfigurationsverwaltung für die Microsoft-Plattform und steigert die Kontrollierbarkeit unter Einhaltung von Corporate Compliance-Richtlinien.
System Center Endpoint Protection 2012 erkennt Bedrohungen wie Viren und Malware, basierend auf System Center Configuration Manager. Der Endgeräteschutz ist Teil der Endgeräteverwaltung, sodass Komplexität und Kosten reduziert werden.
System Center App Controller 2012 bietet eine gemeinsame Oberfläche über Private und Public Cloud-Infrastrukturen, mit der neue Dienste für Anwendungen einfach erstellt, konfiguriert, bereitgestellt und verwaltet werden können.
System Center Service Manager 2012 unterstützt flexible Self-Service-Modelle und ermöglicht die Standardisierung von Datacenter-Prozessen, die Benutzer, Workflows und Informationen über die Unternehmens-Infrastruktur und Anwendungen hinweg integrieren.
System Center Orchestrator 2012 orchestriert und integriert die Definition von Abläufen (sogenannte Runbooks), auch Prozesse werden automatisiert unterstützt.
System Center Operations Manager 2012 stellt eine Diagnose von Anwendungen und Infrastrukturüberwachung bereit, mit der Leistung und Verfügbarkeit wichtiger Anwendungen gewährleistet werden können. SCOM bietet zudem einen umfassenden Überblick über die Rechenzentren und Private oder Public Cloud-Infrastrukturen.
System Center Data Protection Manager 2012 ermöglicht die skalierbare, verwaltbare und kosteneffiziente Datensicherung und unterstützt unterschiedliche Sicherungssysteme wie Festplatte und Band für Windows Server und Clients.
SkySQL, Anbieter von MySQL- und MariaDB- Datenbanklösungen für Enterprise- und Cloud-Anwendungen, erhält von einer Reihe von Investoren insgesamt 4 Millionen Dollar aus einer Serie A Finanzierung: Darunter Finnish Industry Investment Ltd, einem staatlichen finnischen Venture Capital und Private Equity Unternehmen sowie führenden europäischen Investoren wie Spintop Ventures und Open Ocean Capital und der US-amerikanischen OnCorps.
Mit dem frischen Geld will SkySQL in erster Linie die Entwicklung eigener Produkte vorantreiben, Top Entwickler und Business Development Experten mit Cloud-Erfahrung werden das Experten-Team ergänzen. Die Expansion ist für SkySQL eine wichtige Weiterentwicklung: Die Transformation vom reinen Experten für kostengünstige MySQL-und MariaDB-Dienstleistungen zum breiter aufgestellten Anbieter von Datenbank-Produkten und Dienstleistungen!
SkySQL wurde im Oktober 2010 mit Startkapital von OnCorps und Open Ocean Capital ausgestattet. Heute ist das Unternehmen in 13 Ländern vertreten.
OpenStack vs. CloudStack – Amazon der lachende Dritte
Die Kuriosität der Auseinandersetzung zwischen OpenStack und CloudStack besteht insbesondere darin, dass ca. 95% aller IaaS Anbieter von dem Kampf um die Herrschaft um die Open Source Cloud direkt oder indirekt betroffen sind. Nur die Amazon Web Services nicht. Im Gegenteil, das Unternehmen aus Seattle profitiert sogar noch davon, indem es auf Grund seiner APIs EC2 und S3 immer wieder im Gespräch ist.
Und genau um diese APIs geht es im Kern. So gut wie jeder IaaS Anbieter wirbt mit der Kompatibilität zur Amazon Elastic Compute Cloud (Amazon EC2) und Amazon Simple Storage Service (Amazon S3). EC2 erlaubt das Starten und Verwalten von virtuellen Maschinen in der Amazon Cloud. S3 ist für das Speichern und Verwalten von Daten ebenfalls in der Amazon Cloud zuständig.
Als ein weiterer Gewinner, im Schatten der Schlacht zwischen OpenStack und CloudStack, wird sich Eucalyptus herauskristallisieren. Die Kooperation der Open Source IaaS Software mit Amazon hat sowohl für Eucalyptus als auch Amazon nur Vorteile. Eucalyptus erhält Unterstützung direkt von der Quelle und kann besser als die anderen Open Source Clouds eine perfekte Integration zur Amazon Cloud bieten. Amazon hingegen kann das Hybrid Cloud Geschäft weiter ausbauen und ist somit bereits mit einem Bein in dem hart umkämpften Unternehmensmarkt. Zudem wird durch diese Kooperation eine erste Brücke zwischen den Private Cloud Installation auf Basis von Eucalyptus und der Public Cloud von Amazon geschaffen, um damit insbesondere das Big Data Geschäft auszubauen.
Ich möchte Amazon hiermit keinen Freifahrtsschein für den Thron in der Cloud ausstellen. Dennoch können einzig die wirklich Großen der Branche wie HP, IBM, T-Systems und Microsoft es sich erlauben nicht auf den Zug aufzuspringen und Kompatibilität zu den Amazon APIs bieten. Wobei auch HP bereits OpenStack für sich entdeckt hat.