Categories
Management @de

Interview mit Jonathan Weiss (Peritor)

Im Rahmen des CloudOps Summit 2011 in Frankfurt haben wir mit einzelnen Referenten Interviews geführt. Heute: Jonathan Weiss.

Wo sehen Sie derzeit noch die größten Herausforderungen des Cloud Computing?
Standardisierung und lokale Anbieter und damit einen größeren Pool an Anbietern und einfache Migrationsmöglichkeiten von einem Anbieter zum nächsten. Des Weiteren die Sicherheit in der Rechtsprechung und das noch negative Bauchgefühl von vielen Führungskräften.

Wie sehen Sie den Cloud Computing Markt in 10 Jahren?
Ich denke, dass in 10 Jahren sich die Agumentationskette umgedreht hat. Heute muss man in Unternehmen argumentieren, warum ein bestimmtes Projekt besser in der Cloud aufgehoben ist. Bald wird man argumentieren müssen, warum ein Projekt explizit nicht in die Cloud soll. Cloud wird der Default.

Sind die aktuellen Diskussionen bzgl. des Datenschutz und der Datensicherheit wirklich (nur) ein Problem des Cloud Computing?
Nein, die Diskussionen rund um Datenschutz und der Datensicherheit betreffen alle Anbieter von IT-Infrastruktur wie klassische Hoster oder Fernwartung. Viele suchen aber einfach nach jedem möglichem Argument gegen die Cloud, da sie sich und ihren Arbeitsplatz bedroht sehen.


Über Jonathan Weiss

Jonathan Weiss ist Geschäftsführer der Peritor GmbH und seit langem als Berater im Bereich Skalierung von Web-Applikationen tätig. Seine Schwerpunkte sind Architektur und Infrastruktur von verteilten Systemen und skalierbare Lösungen wie Amazon EC2. Daneben ist er ein aktives Mitglied von Open Source Projekten wie Ruby on Rails oder Capistrano. Die Peritor GmbH berät Unternehmen bei der Skalierung und dem Deployment von Web-Applikationen. Schwerpunkte liegen auf den Einsatz der Amazon Web Services und die Migration in die Cloud. Mit Scalarium bietet die Peritor GmbH eine Management Lösung für den Betrieb von Applikationen in EC2.

Categories
Events

Das AWS User Group Treffen 01/2012 steht vor der Tür!

Das nächste Treffen der Hamburger AWS User Group steht vor der Tür und startet gleich mit einem Special Event in das Jahr 2012!

Dieses Mal geht es um das Thema: “Windows- und .NET-Entwicklungszentrum”

Aus diesem Grund wird das Treffen in Kooperation mit der .NET User Group Hamburg (http://dotnet-usergroup-hamburg.de) veranstaltet.

Während des Treffens werden Möglichkeiten vorgestellt, welche die Amazon Web Services hinsichtlich Entwicklung und Skalierung auf ihrer Cloud Infrastruktur bereitstellen. Gerade erst gab es auch hierzu eine Meldung seitens Amazon, dass die Nutzung des sogenannten “AWS Free Tier“ nun auch Windows Server beinhaltet. Dies bedeutet, dass Windows Server innerhalb des Free Tier Angebots auf einer t1.micro Instanz für 750 Stunden ohne Kosten genutzt werden können.

Ferner wird sich das Treffen mit den folgenden Inhalten beschäftigen:

  • AWS SDK for .NET
  • Windows auf Amazon EC2
  • AWS-Toolkit für Visual Studio
  • Nutzung der Web Services für Anwendungsentwicklung
  • Möglichkeiten der Softwareentwicklung mit IaaS-Lösungen

Damit die Informationen auch aus erster Hand präsentiert werden, wird zusätzlich der bekannte AWS Technical Evangelist Matt Wood während des Treffens vor Ort sein und ebenfalls einen Vortrag halten. Weiterhin ist das natürlich die Gelegenheit Ihn persönlich Fragen zu stellen.

Termin

Termin des Treffens ist Dienstag, 7. Februar 2012, 18:00 Uhr. Die Location wird in den kommenden Tagen bekanntgegeben.

Anmeldung

Die Anmeldung kann unter den folgenden Adressen erfolgen:

  • AWS UG Webseite: http://bit.ly/AWS01-12
  • Meetup: http://bit.ly/AWS01-12-2
  • Categories
    News

    Vogel IT-Medien GmbH oder ich bin schon groß ich darf das!

    Warum ich diesen zynischen Betreff gewählt habe? Ganz einfach, weil ich stinksauer bin. Erst habe ich überlegt, ob ich überhaupt etwas darüber schreibe, da der “Gegner” wahrscheinlich eh zu mächtig ist, aber ich kann das nicht auf mir sitzen lassen, auch das Risiko eingehend, dass von dieser Seite her nicht mehr über uns/ mich etc. berichtet wird. Das passiert derzeit schließlich auch nicht, also!

    Ich betreibe seit Ende 2009 das Cloud Computing Magazin CloudUser | Ξxpert. Ich habe es damals gegründet, weil ich selbst nach Informationen im deutschsprachigen Raum zum Thema Cloud Computing gesucht habe, leider vergebens. Also habe ich mir die Aufgabe gestellt Cloud Computing im deutschsprachigen Internet bekannt zu machen. So hat sich CloudUser | Ξxpert im Laufe der letzten Jahre zu einem gut besuchten und erfolgreichen Portal entwickelt wie man lesen kann:

    Ich habe die Seite clouduser die letzten 2 Jahre immer wieder für unser Konzept benutzt. Es gibt eigentlich keine große Konkurrenz zu clouduser, die so transparent ist und alles kritisch betrachtet.

    Also wir halten noch einmal fest, CloudUser | Ξxpert wurde Ende 2009 gegründet.

    Und was darf ich heute über Twitter und weiteren Kanälen lesen? “Erstes deutschsprachiges Fachportal rund um Cloud Computing – Vogel IT-Medien launcht SearchCloudComputing.de”

    Es spricht überhaupt nichts gegen ein weiteres deutschsprachiges Cloud Computing Portal. Im Gegenteil, mit einer Schar von Redakteuren lässt sich defintiv umfangreicher berichten als durch eine One-Man Show und hin und wieder ein paar Gastbeiträgen. Aber an dieser Stelle sollte man bei der Wahrheit bleiben.

    SearchCloudComputing.de ist nicht das erste deutschsprachige Cloud Computing Portal!

    Ich glaube hier hätte die Vogel IT-Medien GmbH vorab einfach ein wenig besser recherchieren sollen, bevor solche Pressemitteilungen an die Öffentlichkeit gebracht werden! Aber anscheinend können sich die Großen der Branche mit ihrer medialen Macht das einfach erlauben und die vermeintlich “Kleinen” übersehen.

    Dennoch sollte der Respekt gegenüber anderen Menschen, Portalen, Magazinen usw. definitiv gewahrt bleiben!

    In diesem Sinne!


    Bildquelle: http://www.imittelstand.de, http://www.cundc.org, http://geoffreywebb.wordpress.com

    Categories
    News

    Cloud Rookie: Die maxcluster GmbH

    Das innovative Server-Technologien nicht nur aus dem Ausland stammen müssen, wollen drei junge Unternehmensgründer aus Paderborn zeigen. Mit ihrem neuen Unternehmen bietet die maxcluster GmbH ausfallsichere Hosting-Lösungen an, die auf eine selbstentwickelte Systemarchitektur basieren und damit auch kleinen und mittelständischen Unternehmen flexible Infrastruktur-Lösungen zur Verfügung stellen.

    Warum eine neue Hosting-Technologie?

    Hosting-Kunden sind derzeit vorwiegend auf Standardpakete mit festen Ressourcen (Prozessor, Arbeitsspeicher, Speicherplatz und Datenverkehr) und einer langen Vertragslaufzeit angewiesen. Da die Anforderungen an Webanwendungen jedoch stetigen Schwankungen unterliegen, erschwert sich die Produktwahl für Hosting-Kunden.

    Was bietet maxcluster genau an?

    maxcluster stellt ausfallsichere, skalierbare und sichere technischen Infrastrukturen zur Verfügung. Auf Grundlage von komplett redundanten Systemarchitekturen werden vorkonfigurierte virtuelle Cluster für den Betrieb von anspruchsvollen Internetseiten und Anwendungen angeboten. Die Unternehmenslösung umfasst die komplette Verwaltung der Cluster. Um möglichst viele Kundenbedürfnisse abzudecken, ist das Hosting sogar innerhalb von Sekunden erweiterbar. So können die Systemressourcen ohne Betriebsunterbrechung in Echtzeit skaliert werden – etwa bei einem temporären hohen Zugriff auf Webshops bei Kampagnen oder Aktionen.

    Wie konkurrenzfähig sind die neuen Produkte?

    Aktuell bietet kein anderer Internet-Service-Provider eine ähnliche Unternehmenslösung an. Aufgrund der automatisierten Prozesse können Preisvorteile von bis zu 60 Prozent direkt an die Kunden weiter gegeben werden. Damit stellen die Lösungen von maxcluster eine sofort verfügbare Rund-Um-Lösung auch für kleine und mittelständische Unternehmen dar, die nun ohne lange Wartezeit oder hohe Kosten optimale Weblösungen anbieten können.

    Aufgrund des hohen Innovationsgehalts und der bereits vorhandenen Praxiserfahrung der Unternehmensgründer wurde das Unternehmen maxcluster von dem EU-Förderprogramm „EXIST“ gefördert. Die Förderung, die zu 50% von der Europäischen Union und zu 50% von dem Bundesministerium für Wirtschaft und Technologie zur Verfügung gestellt wird, umfasst eine finanzielle Unterstützung in Höhe eines oberen fünfstelligen Euro-Betrags für Betriebsmittel, Investitionen und Schulungen. Zudem werden dem Unternehmen die Räumlichkeiten und die Infrastruktur der Universität Paderborn zur Verfügung gestellt. Weitere Unterstützung, in Form von Beratungen und lokalen Kontakten, erhält maxcluster durch den Technologietransfer UniConsult.

    Mehr Informationen sind unter maxcluster.de zu finden.

    Categories
    News

    Microsofts System Center 2012 konzentriert sich auf den Aufbau von Private Clouds

    Mit der Verfügbarkeit des Release Candidate der Version 2012 von System Center sollen Unternehmen mehr Flexibilität und Dynamik in ihrer Unternehmens-IT erhalten. Das Hauptaugenmerk bei der Weiterentwicklung von System Center ist die „Private Cloud“, die sich mit System Center 2012 wesentlich schneller und einfacher einrichten, skalieren und verwalten lassen soll.

    Neu ist ebenfalls die Zusammenfassung der bisher sechs Einzelmodule in eine integrierte Gesamtlösung. Diese steht als Standard- oder Enterprise-Lösung zur Verfügung, abhängig vom Virtualisierungsgrad des Kunden. Mit System Center 2012 lassen sich auch wie bisher heterogene IT-Landschaften, physische oder auch virtuelle IT-Umgebungen, zentral verwalten, unternehmensspezifisch anpassbar an heutige und zukünftige Anforderungen.

    Die neue Version von System Center ist darauf ausgerichtet, IT-Administratoren in den Unternehmen beim Aufbau und der Verwaltung von Private Clouds zu entlasten, indem diese komfortabel über automatisierte Prozesse bereitgestellt werden. Beispielsweise können die IT-Administratoren den Fachbereichen Self-Service-Portale zur Verfügung stellen, mit denen IT-Kapazitäten durch Anwender bezogen und auch wieder zurückgegeben werden. Die IT-Administratoren können dabei sehr granular Rechte und Möglichkeiten vergeben – je nach Unternehmensrichtlinien. Entsprechend spezifisch lassen sich auch die Regeln zur Verwaltung der Private Clouds vergeben.

    Für Lufthansa Systems ist System Center 2012 ein wichtiger Schritt vorwärts beim Aufbau einer Infrastruktur auf Basis von Private Clouds. „Die Microsoft Private Cloud ist plattformübergreifend und bringt einzelne Bereiche zusammen. Das ermöglicht uns die Automatisierung und Kontrolle vieler Schlüsselprozesse und steigert unsere Reaktionsfähigkeit auf die Bedürfnisse unserer Kunden“, erklärt Holger Berndt, Head of Microsoft Server, Lufthansa Systems AG.

    Vereinfachtes Lizenzmodell für System Center 2012

    Zum Funktionsumfang gehören – wie bisher – umfassende Module für die Verwaltung und Administration von IT-Umgebungen. System Center 2012 ermöglicht Softwareverteilung, Inventarisierung, Patchmanagement und Monitoring, Datensicherung sowie Service Management und Prozessautomatisierung in heterogenen Umgebungen.

    Mit dem Release Candidate soll sich ebenfalls das Lizenzmodell vereinfachen. Die Anwender haben künftig die Wahl zwischen Standard- oder Datacenter-Edition, wobei sie mit der Datacenter-Edition eine unbegrenzte Anzahl virtueller Maschinen verwalten können. Die Unternehmen können so ihre Private Cloud – ohne zusätzliche Kosten für die Verwaltung – kontinuierlich erweitern und an den Bedarf im Unternehmen flexibel anpassen.

    Categories
    Comment

    Why Cloud Computing is a business driven concept

    During conversations I always hear the opinion that cloud computing is a purely technological approach and it was just developed to help companies to operate more scalable, flexible, etc. Well, on the one hand it’s true. However, I am of the opinion that cloud computing is/ was primarily driven by the business and not by the technologies. But why is that?

    Looking back on the development of the three current players (Google, Amazon and Salesforce) in the cloud computing market we can deduce many things, but mainly evident similarities, demonstrating that cloud computing is a business-driven approach.

    As many might think cloud computing did not enter the stage suddenly. No, it has grown over time! Google and Amazon had never set the goal at the beginning: “Hey, now we’re doing cloud computing and offer services ‘on demand’ and on the basis of ‘pay as you go’ over the Internet”. That is exactly what many vendors do who jump on the current cloud computing train. No, the reasons of Google and Amazon are simple. In each case, it’s their core business, which lets them “forced” to develop and use cloud computing technologies.

    Why Google needs Cloud Computing?

    Considering the core business of Google, here is the search and indexing of the Internet in the foreground. The expansion of their infrastructure has finally makes it to develop more and more applications and services.

    Why Amazon needs Cloud Computing?

    At first Amazon’s core business is the webshop plus the downstream processes behind, like logistics, data warehouse etc. Through the steadily development of their infrastructure, apart from the Amazon Web Services, more resource-hungry applications can be included in the portfolio.

    Why Salesforce needs Cloud Computing?

    Well, Salesforce is a little more special. From the beginning Salesforce precisely aligned their business model to deliver software as a service as their core business.

    Similarities!

    Having a look at the similarities (challenges) all of the three are faced with to pursue their core business, it becomes clear why cloud computing primarily has been driven by the actual core business, thus by the Business.

    • High computational power
    • High performance
    • High availability
    • High reliability
    • High scalability

    Conclusion!

    Cloud computing is primarily a business driven concept, which is optimally supported by the combination of technological developments in recent years.

    Categories
    News

    AWS stellt AWS Storage Gateway zur Verknüpfung von Unternehmensdaten in der Cloud vor

    Die Amazon Web Services haben heute ihren AWS Storage Gateway angekündigt. Dabei handelt es sich um einen Dienst der Unternehmen eine neue Möglichkeit bietet, Daten für eine skalierbare, zuverlässige und kostengünstige Speicherung sicher in die AWS Cloud hochzuladen.

    AWS Storage Gateway verbindet eine lokale Softwareanwendung mit cloudgestützter Datensicherung zur nahtlosen Integration zwischen lokalen IT-Umgebungen und der AWS-Speicherinfrastruktur. Der Dienst bietet Leistung mit niedriger Latenz, indem die Daten lokal auf Speichermedien bleiben, während asynchron zu AWS hochgeladen wird. Dort werden sie verschlüsselt und im Amazon Simple Storage Service (Amazon S3) sicher gespeichert. Der AWS Storage Gateway unterstützt die branchenüblichen Standardspeicherprotokolle, die mit den bestehenden Anwendungen laufen, so dass die Kunden eine cloudgestützte Speicherung in Anspruch nehmen können, ohne dass sie dafür ihre bestehenden Anwendungen neu einrichten müssen.

    Mit AWS Storage Gateway bieten wir Unternehmen eine weitere Möglichkeit, die sichere, skalierbare und kostengünstige Cloud-Speicherung von AWS in lokalen Anwendungen ganz einfach zu nutzen”, so Alyssa Henry, General Manager von AWS Storage. „AWS Storage Gateway läuft mit Ihren bestehenden Anwendungen mittels einer iSCSI-Schnittstelle, überträgt Daten sicher über SSL an AWS und speichert sie verschlüsselt in Amazon S3.

    Mit AWS Storage Gateway kann auch die On-Demand Rechnerkapazität von Amazon EC2 problemlos eingesetzt werden, um zusätzliche Kapazitäten während Spitzenzeiten zu schaffen, neue Projekte durchzuführen oder als kostengünstige Methode zum Durchführen des normalen Arbeitsumfangs in Unternehmen. Um diese Rechnerkapazität zu nutzen, können Unternehmen lokale Daten auf Amazon E2-Instanzen spiegeln. Dazu kann man mittels AWS Storage Gateway Daten in Form von Amazon EBS-Snapshots auf Amazon S3 hochladen. Aus diesen Snapshots können problemlos Amazon EBS Volumes erstellt (entweder mittels der AWS Management Console oder mit Amazon EC2’s APIs) und an Amazon EC2 Rechnerinstanzen angefügt werden. Nach dem Anfügen haben die Amazon EC2 Instanzen der Unternehmen Zugriff auf diese Daten und können sie wie gewünscht bearbeiten oder berechnen.

    Weitere Informationen gibt es unter http://aws.amazon.com/storagegateway

    Categories
    News

    Google kann Dich innerhalb kürzester Zeit zerstören!

    Ich schreibe diesen Artikel in erster Linie aus persönlichen Gründen. Dennoch bin ich der Meinung das auch andere Blog- und Webseitenbetreiber davon relativ schnell betroffen sein können.

    Ich betreibe seit 2009 CloudUser.de. Vor zwei Tagen wurde das darunter liegende WordPress System angegriffen – wie das genau passieren konnte ist noch offen. Dabei wurden allerdings manipulierte JS Dateien in die Systemverzeichnisse eingeschleust. Darauf aufmerksam wurde ich erst, als der Google Chrome mir die folgende Seite zeigte. Nach kurzer Zeit zog auch der Mozilla Firefox nach, da dieser sich ebenfalls auf die Datenbasis von Google bezieht.

    Keine Frage, diese Sicherheitsfunktion ist super, um die Besucher zu schützen. Allerdings sagt Google dem Betreiber der Seite hier nicht was los ist, sondern nur das etwas nicht in Ordnung ist und blockt die Webseite.

    Das wäre nicht so tragisch, wenn die Manipulationen an der Seite leicht zu finden sind. Natürlich macht einem der gemeine Hacker die Arbeit aber nicht einfach. 😉 So war es leider notwendig das gesamte WordPress System neu zu installieren. Im Prinzip auch nicht tragisch, wenn Backups usw. vorhanden sind. Im Falle von CloudUser kommt nun aber eine noch viel mächtigere Variable ins Spiel: Google!

    Trotz einer Neuninstallation des WordPress Systems inkl. Datenbank wurde die Seite “CloudUser.org” von Google weiterhin als von Malware befallende Seite eingestuft. Das führte ebenfalls dazu, das sämtliche Suchergebnisse (über Google) zwar noch gefunden werden, jedoch nach dem Aufruf der Hinweis erscheint, dass das Öffnen der Seite eine Gefahr darstellt. Zunächst habe ich mir nichts dabei gedacht, da auch Google nicht alles sofort neu prüfen kann.

    Als nach 24 Stunden allerdings weiterhin nichts passierte, habe ich alle Daten hinter der Domain “CloudUser.org” gelöscht, also sämtliche Pfade, Verweise, Datenbanken usw, da ich vermutet habe, dass möglichwerweise doch etwas hängen geblieben ist. Tja, Pustekuchen. Die Domain wurde weiterhin als durch Malware befallende Seite eingestuft. D.h. Google hat die Domain quasi “dicht gemacht”. Mittlerweile flogen auch die ersten E-Mails mit Fragen von Besuchern in das Postfach.

    Daraufhin habe ich mich entschieden die Domain zu wechseln und CloudUser nun auf CloudUser.de zu hosten. Mit dem faden Beigeschmack das damit sämtliche gute(!) Suchergebnisse futsch sind.

    Aber es kommt noch besser. Alle Bilder und Graphiken speichere ich nicht klassisch in der WordPress Hierarchie, sondern unterhalb einer Subdomain img.clouduser.org ab, um flexibler zu sein. Einige Bilder verwende ich hin und wieder um sie auf meinen anderen Seiten zu nutzen. Der Aufruf dieser Seiten führte nun ebenfalls dazu, dass eine Warnung erschien, da ein Bild über die CloudUser.org Domain eingebunden wurde.

    Bis hierhin alles klar? 😉

    Worauf ich schlussendlich hinaus will ist, dass Google über eine enorme Macht verfügt und sich dessen anscheinend nicht richtig bewusst ist. Google hat es innerhalb kürzester Zeit geschafft, CloudUser.org, eine Webseite die seit Jahren nicht von Malware befallen war zu zerstören, indem die Domain einfach als gefährlich eingestuft wurde (was anfangs auch korrekt war). Jedoch ist es verwunderlich, dass die Domain weiterhin (zu diesem Zeitpunkt, während ich diesen Artikel schreibe immer noch) gesperrt ist und Google sich nicht darum bemüht, diese wieder freizugeben, obwohl alle Daten hinter der Domain entfernt worden sind und damit keine Malware mehr vorhanden sein kann!

    Google hat die Macht Webseiten innerhalb kürzester Zeit zu zerstören. Der Beweis ist CloudUser. Natürlich muss der Webseitenbetreiber (ICH) so gut es geht dafür sorgen, dass die Seite immer sauber bleibt. Ein erster Schritt besteht darin, meine anderen Blogs direkt bei WordPress zu hosten.

    Aber dennoch sollte sich auch Google der Macht bewusst sein, die sie haben, “Don’t be evil!”

    Categories
    Management @de

    Interview mit Roberto Valerio (CloudSafe)

    Im Rahmen des CloudOps Summit 2011 in Frankfurt haben wir mit einzelnen Referenten Interviews geführt. Heute: Roberto Valerio.

    Warum gibt es fast keine kleinen IaaS Provider/ Startups in Deutschland?
    Weil der Kapitalmarkt in Deutschland, vom VC bis hin zum HTGF, nach wie vor sehr verhalten an das Thema Cloud Services herangeht. Einzige Ausnahme scheint zur Zeit Kizoo zu sein. Um die für Kunden notwendige und wichtige Qualität und Größe im diesem Bereich zu erreichen benötigt man auf jeden Fall mehr an Ressourcen, als für ein klassisches Commerce oder Community-Modell.

    (Schade, denn gerade in Deutschland gibt es hervorragendes Potential an Entwicklern, die qualifiziert und methodisch auch neuartige Produkte entwickeln können.)

    Wo sehen Sie derzeit noch die größten Herausforderungen des Cloud Computing?
    Im Bereich Sicherheit. Ein nicht zu unterschätzender Aspekt, da hier jede negative Schlagzeile sofort auf den gesamten Markt einwirkt.

    Wie sehen Sie den Cloud Computing Markt in 10 Jahren?
    Durchaus als feste etablierte Größe, sowohl in der privaten, als auch in der geschäftlichen Anwendung. Trotzdem glaube ich nicht, daß (Public) Cloud Computing eine eigene, dedizierte IT-Infrastruktur ersetzen wird.

    Wie wichtig ist Open Source für das Cloud Computing?
    So wichtig, wie in allen anderen Bereichen der IT, da Transparenz immer stark mit Sicherheit verbunden ist und offene Plattformen auch das “Lock-In” von Daten verhindern.

    Welche(s) Open Source Software/ Projekt hat für Sie den bisher größten Beitrag zum Cloud Computing geleistet?
    Sicherlich Amazon AWS. Auch wenn es aus unserer Sicht nicht immer die beste Lösung ist. Wir haben uns zum Beispiel für unsere eigenen Angebote im Bereich Cloud Storage bewußt gegen Amazon S3 als Back-End entschieden, da die Latenzen bei Dateioperationen doch sehr hoch waren.

    Was sind die Bestandteile einer hochsicheren Cloud-Anwendung?
    Das kann man nicht allgemein beantworten, dazu muß man den jeweiligen Anwendungsfall betrachten. Aber grundsätzlich halte ich die Verschlüsselung von Daten und ein aktives, stark reglementiertes Server-Monitoring für wichtig.

    Wo sehen Sie die größten Gefahren und Angriffspotentiale von Cloud-Anwendungen?
    Ein Einstieg liefert z.B. die OWASP Top-10 Liste: http://www.scribd.com/doc/53326522/OWASP-Top-10-Cloud-Security-Risks-2010

    Sind die aktuellen Diskussionen bzgl. des Datenschutz und der Datensicherheit wirklich (nur) ein Problem des Cloud Computing?
    Nein, das Problem der Datensicherheit betrifft grundsätzlich alle IT-Anwendungen. Es kann also durchaus sogar sinnvoll sein, sensible Daten außerhalb der eigenen IT-Infrastruktur zu sichern. Ein Anbieter, der sich speziell auf sichere Cloud-Anwendungen fokussiert, kann oft ein deutlich höheres Maß an Sicherheit erreichen, als eine inhouse Lösung. Wichtig ist hier aber die genaue Überprüfung des Anbieters, insbesondere bei der Verarbeitung von personenbezogenen Daten, da hier der Verarbeiter gesetzlich zur regelmäßigen Überprüfung des Anbieters verpflichtet ist.


    Über Roberto Valerio

    Roberto Valerio ist seit November 2009 als Gründer und Geschäftsführer der CloudSafe GmbH tätig. CloudSafe konzentriert sich auf die Entwicklung und den Betrieb von hochsicheren Cloud-Anwendungen. Vorher war er in unterschiedlichen Positionen tätig, unter anderem in den Bereichen Softwareentwicklung, Projekt- und Risikomanagement bei Firmen wie 7d, Mannesmann Mobilfunk und Motorola. Sein erstes Startup hat er im Jahr 1999 gegründet und seine Beteiligung im Jahr 2000 verkauft. Herr Valerio verfügt über eine betriebswirtschaftliche Ausbildung, mehrjährige Programmiererfahrung und über 10 Jahre an Erfahrung im IT-Management, davon 5 Jahre im Startup-Umfeld. Seine Interessen gelten hochskalierenden Web-Anwendungen und Themenbereichen aus dem Cloud Computing.

    Categories
    Events

    Event-Tipp: SecTXL '12 in Hamburg – Die Sprecherliste ist vollständig!

    Nach kurzer Zeit haben die Organisatoren der SecTXL ’12 am 22./23. Februar in Hamburg die Sprecherliste fixiert.

    Zu den handverlesenen Sprechern in Hamburg gehören:

    1. Dr. Johannes Mainusch | Vice President Operations, XING AG und freier Berater
    2. Nina Diercks, Rechtsanwältin | http://www.socialmediarecht.de
    3. Jan Schneider, Rechtsanwalt: SKW Schwarz Rechtsanwälte
    4. Tim Cappelmann, Leiter Managed Service: AirITSystems GmbH
    5. Udo Schneider, Architect EMEA: Trend Micro
    6. Florian Ebert, IT-Security Consultant: Siemens Enterprise Communications
    7. Eva Schlehahn, Legal Researcher + Consultant: Unabhängiges Landeszentrum für Datenschutz
    8. Dr. Christopher Kunz, Geschäftsführer: filoo GmbH
    9. Sebastian Rohr, CTO (CISSP/CISM) | accessec GmbH
    10. Peter Griesbeck, Leiter Consulting & Design – Network, Infrastructure and Security: Siemens Enterprise Communications
    11. Sven Thomsen, Referatsleiter / Referent | Unabhängiges Landeszentrum für Datenschutz
    12. Steffen Heyde, Principal Portfolio Manager | secunet Security Networks AG
    13. Sven Schlüter, Senior Security Consultant“ | Context Information Security
    14. Julija Got, Absolventin der Wirtschaftsinformatik | TU München (Studenten Wildcard)

    Studenten Wildcard

    Neben 13 hochkarätigen und national sowie international bekannten Experten haben die Organisatoren der SecTXL dieses Jahr eine Wildcard für Studenten/innen eingeführt. Damit soll es dem Nachwuchs ermöglicht werden die Ergebnisse Ihrer Diplom-/ Bachelor- oder Masterarbeiten aus dem Bereich der IT-Security, IT-Recht oder zu einem passenden Themengebiet, das von der behandelt wird, den Teilnehmern/-innen zu präsentieren.

    Keine Roadshow

    Die Organisatoren weisen darüber hinaus daraufhin, dass es sich bei der SecTXL ’12 um KEINE Roadshow handelt:

    Es mag der Eindruck vermittelt werden, dass es sich bei der SecTXL ’12 um eine Roadshow handelt, also in unterschiedlichen Städten zu Gast ist und dort jeweils dieselben Referenten und Ihre Themen präsentiert. Dem ist nicht so!

    Wir möchten und werden allen Teilnehmern eine Sprecher-, Themen- und Vortragsvielfalt über das gesamte Jahr hinweg bieten. Es lohnt sich daher mehr als eine SecTXL ’12 zu besuchen.

    Weitere Informationen

    Alle weiteren Informationen sind unter http://12.sectxl.com/hamburg/agenda-hamburg bzw. http://12.sectxl.com/hamburg/referenten-hamburg zu finden.

    Hier geht es zur kostenpflichtigen Registrierung der SecTXL ’12 | Hamburg.


    Bildquelle: http://www.whizmoandgizmo.com