Categories
News

Knapp jeder zweite Arbeitnehmer hofft auf Produktivitätssteigerung durch „Bring your own…“

Der Trend Consumerization of IT unter Einbezug privater IT-Geräte und Anwendungen ist in deutschen Unternehmen nicht mehr aufzuhalten. Immer mehr Mitarbeiter projizieren private IT-Gewohnheiten auf den Arbeitsplatz. Das geht aus dem aktuellen Market Paper „Consumerization Study CIO Challenges 2012 – Herausforderungen mit ‚Bring your own‘“ hervor, das techconsult im Auftrag von Microsoft verfasst hat. Demnach nutzen bereits knapp zwei Drittel der befragten Arbeitnehmer private Geräte wie Smartphones und Laptops an ihrem Arbeitsplatz und sogar mehr als ein Viertel private Anwendungen und Services. 44 Prozent der Befragten gehen davon aus, dass der Einsatz der eigenen gewohnten Geräte die Produktivität um bis zu 30 Prozent steigert. Während die Mitarbeiter der Nutzung privater Endgeräte am Arbeitsplatz eher unkritisch gegenüberstehen, sehen Unternehmen immer noch große Herausforderungen, private Geräte und Anwendungen sicher in die bestehende IT-Infrastruktur einzubinden.

Knapp jeder zweite Arbeitnehmer hofft auf Produktivitätssteigerung durch „Bring your own...“

69 Prozent nutzen private Endgeräte im Unternehmen

Die Grenzen zwischen der Arbeitswelt und dem Privatleben verschwinden zusehends. Vor diesem Hintergrund stehen IT-Verantwortliche vor der Herausforderung, ihren Mitarbeitern die Möglichkeit einzuräumen, sich am Arbeitsplatz in ihren gewohnten und gewünschten Kommunikations- und Arbeitsumfeldern zu bewegen. Diese Entwicklung zeigen auch die Ergebnisse des aktuellen techconsult Market Papers, das gezielt die Sicht der Anwender in den Mittelpunkt rückt und dafür mehr als 1.000 Mitarbeiter in Unternehmen zum Thema Consumerization befragt hat. Rund 69 Prozent der Befragten nutzen bereits private Endgeräte im Unternehmen und rund 26 Prozent greifen regelmäßig auf private Anwendungen und Services wie E-Mail, Office-Lösungen und Bildbearbeitungsprogramme zurück.

„Bring your own…“ – Herausforderung für Unternehmen

Während knapp 30 Prozent der befragten Mitarbeiter den Aufwand für das Management privater Endgeräte und Software am Arbeitsplatz als gering einschätzen, sehen es die Unternehmen deutlich kritischer. Rund 60 Prozent der Befragten gaben an, dass ihr Arbeitgeber gegen die Nutzung privater Endgeräte ist und 74 Prozent würden es ablehnen, dass private Software genutzt wird. Während „Bring your own“ für Mitarbeiter ein geeignetes Mittel ist, ihre Motivation und Zufriedenheit zu erhöhen, stehen IT-Verantwortliche vor der Herausforderung, die Geräte und Anwendungen sicher in die bestehende IT-Infrastruktur einzubinden.

„Consumerization Study CIO Challenges 2012“: eine Mitarbeiter-Studie in sieben Akten

Für die „Consumerization Study CIO Challenges 2012” von techconsult wurden insgesamt mehr als 1.000 Mitarbeiter aus Unternehmen mit mehr als 250 PC-Arbeitsplätzen zu ihren IT-Nutzungsverhalten am Arbeitsplatz und mehr als 90 Studenten im Abschlusssemester zu ihren Anforderungen an zukünftige Arbeitgeber befragt. In verschiedenen themenorientieren Market Papers werden die Ergebnisse monatlich veröffentlicht:

  1. Herausforderung mit „Bring your own“
  2. Der mediale Mitarbeiter von heute
  3. Die Umsetzung von Unternehmensrichtlinien auf dem Prüfstand
  4. Die CIO-Challenges auf Führungsebene (leitende Angestellte, Management)
  5. Die CIO-Challenges auf Abteilungsebene (Vertrieb, Marketing, Controlling und IT)
  6. IT-Lifestyle-Artikel als Job-Motivator
  7. Trendcheck: Consumer-orientierte IT im Wandel der Zeit

Bildquelle: ©Robert Müller / PIXELIO

Categories
News

Quantum vmPRO Standard Edition verändert VMware Backup

Quantums neue vmPRO Software Standard Edition sichert bis zu 1 TB virtueller Daten und ist als kostenloser Download mit voller Funktionalität verfügbar, wodurch Unternehmen ohne jedes Risiko von allen Vorzügen der Software profitieren können. Sie ist bei wachsenden Anforderungen zudem nach oben skalierbar.

Virtuelle Backup Appliance

Die Quantum vmPRO Standard Edition lässt sich herunterladen und als virtuelle Appliance installieren. Zudem haben Kunden freien Zugang zum Quantum Forum V für kostenlosen Online-Support. Mit einem Upgrade auf die vmPRO Enterprise Edition kann zusätzliche Kapazität freigeschaltet werden. Die Enterprise Edition bietet unbegrenzte Kapazität für 651€/TB, inklusive Silber Support Service für ein Jahr und der Möglichkeit auf eine weitere Support-Stufe upzugraden.

Außerdem können Anwender ab sofort die vollumfängliche virtuelle Deduplizierungsappliance, Quantum DXi V1000, kostenlos herunterladen, um bis zu 15 TB deduplizierter Daten vorzuhalten. In Kombination mit der vmPRO Software bildet die DXi V1000 eine komplett virtuelle Datensicherungslösung und öffnet so den Weg in die Cloud.

vmPRO: Die VM Backup Anwendung im Überblick

  • Backup im nativen VMware-Format: Basierend auf den Backup Policies des Kunden sichert vmPRO Software VM’s im nativen VMware-Format (VMDK), ohne die Restriktionen eines proprietären Formats wie bei den übrigen verfügbaren Backup-Anwendungen am Markt. Diese Möglichkeit erleichtert die Wiederherstellung von einzelnen Dateien, Objekten oder ganzen VM’s per „Drag and Drop“ mit dem vmPRO GUI oder jedem anderen Standard Dateisystem Browser. Da die VM’s in ihrem nativen Format gesichert werden, können Anwender VM’s ohne Rückgriff auf eine Backup-Anwendung von jedem Standort aus booten – inklusive Cloud.
  • Einfache Installation und Nutzung: vmPRO Software wird als virtuelle Appliance bereitgestellt und führt Restores in einem Schritt durch. Jeder Browser kann dafür genutzt werden Dateien, Objekte und komplette VM‘s zu suchen und wiederherzustellen – unabhängig von der Quelle und ohne Backup Anwendung.
  • Datenreduktion um 95 Prozent: Die Kombination aus vmPRO Software und DXi Appliances – inklusive DXi V1000 – bietet die derzeit effektivsten Deduplizierungsraten sowie schnellstes VM Recovery. Mit der patentierten progressiven Optimierung löscht vmPRO überflüssige Daten aus den virtuellen Maschinen und in Kombination mit Deduplizierung können Hosting, Netzwerk und Speicherressourcen extrem reduziert werden.
  • Integriert mit VMware API: Da Quantum vmPRO nahtlos mit VMware vCenter Server zusammenarbeitet, werden neu hinzugefügte VM’s automatisch von der VMware API erkannt und für die Datensicherung berücksichtigt. Auf diese Weise ist jede VM stets gesichert.
  • Zertifiziert VMware Ready: Quantum vmPRO trägt die offizielle Bezeichnung VMware Ready, ein Indikator für die Integration mit VMware’s API. VMware Ready ist VMware‘s höchste Anerkennung für Produkte und Lösungen, die von Partnern erstellt wurden.
Categories
News

Emirates Airline führt Windows 8 Tablets im Inflight Service ein

Emirates Airline wird ab Januar 2013 ihre Crew-Mitglieder mit Windows 8 Tablets und einer eigenen Business App ausstatten. Zukünftig wird die Emirates Airline insgesamt 1.000 HP ElitePad 900 nutzen, die unter Windows 8 laufen. Die touch-optimierte Benutzeroberfläche von Windows 8, welche die wichtigsten Informationen schnell über die Live-Kacheln bereitstellt, soll der der Crew helfen, noch effektiver zu arbeiten.

HP ElitePad 900 dient als Hardwaregrundlage

Das speziell für den Unternehmenseinsatz entwickelte HP ElitePad 900 bringt alles mit, um den besonderen Anforderungen an Bord gerecht zu werden. Es ist leicht und zeichnet sich durch eine lange Akkulaufzeit aus, was gerade bei Langstreckenflügen wichtig ist.

Ein KIS(S) für die Fluggäste

Die Business App „Knowledge Driven Inflight Service“ (KIS) der Emirates Airline dient der weiteren Optimierung des Kundenservices durch Vereinfachung der Kommunikation des Serviceteams auf Flügen. Die Schichtleiter können vor jedem Flug einfach und ohne großen zeitlichen Aufwand die Kabinencrew einweisen, da Informationen wie Namen, Sprachkenntnisse oder Bilder des Servicepersonals dokumentiert und gespeichert werden. Das optimiert den Arbeitsprozess und verbessert die Teamarbeit. Zudem liefert KIS während des Fluges einen schnellen und unkomplizierten Überblick über die sich an Bord befindenden Passagiere. So kann individueller auf die Bedürfnisse der Fluggäste eingegangen werden. Ein Wechsel auf Business oder First Class ist somit noch einfacher realisierbar. Durch die Feedbackmöglichkeit für das Bordpersonal, können Informationen leicht gesammelt und nach der Landung an die digital verbundenen Headquarter weitergeleitet werden.

Categories
Management @de

DevOps: Führt Cloud Computing zu NoOps?

Neben den Themen Cloud Computing und Big Data zählt das Thema DevOps zu den wichtigsten Themen der nahen Zukunft. Der Begriff DevOps leitet sich von dem Präfix “Dev” von Softwareentwickler (Developer) sowie dem Suffix “Ops” von IT-Betrieb (Operations) ab. Zusammengesetzt entsteht damit das Wort DevOps und symbolisiert die enge Zusammenarbeit beider Unternehmensbereiche, also der Softwareentwicklung und dem IT-Betrieb.

Dev vs. Ops

Jede Unternehmens-IT lebt von den eingesetzten Applikationen. Aufgabe der Entwickler (Dev) ist es diese bestehenden Applikationen zu verbessern oder neue zu entwerfen. Der IT-Betrieb (Ops) hat die Aufgabe die für die Entwicklung notwendinge IT-Infrastruktur und Umgebungen bereitzustellen. Beide ziehen also generell am selben Strang, laufen aber dennoch in zwei unterschiedliche Richtungen. Die Entwickler wollen schneller neue Applikationen entwerfen und ausrollen. Der IT-Betrieb lässt gerne alles beim Alten und ist froh, wenn die aktuellen Systeme so stabil laufen (Änderungen könnten zu Problemen führen und das bedeutet Arbeit.)

Neben dem zeitlichen Druck, den beide Bereiche unterlegen sind, verstärkt zudem die Komplexität der modernen IT-Infrastrukturen die beidige Zusammenarbeit. Werden neue Versionen ausgerollt, muss anschließend sichergestellt werden, dass alles weiterhin so funktioniert wie vorher, nur besser. Außerdem hat der Umfang an Applikationen in Unternehmen im Laufe der letzten Jahre stetig zugenommen, die es gilt bestmöglich zu unterstützen sowie die Interoperabilität sicherzustellen.

Automatisierung

Eigentlich brauchen Unternehmen mittlerweile einen Hybriden, der in beiden Welten zu Hause ist, sich also mit der Arbeit der Entwickler auskennt und zugleich den IT-Betrieb versteht. Dieser Hybride sorgt dafür Probleme zu vermeiden und zugleich für Automatisierung und damit eine optimale Planung und Kontrolle. Dieser Hybrid ist der bereits genannte DevOps und muss nicht zwangsläufig eine Person oder ein Team sein. Nein, dabei kann es sich auch um ein Stück Software handeln, die für die Abstimmung des Entwicklungsbereiches und des IT-Betriebs zuständig ist und eine DevOps Strategie völlig autonom implementiert.

Heißt die Cloud Lösung “NoOps”?

Möglicherweise! Erleichtert die Cloud vielleicht das Thema DevOps oder macht es gar obsolet? Klar ist, Entwickler sind in der Cloud nicht mehr maßgeblich auf den IT-Betrieb angewiesen, denn dieser wird durch den Anbieter dargestellt. Im Falle von IaaS (Infrastructure-as-a-Service) behalten wir die aktuelle Situation bei, nur in der Cloud, eben genauso nur anders. Hier muss das entsprechende System, dass auf der Cloud Infrastruktur läuft von einem Team (Operations) betrieben und gewartet werden, wohingegen das andere Team (Developer) das System entwickelt bzw. darauf entwickelt? Oder ist IaaS für die Entwickler mittlerweile sogar so einfach, dass das Operations-Team wegfallen kann? Ganz anders sieht es beim PaaS (Platform-as-a-Service) aus. Hier ist der Bereich Operations zu 100% unwichtig. Die vollständige Plattform und der Stack den die Anwendung benötigt, wird durch den Anbieter bereitgestellt und gewartet, wodurch dieser für den Bereich Operations verantwortlich ist.

So oder so hilft eine (IaaS, PaaS) Cloud Infrastruktur Entwicklern dabei ihre Software automatisiert auszurollen, diese zu überwachen und ebenfalls zu verwalten. Entwickler (Dev) können mit der Cloud also völlig autonom vom IT-Betrieb (Ops) die für die Entwicklung notwendigen IT-Ressourcen selbst bereitstellen und warten. Wo wir beim Thema NoOps sind!


Bildquelle: http://blog.zenoss.com

Categories
News

Branchentrends für 2013: Cloud Computing bleibt – Collaboration ganz weit vorne

Die Finanz Informatik Technologie Service (FI-TS) gibt einen Ausblick auf die IT-Themen und -Entwicklungen, die im kommenden Jahr für Banken und Versicherungen besonders wichtig werden sollen. Auffallend ist dabei, dass einige der Trends aus 2012 auch im nächsten Jahr noch auf der Agenda bleiben. Dies gilt vor allem für die Umsetzung konkreter Projekte im Bereich Cloud Computing. Neu hinzu kommt das Thema Collaboration, mit dem sich die Institute bereits 2013 befassen sollten.

Die wichtigen Themen im Überblick

Marktlage erfordert weitere Standardisierung

Besonders das Niedrigzinsniveau und ein verändertes Anlageverhalten der Kunden bringen nicht nur Banken sondern auch Versicherungen dazu, weitere Einsparungen und eine noch nachhaltigere Kostenoptimierung umzusetzen. Das bedeutet für die Institute in der Folge, ihre IT-Systeme einerseits zu konsolidieren und andererseits noch mehr auf standardisierte Techniken und Anwendungen zu setzen, um bestmöglich auf die sich verändernde Marktlage reagieren zu können.

Die Vorteile der Cloud nutzen

Die Suche nach weiteren Einsparungs- und Standardisierungsmöglichkeiten führt dazu, dass sich Banken und Versicherungen auch im Jahr 2013 weiterhin sehr intensiv mit Cloud-Angeboten befassen werden. Hier geht es für die Organisationen in erster Linie darum, einen erfahrenen Service-Partner zu finden, der Cloud-Dienste anbieten kann, die auf die speziellen Bedürfnisse der hochregulierten Branche zugeschnitten sind. Dann können Banken und Versicherungen die konkreten Vorteile von Cloud-Services nutzen und ihre Kosten weiterhin optimieren. Zudem erreichen sie so ein höheres Maß an Flexibilität das ihnen ermöglicht, frühzeitig auf Entwicklungen, beispielsweise BYOD (Bring Your Own Device), vorbereitet zu sein.

An Mobile Device Management (MDM) führt kein Weg vorbei

Das Thema MDM zählte bereits im Jahr 2012 zu den viel diskutierten Themen. Zu Beginn des neuen Jahres steht eines fest: An MDM kommt niemand vorbei – zumal es auch BYOD ermöglicht. Davon sind vor allem die Versicherungen betroffen, deren Branche sich besonders im Vertrieb derzeit in einem Strukturwandel befindet. Hier stehen die Einführung neuer Online-Angebote sowie die Nutzung mobiler Endgeräte klar im Fokus. Daher gilt es für Versicherungen in 2013 konkrete Services zu evaluieren, die es ermöglichen, entweder die Smartphones und Tablets ihrer Mitarbeiter sicher in den Geschäftsalltag einzubinden oder sie selbst mit entsprechenden mobilen Endgeräten auszustatten. Auch hier lohnt in jedem Fall der Blick auf Mobile-Device-Management-Angebote aus der Cloud.

Collaboration auf die Agenda setzen

Die bisher erwähnten Entwicklungen haben eines gemeinsam: Sie verändern die Art der Zusammenarbeit (Collaboration) im Geschäftsalltag von Morgen – nicht nur innerhalb der Organisationen sondern besonders im Dialog mit den Kunden. Denn diese möchten in Zukunft zu jeder Zeit und von einem beliebigen Endgerät aus auf performante Online-Angebote beispielsweise für Bankgeschäfte zugreifen oder ihre Versicherung bequem per Online-Video-Chat oder Co-Browsing erreichen können. Diese neue Art der Zusammenarbeit ist die logische Fortführung der aktuellen Entwicklungen in den Bereichen Cloud-Computing. Daher sollten Banken und Versicherungen das Thema bereits 2013 auf ihre Agenda setzen.

Kommentar

Eigentlich kommentiere ich gewöhnliche News nicht, aber sind die Themen Collaboration und Mobile Device Management (MDM) nicht alte Hüte und sollten schon lange in jeder IT-Strategie fest verankert sein?! Jedes Unternehmen (auch im Banken- und Versicherungsumfeld), das erst im Jahr 2013 mit diesen Themen beginnt, hängt dem Wettbewerb schon hinterher!


Bildquelle: ©Gerd Altmann / PIXELIO

Categories
News

Studie: Über 70 Prozent der Banken investieren mehr in Innovation

Trotz wachsender Herausforderungen und wirtschaftlich turbulenter Zeiten verstärken Banken auf der ganzen Welt ihre Investitionen in Innovationen. Zu diesem Ergebnis kommt jetzt die aktuelle Ausgabe der Studie „Innovation in Retail Banking 2012“. Diese Erhebung wurde bereits zum vierten Mal in Folge von Infosys und der European Financial Management Association (Efma) in Auftrag gegeben.

Umfrage unter 300 Banken aus 66 Ländern

An der Umfrage haben sich 300 Banker aus 66 Ländern in Europa, dem Mittleren Osten, Afrika, dem asiatisch-pazifischen Raum sowie dem amerikanischen Kontinent beteiligt. Die Bedeutung von Online- sowie mobilen Kanälen nimmt laut Umfrage signifikant zu. Immer mehr Banken fokussieren sich auf Neuerungen und Entwicklungen, die sie bei der Ansprache ihrer Kunden und zukünftigem Umsatzwachstum unterstützen.

Ergebnisse der Studie auf einem Blick

  • 79 Prozent der befragten Banken erklärten, dass Innovationen strategisch wichtig für den künftigen Erfolg ihres Geschäfts seien.
  • 76 Prozent erklärten, dass Investitionen in Innovationen bereits 2012 höher seien als in den Jahren zuvor – am deutlichsten in den Bereichen Vertriebskanäle sowie Kundenzufriedenheit.
  • Bankfilialen erhalten mit 27 Prozent den größten Anteil frei verfügbarer IT-Budgets im Vergleich zu 26 Prozent für den Online-Bereich und 20 Prozent für mobile Aktivitäten. Online- und mobile Kanäle werden jedoch regionsübergreifend als wichtigste Bereiche für künftige Innovationen angesehen.
  • 93 Prozent der Umfrageteilnehmer planen das Angebot mobiler Bezahldienste. 89 Prozent planen in den kommenden drei Jahren zudem kundenspezifische Tablet-Banking-Anwendungen. Das stärkste Wachstum sehen die Befragten bei den Innovationen im Bereich der Mehrwertdienste wie beispielsweise personalisierte standortabhängige Angebote. Diesen Services wollen in den kommenden drei Jahren mehr als 76 Prozent der Umfrageteilnehmer mehr Aufmerksamkeit schenken. Derzeit sind es lediglich acht Prozent.
  • 87 Prozent der Banken konzentrieren sich zudem auf die Integration sozialer Medien und 86 Prozent auf interaktive Services wie Web Chat, Videokonferenzen und Click-to-Call. Dies zeigt, dass sich Banken verstärkt auf eine Steigerung der Kundenzufriedenheit durch verbesserte Interaktivität fokussieren.

Die vollständige Studie kann unter http://www.infosys.com/german/pages/index.aspx heruntergeladen werden.


Bildquelle: ©Kirsten Fischer / PIXELIO

Categories
Kommentar

Deutsche Cloud: Ist Deutschland souverän? Lieber keine Unternehmensdaten in Deutschland speichern?

So mancher deutsche Cloud Computing Anbieter brüstet sich mit den hohen Datenschutzrichtlinien in unserem Land. Da wird der Patriot Act als Vorwand genommen, sich doch lieber für eine “Deutsche Cloud” zu entscheiden, statt für einen “bösen” US-amerikanischen Anbieter bzw. dessen deutsches Tochterunternehmen. Datenschutz “Made in Germany” halt.

Datenschutz in Deutschland: Nur Wunschdenken?

Ein Video von Frontal 21 rückt, meiner Ansicht nach, sämtliche Datenschutz-Diskussionen in ein anderes Licht. Nein, es stellt nicht das Cloud Computing in Frage, sondern Deutschland als Standort zum Speichern von Daten. Abgesehen davon, Cloud Computing ist ein globales und kein lokales Konzept (“Deutsche Cloud”…). Aber, haben die Macher des Videos ernsthaft gut recherchiert, würde Irland als Standort für Cloud Computing Anbieter in Europa völlig ausreichen. Anders ausgedrückt: Als Unternehmen sollte man davon dann tatsächlich absehen, seine Daten bei einem Anbieter in Deutschland zu speichern. Denn was ist unser Bundesdatenschutzgesetz unter Berücksichtigung dieses Videos noch wert?

Quelle: Deutschland souverän?
Weitere Informationen: Die demokratische Souveränität ist teilsuspendiert

Categories
News

HP zeigt ersten Server speziell für Big Data

HP hat die erste Server-Reihe angekündigt, die speziell für Big Data entwickelt wurde: Der HP ProLiant SL4500 Gen8 ist ab sofort als Ein- und Zwei-Knoten-System erhältlich. Das Ein-Knoten-System eignet sich durch seine Konfiguration mit bis zu 60 Festplatten vor allem als Object-Storage-Device für OpenStack-Cloud-Anwendungen, Redhat Enterprise Linux, SUSE Enterprise Linux oder Microsoft Windows Server. Das Zwei-Knoten-System mit 25 Festplatten pro Knoten eignet sich für Big-Data-Analytics und für Datenbanken wie MongoDB. Voraussichtlich Anfang 2013 wird HP das Portfolio durch ein Drei-Knoten-System nach oben abrunden. Mit dieser Konfiguration können Kunden unter anderem Parallel-Processing- und Big-Data-Anwendungen wie beispielsweise verschiedene Distributionen von Apache Hadoop nutzen.

HP Scaleable Line

Die neuen SL4500-Server (SL = Scaleable Line) sind speziell für Big-Data-Anwendungen entwickelt. Sie bieten je nach Konfiguration bis zu 240 Terabyte Speicherplatz pro Server. Außerdem nutzen sie die RAID-Controller HP Smart Array mit der Technologie Predictive Spare Activation. Diese Technologie erkennt fehlerhafte Laufwerke bevor diese ausfallen und verschiebt die Daten automatisch auf ein freies Laufwerk. So wird die RAID-Initialisierung umgangen, die ansonsten bei einem Plattenausfall entsteht und während der kein Schutz der Daten besteht. Die SL4500-Server befinden sich in einem 4,3 Höheneinheiten großen Chassis. Damit passen bis zu neun Server in ein Standard-Rack. In dem Ein-Knoten-System lassen sich bis zu 2,16 Petabyte Daten speichern. Das entspricht etwa 20 Jahren HD-Filmmaterial. Die Zwei- und Drei-Knotensysteme fassen bis zu 25 respektive 15 3,5-Zoll-Festplatten pro Knoten. Kunden können bei allen drei Konfigurationen zwischen SAS-, SATA- und SSD-Festplatten wählen. Beim Management größerer Umgebungen steht Unternehmen neben dem Server-Management-Werkzeug HP Integrated Lights-Out (iLO) für die Fernüberwachung auch das Werkzeug HP Insight Cluster Management Utility (HP Insight CMU) zur Verfügung. Mit diesem Werkzeug lassen sich große Server-Cluster anhand von Parametern steuern und die Lastverteilung optimieren.

HP bietet die SL4500-Server wahlweise mit Prozessoren von Intel (Xeon E5-2400) und AMD (Opteron 4200). Die Intel-Server nutzen die Server-Architektur der HP ProLiant Gen8, die AMD-Systeme greifen auf die Architektur der Generation 7 zurück. Im Vergleich zu konventionellen Rack-Servern mit JBODs benötigen die SL4500-Server bis zu 50 Prozent weniger Stellplatz, 61 Prozent weniger Energie, 63 Prozent weniger Kabel und sind 31 Prozent günstiger. Das modulare Design ermöglicht eine Vielzahl an Kombinationen von Rechenleistung und Speicherkapazität. Dadurch können Kunden die Server entsprechend ihren Anwendungen anpassen.

Die SL4500-Gen8-Server bieten außerdem bis zu sieben Mal mehr IOPS (Input/Output Operations per Second) als bestehende Architekturen. Die Lösung HP SmartCache verbessert den Speicher-Datenverkehr und verringert dadurch Latenzzeiten. Außerdem greifen die SL4500-Server auf die ProActive Insight Architecture zurück. Diese soll Kunden ermöglichen:

  • Ausfallzeiten zu reduzieren und Daten durch automatische Sicherheits-Funktionen zu sichern.
  • Die Produktivität der Server durch HP Active Health zu maximieren. Dieses Diagnose-Werkzeug erfasst alle Veränderungen an den Servern und der System-Konfiguration. Damit hilft es bei der Fehlerdiagnose und Lösungssuche. HP Smart Update spielt außerdem Firmware-Updates automatisch ein.
  • Die Kosten im Rechenzentrum durch die Technologie HP Intelligent Infrastructure zu senken und die Rechenleistung pro Watt um bis zu 70 Prozent zu steigern.
  • Selbstüberwachung, Selbstdiagnose und proaktiven Support für die Server durch HP Insight Online.

Preise und Verfügbarkeit

Der HP ProLiant SL4500 als Ein-Knoten-System ist ab sofort erhältlich. Der weltweite Listenpreis startet bei 5.925 Euro für die Basiskonfiguration.

Categories
News

Entwarnung: Windows Azure Compute rollt wieder rund

Kurz nachdem ich den Post zu Windows Azure Compute Problemen in den Regionen “South Central US” und “West Europe” veröffentlicht hatte, zeigte das Azure Statusboard wieder alle Status ohne Probleme an (Häckchen ganz links).

Windows Azure Compute rollt wieder rund

Categories
News

Windows Azure Compute in "South Central US" und "West Europe" mit Problemen

Zwar ist davon bisher nichts auf Twitter oder sonstigen Medien zu lesen, aber Windows Azure Compute zeigt aktuell Auffälligkeiten bei der Verfügbarkeit in “South Central US” und “West Europe”. Zudem weiß ich aus einer sehr sicheren Quelle das mindestens ein Unternehmen, dass seinen Service auf Azure Compute betreibt, Probleme hat. Die Webseiten sind nicht erreichbar. Es verwundert hier allerdings ein wenig, dass das Unternehmen hierzu keine Statusmeldung im Social Web geschrieben hat.

Windows Azure Compute in

Das Statusboard berichtet bereits seit dem “20-Nov-12, 9:00 PM UTC” von Problemen mit der Verfügbarkeit von Windows Azure Compute in den Regionen “South Central US” und “West Europe”. Im Detail schreibt Microsoft über das “Partial impact to Service management” für beide Regionen:

20-Nov-12, 9:00 PM UTC

We are experiencing an issue with Compute Service Management in West US, South Central US, North Europe and West Europe sub-regions. We are actively investigating this issue and working to resolve it as soon as possible. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

20-Nov-12, 10:00 PM UTC

We are gathering all the data required to identify the root cause and resolve the issue as soon as possible. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

20-Nov-12, 11:00 PM UTC

Service Management is still partially impacted for existing and new hosted service deployments in West US, South Central US, North Europe and West Europe sub-regions. Customers may experience failures with Create, Delete and Update operations. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

21-Nov-12, 12:00 AM UTC

The incident has been mitigated for new hosted service deployments in the sub-regions. Customers with hosted services already deployed in these sub-regions may still experience service management failures or timeouts. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

21-Nov-12, 1:00 AM UTC

We identified the root cause and are executing the repair steps. The steps will be executed on multiple nodes of the impacted clusters and this will take several hours. Further updates will be published after the recovery is complete. We apologize for any inconvenience this causes our customers.