Categories
Analysen

Hinter Amazons Cloud verbergen sich geschätzte 450.000 Server

Wie viele Server benötigt es, um eine Cloud wie bspw. die der Amazon Web Services zu betreiben? Wie es innerhalb der physikalischen Infrastruktur tatsächlich aussieht, darüber gibt Amazon, wie auch alle anderen großen Internetunternehmen, keine Auskunft. Nach aktuellen Schätzungen eines Wissenschaftlers soll es sich um mindestens 454.400 Server in weltweit sieben Rechenzentren handeln.

Die Amazon Cloud ist riesig

Huan Liu, Wissenschafter in den Accenture Technology Labs, hat anhand der internen und externen IP-Adressen Amazon EC2 analysiert. Die Adressen hat er hochgerechnet, um Schätzungen für die Anzahl der Racks pro Rechenzentrum vorzunehmen. Er traf dann die Annahme, dass sich in jedem Rack 64 Blade Server befinden – vier 10U-Chassis mit jeweils 8 Blades.

Das ist eine von mehreren Annahmen für Liu’s Schätzungen, die er jedoch mit Vorbehalten dokumentiert. Photos in einer Präsentation von AWS Distinguished Engineer James Hamilton aus dem Jahr 2011, zeigen bspw. 1U “pizza box”-Rackmount-Server statt Blades. Allerdings ist nicht bekannt, ob es sich bei den Bildern tatsächlich um die aktuelle Infrastruktur von Amazon handelt.

Ein interessanter Aspekt von Liu’s Forschung ist eine hohe Konzentration von Amazons IP-Adressen in der US-East Region im nördlichen Virginia, wo Amazon mehrere Rechenzentren betreibt. Er schätzt, dass sich 5.030 Racks im Norden von Virginia befinden, bzw. ca. 70 Prozent der geschätzten Gesamtzahl von 7.100 Racks der Amazon Web Services. Im Gegensatz dazu hat die neue Amazon US-West Region (Oregon) nur 41 Racks, die Berichten zufolge in Containern bereitgestellt werden.


Weiterführende Informationen


Bildquelle: http://flockshots.de

Categories
News

Azure Nutzer erhalten für den Ausfall am 29. Februar eine Gutschrift über 33%

Microsoft hat eine detaillierte Analyse veröffentlicht, in der beschrieben wird was genau zu dem weit verbreiteten Ausfall des Azure Cloud-Service am 29. Februar geführt hat.

Wie von Seiten Microsoft bekannt wurde, erhalten alle Azure Nutzer zudem eine Gutschrift über 33% rückwirkend für den ganzen Monat, egal ob sie von dem Ausfall betroffen waren oder nicht.

Der weitreichende Azure Ausfall begann am 28. Februar ca. gegen 21.00 Uhr ET (Eastern Time). Dadurch waren Kunden in Europa, Nordamerika und anderen Regionen durch eine Reihe von aufeinanderfolgenden Problemen im Laufe der folgenden zwei Tagen betroffen. Nutzer berichteten, dass sie nicht in der Lage waren, auf das Azure-Dashboard zuzugreifen, das im Prinzip das einzige Mittel ist, um Statusinformationen über die einzelnen Azure Services zu erhalten. Die Probleme wurden am Morgen (ET) des 1. März weitestgehend behoben.

Der Schaltjahr-Bug verursachte zunächst einen ersten Ausfall, der wiederum zu einem weiteren Ausfall führte. Bill Laing, Chef des Server und Cloud Teams bei Microsoft erläutert den Beginn des Ausfalls so:

“The leap day bug immediately triggered at 4:00PM PST, February 28th (00:00 UST February 29th) when GAs (guest agents) in new VMs tried to generate certificates. Storage clusters were not affected because they don’t run with a GA, but normal application deployment, scale-out and service healing would have resulted in new VM creation. At the same time many clusters were also in the midst of the rollout of a new version of the FC (fabric controller), HA (host agent) and GA.”

Microsoft werde, laut Laing, natürlich aus dem Ausfall lernen und neue Testmethoden einführen, Verbesserungen in der Verfügbarkeit des Dashboard-Service vornehmen sowie weitere Kommunikationskanäle einrichten, um über Ausfälle schneller zu informieren.


Bildquelle: http://blog.otto-office.com

Categories
News

SAP rollt Cloud-fähige Version von Business One aus

SAP hat eine mehrbenutzerfähige Version seiner ERP Suite Business ONE entwickelt, die allerdings nur exklusiv über Partner als Business One OnDemand vertrieben wird.

Eine Multi-tenancy (mehrbenutzerfähige) Architektur wird üblicherweise von SaaS Anbieter genutzt, um eine Instanz einer Anwendung für mehrere Kunden voneinander getrennt auf einer Plattform bereitzustellen. Dadurch kann der Anbieter neben Skalleneffekten ebenfalls Kosten für die Wartung und das Deployment der Anwendung einsparen und ein Update der Anwendung für alle Kunden “mit einem Klick” vornehmen.

SAP rollt Cloud-fähige Version von Business One aus

Business One wird durch Partner von SAP bereits in Form einer gehosteten Version angeboten, aber eben nicht als SaaS. So will SAP es seinen Partnern nun auch ermöglichen, Business One im pay as you go Modell anbieten zu lassen.

Die Entwicklung der mehrbenutzerfähige Version sei laut SAP weitestgehend abgeschlossen und soll durch die Partner im zweiten Quartal 2012 bereitgestellt werden. Die Version wird zunächst in 18 Ländern angeboten werden. Darunter in den USA, Großbritannien, Frankreich, Deutschland, Australien, Österreich, Brasilien, Kanada, China, Tschechien, Ungarn, Italien, Mexiko, den Niederlanden, Singapur, Südafrika, Spanien und der Schweiz.

Nur durch SAP zertifizierte Hosting-Partner werden die Anwendung direkt anbieten dürfen. Zudem wird Business One weiterhin als traditionelle Hosting- und On-Premise Lösung zur Verfügung stehen.


Bildquelle: http://www.ixpert.de

Categories
Management @de

Cloud Computing und Service Level Agreements: Das sollte nicht fehlen!

Unternehmen müssen die Leistungen, die Provider beim Cloud Computing erbringen sollen, genau definieren. Der Hamburger Managed Service Provider Easynet hat dazu zehn wesentliche Punkte zusammengestellt, die in den Verträgen und SLAs von Cloud-Projekten nicht fehlen sollten.

Cloud Computing ist zur Realität geworden – viele Unternehmen denken darüber nach, wie sie die Cloud für ihre IT nutzen können oder haben bereits konkrete Schritte vorgenommen. Wer einem Cloud Provider die Verantwortung für wesentliche IT-Ressourcen überträgt, muss mit ihm klare Regelungen treffen. Die folgenden zehn Punkte beinhalten die wesentlichen Aspekte, die Anwender bei der Festlegung von SLAs (Service Level Agreements) – beziehungsweise in sonstigen Verträgen – für das Cloud Computing keinesfalls vernachlässigen sollten:

  1. Technische Parameter – Die grundlegenden technischen Parameter müssen genau definiert werden, vor allem die nutzbaren Bandbreiten, die garantierte Verfügbarkeit, eventuelle Wartungs- und Reaktionszeiten, das Datenvolumen, aber auch die Datenarten, ob beispielsweise nur strukturierte Daten oder auch Multimedia-Daten abgedeckt werden.
  2. Prozessbezogene Kennzahlen – Über die technischen Basis-Parameter hinaus können sich Anwender auf prozessbezogene Kennzahlen beschränken und zum Beispiel für einen Online-Verkaufsvorgang die Reaktionszeiten, vom Einstellen eines Artikels in den Warenkorb des Shops bis zum Auftrag vereinbaren.
  3. Messmethoden – Für die verwendeten Parameter muss auch festgelegt werden, wie sie gemessen werden. So muss etwa für ein bestimmtes Verfügbarkeitsniveau genau definiert sein, wann, wo und mit welchen Methoden die Verfügbarkeit ermittelt wird.
  4. Monitoring – Ein umfassendes und skalierbares Monitoring für die laufenden Prozesse sowie ein entsprechendes Reporting ist für die SLA unverzichtbar.
  5. Speicherort – Es muss festgelegt sein, wo die Daten vom Provider gespeichert werden – zum Beispiel in Deutschland, in der EU oder weltweit. Dies ist auf Grund unterschiedlicher rechtlicher Regelungen unerlässlich.
  6. Eigentum an den Daten – Es muss klar sein, wem die vom Provider verarbeiteten Daten gehören – dem Provider oder seinem Kunden.
  7. Gerichtsstand – Für Streitigkeiten ist der Gerichtsstand von größter Bedeutung; die besten SLA nützen nämlich nichts, wenn sie auf den Antillen eingeklagt werden müssen. Mit dem Gerichtsstand entscheidet sich auch, welches Recht im Streitfall zur Anwendung kommt.
  8. Datensicherheit – Der Provider muss klar darlegen, was er zur Herstellung einer hohen Datensicherheit unternimmt, insbesondere bei kritischen und personenbezogenen Daten.
  9. Nachprüfbarkeit – Kunden müssen überprüfen können, ob die Festlegungen des Providers hinsichtlich der Datensicherheit eingehalten werden. Auch dazu müssen bereits in den SLA Vereinbarungen getroffen werden.
  10. Verbleib der Daten – Die SLA müssen auch Angaben dazu enthalten, was mit den Daten nach Ende der Geschäftsbeziehung geschieht, ob beispielsweise der Provider bei strittigen Forderungen ein Zurückbehaltungsrecht hat: Für solche Fälle sollte man bereits in den SLA eine Schiedsstelle vereinbaren.

Standard-Cloud-Angebote arbeiten in der Regel mit fertig vorgegebenen SLAs, die durch den Kunden nicht verändert oder nachverhandelt werden können. Diese Normierung ist meist die Voraussetzung für günstig angebotene Leistungen eines Cloud-Providers. Hier müssen Unternehmen genau prüfen, wo und wie weit die Standard-SLAs von einem eigenen Soll-SLAs abweichen – sind davon substantielle Punkte betroffen, sollte das jeweilige Angebot nicht genutzt werden.


Quelle: Easynet
Bildquelle: http://www.supplierrelationships.com, http://bluebuddies.com

Categories
News

Das Cloud Computing Interoperability Forum startet einen neuen Versuch

Reuven Cohen, Gründer und Wortführer des Cloud Computing Interoperability Forum, arbeitet daran, die Organisation, die 2010 eingeschlafen war, wieder zu beleben.

Auch wenn die Organisation schon seit ein paar Jahren nicht mehr aktiv ist, befinden sich laut Cohen immer noch über 1.300 Menschen auf der Mailing-List sowie über 3000 Mitglieder in der LinkedIn-Gruppe.

Das Cloud Computing Interoperability Forum startet einen neuen Versuch

Reuven Cohen gründete das Forum im Jahr 2008, um damit eine offene Community für Cloud Computing Anbieter hinsichtlich gemeinsamer Standards und neuer Konzepte zu schaffen und damit die Adaption globaler Cloud Computing Services zu beschleunigen. Neben Intel stehen mit Cisco Systems, IBM und RSA immer noch große Namen auf der Webseite.

Categories
Analysen

Microsoft und Amazon liefern sich Preiskampf in der Cloud

Als Anbieter mit einem großen Public Cloud Portfolio kämpft Microsoft nun nicht mehr nur mit Google, sondern liefert sich seit kurzem auch einen Preiskampf mit den Amazon Web Services. Das gute daran: die Gewinner sind die Nutzer.

Der Kampf verlagert sich in die Cloud

Nachdem Microsoft am Ende der vergangenen Woche seine Preise für Windows Azure Storage und Windows Azure Compute gesenkt hat und damit auf die Preissenkungen der Amazon Web Services, ebenfalls in der vergangenen Woche, reagiert hat, befinden sich die derzeitigen Preise für Speicherplatz und Rechenleistung aus der Cloud auf einem niedrigen Rekordniveau und befinden sich auf dem Stand hiesiger Stromtarife.

Die Frage ist, wie lange das noch so weitergehen kann, denn die Preise können im Prinzip nur weiter fallen. Betrachten wir nämlich die Tatsache, das die Stromtarife auf Erdgaspreisen, saisonalen Einflüssen und weiteren Variablen basieren, kann Cloud Computing noch günstiger werden.

Die Preisgestaltung beider Anbieter ist nicht direkt vergleichbar, da die Preise und Dienstleistungen variieren. Aber die Kernaussage dieses Wettbewerbs ist eindeutig: Die Preise werden weiter sinken.

Beispielweise kostet eine Amazon Small (Standard) On-Demand Instanz mit Linux/Unix 0,090 Dollar (ca. 0,067 EUR) pro Stunde. Eine Windows Instanz 0,115 Dollar (ca. 0,088 EUR) pro Stunde. Ich zahle derzeit ca. 0,244 EUR pro Kilowattstunde an meinen Stromanbieter.

Beide Anbieter argumentieren, dass sie ihre eigenen Einsparungen (Economies of scale) sehr gerne an ihre Kunden weiterreichen und fokussieren Entwickler, Startups, kleine Unternehmen sowie Großkunden.

Nachdem nun aber auch HP und weitere Anbieter in den Cloud Computing Markt für IaaS Ressourcen eingestiegen sind, werden die Preise noch weiter fallen.


Bildquellen: http://www.merkur-online.de, http://diepresse.com

Categories
News

Cloud Computing wird globaler Jobmotor

Das Analystenhaus IDC sieht Cloud Computing als Jobmotor. Einer aktuellen Studie zufolge, die von Microsoft in Auftrag gegeben wurde, sollen bis 2015 in Deutschland gut 250.000 Arbeitsplätze durch Cloud Computing geschaffen werden.

Den Grund dafür sieht IDC in den Umsatz- und Produktivitätssteigerungen, die Unternehmen durch Cloud Computing erzielen. Durch entsprechende Innovationen rechnet IDC weltweit in den nächsten drei Jahren mit Umsätzen von bis zu 1,1 Billionen US-Dollar jährlich. Im europäischen Vergleich führt Deutschland das Ranking bei den neu geschaffenen Stellen an. Für England prognostizieren die Analysten 225.000 weitere Arbeitsplätze, im Nachbarland Frankreich sollen es 190.000 sein. Weltweit rechnet IDC mit 14 Millionen neuen Arbeitsplätzen.

Starkes Beschäftigungswachstum sehen die Analysten vor allem in Unternehmen mit weniger als 500 Mitarbeitern. In der EMEA-Region werden in kleineren und mittleren Unternehmen in den kommenden Jahren mehr als 1,1 Mio. neue Arbeitsplätze entstehen, in größeren Unternehmen circa 925.000.

Unterschied in Unternehmensgröße und Branchen

Die IDC-Studie belegt zudem, dass der Einfluss von Cloud Computing auf das Beschäftigungswachstum keineswegs gleich über alle Branchen verteilt ist. So zählen Kommunikations- und Bankensektor ebenso wie die fertigende Industrie zu den Bereichen, deren Mitarbeiterzahl durch Cloud Computing am stärksten zunehmen wird.


Bildquelle: http://www.epochtimes.de

Categories
News

Microsoft senkt die Preise für Windows Azure Storage und Windows Azure Compute

Wie Holger Sirtl bereits in der vergangenen Woche auf seinem offiziellen Microsoft Blog angekündigt hat, wurden die Preise für Windows Azure Storage und Windows Azure Compute reduziert.

Nach den Preissenkungen für SQL Azure im vergangenen Monat, wurden die Preise nun auch für Windows Azure Storage und Windows Azure Compute angepasst.

Die jeweiligen Änderungen setzen sich wie folgt zusammen:

  • Der Windows Azure Storage wird 12% günstiger (jetzt 0,0887 € pro monatlich gespeichertem GB an Daten auf Grundlage des täglichen Durchschnitts).
  • Die 6-Monate-Abos für Windows Azure Storage werden 14% günstiger.
  • Der Preis für eine Rechenstunde einer Extra Small (XS) Instanz wurde halbiert und somit um 50% gesenkt (jetzt 0,0142 € pro Rechenstunde, ca. 1,5 Cent!)

So betragen die Kosten für das Hosting einer Web Applikation auf einer XS-Instanz mit 100 MB SQL-Azure-Speicher jetzt ca. 14,20 €

Categories
Analysen

Sinn und Unsinn von Cloud Siegeln, Zertifikaten, Verbänden und Initiativen

Axel von Leitner, Mitbegründer und Geschäftsführer von 42HE, einem Cloud Startup aus Köln hat auf dem Unternehmensblog die Problematik und Situation mit Cloud Computing Siegeln und Verbänden bzw. speziellen Initiativen stark kritisiert.

Dem Grundtenor von Axel muss ich zustimmen. Aber fangen wir von Vorne an. Es existieren mittlerweile einige Verbände und Initiativen, wie wir es auch aus anderen Bereichen kennen. Dazu gehören z.B. Verbände und Vereine wie EuroCloud, SaaS-EcoSystem oder Initiativen wie Cloud Services Made in Germany und Deutsche Wolke.

Cloud Computing ist ein globaler Ansatz und kein deutsches Konzept

Was insbesondere die Initiativen gemeinsam haben ist, dass Sie mit diversen Versprechen versuchen, so viele Anbieter von Cloud Computing Services wie möglich in die eigenen Reihen zu lotsen. Vor allem “Cloud Services Made in Germany” springt auf das vermeintliche Qualitätsmerkmal Made in Germany auf und verspricht dabei “Mehr Rechtssicherheit bei der Auswahl von Cloud-basierten Diensten…”.

Cloud Computing aus Deutschland = Qualität?

Die Liste der Unternehmen, die sich an “Cloud Services Made in Germany” beteiligen ist lang. Die Prüfungskriterien äußerst schwach, was die hohe Beteiligung erklären könnte. Für die Aufnahme muss ein Unternehmen folgende Kriterien erfüllen:

  • Das Unternehmen des Cloud Service-Betreibers wurde in Deutschland gegründet und hat dort seinen Hauptsitz.
  • Das Unternehmen schließt mit seinen Cloud Service-Kunden Verträge mit Service Level Agreements (SLA) nach deutschem Recht.
  • Der Gerichtsstand für alle vertraglichen und juristischen Angelegenheiten liegt in Deutschland.
  • Das Unternehmen stellt für Kundenanfragen einen lokal ansässigen, deutschsprachigen Service und Support zur Verfügung.

Quelle: http://www.cloud-services-made-in-germany.de/beteiligung

Die Frage die man sich hier nun stellen sollte ist, wo ist das wirkliche Qualitätskriterium, dass die Initiative prüft? Handelt es dabei sich um ein Qualitätsmerkmal, dass ich meinen Firmensitz in Deutschland habe? Nein! Das ich einen deutschen Support anbiete? Ja, vielleicht! Das ich meine Geschäfte und Verträge nach deutschem Recht abschließe? Recht und Datenschutz als Qualitätmerkmal? Ist das nicht ein bisschen weit hergeholt?

In den Kriterien wird in keinster Weise auf die wirkliche Qualität eines Service eingegangen. Darf sich der Service wirklich Cloud Service nennen? Wie ist das Abrechnungsmodell? Sorgt der Anbieter für eine Cloud Computing konforme Skalierbarkeit und Hochverfügbarkeit? Und viele weitere Fragen, die essentiell wichtig sind, um die Qualität eines Cloud Service zu bewerten!

Die Initiative “Cloud Services Made in Germany” versteckt sich leider einzig und allein hinter den vermeintlich hohen Datenschutzanforderungen in Deutschland, sagt aber nichts über die tatsächliche Qualität eines Cloud Computing Anbieters bzw. dessen Services aus.

Eine Cloud für Deutschland?

Dieser Aufgabe hat sich die Initiative “Deutsche Wolke” gewidmet. Es handelt sich dabei um einen Zusammenschluß deutscher und internationaler Organisationen zum Aufbau einer föderalen Cloud-Infrastruktur für Deutschland. Die Initiative verkauft sich zwar leider ebenfalls unter dem Deckmantel von “Made in Germany”, hat aber dennoch einen ganz anderen qualitativ höherwertigen Anspruch als z.B. “Cloud Services Made in Germany”.

Denn mit mit einer eigenen Cloud Infrastruktur auf Basis von offenen Standards und Schnittstellen und unter dem Aspekt hoher Verfügbarkeit und strengen Datenschutzrichtlinien werden die derzeit noch überschaubaren Partner von “Deutsche Wolke” anscheinend deutlich besser überprüft.

Dennoch argumentiert auch die “Deutsche Wolke” verstärkt mit den hohen Datenschutzrichtlinien in Deutschland.

Auch die Verbände wollen mir ihren Zertifikaten ein Wort mitreden

Dann gibt es noch die Verbände EuroCloud und SaaS-EcoSystem, die vor allem durch ihre Gütesiegel und Zertifikate auffallen. EuroCloud hat dafür seinen SaaS Star Audit im Angebot. Das SaaS-EcoSystem hingegen hat mit “Cloud-Experte” sein Qualitäts-Zertifikat für Saas & Cloud Computing Berater sowie sein “Trust in Cloud” für Cloud Computing Anbieter.

Die Qualität und der Nutzen solcher Zertifikate und Gütesiegel stehen und fallen natürlich mit den Unternehmen, die mit der Prüfung beauftragt sind sowie den Prüfkriterien. Hinzu kommt ebenfalls ein großer Geldbeutel, um sich zertifizieren zu lassen. Speziell das Zertifikat “Cloud-Experte” des SaaS-EcoSystem ist mit Vorsicht zu genießen. Bisher haben nur zwei Marketingexperten(!) das Zertifikat erhalten, was ich bereits in einem älteren Artikel kritisiert habe.

Aber auch bei dem EuroCloud SaaS Star Audit scheint sich bisher nicht viel getan zu haben. Zumindest gibt es seit dem letzten Artikel keine neuen Services, die einen Star Audit erfolgreich absolviert haben.

Deutschland doch kein Qualitätskriterium für die Cloud?

“Cloud Made in Germany”. Wer den vermeintlich höheren Datenschutz als Wettbewerbsvorteil sieht ist auf dem falschen Weg in die Cloud! Denn das ist ein Trugschluss und ein Argument was nicht zutrifft.

Natürlich darf der Patriot Act nicht unterschätzt werden. Insbesondere auf Grund seiner nicht vorhandenen Transparenz, wann welche US-Regierungseinheit Zugriffe auf bestimmte Daten erhält. Jedoch sollte man nicht vergessen, das seit jeher ein deutscher Staatsanwalt in ein Rechenzentrum Zugriff erhalten kann, wenn er einen trifftigen Grund hat. Sei es nun beim Cloud Computing oder Outsourcing. Auch wenn hier zunächst ein richterlicher Beschluss vorliegen muss.

Zudem haben auch unsere deutschen Politiker daran Interesse unkompliziert Zugriff auf diverse Daten zu erhalten. Diese Diskussionen werden ebenfalls schon seit Jahren geführt. Ich bin kein Jurist und schon gar kein Politiker und kann dazu nicht viel sagen. Allerdings halte ich es für falsch, sich nur auf den Datenschutz auszuruhen. Made in Germany steht für Qualität das ist richtig, aber nicht zwingend im Bereich der Informationstechnologie und schon gar nicht im Bereich Cloud Computing – es gibt natürlich ein paar Ausnahmen. Es ist schade, dass so schreiben zu müssen, aber die Realität ist, das uns andere Länder, insbesondere die USA Jahre voraus sind. Diese schießen erst und entschuldigen sich später, wohingegen die Deutschen über alles debattieren (müssen) bevor eine Entscheidung getroffen wird. Deutsche Unternehmen sollten sich lieber auf ihre Innovationskraft konzentrieren, die definitiv vorhanden ist, anstatt sich hinter Siegeln zu verstecken.

Denn wie wir sehen, haben es die Cloud Computing Player wie Amazon, Google, Microsoft oder auch Salesforce nicht nötig, sich mit einem (deutschen) Siegel, Zertifikat oder dergleichen zu profilieren und denen interessiert es auch nicht, zu recht! Schließlich ist Cloud Computing ein globaler Ansatz und kein deutsches Konzept!

Categories
News

AWS präsentiert neue Identity Access und Management Funktionen

In einem Blogpost nennt Jeff Barr neue Funktionen für das AWS Passwort Management und zur Überwachung der Kontoaktivitäten und Nutzungsberichte.

Mit diesen neuen Funktionen können Identity Access and Management (IAM) Nutzer nun Zugriff auf die Kontoaktivitäten und Nutzungsberichte auf der AWS Webseite erhalten. Des Weiteren können Regeln für Passwörter definiert werden, durch die IAM Nutzer in die Lage versetzt werden, starke Passwörter zu verwenden. Zu guter Letzt besteht nun die Möglichkeit, IAM Nutzern die Gelegenheit zu geben, ihre eigenen Passwörter zu ändern.

Zugriff auf Kontoaktivitäten und Nutzungsberichte

Mit dieser neuen Funktion können voneinander getrennte und unterschiedliche IAM Benutzer für geschäftliche und technische Zwecke erstellt werden. So können Business-Anwender Zugriff auf die Kontoaktivitäten und Nutzungsberichte der AWS Webseite erhalten, um damit die Abrechnungs-und Nutzungsdaten einzusehen, ohne einen Zugriff auf anderen AWS-Ressourcen wie EC2-Instanzen oder Dateien in S3 zu haben.

Kennwortrichtlinien

Es können nun kontoübergreifende Richtlinien in der IAM-Konsole festgelegt werden, die starke Passwörter von den Nutzern verlangen und eine Passwortänderung erzwingt. Neben der Passwortlänge kann ebenfalls festgelegt werden, wie das Passwort aufgebaut werden soll und welche Zeichen es enthalten muss, also bswp. eine Kombination von großen und kleinen Buchstaben, Zahlen und Symbolen.

Ändern von Kennwörtern

Über eine neue Benutzeroberfläche in der IAM Konsole können IAM Benutzer nun auch ihr Passwort selbst ändern. Ein Nutzer erreicht diese neue Funktion, indem er rechts oben unter My Account die “Security Credentials” wählt.