Cloud

AWS re:Invent in Las Vegas

Autor/Redakteur: Dr. Constantin Söldner, Söldner Consult/gg

Die alljährliche AWS re:Invent Konferenz in Las Vegas ist bereits eine Institution in der Cloud-Welt. So wie auch letztes Jahr hat AWS dieses Jahr auf der Veranstaltung, die vom 30. November bis zum dritten Dezember stattfand, mit mehr als 65.000 Besuchern wieder seinen eigenen Rekord übertroffen. Damit zeigt das Unternehmen, welche Rolle die Public Cloud in der IT bereits einnimmt. So klang Andy Jassy’s (CEO von AWS) Aussage in der Keynote, dass bislang nur drei Prozent der IT-Ausgaben in die Cloud wandern, wie ein Understatement, aber gleichzeitig auch wie eine Kampfansage.

Bild: Dr. Constantin Söldner

Wie üblich, gab es diese Jahr wieder eine große Anzahl an Ankündigungen, angefangen von Infrastrukturthemen wie Amazons neueste Generation des hauseigenen ARM-Prozessors Graviton 2 bis hin zu exotisch klingenden Machine Learning  (ML)-Diensten zur maschinenunterstützen Komposition von Musikstücken wie AWS DeepComposer. Gleichzeitig betonte Andy Jassy in seiner Keynote immer wieder die Bedeutung der “Transformation” – also die Notwendigkeit, dass Firmen Cloud-Technologien adaptieren, damit sie nicht den Anschluss verlieren.

Besseres Preis-Leistungs-Verhältnis mit ARM Prozessoren Marke Amazon

Eine Entwicklung, welche den Prozessor-Herstellern Intel oder AMD Sorgen machen könnte, sind Amazons verstärkte Investitionen in eigene Hardware-Technologien, nicht zuletzt den eigenen ARM-basierten Prozessor AWS Graviton 2. Der in der sieben Nanometer-Technik gefertigte Prozessor soll in den Instanztypen m6g, m6gd, c6g c6gd, r6g sowie r6gd zum Einsatz kommen. Dabei sind Instanzen der m-Klasse für den Allzweckeinsatz gedacht, r-Instanzen für erhöhte Speicher- und c-Instanzen für erhöhte Rechenleistungsanforderungen. Das “d” kennzeichnet Instanzen, welche lokale nvme-Platten mitbringen. Amazon verspricht zum Teil deutliche Leistungssteigerungen (zum Beispiel beim Einsatz von nginx im Vergleich zur bisherigen m5-Instanz von 24 Prozent, bei EDA Simulationen mit Cadence Xcellium sogar bis zu 54 Prozent). Allerdings müssen sich interessierte Kunden noch etwas gedulden, um etwaige Performancegewinne mit eigenen Anwendungen zu testen, da AWS gerade erst mit einem Preview der neuen m6g-Instanzen startet. Neben den neuen Graviton 2 Prozessoren hat AWS außerdem spezielle Chips für ML-Workloads angekündigt – den AWS Inferentia Chip welcher in Zukunft Inf1-Instanzen bestücken soll. Der Name ist Programm, so soll dieser Chip speziell für Inferenz-Operationen ausgelegt sein, ein Vorgang, der für bis zu 90 Prozent der Kosten für Machine-Learning-Operationen verantwortlich sein soll.

Verstärkung im Bereich der NoSQL-Datenbanken

Nach Aussage von CEO Andy Jassy gibt es bei der Auswahl von Datenbanken kein Schweizer Taschenmesser, dass für alle Anforderungen geeignet wäre. Deshalb nimmt AWS mit dem Amazon Managed Apache Cassandra Service (MCS) einen weiteren Vertreter von populären NoSQL-Datenbanken (Apache Cassandra) ins Portfolio auf. Bietet AWS bereits mit Amazon DocumentDB eine mit MongoDB kompatible Version, will AWS jetzt auch Cassandra-Nutzern die Vorteile von Managed Services näherbringen. Damit sollen Kunden von der Bürde der Administration von Cassandra-Clustern entlastet werden, worüber Entwickler häufig dankbar sind. Zudem soll MCS serverless sein, was bedeutet, dass der Kunde nur verbrauchsabhängig bezahlen muss und AWS sich automatisch um die Skalierung der einzelnen Tabellen kümmert.

AWS SageMaker Studio als umfassende Entwicklungsumgebung für ML-Entwickler

Eines der am heißesten diskutierten Themen ist zum jetzigen Zeitpunkt “Machine Learning”. So versuchen alle Cloud-Anbieter auf diesem vielversprechenden Zukunftsmarkt die Oberhand zu gewinnen. AWS versucht jetzt mit einigen bedeutenden Erweiterungen ihrer ML-Plattform SageMaker Marktanteile auf diesem Markt zu gewinnen. Mit AWS SageMaker Studio bringt AWS eine auf ML spezialisierte IDE (Integrated Development Environment) auf den Markt, welche den kompletten Lebenszyklus beim Erstellen, Trainieren sowie Implementieren von ML-Modellen unterstützen soll. Als Teil von SageMaker Studio sind dabei auch die neuen SageMaker-Angebote bereits integriert: Notebooks, Experiments, Debugger, Model Monitor sowie AutoPilot. Besonders hervorzuheben ist vor allem auch SageMaker AutoPilot: Dieser Dienst kann automatisch ML-Modelle auf Basis von 50 verschiedenen ML-Algorithmen trainieren. Allerdings setzt dieser Dienst bereits voraus, dass der Kunde die Daten in CSV-Form bereits vorliegen hat, war normalerweise zur Bedingung macht, dass der Kunde sich schon intensiv über die Eingangsdaten befasst hat.

Weitere Ankündigungen

Weitere spannende Ankündigungen gab es unter anderem auch in den Bereichen Hybrid Cloud sowie Data Lakes beziehungsweise Data Warehouse. Kunden können jetzt mit AWS Outposts Amazon-eigene Hardware ins private Rechenzentrum stellen. Diese von AWS verwalteten Racks lassen sich hinsichtlich der Rechenleistung individuell vom Kunden zusammenstellen. Dienstseitig ist Outposts allerdings noch begrenzt. Aktuell werden nur die grundlegenden Infrastruktur-Dienste EC2, EBS, VPC, sowie die Container-Orchestrierungsdienste ECS und EKS und der Big-Data-Dienst EMR angeboten. Im Preview befindet sich noch der gemanagte Datenbankdienst RDS (für PostgreSQL und MySQL).

Auch im Data Lake-Bereich versucht AWS seine Position zu stärken. So hat AWS seinen Cloud-Data-Warehouse Dienst “Amazon Redshift” mit vielen neuen Features versorgt (Materialized Views, Redshift Federated Queries, Data Lake Export, Advanced Query Accelerator). Zudem setzt sich der Trend zu spezialisierterer Hardware auch in diesem Bereich fort. So bieten die neuen Amazon Redshift RA3 Instances with Managed Storage eine entkoppelte Skalierung von CPU und Storage sowie auf dem Data Warehouse-Betrieb maßgeschneiderte Hardware-Ausstattung.