AWS re:Invent 2019, 2.12. bis 6.12., Las Vegas

Wolkengipfel

,
Angelockt von Themen wie Machine Learning und Cloud, fanden sich rund 65.000 Teilnehmer auf der AWS re:Invent 2019 in Las Vegas ein und verhalfen dem Cloudgiganten zu einem neuen Besucherrekord für seine Hausmesse. IT-Administrator konnte vor Ort erfahren, wie AWS mit dem neuen SageMaker-Studio maschinelles Lernen vereinfachen will und wie sich das nunmehr verfügbare Outposts als Brücke zwischen lokalem RZ und der Cloud positioniert.
Nicht erst die stetigen Ransomware-Angriffe verdeutlichen den enormen Stellenwert von Backups im Unternehmen: Ein falscher Klick genügt und schon steht die ... (mehr)

Mit knapp 3000 Sessions in fünf Tagen – davon viele mit technischen Deep Dives – stand der Wissenstransfer im Fokus der re:Invent. Den Auftakt bildete die knapp dreistündige Keynote von CEO Andy Jassy, in der er eine große Fülle von Ankündigungen zu Machine Learning (ML) und dem klassischen Infrastrukturgeschäft vom Stapel ließ.

Volldampf voraus im Machine Learning

Machine Learning war überhaupt eines der beherrschenden Themen der Konferenz. Zum einen bemüht sich AWS, bestehende ML-Frameworks wie TensorFlow, MXNet oder Pytorch besser mit den eigenen Diensten zu verzahnen, indem TensorFlow 1.15 jetzt in den von Amazon bereitgestellten und vorkonfigurierten Deep-Learning-VM-Instanzen (Deep Learning Amazon Machine Image; DLAMI), sowie Deep-Learning-Containern und in Amazons ML-Flaggschiff "SageMaker" unterstützt wird. DLAMI supportet bereits jetzt TensorFlow 2.0 und soll auf den anderen Plattformen (Container, SageMaker) demnächst ausgerollt werden.

Um die Kosten für das beim ML oft genutzte "Inferencing" (durch Schlussfolgerungen neue Aussagen aus bestehenden Wissensdatenbanken ableiten) zu senken, führt AWS spezialisierte "Inf1"-VM-Instanzen ein, die auf den hauseigenen Inferentia-Chips basieren. Dies soll laut AWS zu 40 Prozent geringeren Kosten im Vergleich zu den G4-Instanzen erfolgen [1].

SageMaker unterstützt alle ML-Aspekte

Große Aufmerksamkeit widmete die Veranstaltung dem SageMaker-Dienst. Dieser ist ein von AWS als Managed Service betriebenes Angebot, mit dem Kunden ML-Modelle bauen, trainieren und ausführen. Auf der Konferenz stellte AWS das SageMaker-Studio vor, das alle notwendigen Werkzeuge für die Entwicklung von ML-Modellen unter einem Hut vereinen soll. Diese webbasierte integrierte Entwicklungsumgebung (IDE) soll ML-Entwicklern aus einem einzigen

...

Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.

comments powered by Disqus

Artikel der Woche

Eigene Registry für Docker-Images

Wer selber Docker-Images herstellt, braucht auch eine eigene Registry. Diese gibt es ebenfalls als Docker-Image, aber nur mit eingeschränkter Funktionalität. Mit einem Auth-Server wird daraus ein brauchbares Repository für Images. (mehr)
Einmal pro Woche aktuelle News, kostenlose Artikel und nützliche ADMIN-Tipps.
Ich habe die Datenschutzerklärung gelesen und bin einverstanden.

Konfigurationsmanagement

Ich konfiguriere meine Server

  • von Hand
  • mit eigenen Skripts
  • mit Puppet
  • mit Ansible
  • mit Saltstack
  • mit Chef
  • mit CFengine
  • mit dem Nix-System
  • mit Containern
  • mit anderer Konfigurationsmanagement-Software

Google+

Ausgabe /2020