Editorial

Wenn der Berg nicht zum Propheten kommt…

Die Vorteile der Cloud liegen auf der Hand in Form schnell verfügbarer IT-Ressourcen, um deren Betrieb sich der Administrator nur noch eingeschränkt kümmern ... (mehr)

Jeder IT-Verantwortliche kennt die Versprechen des Cloudcomputing wie Kostenreduktion oder gesteigerte Agilität. Und die stark steigende Nutzung von Clouddiensten in den Unternehmen beweist, dass die Cloud diese Versprechen auch halten kann. Doch spätestens im vergangenen Jahr machte künstliche Intelligenz den Geschäfts- und IT-Verantwortlichen der Unternehmen ein neues, verheißendes Versprechen: Bessere Geschäfte durch neuartige Methoden der Datenanalyse. Zwar hinkt die Adaption in den Produktivbetrieb der Cloud noch etwas hinterher, doch scheint es möglich, diese Analysen vorab zu unterstützen, indem alle Daten, derer die Unternehmen habhaft werden können, in der Hoffnung auf zukünftigen Erkenntnisgewinn gehortet werden. Und dies sozusagen on top der eh schon exponentiell wachsenden Datenberge.

Und plötzlich haben wir ein Problem: Bandbreite. Es zeigt sich nämlich, dass es alles andere als trivial ist, die Datenberge zu den Rechenressourcen in die Cloud zu bewegen, um sie dort zu verarbeiten. Denn nicht wenige dieser Datenberge haben mittlerweile Petabyte-Ausmaße – und es ist nur eine Frage der Zeit, bis auch der nächste Faktor (Exabyte) Alltag sein wird. Dem gegenüber stehen die Netze. Schon in der guten alten Server-Client-Zeit wäre kein IT-Verantwortlicher auf die Idee gekommen, die im RZ der Firmenzentrale gelagerten Daten zur Verarbeitung in die Drei-Mitarbeiter-Außenstelle nach Husum zu senden. Aber immerhin war es möglich, die Daten aller Büros einzusammeln und zentral zu verarbeiten. Doch mit der Cloud stellt sich plötzlich die Frage, wo eigentlich "zentral" ist. In AWS? In Office 365? Im eigenen vSphere-Cluster? Und ist diese vergleichbar einfache Fragestellung geklärt, bleibt dem IT-Verantwortlichen das Rätsel, wie er seinen Datenberg dorthin bekommt. Denn über den Status des Breitbandausbaus hierzulande müssen wir gewiss keine Worte verlieren.

Verschärft wird die Problematik zudem durch die steile Karriere des Internet of Things. Eine aktuelle Beispielrechnung aus England verdeutlicht dies: Stünde in ganz London ein Netz mit 1 TBit/s zur Verfügung, würde dies für die parallele Einspeisung von 150.000 Videostreams, etwa von Sicherheitskameras, reichen. Doch in London gibt es schon heute mehr als eine halbe Million Kameras. Ganz zu schweigen von all den anderen Sensoren, die Daten ins IoT senden.

Gewiss hat die Aufgabe Cloudmanagement zahlreiche Facetten, die wir Ihnen in dieser Ausgabe beispielsweise mit der Auswahl des optimalen Azure-Storage (ab Seite 84) näher bringen. Doch dauerhaft sollten IT-Verantwortliche Datenberge und Bandbreiten im Visier haben, wie auch unser Interview mit Internetpionier Mike Tso ab Seite 12 zeigt. Viel Freude beim Lesen wünscht

John Pardey

Chefredakteur

comments powered by Disqus
Mehr zum Thema

Editorial

Artikel der Woche

Eigene Registry für Docker-Images

Wer selber Docker-Images herstellt, braucht auch eine eigene Registry. Diese gibt es ebenfalls als Docker-Image, aber nur mit eingeschränkter Funktionalität. Mit einem Auth-Server wird daraus ein brauchbares Repository für Images. (mehr)
Einmal pro Woche aktuelle News, kostenlose Artikel und nützliche ADMIN-Tipps.
Ich habe die Datenschutzerklärung gelesen und bin einverstanden.

Konfigurationsmanagement

Ich konfiguriere meine Server

  • von Hand
  • mit eigenen Skripts
  • mit Puppet
  • mit Ansible
  • mit Saltstack
  • mit Chef
  • mit CFengine
  • mit dem Nix-System
  • mit Containern
  • mit anderer Konfigurationsmanagement-Software

Google+

Ausgabe /2019