IaaS 2.0

Cloud-Computing der nächsten Generation

17. Dezember 2013, 9:48 Uhr | Achim Weiß, CEO bei Profitbricks

Fortsetzung des Artikels von Teil 3

Live-Vertical-Scaling – Umkonfigurieren im laufenden Betrieb

äufig sind die Ressourcen im Rechenzentrum zu knapp kalkuliert oder zu großzügig geplant. Sind hingegen die Komponenten eines Servers frei zu konfigurieren, lässt sich eine derartige Fehlplanung vermeiden.

Anforderungen ändern sich natürlich mit der Zeit. So steigt im laufenden Betrieb oft der Traffic und die Server werden langsamer. Um die Server aufzurüsten, muss man sie normalerweise zumindest kurzzeitig abschalten und wieder neu starten. In der Zwischenzeit sammelt sich Backlog an, der sogar nach dem Neustart die aufgerüsteten Server in die Knie zwingen kann.

Eine Lösung bietet das vertikale Skalieren im laufenden Betrieb. Damit lassen sich granular innerhalb einer Instanz Prozessorkerne, RAM und Storage im laufenden Betrieb hinzuzufügen. Diese Live-Vertical-Scaling genannte Technologie sorgt ohne Unterbrechung des Betriebs für mehr Rechenleistung bei Lastspitzen oder verhindert den Speicherüberlauf. Alle Komponenten solcher Instanzen lassen sich granular hinzufügen. Der Zuwachs an Prozessorcores wird dem Betriebssystem über einen ACPI (Advanced-Configuration-and-Power-Interface)-Event signalisiert. Versteht das System dieses Signal, kann es die neuen Ressourcen ohne Neustart nutzen. Linux-Varianten mit aktuellen Kernelversionen beherrschen den Umgang mit sich dynamisch verändernder Kernzahl.

Es ist davon auszugehen, dass auch künftige Versionen anderer Serverbetriebssysteme bereits ab Werk und ohne Modifikation in der Lage sind, neue CPU-Kerne ohne Neustart zu erkennen.

Vertikales Skalieren: Viele Vorteile im Alltag

Vom vertikalen Skalieren profitieren beispielsweise Softwareprogrammierer. Für rechenintensive Aufgaben wie dem Kompilieren größerer Projekte buchen die Entwickler einfach mehr CPU-Leistung oder Arbeitsspeicher per Skript beim IaaS-Anbieter und verlagern den Job in die externe Rechenzentrumsumgebung. Auf diese Weise lassen sich nicht nur Aufgaben schneller abarbeiten, sondern auch rasch und kostengünstig Infrastrukturen simulieren, die der späteren Produktionsumgebung nahe kommen. Das kann eine Datenbank sein, die im Speicher gehalten werden soll, oder ein Last-Test, der viele tausend Anwender simuliert. Solche Tests geben auch Aufschluss über die Code-Qualität. Kommt es trotz der hinzugebuchten Rechenleistung zu Schwierigkeiten, liegt es eher am Code des Prototypen als an der Hardware.

Ideal ist das granulare, skriptgesteuerte Buchen und Freigeben beispielsweise auch im Fall von IT-Infrastrukturen wie Intranet-Seiten oder Fileservern in mittelständischen Unternehmen, die typischerweise nur in einer Zeitzone arbeiten und daher ruhige Nachtstunden kennen. In diesem Fall würden bis zum Beginn der Lastphase am Morgen nicht benötigte CPU-Kerne und Arbeitsspeicher in den Servern per Skript freigegeben, auf denen die Intranet-Diens-te laufen. Pünktlich zum Arbeitsbeginn steht dann automatisch wieder die volle Leistung zur Verfügung. Auf diese Weise lassen sich Kosten einsparen, da bei Cloud-Computing 2.0 die genutzten Ressourcen minutengenau abgerechnet werden.

Anbieter zum Thema

zu Matchmaker+

  1. Cloud-Computing der nächsten Generation
  2. Cloud-Computing 1.0 und seine Grenzen
  3. Cloud-Computing 2.0 – flexibel im virtuellen Netzwerk
  4. Live-Vertical-Scaling – Umkonfigurieren im laufenden Betrieb
  5. Die Voraussetzung: Virtualisiertes Netzwerk via SDN
  6. Hohe interne Datenraten mit Infiniband
  7. Konfiguration über eine einfache grafische Oberfläche
  8. IaaS 2.0 - Die Vorteile auf einen Blick
  9. Expertenkommentar: Identität als Katalysator für die Cloud-Adaption
  10. Expertenkommentar: Im Fokus: Der Change-Prozess - Keine Cloud-Blase schaffen!

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu ProfitBricks GmbH

Weitere Artikel zu Public Cloud

Matchmaker+