Datacenter-Encryption

Schiebung - nur zu

23. Juli 2013, 12:21 Uhr | Thilo Senne, CMO, Dacoso
© fotolia.com

Virtualisierung, Zentralisierung, Cloud – das hört sich alles nach großer Unabhängigkeit an: Daten werden hin und her geschickt und sind auf jeden Fall stets verfügbar. Wie aber kann das tatsächlich funktionieren? Welche Bedingungen an Verfügbarkeit und Sicherheit müssen für den Datentransfer zwischen Rechenzentren erfüllt sein?

Kaum ein Unternehmen beschränkt sich auf ein Rechenzentrum. Entweder, weil es einfach mehrere Niederlassungen mit eigenen Datacentern hat, oder weil Daten doppelt abgelegt werden müssen: zur Absicherung im Ernstfall. Business-Continuity, das heißt die Verfügbarkeit der Daten auch im Fall von Schäden durch Bauarbeiten oder Naturkatastrophen, treibt die doppelte Datacenter-Nutzung stark voran. Genauso wie die private Cloud: Applikationen greifen nicht mehr nur auf einen bestimmten Server zu, sondern zwischen Rechenzentren verlagert. Damit wird die optimale Auslastung der Systeme möglich. Wenn Unternehmen ihre Private-Cloud effizient aufsetzen, wird das wirtschaftlich interessant.

Ein weiterer Treiber für die Vernetzung von Datacentern ist „Big Data“. Um Wettbewerbsvorteile zu nutzen oder neue Geschäftsfelder zu entwickeln, werden insbesondere in großen Unternehmen Unmengen an Daten gesammelt und ausgewertet: Zahlen und Texte genauso wie Videos, Websites oder Informationen aus Social-Networks und aus der Nutzung mobiler Endgeräte. Die dynamische Verknüpfung und Analyse dieser Daten schafft einen enormen Wert, fordert aber gleichzeitig die Speichersysteme heraus und macht Disaster-Recovery zur Pflicht. Verteilte Rechenzentren verschaffen außerdem kreative Möglichkeiten, Strom beziehungsweise Energieausgaben zu sparen. Die Initiative AC4DC, die vom Bundesministerium für Wirtschaft und Technologie unterstützt wird, geht derzeit die zeitliche und räumliche Verschiebung von Arbeitslasten zwischen Rechenzentren an. „Dies geschieht durch Modellierung eines virtuellen, neuen Rechenzentrums im Verbund und Zusammenspiel bereits vorhandener Rechenzentren und unter Einfluss lokaler  Einflussgrößen (Wetter und Energiekosten).“ Die Idee von AC4DC: Server werden jeweils an dem Standort auf Hochtouren betrieben, der die geringsten Stromkosten und die besten Klimabedingungen bietet.

Die Vernetzung der Datacenter hat also gute Gründe – und es kommen immer mehr dazu. Aber wann sind Rechenzentren so gut untereinander verbunden, dass sie die Ideen schnell und vor allen Dingen
sicher umsetzen können?

Anbieter zum Thema

zu Matchmaker+

  1. Schiebung - nur zu
  2. Bis 100 Kilometer: synchron koppeln
  3. Weiter weg: asynchron koppeln
  4. Der Trick: Zeit sparen
  5. Abhören - aber nichts verstehen: Encryption

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Server, Datacenter

Matchmaker+