Interview mit Prof. Dan Reed von Microsoft

HPC und die Cloud

28. Januar 2011, 6:00 Uhr | Eric Tierling

Auf der ISC-Cloud-Konferenz, die Ende Oktober 2010 in Frankfurt stattfand, traf LANline Prof. Dr. Dan Reed, Corporate Vice President, Technology Strategy and Policy and Extreme Computing Group bei Microsoft, zum Interview. Themen waren Microsofts Cloud-RZs, Klimatisierung und Kühlung sowie natürlich High Performance Computing (HPC).

LANline: In den Microsoft-eigenen Cloud-Rechenzentren befinden sich Hunderttausende Server.
Welche Erfahrungen konnten Sie mit ihrem Betrieb gewinnen?

Reed: Eine Erkenntnis lautet, dass die derzeit verwendeten Container voller Server nicht auch in
Zukunft erste Wahl sind. Vielmehr geht der Weg in Richtung sehr modularer Datacenter. Sind
Rechenzentren heutzutage zu Wartungs- und Reparaturzwecken für Menschen zugänglich, muss das
künftig nicht zwingend der Fall sein. Denn je günstiger Hardware wird, desto sinnvoller ist eine
Überprovisionierung von Hardware, bei der Sie einen kleinen Prozentsatz an möglichen Defekten von
vornherein in Kauf nehmen. Bauen Sie Rechenzentren unter dieser Prämisse losgelöst vom menschlichen
Service-Aspekt auf, können Sie ganz andere Konstruktionen mit wesentlich höherer Dichte
verfolgen.

LANline: Mit zunehmender Dichte wird die Wärmeentwicklung zur Herausforderung. Wie geht
Microsoft in seinen Cloud-Rechenzentren damit um?

Reed: Nahezu alles, was man uns über die Zuverlässigkeit von Computern und ihre Kühlung gesagt
hat, ist falsch. Hardwarehersteller sind sehr konservativ bei den Temperaturangaben zum Betrieb
ihrer Komponenten. Stattdessen zeigt sich, dass Server-Systeme auch ohne aufwändige
Kühlungsmaßnahmen bei Umgebungstemperatur mit hoher Zuverlässigkeit laufen. Als Experiment haben
wir in Seattle, wo es gerne mal regnet und windig ist, Server draußen in ein Zelt gestellt. Während
sechs Monaten Außeneinsatz hat es bei diesem System genau null Fehler gegeben. In kühleren wie in
wärmeren Regionen, bei höherer Luftfeuchtigkeit und selbst dort, wo Menschen sich nicht mehr wohl
fühlen, ist somit häufig ein zuverlässiger, stabiler Betrieb ohne energieintensive, teure Kühlung
möglich. Das eröffnet uns bei Microsoft die Möglichkeit, Cloud-Infrastrukturen an Orten
bereitzustellen, an denen dies früher nicht möglich war.

LANline: Cloud-Computing ist ein Trendthema, HPC ein weiteres. Was beschäftigt Sie dabei?

Reed: Grundsätzlich glaube ich, dass High Performance Computing und Cloud Computing wie zwei bei
der Geburt getrennte Zwillinge sind. Vergleichen Sie die Hard- und Softwaretechniken der HPC-Welt
mit denen der Cloud-Welt, so gibt es viele Ähnlichkeiten und nur wenige Unterschiede. Für uns
ergibt sich die Chance, einige dieser Techniken zusammenzuführen.

LANline: Auf welchen Gebieten?

Reed: In meiner beruflichen Laufbahn habe ich eine Reihe von HPC-Lösungen kreiert. Bei Microsoft
gehört es unter anderem zu meinen Aufgaben, Cloud-Infrastrukturen der nächsten Generation zu
entwerfen. Und dabei habe ich festgestellt, dass ich sozusagen mit denselben Leuten über exakt
dieselben Themen spreche. Der Aufbau von HPC-Rechen-Clustern und großen Cloud-Rechenzentren weist
Gemeinsamkeiten zum Beispiel bei der Architektur und Zuverlässigkeit, dem Betriebssystem sowie dem
Programmiermodell auf. Es besteht daher kaum ein Unterschied bei der Hardware, die
Strömungssimulationen durchführt, und einer, die auf Suchanfragen von Web-Browsern antwortet.

LANline: Danke für das informative Gespräch.

 

Microsoft Windows HPC Server 2008 R2 für Rechencluster

Seit dem 20. September 2010 liefert Microsoft Windows HPC Server 2008 R2 aus. Dieses auf das
High Performance Computing spezialisierte Produkt nutzt Windows Server 2008 R2 als technische
Grundlage und umfasst für das Hochgeschwindigkeitsrechnen relevante Zusatzfunktionen wie HPC Job
Scheduler und Message Passing Interface (MPI). Zu den Neuerungen im HPC-Server-Release R2 gehören
die Unterstützung für das iSCSI-Booten festplattenloser Compute Nodes sowie die Möglichkeit,
Windows 7-Client-PCs als zusätzliche Rechenknoten zu verwenden – um nachts oder am Wochenende
normalerweise ungenutzte Computerkerne zur Beschleunigung von Rechenjobs heranzuziehen. Durch die
Integration mit Workbooks sowie User Defined Functions (UDFs) können Excel-2010-Anwender
Kalkulationen anstatt auf ihrem lokalen PC im HPC-Rechencluster durchführen lassen. Darüber hinaus
schlägt Microsoft mit Windows HPC Server 2008 R2 die Brücke zur Cloud. Hierzu wird das HPC-Pack im
Installationsassistenten mit einer Option versehen, um Windows-Azure-Nodes dem HPC-Cluster als
Rechenknoten hinzuzufügen und diese Cloud-Ressourcen in einer eigenen Gruppe zu verwalten.

transfer

transfer

transfer


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+