Den Aspekt der Fokussierung betont auch Joachim Wagner, Business Development Manager beim Microsoft-Partner GNS Systems. Der Braunschweiger IT-Dienstleister konzentriert sich auf Anwendungs-Infrastrukturen für Produktentwicklung und Engineering in der Automobilindus-trie. »Für uns sind 100 bis 120 Applikationen relevant, mit denen wir uns auskennen müssen.« Dazu zählen etwa CAD- und Simulationsprogramme. Für Microsofts HPC Server sieht Wagner gute Marktchancen. Denn nach seiner Beobachtung arbeiten viele kleinere Ingenieurbüros bislang ausschließlich mit Workstations. »Dort gibt es durchaus einen Bedarf an Cluster-Systemen, auf denen im Hintergrund aufwändige Berechnungen ausgeführt werden.« Zudem seien HPC-Lösungen wegen sinkender Hardware-Preise inzwischen erschwinglich geworden.
Derzeit wird der HPC-Markt von Linux dominiert. In 75 Prozent aller Installationen dient das Open Source-Betriebssystem als Plattform. Windows kommt auf einen Anteil von fünf Prozent. Bei den von Megware aufgebauten Clustern lautet das Verhältnis von Linux zu Windows sogar 99 zu eins, wie Dirk Viertel, Geschäftsführer des Chemnitzer Systemhauses, berichtet. »Ich würde mir allerdings wünschen, dass der Anteil von Windows zunimmt.« Denn für Anwender, die sich vor allem in der Microsoft-Welt auskennen, sei der Windows HPC Server ein hervorragendes System. Dessen Vorteile liegen laut Viertel in der einfachen Administrierbarkeit und im zuverlässigen Hersteller-Support.
Auch der Megware-Geschäftsführer hält Spezialisierung und Fokussierung für Schlüssel zum Erfolg im HPC-Geschäft. »Man muss die Prozesse des Kunden kennen, um zu verstehen, welche Lösung er benötigt.« Zu den verschiedenen Branchen, die Megware nach rund zehn Jahren Erfahrung mit Cluster-Lösungen inzwischen adressiert, zählen Forschung und Lehre, Fahrzeugbau, Chemie, Pharma sowie Öl und Gas.
Eine wesentliche Anforderung beim Aufbau von HPC-Clus-tern ist das richtige Sizing. Die benötigte Rechenleistung hängt hauptsächlich von den Anwendungen ab, die auf der Infrastruktur laufen sollen. Deren Performance nimmt aber nicht linear mit der Größe eines Clusters zu, sondern die Leistungskurve flacht tendenziell ab. Dabei verhält sich jede Applikation anders. In der Regel verfügen die großen Hardware-Anbieter über Benchmark-Daten für zahlreiche Anwendungen, die sie ihren Partnern zur Verfügung stellen. Darüber hinaus unterstützen Hersteller wie HP und IBM ihren HPC-Channel regelmäßig mit mehrtägigen Schulungen, bei denen sie auch neue Partner an das Thema heranführen.
Sicher werden Neulinge nicht mit dem Aufbau von Supercomputern mit Hunderten von Rechenknoten beginnen. Unterhalb davon gibt es im Markt aber auch Bedarf an kleineren Cluster-Lösungen für Arbeitsgruppen oder Abteilungen. Die Hürden für den Einstieg sind jedenfalls nicht unüberwindlich. »Unserer Einschätzung nach können Server-Reseller, die den Lernaufwand nicht scheuen, relativ schnell damit beginnen, HPC-Sys-teme zu verkaufen«, sagt Steve Conway, Research Vice President bei IDC. Das Marktforschungsunternehmen empfiehlt Neueinsteigern, sich zunächst auf Lösungen für Arbeitsgruppen zu konzentrieren, die vom Preis her unter 70.000 Euro liegen. Zu den größten Treibern von HPC wird laut Conway künftig Business Intelligence gehören. Denn riesige Datenmengen, wie sie größere Unternehmen in ihren Data Warehouses sammeln, lassen sich nur mit Server-Clustern einigermaßen schnell auswerten.