Die technische Entwicklung geht rasant weiter. IBM beispielsweise will Cell-Prozessoren mit Standardkomponenten in ein System bauen und so Rechenleistungen im Petaflop-Bereich schaffen. Auch die Formfaktoren ändern sich: »Es gibt einen deutlichen Trend zu Blades und Blade-ähnlichen Architekturen«, konstatiert Dr. Frank Baetke, Program Manager HP Global HPC Technology. Allerdings gibt es auch Kritik daran: »Zukünftig müssen sich Blade-Systeme hinsichtlich der eingesetzten Prozessoren und der Systemstruktur stärker differenzieren«, fordert etwa Robert Übelmesser, bei SGI EMEA für strategische HPC-Projekte zuständig. Auch Virtualisierung spielt eine Rolle. »Virtualisierte HPC-Systeme geben jedem Nutzer ein eigenes, nie vorher benutztes System, das nach Ende der Rechnungen wieder verschwindet«, erklärt Stephanie Kühdorf, Direktorin Deep Computing bei IBM. Das sei speziell für kommerzielle Nutzer wichtig, die ihre Daten vor fremden Zugriffen schützen wollen. Große Herausforderungen stellt das Management der großen Cluster: »Jeder Knoten im Cluster hat ein Betriebssystem, muss überwacht und bei Bedarf gepatcht werden. Deshalb ist das Management ein zentraler Punkt«, sagt Ingo Frobenius, Produkt Manager Enterprise Server, Sun Microsystems. Auch bei der Vernetzung sucht die Industrie nach neuen Wegen. Derzeit dominieren hier Gigabit Ethernet, Infiniband und proprietäre Techniken wie Myrinet. »Das Interesse an unseren Infiniband-Systemen steigt, weil man damit auch Speicher ohne Zusatzkosten anbinden kann. Wir sehen aber in Zukunft auch FC over IP, sofern ein deterministischer Transportdienst definiert wird«, sagt Günter Stegner, Direktor Central EMEA bei LSI Engenio Storage Group. Eine Alternative dazu wäre 10-Gigabit-Ethernet über aktive Glasfaser. Eine entsprechende Technologie hat gerade das amerikanische Unternehmen Finisar vorgestellt. »Die Steckverbinder von Infiniband überbrücken bei Kupferkabel maximal 15 Meter. Dazu ist Kupfer sehr schwer. Bei unserer Glasfaser-Technologie für 10 GBit/s werden elektrische Signale im Kabelende in optische umgesetzt. Das Kabel ist wesentlich leichter und Verbindungen können 30 Meter und mehr überbrücken.« Schließlich wird auch das Management des Energieverbrauchs immer wichtiger. »Es wird immer mehr Fälle geben, in denen die Rechenleistung trotz ausreichenden Budgets wegen unzureichender Stromversorgung nicht beschafft werden kann«, prognostiziert Übelmesser (SGI). Das wäre schlimm. Denn die Industrie kommt schon heute nicht mehr ohne HPC aus.