Zum Inhalt springen

Umsteigen auf Multicore

Multicore-Systeme – Bislang konnten noch viele Unternehmen Moore’s Law ein Schnippchen schlagen, aber immer leistungshungriger werdende Anwendungen stellen IT-Profis nun vor die Frage, wie sie diese Anwendungen auch weiterhin mit Topspeed fahren können. Multicore ist eine mögliche Antwort.

Autor:Redaktion connect-professional • 18.11.2008 • ca. 2:10 Min

Quad-Core-Prozessoren entwickeln sich schnell zum Standardequipment – nicht nur für Server, sondern auch für mobile Computer und Desktop-Systeme. Nach dem diesjährigen Lauch ihres ersten mobilen, auf 45-nm-Technik basierenden Quad-Core-Prozessors begann Intel, Quad-Core-Server-Prozessoren der zweiten Generation auszuliefern. Diese Server-Prozessoren bieten eine um 25 Prozent höhere Performance als die Quad-Core-Server der ersten Generation. Und Intel, IBM, AMD, Sun und andere starten gerade erst: Alle diese Unternehmen testen oder planen zumindest massive Multicore-Prozessoren mit bis zu hundert Prozessor-Cores pro Chip. Dies wird alltäglichen Geräten die Fähigkeiten von Supercomputern verleihen, und zwar bis zu einem Level, der an Echtzeit-Data-Mining über Teraflops von Daten grenzt. Vorstellbar sind Dinge wie medizinische Ganzkörper-Scans, künstliche Intelligenz für clevere Autos und Appliances und virtuelle Realität für ein viel größeres Feld von Modelling, Virtualisierung und physikalische Simulationen.

Dies zu erreichen ist allerdings nicht leicht. Es braucht definitiv mehr, als viele Euros für neue Hardware, um dort hin zu kommen. Zunächst: Mit großer Wahrscheinlichkeit werden IT-Abteilungen, die neue Quad-Core-Technik einführen, feststellen, dass ein Großteil ihrer teuren Hardware völlig ungenutzt bleibt, weil ihre Software nicht dafür entwickelt wurde, die Vorteile mehrfacher Cores zu nutzen.

Wer im Rennen um Super-Performance mitmischen möchte, muss seine Applikationen auf Vordermann bringen.

Spaziergang auf der Sonnenseite

Über Jahre hinweg sah sich die IT einer steilen Performancekurve gegenüber: Die Designer von Computer-Chip-Architekturen, von Intel über AMD zu Sparc und Power-PC, stellten alle 18 bis 24 Monate neue Chip-Designs vor, welche die Dichte und die Performance regelmäßig verdoppelten. Von den 1980ern bis vor wenigen Jahren schrumpfte die Transistorgröße stetig, was zu der höheren Dichte und schnelleren Clock-Geschwindigkeiten der Pentium-4-Ära führte. Von 5 MHz in 1983 bis zu 3 GHz in 2002. Diese Performance-Gewinne erforderten keine Softwareänderungen.

Im Jahr 2001 sagte Pat Gelsinger, CTO von Intel, dass ein Verfolgen des konventionellen Designpfades darin resultieren würde, dass die Oberfläche eines Chips heißer als die Sonne würde. Diese Aussage markierte eine Wende. Die Hersteller stoppten nach und nach ihre Suche nach größeren Clock-Geschwindigkeiten und konzentrierten sich seit der Pentium-4-Ära darauf, die Dichte zu verbessern. Und alle haben sich Hyperthreading und Multicore zugewandt.

Der Haken daran ist, dass diese neuen Architekturen nicht automatisch eine höhere Applikationsperformance bedeuten, wie es in der Vergangenheit der Fall war.

IT-Abteilungen müssen eine klare und konsistente Strategie verfolgen, um Vorteile aus der Multicore-Performance schlagen zu können. Das bedeutet, Applikationen so zu aktualisieren, dass sie die kraftvolle Hardware nutzen. Wie kann man wissen, ob die kritischen Applikationen eines Unternehmens mehrfache Cores effizient nutzen können? Indem man die Performance der Applikation auf einem neuen Quad-Core mit eingeschalteten CPU-Meter testet. »Leuchten keine mehrfachen Cores auf, benötigt die Applikation wahrscheinlich etwas Arbeit«, sagt James Staten von Forrester Research. »Falls die Applikation bereits unter Verwendung der losen Kupplung und Modularität von SOA gebaut ist, ist sie vermutlich bereit für die erste Welle dieser Änderung. Aber für die meisten Enterprise-Applikationen wird sehr wahrscheinlich Arbeit erforderlich sein, damit sie das volle Potenzial von Multicore nutzen können«.