Zum Inhalt springen

Prozessortechnologien der Zukunft

Prozessortechnologien der Zukunft Die Prioritäten bei der Entwicklung von Prozessoren wurden verschoben. Das Wettrüsten um die Taktraten hat ein Ende gefunden. Die Hersteller konzentrieren sich mehr auf die Systemtechnologien und die Integration des Prozessors als Ganzes.

Autor:Markus Bereszewski • 23.11.2006 • ca. 6:05 Min

Man dachte noch zu Zeiten von Konrad Zuse, dass wenige Rechenmaschinen genügen würden, um alle Aufgaben der Menschheit lösen zu können. Heute hat jeder einzelne von uns Rechenleistung auf oder unter seinem Schreibtisch – oder gar im Handy –, die ein Mehr­faches die Rechenleistung übersteigt, die für die Vorbereitung und Durchführung der Mondlandungen zur Verfügung stand. Es ist schon erstaunlich, wie konsequent sich das Mooresche Gesetz, nach dem sich die Komplexität von integrierten Schaltkreisen etwa alle 19 Monate verdoppelt, in den letzten 40 Jahren bewahrheitet hat. Heute redet man von 64-Bit echten und erweiterten, von Single-, Dual- oder Quad­core, Cell-Prozessoren, Mainframe und RISC-Dinosauriern. Noch vor etwa 6 Jahren hatten wir eine Vielfalt von Prozessoren am Markt. Dieser teilte sich in die Lager CISC (Complex Instruction Set Computing) und RISC (Reduced Instruction Set Computing) auf. Der bekannteste Vertreter der CISC Reihe ist die von Intel entwickelte x86 Architektur, die Ihren Ursprung im 808x hatte und noch heute die am weitesten verbreitete ist. Untersuchungen in den 70er Jahren ergaben, dass etwa 80 Prozent der Berechnungen einer typischen Anwendung mit maximal 20 Prozent der im Prozessor vorhandenen Befehle ausgeführt werden. Nicht zuletzt durch diese Erkenntnis wurde der Grundstein für die Entwicklung einer schlanken und schnellen RISC-Architektur gelegt. Dabei ist der Befehlssatz so ausgelegt worden, dass theoretisch jeder Befehl innerhalb eines Taktzyklus ausgeführt werden kann. Das Attribut »Reduced« in RISC ist dabei aber nicht bezogen auf die Anzahl der verfügbaren Prozessorbefehle zu sehen. Es bezieht sich auf die Mächtigkeit der einzelnen Befehle. Dank dieser Neuerungen war es möglich immer leistungsfähigere Prozessoren zu entwickeln und deren Durchsatz durch Parallelisierung noch weiter zu erhöhen. Diese extremen Leistungen zeigen sich heute bei den Vertretern dieser Architektur wie den PA-RISC und den Alphaprozessoren von HP, Power von IBM und den Sparc von SUN. Durch die immer höheren Leistungsanforderungen stößt man auch mit dieser Technologie heute an die Grenzen des Machbaren.

Neue Wege
Denn etwas haben RISC und CISC gemeinsam: die komplexen Strukturen und Mikrocode müssen auf dem eigentlichen Prozessorchip abgebildet werden. Natürlich stand man schon immer vor der Frage wie viel Intelligenz bringt man in den Prozessorchip und was müssen die Compiler dazu beisteuern. Auf Grund dieser Überlegungen war es Zeit neue Wege zu gehen. Die Prozessoren der Zukunft sollten einfacher zu fer­tigen, flexibler in der Nutzung sein und natürlich in neue Leistungsklassen vordringen. In den 80er Jahren entstand dann mit der Bezeichnung VLIW (Very Long Instruction Word) eine neue Klasse von RISC-Computern. Neu war, dass dabei das Befehlswort vier Instruktionen enthält und 128-Bit breit ist. Die Befehle (Instruktionen) werden gleichzeitig ausgelesen. Der Compiler extrahiert die von einander unabhängigen Befehle (Daten) und packt sie in ein langes Befehlswort. Diese können dann parallel ausgeführt werden. In den 90ern begannen dann die Bemühungen der Hersteller Intel und Hewlett-Packard, eine gemeinsame 64-Bit-Architektur zu entwickeln (IA-64: eine »Explicit Parallel Instruction Computing-Architektur«). Mit ihr ging man einen radikal anderen Weg als bei der CISC-Architektur. Man kann sie sich als superskalare RISC-Architektur vorstellen, wobei aber der Compiler wesentlich größere Teile der Steuerwerk-Arbeit übernimmt. Dadurch wird der Compiler aufwändiger und elementar für den Erfolg dieser EPIC-Architektur. Dabei hat sie viele Techniken der VLIW-Compiler verwendet, wie zum Beispiel die Spekulation, bei der Load-Befehle, lange bevor die Daten benötigt werden, spekulativ ausgeführt werden. Mit dieser neuen Architektur sollte ein Standard etabliert werden. Dieser sollte für all die Anwendungsgebiete gelten, die über den Home- oder PC-Anwender hinausgehen. Kurz, sie sollte die Aufgaben übernehmen, die bis dahin von Workstations, Servern und Mainframes erledigt werden. Das bedeutet aber auch, dass mit der Vergangenheit gebrochen werden musste und die Rückwärtskompatibilität überhaupt nicht oder nur eingeschränkt gegeben sein kann. Die daraus folgende Notwendigkeit einer kompletten Neuerstellung von Betriebssystemen und Anwendungsprogrammen hat dazu geführt, dass die Entwicklung eines auf der EPIC-Architektur basierenden Prozessors viele Jahre in Anspruch genommen hat. Mittlerweile sind wir bei der zweiten Generation des Itanium IA-64 Prozessors, der sich Stück für Stück Marktanteile erobert.

Wirbel am Markt
Parallel dazu ging die Firma AMD andere Wege. Sie entschied sich, basierend auf dem x86-Industriestandard in Verbindung mit den neuesten am Markt verfügbaren Systemtechnologien einen Prozessor zu designen, der einerseits die Abwärtskompatibilität garantiert und andererseits die wichtigsten Limitierungen und Leistungsbeschränkungen ausschaltet. Entstanden ist der Opteron-Prozessor mit der x86-Technologie und 64-Bit-Erweiterungen, der innerhalb der vergangenen zwei Jahre den Markt deutlich durcheinander gewirbelt hat. Wir finden heute also die Vertreter der x86-Technologie, wie den AMD Athlon/Opteron und den Intel P4/Xeon, in unterschiedlichsten Versionen. Beide unterscheiden sich im Wesentlichen in der implementierten Systemtechnologie. Mittlerweile hat Intel entschieden, die von AMD entwickelten 64-Bit-Erweiterungen in ihre x86-Familie zu integrieren und immer mehr Wert auf die Reduzierung der Verlustleistung gelegt. Mit dem x86-64 ist es gelungen eine der wichtigsten Grenzen wie etwa die 4GB-Hauptspeicher zu durchbrechen und auf 128GB zu erhöhen. Durch den Einsatz eines 64-Bit-Betriebssystems sind somit extreme Leistungssteigerungen in der x86-kompatiblen Klasse möglich. AMD ist noch eine Schritt weiter gegangen und hat die Systemarchitektur verändert von der UMA- (Uniform Memory Access) hin zur NUMA-Architektur (Non-Uniform Memory Access). Dabei haben sie zusätzlich alle wichtigen Komponenten wie die Memorycontroller und die Northbridge (Crossbar) in den eigentlichen Prozessorchip integriert. Diese wurden mit der neu definierten Direct Connect-Architektur perfektioniert und dadurch die Engpässe der üblichen Busarchitekturen beseitigt. Es entstand ein hoch performantes Gesamtsystem in der x86-Klasse, das nicht ohne Grund in nur zwei Jahren ­einen sehr respektablen Marktanteil von über 20 Prozent erreicht hat. Desweiteren finden wir die RISC-Vertreter wie den Power5 von IBM, den Sparc von Sun, PA-RISC sowie Alpha von HP. PA und Alpha stehen aber kurz vor der Abkündigung, da HP ganz auf den Itanium im High-End-Segment setzt. Sun bewegt sich immer mehr auf die Opteron Technologie von AMD während IBM mit dem Power5 und dem Itanium-Prozessor zweigleisig fährt. Darüber hinaus gibt es immer wieder neue Entwicklungen wie den Cell-Prozessor. So hat Sun schon vor einiger Zeit den Sparc »Niragara« vorgestellt und auch Produkte am Markt, die derzeit ein Schattendasein führen. Suns UltraSPARC T1 »Niagara« gibt es in Versionen mit vier, sechs oder acht Cores. Jeder Kern verarbeitet mit der Cool­Threads-Technologie vier Threads simultan (32 Threads). Den Nachfolger des UltraSPARC T1 will Sun Mitte 2007 als Niagara-2 (64 oder 128 Threads) auf den Markt bringen. IBM, Sony und Toshiba sind da schon einen Schritt weiter. Deren Entwicklung, der PowerPC basierende Cell-Prozessor, erreicht eine theoretische Rechenleistung von 2,18 Tera-Flops. Er setzt sich aus einem 64-Bit-Power-Kern und acht speziellen Prozessorkernen für schnelle Fließkommaberechnungen zusammen und wird das Herz der Playstation 3 bilden. Sicherlich wird dieses System dank der enormen Leistung über kurz oder lang millionenfach verkauft, sollte es gelingen marktreife Rechnersysteme auf der gleichen Basis für den kommerziellen Einsatz zu designen. Es bleibt aber abzuwarten, wie schnell die dafür erforderliche Software zur Verfügung steht. Beste Aussichten in dieser Reihe genießt der Itanium-Prozessor, dessen Markt stetig wächst. Die bekanntesten Vertreter mit dieser Technologie sind wohl die Integrity- und Nonstop- Systeme von HP, doch immer mehr Hersteller bieten Systeme mit ­dieser Technology an. Damit dürfte ein neuer Standart für das High-End-Segment definiert werden.

Frage nach der ­Plattform
In der Praxis der Unternehmen stellt sich die Frage, wann, wo und für welche Aufgabe sich welche Plattform empfiehlt. Für weit über 90 Prozent der Aufgabengebiete und Anwendungen wird sich die x86-64 Technologie durchsetzen. Interessant ist hier auch, dass es AMD in Zusammenarbeit mit Partnern gelungen ist, Systeme mit bis zu 32 Sockeln zu entwickeln, die auch bei den leistungshungrigeren Anwendungen in der Zukunft eine bedeutende Rolle spielen werden. Wenn es aber um Spitzen-Rechenleistung mit großem Speicherbedarf und höchster Verfügbarkeit geht, dürfte sich der Itanium etablieren. Daneben werden sich sicherlich nicht viele Architekturen halten, da deren Weiterentwicklung immense finanzielle Aufwendungen bedeuten und die Stückzahlen die Innovationszyklen ausbremsen. Dabei sollte auch nicht vergessen werden, dass die Energieaufnahme ein immer wichtiger werdendes Kriterium darstellt, das bei den immer stärker steigenden Energiepreisen in einigen Fällen das Zünglein an der Waage spielen könnte.

Gerald Maitschke Geschäftsführer vom Systemhaus Maitschke und ehrenamtlicher Sprecher der Itanium & ­Integrity-SIG (Special Interesting Group) bei der HP User Society (http://www.hp-user-society.de/sig/itanium).