Mainframes und ihre Anwendungen

Die Zukunft der Großrechner

12. Juli 2006, 23:15 Uhr | Joachim Blome/jos Joachim Blome ist technischer Leiter bei Micro Focus in Dortmund.

Während Großrechner im oberen Leistungssegment prosperieren, schrumpft der Markt für kleinere Mainframes, weil andere Techniken zum Einsatz kommen. Für die Fortführung der Applikationen gibt es unterschiedliche Strategien, aber auch die Mainframe-Welt selbst kann auf eine Öffnung nicht verzichten.

Es gibt sie immer noch, die so oft tot gesagten Großrechner: Etwa 3000 sind es in Deutschland,
über 15.000 in den USA, weltweit dürften 25.000 bis 30.000 im Einsatz sein. Schon Anfang der
90er-Jahre hatte man mit ihrem baldigen Ableben gerechnet. Nun, 15 Jahre später, hätte es
eigentlich wieder so weit sein sollen. PC-Systeme, riesige Serverfarmen unter Linux und Windows
haben ein Leistungsniveau erreicht, das keine Wünsche mehr offen lassen sollte, und auch
hinsichtlich Stabilität und Verfügbarkeit haben die Kleinrechner aufgeholt. Dennoch behaupten sich
die großen und ganz großen "Kisten" nicht nur in Wissenschaft und Militär, sondern auch im
kommerziellen Sektor. Sie scheinen für die Hersteller sogar ein Geschäft zu sein, sonst hätte IBM
in den im letzten Jahr vorgestellten z9, den schnellsten kommerziellen Computer aller Zeiten, nicht
rund eine Milliarde Dollar an Forschung und Entwicklung investiert.

Tatsächlich ist der Mainframe nach wie vor die Stütze der "großen" IT. Wo es um sehr große
Datenmengen und hohe Benutzerzahlen geht – in Banken, Versicherungen oder in Konzernzentralen – ist
er noch immer erste Wahl. 75 Prozent aller weltweiten Transaktionen und 90 Prozent aller
Finanztransaktionen laufen auf Mainframes. Die entsprechenden Anwendungen, zumeist in Cobol
programmiert, haben mittlerweile einen Gesamtumfang von über 200 Milliarden Code-Zeilen, der pro
Jahr um drei bis fünf Prozent wächst.

Im oberen Segment, also bei Systemen mit einer Leistung von mehr als 2000 MIPS (million
instructions per second), zu denen auch das Top-Modell z9 zählt, verzeichnen die Großrechner, wie
die Marktforscher von Ovum in einer aktuellen Studie feststellen, neuerdings zum Teil recht
deutliche Zuwächse. Die richtig großen Maschinen erfreuen sich offensichtlich bester Gesundheit.
Wobei sich auch hier für die Kunden das Preis-Leistungs-Verhältnis verbessert, wenn auch nicht so
ausgeprägt wie für die Kunden von PC-Systemen.

Ganz anders sieht die Situation am unteren Ende der Skala aus: "Kleine" Mainframes, das heißt
Großrechner mit bis zu 1000 MIPS, stehen unter massivem Druck seitens der Nicht-Mainframe-Systeme.
Unix-, vor allem aber Linux- und Windows-Systeme bieten nicht nur vergleichbare Leistung zu
günstigeren Preisen, sondern sind darüber hinaus auch weniger anspruchsvoll hinsichtlich der
Infrastruktur. Seit diese Systeme bei den traditionell für den Mainframe Ausschlag gebenden
Kriterien Performance, Zuverlässigkeit, Stabilität und Sicherheit aufgeschlossen haben, werden die
Argumente knapp. Dementsprechend zählt Ovum die kleinen Mainframes mit weniger als 500 MIPS zu den "
gefährdeten Arten". Die Zahl der Mainframes mit weniger als 100 MIPS wird sich in den nächsten fünf
Jahren demzufolge sogar mehr als halbieren. Bei Systemen unter 1000 MIPs erwarten die Analysten von
Ovum bis 2010 einen Rückgang um rund 40 Prozent.

In diesem Marktsegment wenden sich die Anwender bereits seit Jahren vom Großrechner als Technik
ab. Mehr noch als Marktführer IBM haben das die übrigen Hersteller zu spüren bekommen. Die Liste
derer, die sich aus dem Großrechnermarkt bereits ganz verabschiedet haben, ist dementsprechend lang
und umfasst klangvolle Namen wie Control Data, Amdahl, Wang, Burroughs, Sperry, Prime, DEC oder
Comparex. Aber auch Anbieter wie Fujitsu Siemens oder Unisys verspüren hier den Druck des Marktes.
Dies gilt selbst für den Marktführer IBM, der bei kleineren Host-Systemen wie bei der iSeries mit
einem rückläufigen Markt konfrontiert ist. Dabei ist die iSeries, vormals AS/400 beziehungsweise
/36, ohnehin der letzte Vertreter der Gattung der Midrange-Computer, die mit Systemen wie Nixdorf,
HP, NEC, Bull etc. bis vor 15 Jahren die kommerzielle IT beherrscht haben. Vor allem in diesem
Bereich hat das große Artensterben stattgefunden.

Zahlreiche Mainframe-Anwender unterhalb des Top-Levels werden sich also in den nächsten Jahren
umorientieren; die einen, weil sie die nach wie vor hohen Kosten des Großrechnerbetriebs nicht mehr
tragen wollen, die anderen, weil sie wechseln müssen, wenn sie beispielsweise Systeme betreiben,
die vom Hersteller nicht mehr unterstützt werden – das Burning-Platform-Syndrom. Für alle stellt
sich die zentrale Frage, was aus jenen tausenden von Legacy-Applikationen wird, von denen das
Funktionieren der Geschäftsprozesse heute voll und ganz abhängt. In Frage kommen unterschiedliche
Strategien:

Neuentwicklung für eine neue Plattform: Das Unternehmen erhält zwar eine neue, maßgeschneiderte
Lösung aus einem Guss, die genau auf eine neue Technik zugeschnitten werden kann, aber die Kosten
einer kompletten Neuentwicklung sind extrem hoch und es dauert unter Umständen mehrere Jahre, bis
die neue Anwendung fertig ist.

Implementierung einer Standardlösung: Derzeit wechseln viele Unternehmen von ihren
Mainframe-Anwendungen zu Standardlösungen wie SAP. Auch hier werden die bestehenden Applikationen
vollständig aufgegeben und alle Prozesse neu abgebildet. Das Unternehmen verfügt zwar über eine
Lösung ohne Altlasten und über eine neue Infrastruktur, jedoch sind die Kosten erheblich. Eine
Anpassung an unternehmensspezifische Besonderheiten ist schwierig und die Abhängigkeit vom Anbieter
hoch. In der Praxis wird man daher die Alt-Anwendungen nicht zu 100 Prozent nachbilden, sondern für
bestimmte Prozesse weiterhin Cobol-Programme verwenden, die dann beispielsweise mit Micro Focus
Enterprise Server auf einem Linux-Server laufen können. Eine Verbindung von Standard-ERP- und
Legacy-Modulen ist heute problemlos möglich.

Portierung auf eine neue Plattform: Dabei bleibt die Legacy-Anwendung erhalten, aber ganz oder
in Teilen auf eine neue Plattform wie Unix, Linux oder Windows migriert. So kann zum Beispiel eine
(frühere) Mainframe-Cobol-Anwendung auf Unix-, Linux- und Windows-Systemen laufen – und zwar ohne
Leistungseinbußen. Die Umstellungskosten sind gering, die Betriebskosten des Mainframes fallen
wegen des Einsatzes einer neuen Plattform weg. Die bewährte Business-Logik steht unter Einbeziehung
moderner Technik weiterhin zur Verfügung. Allerdings entsprechen die Applikationen zunächst noch
dem Look-and-Feel des Mainframes.

Portieren und modernisieren: Legacy-Systeme werden auf eine neue Plattform portiert und hier
durch neue Systeme ergänzt, vor allem durch neue, grafische Front-Ends auf Basis von HTML oder
Java. Mit modernen Entwicklungs-Tools lässt sich dies ohne großen Aufwand umsetzen. Eine derartige
Lösung ist vergleichsweise kostengünstig, weil bewährte Business-Logik und Programmstrukturen
erhalten bleiben, ohne dass dafür ein Mainframe-System benötigt wird. Dem Anwender steht eine
ausgereifte Lösung unter Einbeziehung moderner Ansätze zur Verfügung. Zudem ist das Projektrisiko
gering, und die Projektlaufzeit lässt sich kurz halten.

Die Modernisierung der Legacy-Applikationen betrifft auch Unternehmen, die grundsätzlich bei
ihrem Mainframe-System und entsprechenden Infrastrukturen bleiben (können). Auch hier müssen die
Anwendungen Anschluss an die neuen Techniken finden oder ausbauen. Nur so können Mainframe-Systeme
den aktuellen Geschäftsanforderungen, die sich unter dem Einfluss von Internet und E-Business
ständig verändern, gerecht werden. Allerdings sind Legacy-Systeme für Anforderungen wie die
Synchronisation mit PDAs, Datenintegration von Windows-Applikationen oder XML-Output nicht
konzipiert, sodass es mit einfachem Plug and Play nicht getan ist. Mittlerweile stehen jedoch
leistungsfähige und praxiserprobte Techniken zur Verfügung, um die beiden Welten zu verbinden,
sogar die Integration von Geschäftsprozessen aus einer Legacy-Applikation in eine SOA ist mit den
entsprechenden Tools ohne weiteres möglich.

Technisch zeichnet sich ein Mainframe dadurch aus, dass sich Prozessoren, Speicher und Peripheriesysteme von vielen virtuellen Servern gemeinsam nutzen lassen. Die Prozessorgeschwindigkeit ist tatsächlich oft geringer als bei Nicht-Mainframe-Prozessoren, sie liegt derzeit bei etwa 770 MHz bis 1,3 GHz, was im Vergleich zu den 3 GHz, die im PC-Bereich heute üblich sind, eher bescheiden aussieht. Andererseits ist die durchschnittliche Auslastung der Prozessoren sehr hoch und liegt bei 80 bis über 90 Prozent. Auf einem Mainframe lassen sich deshalb sehr gut Anwendungen konsolidieren. Zur Optimierung des Durchsatzes nutzt der Instruktionsprozessor des Mainframes andere Prozessoren, die spezielle Aufgaben übernehmen, so beispielsweise System-Assist-Prozessoren (SAPs) für I/O-Operationen oder spezielle kryptographische Hardware für die Ver- und Entschlüsselung von Daten. Anders als bei Stand-alone-Servern erfolgt die Kommunikation zwischen virtuellen Servern nicht über externe Netzwerke, sondern mit internen Methoden wie Hiper Sockets, VM Guest LAN oder Virtual Channel to Channel.

Der Mainframe verfügt über spezielle Verfahren, um seine Prozessoren, Speicher und Peripherie verlustfrei zusammen zu schalten. Sie sind mit einer großen Anzahl paralleler Kanäle ausgestattet, die Engpässe beim Zugriff auf die Subsysteme vermeiden. Große Adressräume von mehreren GByte erlauben die gleichzeitige Ausführung von vielen Programmen. Hinsichtlich der Verarbeitung von großen Datenmengen sind insbesondere Transaktionsmonitore wie CICS zu nennen, die den Datendurchsatz steuern und kontrollieren. Diese Transaktionsmonitore sind ein grundlegender Bestandteil der Mainframe-Architektur und bei großem bis sehr großem Datenaufkommen zwingend nötig, außerhalb der Mainframe-Welt sind sie jedoch so gut wie unbekannt.

Die Verkäufe von Ausrüstung im Segment der mobilen CDMA-Infrastruktur (Code Division Multiple
Access) sind nach Beobachtungen der Marktforscher von Dell?Oro zurückgegangen, allerdings erwarte
der Markt in diesem Bereich auch technische Upgrades, die noch in diesem Jahr für ein Wachstum
sorgen werden. Produkte für die optische Übertragung waren ebenfalls saisonbedingt schwächer
nachgefragt, wobei es laut Dell?Oro Anzeichen dafür gibt, dass sich das Wachstum bei bestimmten
Techniken grundsätzlich etwas abschwächt. Auch die Geschäfte mit Fibre Channel SAN gingen im ersten
Quartal im Vergleich zum vorangehenden leicht zurück, steuern jedoch auf ein zweistelliges Wachstum
für das Gesamtjahr 2006 zu. jos


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+