Wege zum Grid

11. März 2004, 0:00 Uhr | Werner Fritsch

Wege zum Grid. Im Windschatten des Hypes um futuristisches On-Demand oder Utility Computing breiten sich in den Unternehmen pragmatische Lösungen für verteilte Anwendungen aus.

Wege zum Grid

Die Ideen des Grid Computing stammen aus der technisch-wissenschaftlichen Welt. Aufgabe dort ist es, für Batch-Programme die Kapazität zusammenzubekommen, die gebraucht wird, um komplizierte Berechnungen durchzuführen. "Es geht darum, mehrere Rechner zusammenzuschalten, die dann wie ein einziger arbeiten", resümiert Peter Haas, Leiter Global Computing Factory bei T-Systems. Das Dienstleistungsunternehmen betreibt eine der weltweit größten IT-Infrastrukturen und hat sowohl bei technisch-wissenschaftlichen als auch bei kaufmännischen Applikationen Erfahrung mit Grid-Konzepten.

Simulationen bei der Konstruktion

Zu den Anwendern der ersten Gruppe gehören beispielsweise die Meteorologen beim Deutschen Wetterdienst, der dem Bundesministerium für Verkehr, Bau- und Wohnungswesen angegliedert ist, und auch die Physiker am Kernforschungszentrum CERN in Genf. In der Industrie gibt es ebenfalls einschlägige Projekte. Der Automobilkonzern DaimlerChrysler zum Beispiel stützt sich in der Nutzfahrzeugentwicklung beim Digital Mockup auf ein Grid. Unter einem Digital Mockup verstehen die CAX-Experten ein vollständiges, digitales, dreidimensionales Modell eines Fahrzeugs. Anhand einer solchen Repräsentation können die Ingenieure frühzeitig feststellen, ob die Teile alle zusammenpassen. Durch die CAD-Software Catia Version 5 haben die Entwickler die technischen Daten bereits in frühen Phasen auf ihren Computern und Bildschirmen zur Verfügung. Die digitale Simulation ersetzt physische Prototypen. Das hilft, Kosten einzusparen und neue Fahrzeuge schneller zu entwickeln und auf den Markt zu bringen. Um die erforderlichen Berechnungen durchzuführen, ist allerdings einiges an Prozessor- und Speicherkapazität nötig. Um Kosten zu sparen, entschied man sich statt in schiere Hardware in intelligente Software zu investieren.

Um die vorhandenen drei Unix-Server mit jeweils vier CPUs und die 800 Unix-Workstations besser auszunutzen, verwendet der Automobilhersteller heute die Software LSF (Load Sharing Facility) des Anbieters Platform, die die Rechenaufträge verteilt und die Maschinen gleichmäßig auslastet. Nachts lagen die Kapazitäten früher fast komplett brach. LSF schaut nun in den Pool im Großraum Stuttgart, um zu ermitteln, wo die benötigten Ressourcen an CPU, Platten- und Hauptspeicher verfügbar sind, und verteilt die Jobs entsprechend. Auch für Ausfallsicherheit sorgt die Software, indem sie die Aufträge im Fall der Fälle auf einem anderen Rechner ausführt. Viele der Digital-Mockup-Routinen laufen als Batch-Jobs. Die entsprechenden CAX-Programme sind auf den Rechnern des Pools permanent vorhanden, die benötigten Daten werden nach Bedarf von einem File-Server geholt.

Peter Haas, Leiter Global Computing Factory bei T-Systems: "Beim Grid Computing geht es darum, mehrere Rechner zusammenzuschalten, die dann wie ein einziger arbeiten."

Foto: T-Systems

Grids und mehr

Seit einigen Jahren versucht man, die Grundideen des Grid Computing auch für die kaufmännische Datenverarbeitung fruchtbar zu machen. Die IT-Riesen Hewlett-Packard, IBM und Sun sind im Begriff, daraus ein neues Paradigma der IT für Unternehmen zu kreieren. Das Global Grid Forum arbeitet unterdessen an Standards, um die Kompatibilität von Produkten unterschiedlicher Hersteller zu gewährleisten. Die Leistungen der IT für die Fachbereiche sollen künftig nach Bedarf als Services angefordert, geliefert und verrechnet werden. Ein Ziel is es, vorhandene Rechner, Speicher und Netzwerkverbindungen effizienter zu nutzen und dadurch die Kosten zu senken. Die Applikationen sollen die benötigten Ressourcen nach Bedarf zugewiesen bekommen. Statt bestimmten Betriebsmitteln fest zugeordnet zu sein, arbeiten die Anwendungsprogramme auf einer Abstraktionsschicht, die die konkreten Ressourcen virtualisiert. Ein weiteres Ziel besteht darin, den Anwendern den benötigten Dienst in der gewünschten Qualität zu garantieren: Verfügbarkeit und Geschwindigkeit sollen Grid-Architekturen ebenfalls verbessern. Obendrein verheißen die Hersteller, die Systemverwaltung zu automatisieren. Die IT-Visionäre sprechen deswegen außer von Grid auch von On-Demand, Utility, Adaptive und Autonomic Computing (siehe InformationWeek 10/2003, Seite 20 ff.), wenn sie diese neue Form der Datenverarbeitung meinen. Im Fokus stehen dabei bislang Anwendungen innerhalb der Grenzen eines Unternehmens.

Den Kern bilden indes nach wie vor intelligente Verfahren, um Programme auf verschiedene Computer zu verteilen, dort ablaufen zu lassen und die Ergebnisse zusammenzuführen. Insofern ist der aktuelle Ansatz nicht gänzlich neu. So hat die in den 90er Jahren vielfach implementierte Common Object Request Broker Architecture (Corba) der Object Management Group (OMG) bereits verteilte Datenverarbeitung für geschäftskritische Anwendungen formalisiert. Und fortgeschrittene Programmier- und Betriebsumgebungen der vierten Generation wie die des Anbieters Forté kümmerten sich damals schon um Lastverteilung und Ausfallsicherheit. Mag der Weg zum vollständig virtualisierten und automatisierten Rechenzentrum noch weit sein, intelligente verteilte Datenverarbeitung ist in vielen Unternehmen bereits heute Wirklichkeit.

Dynamische Lastverteilung

Die Landesbank Baden-Württemberg (LBBW) etwa braucht für das Risikomanagement einiges an Rechenkapazität. Einen neuen leistungsstarken Server anzuschaffen wäre jedoch teuer. Außerdem gibt es im Unternehmen viele PCs, die nicht ausgelastet sind. Die Bank entschied sich deshalb dafür, stattdessen Lizenzen der Lastverteilungssoftware LSF des Herstellers Platform zu erwerben. Mit diesem Programm lassen sich die aufwändigen Berechnungen für das Risikomanagement auf 16 PCs mit dem Betriebssystem Windows 2000 verteilen, die in einem LAN zu einem Cluster zusammengeschaltet sind. Bei den Berechnungen geht es um so genannte Monte-Carlo-Simulationen, wie Projektleiter Peter Oellers erläutert: Hunderttausende oder sogar Millionen von Szenarien werden durchgespielt, um schließlich Wahrscheinlichkeitsaussagen für zukünftige Sachverhalte bei den Zinsen oder den Aktienkursen treffen zu können. Dabei werden Geldflüsse simuliert, um künftige Zahlungen für Kredite oder Wertpapiere darzustellen. Die selbst entwickelte Statistikanwendung eignet sich für die verteilte Verarbeitung, weil sich die einzelnen Szenarien separat und parallel berechnen lassen. Mindestens einmal pro Tag muss das Gesamtrisiko der Bank auf diese Weise neu berechnet werden. "Ein Flaschenhals war der Datenbankzugang", erinnert sich Oellers. Realisiert hat er mit seinem Team in Stuttgart schließlich eine verteilte Datenhaltung in dem erwähnten Cluster mit Microsofts SQL Server 2000. Die Banker stellen ihre Rechenaufträge nun einfach in eine Warteschlange. Die Zuteilung der Ressourcen, also der PCs mit ihren Prozessoren und Speichern, steuert die Software LSF. "Den Code unserer Applikationen mussten wir nicht verändern", freut sich Oellers. Die Installation von LSF dauerte nicht einmal eine Stunde. Die Ressourcen werden dynamisch zugewiesen und die vorhandenen IT-Kapazitäten gut genutzt.

Die Landesbank Baden-Württemberg verteilt beim Risikomanagement die Rechenlasten dynamisch in einem PC-Netzwerk.

Foto: LBBW

Verteilte SAP-Anwendungen

Risikomanagement ist eine sehr spezielle Aufgabe. Als Inbegriff betriebswirtschaftlicher Anwendungen gilt hingegen die Fertigsoftware von SAP. SAP-Systeme sind oft sehr komplex. Zwar bieten sie eine Fülle von Funktionen, doch der Verwaltungsaufwand und die damit verbundenen Kosten sind beträchtlich. Bei dem IT-Dienstleister T-Systems läuft deshalb ein Projekt namens SAP Kostenersparnis, kurz Sake genannt, um SAP-Applikationen in verteilten Umgebungen ausfallsicher zu betreiben. Virtualisiert werden Prozessorleistungen und Speicherkapazitäten. Ähnlich hat die Professional-Service-Abteilung von Sun Microsystems auf Basis der N1 genannten Vision vom Grid und Utility Computing eine Architektur entwickelt, mit der SAP-Anwendungen verteilt werden können, um mehr Flexibilität zu gewinnen und die Kosten zu senken. Entsprechende Tools sind in dem Paket N1 Advanced Architecture for SAP gebündelt.

Das Gemeinschaftsunternehmen Bosch und Siemens Hausgeräte beispielsweise setzt im operativen Bereich nahezu alle Applikationen des ERP-Pakets R/3 Enterprise ein, ferner das Supply-Chain-Modul APO für die Fertigungsplanung. Auf der analytischen Seite dominiert ebenfalls Software aus Walldorf: betrieben wird ein Business Information Warehouse einschließlich der Komponente SEM für Top-Entscheider. Die Verarbeitungslogik der kaufmännischen Applikationen wird in dem begonnenen N1-Projekt auf mehrere kostengünstige Lowend-Server des Typs Sun Fire V 440 verteilt. Die gemeinsame Datenbank läuft auf einem großen Server der Bauart Sun Fire 15K. Beide Server-Typen arbeiten mit dem Betriebssystem Solaris. Mit Hilfe des N1-Tools Jumpstart werden auf den Servern nach Bedarf Betriebssysteme und Applikationen übers Netz installiert. Ein solcher Vorgang nimmt 15 bis 20 Minuten in Anspruch. Ein Dienstleistungsteam von Sun hat diese Funktionalität in ein paar Tagen zur Verfügung gestellt. In der anstehenden zweiten Stufe des Projekts geht es darum, mehr Flexibilität zu erreichen. Über ein Reporting werden dafür Informationen über die Auslastung der Server gesammelt. SAP-Instanzen sollen dann nach Bedarf auf verfügbare Server gebracht und dort ausgeführt werden. Der Anwendungssoftware werden künftig die benötigten Ressourcen in den Rechenzentrumsstandorten Giengen und München dynamisch zugewiesen.


Jetzt kostenfreie Newsletter bestellen!

Matchmaker+