Ein Problem im Zusammenhang mit ITIL ist die oft falsche Erwartungshaltung der Anwender gegenüber dem Standard. Viele haben eine Revolution der IT und daraus resultierend die Änderung technischer Prozesse und eine massive Senkung der Betriebskosten erwartet.
Das vermag ITIL aber nicht zu leisten. Etwas anderes als die formalisierte Beschreibung einer neuen Art der Zusammenarbeit stand nie zur Debatte. An dieser Stelle bietet sich ein Vergleich zur Industrialisierung im 19. Jahrhundert an: Durch ITIL ist die Arbeitsteilung im IT-Betrieb eingeführt, es weiß jetzt jeder, was er zu tun und in welcher Form er sein Werkstück weiterzugeben hat. Damit ist aber noch nicht der Schritt von der Handarbeit zum Fließband gemacht.
Die Neustrukturierung der Arbeitsorganisation und der Kommunikation durch ITIL ist somit die Basis für die Weiterentwicklung der Betriebskonzepte und die Veränderung der eigentlichen Betriebsarbeit. So stellt sich nun die Frage: Wie lässt sich der Umgang mit der IT-Umgebung grundsätzlich verändern, so dass der anfallende Arbeitsaufwand sinkt?
Auch bei der Beantwortung dieser Frage kann die IT wieder von der klassischen Industrie lernen, wo die manuelle Arbeit durch Maschinen ersetzt wurde. Das Schlagwort lautet Automatisierung. Im ersten Moment mag es sich merkwürdig anhören, einen Bereich wie die IT zu automatisieren, der doch eigentlich dazu da ist, die Arbeit anderer technisch zu vereinfachen, was nichts anderes heißt als diese zu automatisieren.
Heute ist es jedoch so, dass sehr viele Tätigkeiten im IT-Betrieb noch manuell durchgeführt werden beziehungsweise manuell angestoßen werden. Automatisierung bedeutet in diesem Bereich nichts anderes, als dass unter definierten Bedingungen vorab festgelegte Aktionen durch Maschinen selbstständig durchgeführt werden.
Eine der größten Herausforderungen liegt dabei in der genauen Ermittlung der Bedingungen. Erste Voraussetzung dafür ist die Erfassung der Gesamtumgebung, quasi eine »Inventarisierung« der IT, wobei von der Annahme auszugehen ist, dass Geschäftsprozesse auf der Funktionsfähigkeit von Applikationen beruhen.
Zunächst müssen also die komplette Hardware und sämtliche Applikationen im Unternehmen identifiziert werden. Im Anschluss daran lassen sich die Abhängigkeiten zwischen den Maschinen und den Anwendungen visualisieren. Dazu wird ermittelt, welche Services eine Maschine – bei Clustern auch mehrere Maschinen - bereitstellt.
Beispiele für diese Dienste sind Datenbanken, Web-Server, Virenfilter oder auch ein SAP-Modul. Selbstverständlich stehen auch die Dienste selbst in mehr oder weniger engen Beziehungen zueinander. So kann beispielsweise ein SAP-Dienst niemals ohne die zugehörige Datenbank funktionieren.
Im nächsten Schritt werden diese engen Abhängigkeiten zu »Ressourcen« zusammen gefasst, bevor abschließend für jede einzelne Anwendung festgestellt wird, welche Ressourcen diese Applikation in welcher Reihenfolge nutzt.
Aufgrund dieser neu gewonnenen Transparenz lassen sich dann Fragen beantworten wie: Welche Applikation ist vom Ausfall einer bestimmten Komponente betroffen? Welche Dienste lassen sich durch andere Komponenten ersetzen oder welche Ressourcenverknappung kann zu welchen Auswirkungen auf Benutzer- oder Technikerebene führen?
Nächste Voraussetzung für die erfolgreiche Automatisierung des IT-Betriebs ist die Erhebung von Messdaten. Sie bilden die Grundlage für das Aufstellen von Regeln, anhand derer festgelegt wird, unter welchen Umständen automatisch eine bestimmte Aktion ausgelöst wird. Zu beachten ist, dass die klassische technische Messung alleine nicht zielführend ist. Unabdingbare Voraussetzung für die automatische Auslösung von Aktionen ist auch die Messung der Funktion der IT- und Applikationskomponenten.
Dazu zählt die End-to-End-Applikationsverfügbarkeit. Durch die Simulation eines Benutzers auf einer realen Anwendung kann eine Aussage darüber getroffen werden, ob ein Benutzer auf das System überhaupt, beziehungsweise in angemessener Zeit zugreifen kann.
Ein weiterer zu messender Punkt ist die »richtige« Datenverarbeitung. Durch Beobachtung der Datenströme lässt sich feststellen, ob Daten innerhalb der IT-Landschaft überhaupt und falls ja, auch richtig verarbeitet werden. Nicht immer ist die Funktionsfähigkeit einer Anwendung schon damit nachgewiesen, dass der Benutzer sie auch tatsächlich richtig nutzen kann.
Es muss noch festgestellt werden, ob die Datenverarbeitung hinter der Anwendung wunschgemäß erfolgt. Zu berücksichtigen ist schließlich noch der Faktor Zeit. Manche Verarbeitungen müssen zu einem genau definierten Zeitpunkt beendet sein, um einen bestimmten geschäftlichen Nutzen zu erwirken.
Für andere Anwendungen gilt, dass sie im Rahmen der Verarbeitungsschritte nicht zu viel Zeit in Anspruch nehmen dürfen. Deshalb kommt der Messung der jeweiligen Zeitspanne besondere Bedeutung zu.
Das oben angesprochene Regelwerk ist dann in der Lage, Fehlfunktionalitäten im Gesamtablauf zu erkennen und mit bestimmten Applikationen, Ressourcen, Diensten oder Maschinen in Zusammenhang zu bringen. Bei diesem Prozess des »Einkreisens« werden die Messdaten wieder und wieder durch immer feinmaschigere Bedingungsnetze des Regelwerks geleitet, das entsprechende Aktionen auslöst.