Zum Inhalt springen
Testmanagement

Die Qualität der Applikation steigern

Der Qualitätsanspruch an die einzusetzende Software steigt. Zunehmend geschäftskritischere Applikationen, die zudem im Rahmen der Geschäftsprozessoptimierung oftmals verkettet werden, sind die Qualitätstreiber. Umso wichtiger ist es für die Unternehmen, ein ausgefeiltes Testmanagement für die Software in Gang zu setzen.

Autor:Redaktion connect-professional • 13.5.2009 • ca. 2:35 Min

Im Fokus der Testaktivitäten stehen sowohl die gekaufte als auch die eigen entwickelte Software sowie die durch Software gesteuerten Endgeräte, auch iPhones oder Auto-Navigationsgeräte. Schon bei den von den Herstellern als Standard-Software bezeichneten Programmen von einer weitgehenden Fehlerfreiheit auszugehen, ist trügerisch. Sehr oft wird die Software auf die jeweiligen Bedürfnisse und Geschäftsprozesse des Nutzers durch so genanntes Customizing angepasst. Diese Anpassung bringt viele Fehlerquellen mit sich. Die Fehler können sich beim Einsatz im Unternehmen mehr oder weniger drastisch bis hinauf auf Prozessebene in Funktions-, Verfügbarkeits- und Performance-Probleme auswirken. Ihnen mit einem professionellen Testmanagement zu Leibe zu rücken, wird für die Unternehmen immer wichtiger. Es erspart ihnen Ablaufprobleme im IT-Betrieb sowie erhebliche Nachbesserungsaufwände und Kosten.

Ziel eines professionellen Testmanagements ist es, die Fehler, die jede Software enthält, frühzeitig aufzudecken und zu beheben. Dadurch können später beim Software-Einsatz die Ablaufrisiken sowie ihre technischen und betriebswirtschaftlichen Folgen drastisch reduziert werden. Damit erweist sich ein professionelles und effizientes Testmanagement gerade in der Finanz- und Wirtschaftskrise für die Unternehmen als wichtiger Kostenvermeidungs- und Wirtschaftlichkeitsfaktor. Außerdem trägt eine fehlerfreie und mit anderen Programmen problemlos ablaufende Software dazu bei, dass die mit der Geschäftsprozessoptimierung gesteckten Ziele tatsächlich erreicht werden.

Testmanagement, professionell durchgeführt, verschafft Durchblick. Es ermöglicht, nur die Risiken zu adressieren, deren Eintreten und Folgen für die IT und das Geschäft nicht tolerabel sind. Risiken und potenzielle Fehlerquellen, deren Behebung in keinem vertretbaren Kosten-/Nutzenverhältnis zur Schadensauswirkung stehen würde, können eindeutig identifiziert und gezielt von den Testläufen ausgenommen werden.

Für diese Wirtschaftlichkeitsbetrachtung ist es wichtig, jedem Risiko die Eintrittswahrscheinlichkeit und den potenziellen Schaden gegenüberzustellen. Beispiele dafür sind Regressansprüche und entgangene Geschäfte auf der einen und Zeitaufwand und Kosten für die Behebung auf der anderen Seite. Mit diesem Überblick wissen die Projektverantwortlichen für alle einzusetzenden Programme, wo im Einzelnen weitere Testaktivitäten lohnen und wo nicht. Dazu gehören das genaue Anforderungsprofil und der Qualitätsanspruch jedes einzelnen Programms. Zur Qualitätsbeschreibung empfiehlt sich die Ausweisung durch Kennzahlen. Weil die Programme in Zeiten der Geschäftsoptimierung zunehmend mit anderen Programmen interagieren, müssen auch diese – ob geplant oder bereits im Einsatz – in die Risiko- und Kosten-/Nutzenanalyse einbezogen werden. Separate Testläufe machen es möglich, die Qualität der Interaktion mit anderen Programmen exakt zu prüfen und zu bewerten.

Ganz wichtig ist eine angemessene Testorganisation. Die Fachabteilungen mit ihrem Wissen und ihren spezifischen Anforderungsprofilen sollten von Anfang an in die Testplanung einbezogen werden. Das gilt auch für den späteren Betreiber der Lösung. Ihr früher Einbezug ist auch für die genaue Festlegung der Anforderungsprofile und Qualitätsanforderungen für jedes zu prüfende Programm erforderlich. Zudem muss die Auswahl der Methoden stimmen. Über sie werden mögliche Eingabedaten und daraus zu erzielende Ausgabedaten in Beziehung gesetzt und gegenübergestellt. Testmethoden, richtig ausgewählt, unterstützen darin, eine Vorauswahl zu treffen. Eingabedaten, die mit hoher Wahrscheinlichkeit ein bereits bekanntes Testergebnis liefern, können darüber ausgespart werden. Das minimiert nicht nur die Anzahl der Testläufe und die damit verbundenen Kosten. Auch zu komplexen Testszenarien wird dadurch entgegengewirkt. Das wiederum reduziert die Gefahr, dass wichtige Werte und Erkenntnisse bei den Testläufen untergehen oder Fehler bei der Testausführung entstehen.

Die Auswahl geeigneter Methoden erweist sich in einer weiteren Hinsicht für die Projektverantwortlichen als wichtig: Fehlerquellen können über mehrere Programme hinweg in Beziehung gesetzt werden, um ihre Auswirkungen exakt festzuhalten und zu bewerten. Das ist ein Garant dafür, dass später die Anwendungen bis hin zu kompletten Prozessketten funktional korrekt, hoch verfügbar und hoch performant ablaufen.

Norbert Kopp ist Manager

und Themenverantwortlicher

für »Improving Quality« bei Logica