Paketverlust als Performance-Killer
Trotz 10-Gigabit-Netzwerk reagiert die SAP-Applikation nur schleppend, knackst es bei VoIP-Telefonaten und hängen Citrix-Anwendungen. Wie kann das sein? Häufig sind Paketverluste dafür verantwortlich. Die Ursachen dafür lassen sich mit den richtigen Werkzeugen schnell aufspüren. Agentenbasierende Monitoring-Lösungen zeigen bei dieser Aufgabenstellung etliche Vorteile gegenüber agentenlosen Überwachungssystemen.Wirkt sich eine Paketverlustrate von ein bis zwei Prozent negativ auf die Performance von Applikationen aus? Viele IT-Verantwortliche beantworten diese Frage mit Nein - und liegen damit leider falsch. Denn bereits ein kleiner Wert verringert den TCP-Durchsatz deutlich. TCP, das auf der Transportschicht Layer 4 des OSI-Referenzmodells implementierte "Transmission Control Protocol", gilt als ein bewährtes, verbindungsorientiertes und paketvermittelndes Regelwerk für die Datenübertragung in Computernetzwerken. Als Teil der Internet-Protokoll-Familie bildet es zudem die Grundlage des Internets. Die Performance der meisten über ein Netzwerk laufenden Anwendungen hängt zum großen Teil von TCP ab. Stockt dort der Durchsatz, lahmen auch die Applikationen. Doch wie kann es sein, dass sich eine auf den ersten Blick so geringe Fehlerrate stark auf die Leistung auswirkt? Warum sind Paketverluste solch ein Performance-Killer für Anwendungen? Ein Grund dafür ist die Art und Weise, wie TCP mit Paketverlusten umgeht. Paketverlust und die möglichen Folgen Problematisch wird es, wenn TCP-Pakete verloren gehen oder bei der Übertragung starke Verzögerungen erleiden. Bestätigt der Empfänger ein gesendetes Datenpaket nicht innerhalb einer bestimmten Zeit, schickt der Sender es noch einmal auf den Weg. Diese Zeitspanne heißt Retransmission Timeout (RTO). TCP verdoppelt den RTO bei jeder Wiederholung. Die Folge: Die Antwortzeiten im Netzwerk verschlechtern sich - und damit die Performance. Während sich dieses Phänomen beim Abrufen von E-Mails oder beim Surfen praktisch nicht bemerk


