Der Loadbalancer konnte exakt kontrollieren, welcher Server welche Verbindung zugeordnet bekam und verwendete zunehmend komplexere Health-Monitors um sicherzustellen, dass der Anwendungsserver wie gewünscht arbeitete. Falls nicht, würde das Senden von Traffic zum betroffenen Server solange gestoppt werden, bis er wieder die volle Funktionsfähigkeit signalisieren würde. Der netzwerkbasierte Hardware-Ansatz bot grundlegende Loadbalancing-Dienste für beinahe jede Anwendung in einer einheitlichen, konsistenten Methode an. Dies wurde letztlich über einen wirklich virtualisierten Dienst, dem so genannten Entry-Point, möglich.
Mit dieser Lösung war die Skalierbarkeit nur durch die Durchsatzrate des Loadbalancers und den daran angeschlossenen Netzwerken begrenzt. Das Health-Monitoring wuchs nicht länger exponenziell an, weil nur der Loadbalancer Zustandsinformationen über das gesamte Cluster erhalten musste und nicht mehr jeder einzelne Server. Dies reduzierte die Fixkosten des Netzwerks und der Server, indem Kapazitäten frei wurden. Es war nicht unüblich für ein Unternehmen softwarebasiertes Loadbalancing durch hardwarebasierte Lösungen zu ersetzten. Es kam zu einer dramatischen Einsparung der Serverauslastung womit auf kurze Frist keine zusätzlichen Server mehr gekauft werden mussten und der ROI langfristig erreicht wurde.
Mit einer hardwarebasierten Lösung wurde auch die Hochverfügbarkeit dras-tisch gestärkt. Noch größere Zuverlässigkeit bietend und tiefgehender war, die Komplexität der Lösung zu reduzieren und Application-Impartial-Loadbalancing anzubieten. Netzwerkbasierte Loadbalancing-Hardware ermöglichte es hohe Levels an Verfügbarkeit bereitzustellen, und zwar für alle Anwendungen anstatt nur für einige wenige mit integriertem Loadbalancing.
Die Vorhersagbarkeit und Berechenbarkeit war ein Kernelement das durch die netzwerkbasierte Loadbalancing-Software eingeführt wurde. Da alle Loadbalancing-Entscheidungen deterministisch waren (bestehen aus realen Messreihen der Verbindungslasten, Antwortzeiten, etc.), im Gegensatz zum Synthetic-Approach der meisten anwendungsbasierten Lösungen, war es viel einfacher vorherzusagen, wohin eine neue Verbindung geleitet werden würde und diese einfach zu manipulieren. Die Geräte waren ebenfalls in der Lage reale Nutzungs- und Verwertungsstatistiken bereitzustellen. Diese Daten gaben einen Einblick in die Kapazitätsplanung und trugen dazu bei, die Ergebnisse der Loadbalancing-Operationen zu dokumentieren. Die zugefügte Intelligenz der Controlled-Load-Distribution erlaubte nun, Load-Distribution in einer positiven Art und Weise zu nutzen. Im Gegensatz zur unkontrollierten Verteilung von Dynamic-DNS, wurden nun mehr Verbindungen an größere Server und weniger an kleinere Server geschickt.
Das Aufkommen netzbasierter Loadbalancer markiert eine völlig neue Ära der Anwendungsarchitektur. Diskussionen um Hochverfügbarkeit die sich einst um die Laufzeit drehten, konzentrierten sich jetzt wieder auf die Definition des Begriffs verfügbar. (Wenn ein User 30 Sekunden warten muss, ist es „available”? Was ist mit einer Minute Wartezeit?). Dieser Richtungsstreit brachte außerdem neue Vorzüge für Sicherheits- und Verwaltungsfunktionen mit sich. So entstanden beispielsweise das Ausblenden (Masking) der wahren Identität von Anwendungsservern vor der Internet-Community und die Möglichkeit Verbindungen von einem Server abzukoppeln, so dass er für Wartungsarbeiten herangezogen werden konnte ohne die User zu beeinträchtigen. Auf diesen Grundlagen sind die heutigen Application-Delivery-Controller entstanden.