IT-Sicherheit

Wie sich datengierige Bots abwehren lassen

18. Februar 2020, 15:03 Uhr | Autor: Bernd Achatz / Redaktion: Sabine Narloch
© Imilian - Shutterstock

Internetseiten und Web-Anwendungen müssen jederzeit bereitstehen. Doch automatisierte Bots können aufgrund ihrer hohen Aktivitätsraten die Klicks menschlicher Interessenten verdrängen. Mit geeigneten Maßnahmen lässt sich die Verfügbarkeit der Angebote gewährleisten.

Bots sind älter als das World Wide Web. Denn sie tauchten bereits 1988 in den Kanälen des Internet Relay Chat (IRC) auf. Innerhalb weniger Jahre wurden sie für den Betrieb des Internets selbst entscheidend, da Suchmaschinen Bots zur Indizierung von Websites einsetzten. Ab 1995 verwendete AOL den WebCrawler und 1996 schuf Google den Googlebot (offiziell BackRub genannt).

Doch schon bald entstanden auch bösartige Bots. So wurden 1999 der Trojaner Sub7 und der Wurm Pretty Park im IRC veröffentlicht. Ihr Zweck bestand jeweils darin, sich heimlich auf Maschinen zu installieren, die mit einem bestimmten IRC-Kanal verbunden waren. Anschließend führten sie Befehle über diese Verbindung aus.

Im Laufe der Zeit wurden die Methoden immer ausgefeilter. So begannen Hacker ihre Bots als Netzwerke miteinander zu verbinden. Als Gruppe ließen sie sich kontrolliert auf bestimmte Ziele ausrichten, um sie mit gefälschten Anfragen zu überfluten und damit zum Absturz zu bringen. Im Jahr 2007 infizierte eines der größten Botnets, „Storm", rund 50 Millionen Computer – für Kursbetrug und Identitätsdiebstahl. 2009 versendete ein automatisiertes Botnet namens Cutwail 74 Milliarden Spam-Mails pro Tag.

Gut oder Böse
Aber auch heute werden nicht alle Bots für bösartige Zwecke eingesetzt. Es handelt sich im Prinzip nur um Programme, die sich wiederholende Aufgaben automatisieren. So suchen sie zum Beispiel weiterhin das gesamte Web nach Seiten durch und stellen die ermittelten Daten und Inhalte für Suchmaschinen bereit. Dies wäre manuell gar nicht mehr möglich.

Doch selbst wenn die Absicht gut ist, kann das Resultat böse sein. Denn das Auslesen der Daten und Inhalte einer Website belastet die Ressourcen zu ihrer Bereitstellung, etwa den Web-Server eines kleinen Unternehmens. Wenn also viele Bots gleichzeitig auf die Website zugreifen oder ein Bot sehr intensiv die Daten ausliest, werden so viele Server-Ressourcen verbraucht, dass die Reaktionsfähigkeit und Performance der Website für menschliche Benutzer erheblich beeinträchtigt sein kann.

Liegt die Website oder Anwendung bei einem Cloud-Anbieter, bleibt die Verfügbarkeit zwar gewährleistet. Doch der Ressourcen-Verbrauch durch automatisierte Bots kann dann zu einer finanziellen Belastung für Unternehmen werden, die Cloud-Services nutzen.

Anbieter zum Thema

zu Matchmaker+

  1. Wie sich datengierige Bots abwehren lassen
  2. Bisherige Maßnahmen verpuffen

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu F5 Networks GmbH

Weitere Artikel zu Viren-/Malware-Schutz

Weitere Artikel zu Public Cloud

Matchmaker+