Akamai: Bots nicht unterschätzen!

42 Prozent des Webtraffics von Bots verursacht

25. Juni 2024, 7:00 Uhr | Jörg Schröper
© Akamai

Akamai, Anbieter von Web-, Cloud- und Sicherheitslösungen, hat einen weiteren „State of the Internet“-Bericht (SOTI) veröffentlicht. „Web-Scraper im E-Commerce: Die Gefahr für Ihr Geschäft“ beschreibt Sicherheitsrisiken, denen Unternehmen durch die Verbreitung von Web-Scraping-Bots ausgesetzt sind.

Die Studie von Akamai zeigt, dass Bots 42 Prozent des gesamten Webtraffics ausmachen und dass 65 Prozent dieser Bots schädlich sind. Der E-Commerce-Sektor ist am stärksten von riskantem Bot-Traffic betroffen. Dies liege an der Abhängigkeit dieses Sektors von umsatzgenerierenden Webanwendungen, so Akamai. Während einige Bots für Unternehmen von Vorteil sind, werden Web-Scraper-Bots für Informationsgewinnung über Mitbewerber und Spionage, Bestandsmanipulation, die Erstellung von gefälschten Websites und andere Kampagnen eingesetzt.

Diese wirken sich negativ auf das Geschäft und das Kundenerlebnis aus. Es gebe keine Gesetze, die die Verwendung von Scraper-Bots verbieten. Aufgrund der Zunahme von KI-Botnets seien sie nur schwer zu erkennen. Dennoch gibt es laut Akamai einige Möglichkeiten damit umzugehen.

„Bots bringen weiterhin große Herausforderungen mit sich, die Anwendungs- und API-Eigentümern zahlreiche Probleme bereiten können“, so Patrick Sullivan, CTO, Security Strategy bei Akamai. „Dazu gehört auch das Scraping. Damit können Angreifer Web-Daten stehlen und Websites erstellen, die eine Marke imitieren. Die Scraper-Landschaft ändert sich auch aufgrund von Entwicklungen wie Browser ohne Header. Dadurch müssen Unternehmen auf Bot-Aktivitäten reagieren, die ausgefeilter sind als solche auf JavaScript-Basis.“

Wichtige Erkenntnisse aus dem Bericht:

  • KI-Botnets können unstrukturierte Daten und Inhalte in einem weniger konsistenten Format oder an einem weniger konsistenten Ort erkennen und verarbeiten. Darüber hinaus können sie mit Hilfe von Geschäftsinformationen den Entscheidungsfindungsprozess durch Erfassen, Extrahieren und die anschließende Verarbeitung von Daten verbessern.
  • Mit Scraper-Bots können Angreifer zudem komplexere Phishing-Kampagnen generieren. Dazu erfassen sie Produktbilder, Beschreibungen und Preisinformationen und erstellen gefälschte Schaufenster oder Phishing-Websites. Diese zielen darauf ab, Anmeldedaten oder Kreditkarteninformationen zu stehlen.
  • Bots können dazu dienen, die missbräuchliche Erstellung von Konten zu erleichtern. Dies macht nach aktuellen Untersuchungen bis zu 50 Prozent der Verluste durch Betrug aus.
  • Es gibt vielfältige technische Auswirkungen, denen Unternehmen durch Scraping ausgesetzt sind – unabhängig davon, ob das Scraping mit schädlichen oder guten Absichten durchgeführt wurde. Dazu gehören eine Verschlechterung der Website-Performance, eine Verwässerung der Website-Metriken, Angriffe mit kompromittierten Anmeldedaten von Phishing-Websites oder erhöhte Rechenkosten.

Der aktuelle SOTI von Akamai zeigt Abwehrstrategien gegen Scraper-Bots auf und enthält eine Fallstudie, die erklärt, weshalb Websites schneller und effizienter funktionieren, sobald Abwehrmechanismen gegen diese Bots implementiert wurden. Darüber hinaus behandelt die Studie Compliance-Themen, die angesichts dieser zunehmenden Angriffe zu berücksichtigen sind.

Anbieter zum Thema

zu Matchmaker+

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Akamai Technologies

Weitere Artikel zu Akamai Technologies GmbH

Weitere Artikel zu Akamai Technologies GmbH

Weitere Artikel zu Cybersecurity/Cybersicherheit

Weitere Artikel zu Cybercrime

Weitere Artikel zu Cyber-Security

Weitere Artikel zu Cyber-Security-Lösungen

Matchmaker+