Akamai, Anbieter von Web-, Cloud- und Sicherheitslösungen, hat einen weiteren „State of the Internet“-Bericht (SOTI) veröffentlicht. „Web-Scraper im E-Commerce: Die Gefahr für Ihr Geschäft“ beschreibt Sicherheitsrisiken, denen Unternehmen durch die Verbreitung von Web-Scraping-Bots ausgesetzt sind.
Die Studie von Akamai zeigt, dass Bots 42 Prozent des gesamten Webtraffics ausmachen und dass 65 Prozent dieser Bots schädlich sind. Der E-Commerce-Sektor ist am stärksten von riskantem Bot-Traffic betroffen. Dies liege an der Abhängigkeit dieses Sektors von umsatzgenerierenden Webanwendungen, so Akamai. Während einige Bots für Unternehmen von Vorteil sind, werden Web-Scraper-Bots für Informationsgewinnung über Mitbewerber und Spionage, Bestandsmanipulation, die Erstellung von gefälschten Websites und andere Kampagnen eingesetzt.
Diese wirken sich negativ auf das Geschäft und das Kundenerlebnis aus. Es gebe keine Gesetze, die die Verwendung von Scraper-Bots verbieten. Aufgrund der Zunahme von KI-Botnets seien sie nur schwer zu erkennen. Dennoch gibt es laut Akamai einige Möglichkeiten damit umzugehen.
„Bots bringen weiterhin große Herausforderungen mit sich, die Anwendungs- und API-Eigentümern zahlreiche Probleme bereiten können“, so Patrick Sullivan, CTO, Security Strategy bei Akamai. „Dazu gehört auch das Scraping. Damit können Angreifer Web-Daten stehlen und Websites erstellen, die eine Marke imitieren. Die Scraper-Landschaft ändert sich auch aufgrund von Entwicklungen wie Browser ohne Header. Dadurch müssen Unternehmen auf Bot-Aktivitäten reagieren, die ausgefeilter sind als solche auf JavaScript-Basis.“
Wichtige Erkenntnisse aus dem Bericht:
Der aktuelle SOTI von Akamai zeigt Abwehrstrategien gegen Scraper-Bots auf und enthält eine Fallstudie, die erklärt, weshalb Websites schneller und effizienter funktionieren, sobald Abwehrmechanismen gegen diese Bots implementiert wurden. Darüber hinaus behandelt die Studie Compliance-Themen, die angesichts dieser zunehmenden Angriffe zu berücksichtigen sind.