Vorfälle von Datensicherheitsverletzungen, wie die von Sunburst oder Accellion, zeigen mit welchen weitreichenden Folgen Unternehmen rechnen müssen – auch Kunden, Partner oder die globale Wirtschaft sind davon nicht ausgeschlossen.
Angriffe nehmen aufgrund der sich verändernden Art der Anwendungsentwicklung und IT-Infrastruktur stark zu. Monolithische Anwendungen haben sich in einem Meer von APIs, Micro-Services und Server-losen Funktionen aufgelöst. Für Endbenutzer bedeuten moderne DevOps eine schnellere Entwicklung und damit innovativere, digitale Services. Jedoch führt die verbesserte Benutzererfahrung und effizientere Anwendung zu einer neuen und komplexen Bedrohungslandschaft. Jeder Teil des Lebenszyklus der Softwareentwicklung interagiert mit einer Vielzahl von Datenspeichern, um Echtzeitergebnisse und bessere Benutzerfunktionen zu ermöglichen – besonders hier ist die Datensicherheit in Gefahr.
Sicherheitsteams müssen herausfinden, wie sie die besonders schwer zu überwachenden, ephemeren Workloads in Echtzeit beobachten können. Darüber hinaus vervielfacht sich die Anzahl der APIs von Erst- und Drittanbietern sekündlich, was ein zusätzliches Risiko darstellt. Tatsächlich ist die Zahl von neuen API-Schwachstellen im Jahr 2020 um vier Prozent gestiegen. Sensible Daten waren dabei am häufigsten betroffen. Somit erklärt sich auch der wachsende Trend von Datensicherheitsverletzungen in der Web-Anwendungsschicht: Wie können Unternehmen ohne effektive Sicherheitsebene über alle Pfade hinweg bösartige Aktivitäten überwachen oder blockieren – vom Edge über Anwendung, API bis hin zum Datenspeicher?
Da die Umgebung von Web-Anwendungen immer komplexer ist, lauern in jedem System potenzielle Sicherheitslücken, sowohl für externe Angreifer als auch für Insider. Mit nur einem Ziel: Zugriff auf sensible Daten.
Um gespeicherte Daten zu schützen, mag es als ausreichend erscheinen, vollständig gepatchte Datenbanken und Berechtigungslisten zu pflegen sowie native Sicherheitsfunktionen (Datenverschlüsselung, definierte Benutzer) einzuführen. Das ist zwar ein guter Anfang, aber diese Kontrollen werden nicht ausreichen, um anspruchsvolle Angriffe abzuwehren. SQLi-Angriffe sind in der Lage, Abwehrmechanismen zu umgehen und dann den Zugriff zu kontrollieren oder Datensätze in den zugrunde liegenden Datenbanken zu ändern und zu löschen. In einigen Fällen lässt sich sogar auf die Betriebssysteme der Server zugreifen, die von Datenbankdiensten gehostet sind.
Unabhängig von der Zusammensetzung und Struktur von sensiblen Daten, sind Angreifer immer motiviert auf diese zuzugreifen. Aus diesem Grund müssen Unternehmen die Sicherheit auf alle Datenspeicher implementieren. Wobei der Schwerpunkt auf dem Schutz der Daten selbst liegt und nicht nur auf den Anwendungen und Netzwerken, die sie umgeben und mit ihnen interagieren. Ob für die proaktive, präventive Sicherheit oder für die Reaktion nach einem Vorfall oder beides: Es ist wichtig zu verstehen, wo die Daten gespeichert, ob sie klassifiziert, ob die richtigen Zugriffskontrollen vorhanden und ob starke Tools für Auditing und Anomalieerkennung vorhanden sind.
Unter Berücksichtigung all der genannten Aspekte ist schnell klar, dass ein traditioneller Sicherheitsansatz nicht funktionieren kann. Unternehmen benötigen vollständige Transparenz über die gesamte Awendungsumgebung. Nur mit einem Ansatz, der die Sicherheit der Daten selbst priorisiert, können Unternehmen negative Schlagzeilen vermeiden.
Kai Zobel ist Area Vice President EMEA Central bei Imperva.