Safenet präsentiert Sicherheitslösung für Big Data: Protectfile schützt sensible Informationen in Apache-Hadoop-Clustern

Big Data in Hadoop-Clustern verschlüsseln

10. Juli 2014, 6:59 Uhr | LANline/pf

+++ Produkt-Ticker +++ Safenet, Hersteller von Datenschutzlösungen, präsentiert neue Versionen von Protectfile. Die Software ermöglicht jetzt laut Hersteller eine Verschlüsselung von kritischen Daten in "Apache Hadoop"-Clustern. Zum Update gehören die komplett neue Linux-Version "Protectfile for Linux" sowie ein erweitertes Release für die bereits existierende Windows-Software. IT-Administratoren könnten in Windows nun zusätzlich Server-Daten auf Dateisystemebene verschlüsseln.

Protectfile ermögliche es jetzt Unternehmen, Daten in Hadoop zu verschlüsseln. Die Leistungsfähigkeit des Software-Frameworks leide dabei nicht darunter und IT-Administratoren müssten die Architektur bestehender Big-Data-Software nicht verändern.

Mehr zum Thema:

Appliances für WAN-Verschlüsselung

E-Mail-Verschlüsselung für Mobilgeräte

Verschlüsselter Cloud-Storage wird leichter bedienbar

Schutz von Daten im RZ, in der Cloud und unterwegs

Deployment Tool für USB-Security-Festplatten

100GBit/s-Übertragung mit Echtzeit-Verschlüsselung

Frische Hardware für Hybrid Clouds und Big Data

Tagebuch: ElCorrespondente im Silicon Valley – Tag 5

Protectfile lässt sich nach Aussage des Herstellers schnell und einfach installieren. Es biete Werkzeuge für die Standardimplementierung in eine Vielzahl von Datenknoten innerhalb eines Hadoop-Clusters. IT-Verantwortliche sollen durch zentralisiertes Key-Management die Kontrolle über ihre Schlüssel behalten. Zudem könnten sie Daten über eine granulare Zugangskontrolle vor ungewolltem Zugriff beschützen.

Hadoop, so Datenschutzspezialist Safenet, diene dazu, große Datensätze skalierbar zu speichern und zu verarbeiten. Das Software-Framework bündle die Daten in Clustern und verteile sie auf Tausende von Datenknoten. Die Informationen in den Knoten könnten mit Hadoop jedoch nicht vollständig abgesichert werden. Ungeschützt stelle jeder Datenknoten also ein Einfallstor für Hacker dar. Damit seinen sensible Informationen darin für unautorisierte Nutzer sichtbar, sobald diese sich Zugang verschaffen konnten.

Aufgrund immer größerer Datenmengen und der steigenden Anzahl von Hacker-Angriffen müsse Sicherheit in Hadoop Priorität haben. Protectfile bietet nach Bekunden des Herstellers diese Sicherheit, ohne die Leistungsfähigkeit des Software-Frameworks zu beeinträchtigen. Es unterstütze zudem Compliance-Standards, wie PCI DSS und HIPAA in Big-Data-Anwendungen.

Weitere Informationen finden sich unter www2.safenet-inc.com/securing-sensitive-data-in-hadoop-clusters-protectfile-solution-brief.pdf beziehungsweise www.safenet-inc.de.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Tibco

Matchmaker+