Kryptografie braucht nüchterne Betrachtung

Verschlüsselung entmystifiziert

11. April 2007, 23:15 Uhr | Nicko van Someren/wj Dr. Nicko van Someren ist Chief Technology Officer bei Ncipher und Mitbegründer des Unternehmens.

Einbrüche in Datenbanken, gestohlene Laptops voller Kundendaten und Lecks bei gespeicherten Patientendaten - IT-Sicherheit findet sich heute häufiger in den Nachrichten wieder, als es sein dürfte. Dabei helfen die Berichte den Sicherheitsverantwortlichen nur selten, die richtigen Prioritäten zu setzen, denn die Medien sind nicht immer gut informiert und übertreiben gern.

IT-Spezialisten müssen immer wieder entscheiden, wie ernst sie Entwicklungen zu nehmen haben,
die angeblich "schon vor der Tür stehen". Dabei entwickelt sich die Sicherheitstechnik eher
langsam. Jede Innovation zieht jahrelanges Testen nach sich. Kryptografie, eine der
Basistechnologien der IT-Sicherheit, geht bis in die Zeit der ägyptischen Pharaonen zurück, und die
heute gebräuchlichen Verschlüsselungsalgorithmen werden seit über 20 Jahren erforscht. Manche
Spezialisten meinen, dass man grundsätzlich keiner Sache trauen dürfe, die nicht weniger lang
Gegenstand intensiver Studien gewesen sei.

Vertrauen in Sicherheitsmaßnahmen resultiert aus einem soliden Verständnis der
wissenschaftlichen Grundlagen – gleich, ob es sich dabei nun um Mathematik, Physik oder sogar
Biologie handelt. Je besser wir uns in diesen Bereichen auskennen, desto perfekter geraten die
Sicherheitssysteme, die wir darauf aufbauen. Aus diesen Gründen finden die aktuellen und wichtigen
Neuentwicklungen in diesem Sektor derzeit nicht auf dem Gebiet der Grundlagenforschung und der
Entwicklung neuer Algorithmen statt, sondern konzentrieren sich auf die Anwendung und das
Management der Verschlüsselungstechnik.

In der Praxis kennt man Verschlüsselung heute primär als Mittel für den Schutz von Daten auf dem
Transportweg, speziell durchs Internet. Das Schlosssymbol in der Bildschirmecke, das dem Anwender
die Sicherheit gibt, mit SSL-Verschlüsselung (Secure Socket Layer) zu arbeiten, ist ein vertrautes
Zeichen geworden. SSL schützt persönliche Informationen und Onlinetransaktionen und hat sich zum
De-facto-Standard entwickelt, wenn es um die Abwehr von Lauschaktionen geht und um die Absicherung
von Onlinesitzungen zwischen Browser und Webserver.

Verwendet man allerdings sensible Informationen wie Kennwort und PIN gleichzeitig
unverschlüsselt auf einem Webserver, um sie mit Informationen in einer Back-end-Datenbank
abzugleichen, hat man das Risiko lediglich verlagert. Die Herausforderung besteht hier darin, die
per SSL-Verschlüsselung garantierte Sicherheit weiter in Richtung der Infrastruktur einer Website
auszudehnen, um Daten hinter der Firewall vor externen und internen Angriffen zu schützen.

Je mehr das Konzept einer gesicherten Netzwerkgrenze veraltet, desto wichtiger wird der Schutz
von sensiblen Informati-onen unabhängig von dem Ort, an dem sie sich gerade befinden. SSL-Sitzungen
lassen sich innerhalb einer geschützten, manipulationssicheren Umgebung terminieren, und der
Netzwerkverkehr kann sicher zu anderen Back-End-Anwendungen weitergereicht werden.

Die Idee der durchgängigen Ende-zu-Ende-Verschlüsselung mag zwar immer noch ein wenig wie der
Heilige Gral der Branche erscheinen – wünschenswert, aber kaum zu erreichen – aber eine
entscheidende Rolle spielt Kryptografie heute bereits auch im internen Netz, nicht mehr nur extern.
Aufgrund der Bedrohungslage ist dies auch gar nicht anders möglich: Warum etwa sollte sich ein
Angreifer damit abmühen, sich in einzelne Kreditkartentransaktionen im Internet einzuschalten, wenn
er in Unternehmen ganze Datenbanken mit persönlichen Informationen inklusive Konto- und Kartendaten
vorfindet, die zum Teil unzureichend geschützt sind? Um diese Sicherheitslücke zu stopfen, arbeitet
man inzwischen bereits mit fein einstellbaren Lösungen für den Informationsschutz und
Schlüsselmanagementtechniken, die es zum Beispiel erlauben, in den Tabellen von Datenbanken nur
diejenigen Felder und Datenobjekte zu verschlüsseln, für die dies durch eine Sicherheitsrichtlinie
zuvor festgelegt wurde. Statt also weiter Schutzmauern um Server oder gar Festplatten zu bauen,
stattet man individuelle Einzeldaten und Objekte mit einem flexibel zu handhabenden
Sicherheits-Layer aus.

Sicherheit für Webservices

Geht es um Webservices, hat man mit den gleichen Security-Herausforderungen zu tun wie bei
gewöhnlicher Webkommunikation, nur ist der Einsatz deutlich höher. Webservices bringen skalierbare
Maschine-zu-Maschine-Interaktionen mit sich, die häufig die Firewall umgehen. So wächst die
Verwundbarkeit durch böswillige Angriffe. Hier ist es nicht nur notwendig, Vertraulichkeit und
Integrität der Kommunikation mittels Verschlüsselung und digitaler Signatur herzustellen, man muss
auch die Verwaltung der Anwenderidentitäten professionalisieren und überprüfen, wer oder was sich
am anderen Ende der Netzwerkverbindung befindet. Man spricht in diesem Bereich zwar primär von
Verschlüsselung als Garant der Sicherheit, aber Identitätsmanagement, Authentifizierung und
Autorisierung sind nicht minder wichtige Techniken.

Ein Sprung ins Ungewisse

Verschlüsselung findet also zurzeit ihren Weg in eine breite Auswahl neuer Anwendungen. Wie aber
steht es um die Zukunft der Verschlüsselungstechnik selbst? Die wahrscheinlich meistdiskutierte
Technik in diesem Bereich ist die Quantenverschlüsselung. Viele Berichte vermitteln den Eindruck,
dabei handele es sich um eine bereits kommerziell einsetzbare Technik, die als eine Art
Allheilmittel für alle noch ungelösten Sicherheitsprobleme zu betrachten sei. Quantenkryptografie
nutzt die jeweils einzigartigen Eigenschaften vom Elementarteilchen, um Datenströme zu
verschlüsseln. Würde man versuchen, sich in den Datenstrom einer entsprechend gesicherten
Kommunikation einzuschalten, würden sich die der Verschlüsselung zugrunde liegenden
Quanteneigenschaften zwangsläufig ändern, sodass die Kompromittierung unmittelbar zu erkennen wäre.
Bis jetzt läuft diese Technik nur in wissenschaftlichen Laboren, aber jeder neue Forschungsbericht
lässt erkennen, dass die Entwicklung einer praktisch einsetzbaren Implementierung näher rückt.

Zwei grundlegende Probleme sind dabei zu beachten. Das erste ist praktischer Natur.
Quantenkryptografie eignet sich erprobtermaßen gut für die Punkt-zu-Punkt-Sicherung einer
Kommunikation zwischen Partnern, die sich bereits kennen. Weil die quantenverschlüsselten
Datenströme durch eine einzelne Glasfaser übertragen werden und dabei lesbar bleiben, ist die
Technik für wichtige Szenarien wie die Absicherung von Telekommunikationsverbindungen vorteilhaft.
In ihrer aktuellen Form lässt sie sich aber nicht für die meisten Formen von Internet- und
Unternehmenssicherheit einsetzen, bei denen es um Kommunikation geht, die vom Start- zum Endpunkt
über mehrere Computer läuft. Um die Technik auch hier anwendbar zu machen, müsste man erst eine
Möglichkeit schaffen, jeden einzelnen Computer im Netz auf dem direkten Weg mit jedem anderen zu
verbinden. Die Quantentechnik ist also vielversprechend, aber nur für speziellen Bedarf.

Das zweite Problem der Quantenverschlüsselung ist theoretischer Natur. Zwar verstehen wir genug
von Quantenphysik, um zu verstehen, wie man diesen Ansatz zur Datenverschlüsselung nutzen kann und
neue Sicherheitslösungen darauf aufbaut, aber voll ausgereift und durchdacht kann all dies noch
nicht sein. Es bleibt ein Risiko bestehen, dass neue Entdeckungen das Bild der Quantentechnologie
noch grundlegend ändern können. Dies bedeutet auch, dass die Entdeckung von Sicherheitslücken oder
Angriffsformen denkbar ist, die wir uns aufgrund unseres Kenntnisstands noch gar nicht vorstellen
können und für die es deshalb auch keine Gegenmaßnahmen gibt.

Was dies bedeutet, erschließt sich, sobald man einen Vergleich mit den gut erforschten
mathematischen Grundlagen der RSA-Public-Key-Technologie anstellt. Dort existiert zwar ein gewisses
Risiko, dass Mathematiker unerwartete Entdeckungen auf dem Gebiet der Faktorisierung machen können,
der Basis des RSA-Algorithmus. Dieser Zweig der Mathematik ist aber weit besser erforscht als der
der Quantenphysik, sodass es weit unwahrscheinlicher ist, dass gerade dort noch ein unentdeckter
Fehler in der Basistechnologie der Sicherheitstechnik steckt. Nach über 25 Jahren genauer
wissenschaftlicher Prüfung des Algorithmus und zugrunde liegenden Mathematik, können Anwender
darauf vertrauen, dass mögliche Schwachpunkte inzwischen aufgedeckt und untersucht sein
müssten.

Die Risiken, die Algorithmen wie RSA mit der größten Wahrscheinlichkeit gefährlich werden
können, sind die, die wir schon kennen. Die steigende Rechenleistung der Computer ist eine davon,
sie macht das Brechen von Schlüsseln leichter. Da dies aber bekannt ist, fällt die Abwehr leicht:
Man vergrößert die Schlüssellänge und erhöht so die Dauer möglicher Angriffsversuche exponentiell.
Der Einführungsprozess des symmetrischen AES-Algorithmus zeigt außerdem, wie die Industrie
erfolgreich zusammenarbeiten kann, um eine neue Technik einer beispiellos kritischen Prüfung zu
unterziehen. Dennoch grummelt im Hintergrund noch immer mancher Sicherheitsfanatiker, die Tests und
Analysen seien zwar intensiv, aber viel zu kurz gewesen, um die Sicherheit des neuen Standards zu
belegen.

Quantengestützte Verschlüsselung lohnt eine genaue Beobachtung, aber es sind noch einige Tests
und Implementierungsversuche zu absolvieren, bevor der Gebrauch mit ähnlich geringen Risiken
behaftet ist wie der der vertrauten Techniken, darunter die des RSA-Algorithmus. Die Qualität der
Forschung auf dem Gebiet der Quantenphysik und ihrer Anwendung ist allerdings extrem hoch, und die
Fortschritte sind bemerkenswert, weshalb man die wissenschaftliche Diskussion dazu unbedingt
verfolgen sollte. Quantenverschlüsselung mag manchmal noch wie Science Fiction anmuten, aber sie
ist längst eine ernstzunehmende Angelegenheit geworden.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+