Was ist unter dem Web3 zu verstehen? Was sind die Grundlagen der Web3-Technologie und wo kommt diese an ihre Grenzen? Diese und weitere Fragen behandelt der Beitrag von Stefan Adolf, Developer Ambassador, bei Turbine Kreuzberg.
Gemeinsam Dokumente bearbeiten, KI-basierte Spracherkennung ausprobieren, Fotoalben mit der Familie teilen oder Container rauf- und runterfahren – das sind alles Dinge, die ohne Cloud-Angebote einschlägiger Anbieter nicht möglich wären.
Spätestens seit dem Inkrafttreten von GDPR und DSGVO im Mai 2018 müssen Nutzer jedoch ein sensibleres Verhältnis zu den Speicher- und Verarbeitungsverfahren ihrer Lieblingswebsites aufbauen. Jeder Klick auf einen „Anmelden mit Facebook“-Button wird von gesetzlich verordneten Cookie-Bannern begleitet, die NutzerInnen darauf hinweisen, dass sie Informationen mit einer unüberschaubaren Menge von Drittparteien teilen.
Das führt mitunter zur Rückbesinnung auf die Ressourcen, die jeder Anwendende auf oder unter dem Tisch stehen hat: Festplatten, CPUs und Speicher. Werden sie geschickt vernetzt und mit kryptografischen Methoden abgesichert, können die entstehenden Peer-to-Peer-Netzwerke mitunter Cloud-Dienste ersetzen – und es ist die Kernidee des Web3.
Es existiert keine offizielle Definition des Begriffs „Web3“ oder eine klare Abgrenzung, welche Protokolle oder Dienste dazu zählen. Grundsätzlich gilt: Web3-Technologie basiert auf dezentralen, selbstorganisierenden Netzwerken und darauf aufbauenden Applikationen. Die heimatliche Cloud für das Speichern von Daten auf dem eigenen Server, zählt daher nicht wirklich zum Web3; sie bringt lediglich einen vom Nutzenden kontrollierten privaten Datenraum online, der nicht mehr verfügbar ist, sobald man den Router von der Strom- oder DSL-Leitung trennt.
Das Web3 vermeidet dagegen solche Single Points of Failure. Es gibt ähnliche Garantien ab wie heutige Web2-Clouds, ohne dass Institutionen, Unternehmen oder Staaten sie kontrollieren oder abschalten könnten. Damit so etwas funktioniert, müssen Teilnehmer des Web3 gemäß seiner Protokolle agieren und sich global auf Zustand und Verhalten von Applikationen einigen: ideale Einsatzszenarien für die Konsensmechanismen von Blockchains. Das Web3 ist im Gegensatz zum „Web 2.0“ der frühen 2000er-Jahre weniger eine Innovation des Frontends, sondern vielmehr ein Neuverständnis von Identität, Backends, Deployments und Datenbanken.
Die wichtigste Technologie des Web3 ist das interplanetare Filesystem IPFS. Es beruht auf einem leichtgewichtigen, modularen P2P-Stack, der gängige Internetprotokolle dafür nutzt, Computer zu einem global verteilten Datennetz zusammenzuschließen. Anders als bei einem cloudbasierten Speichersystem lädt man hier keine Dateien „hoch“, sondern teilt dem Netzwerk mit, dass man von seinem lokalen Rechner aus eine Datei zur Verfügung stellen möchte. Während dieser Bekanntmachungsphase zerteilt IPFS die Daten in granulare Blöcke und berechnet einen Hashwert über ihren binären Inhalt. Anschließend verbindet IPFS die Blöcke mittels eines Merkle-DAGs zu einer kryptografisch abgesicherten Struktur, deren Root-Hash die eindeutige Content-ID (CID) der Daten repräsentiert.
Diese Hashes sichern die Integrität und Authentizität von Inhalten: Wer eine Datei aus dem IPFS lädt, kann anhand ihrer Content-ID sofort überprüfen, dass der gelieferte Inhalt zu dem angefragten Hash passt. Dank seiner an POSIX Filesystem-Kommandos angelehnten API ist IPFS kaum komplizierter zu benutzen als ein FTP-Client. Darüber hinaus gibt es HTTP-Gateways und Browser-Extensions, mit denen auch technisch wenig versierte Nutzer IPFS nutzen können.
Da Inhalte auf ihrem Weg von mehreren Peers zwischengespeichert werden, bleiben Daten auf IPFS nahezu permanent, sofern sie von vielen Nodes regelmäßig angefragt werden. Wer sicherstellen möchte, dass seine Daten nicht verloren gehen, kann sogenannte Pinning-Dienste beauftragen, die Inhalte hinter ausgewählten Content-IDs auf ihren (zentralen) Systemen vorzuhalten. Oder man schließt Deals mit Storage-Minern des Exabyte-großen, dezentralen Filecoin-Netzwerks ab. Das kann die Verfügbarkeit großer Datenmengen über lange Zeiträume sicherstellen – bei mitunter weniger Kosten als bei herkömmlichen Cloud-Storages.