Ergänzend zur Software-Architektur spielen auch weitere Faktoren eine Rolle. So sollte das verwendete Bildmaterial in punkto Dateiformat und Auflösung optimiert sein. Welche Bildgröße macht Sinn? Wie detailliert und aufgelöst muss ein Foto sein? Gibt es spezielle Bildgrößen für mobile Endgeräte? In allen Fällen gilt es, eine sinnvolle Balance aus Qualität und Dateigröße zu finden. So genannte „Lazy Loading“-Tools ermöglichen es, dass Bilder erst dann geladen werden, wenn sie wirklich sichtbar werden. Denn standardmäßig lädt ein Webbrowser alle im Quellcode eingebundenen Bilder bereits beim Seitenaufbau. Die Folge: Selbst wenn man nicht bis zum Ende der Seite scrollt, werden bereits Bilder geladen, die erst dort zu sehen wären. Lazy Loading verhindert das. Geladen wird nur noch, was in den sichtbaren Bereich gerät.
Speziell für einen guten PageSpeed-Wert ist es zudem hilfreich, alle Ressourcen zu komprimieren und den eigentlichen Quellcode der Seite so kompakt wie möglich zu halten. Sprich: Man sollte nach Möglichkeit JavaScript und CSS im Quellcode vermeiden und diese stattdessen in externe Dateien auslagern, welche man dann möglichst im Footer der Webseite platziert. Der Grund dafür ist einfach: Alles, was bereits vor der Darstellung der eigentlichen Inhalte geladen werden muss, verzögert den Seitenaufbau!
Bleibt noch die Wahl eines geeigneten Servers, denn auch eine gute Infrastruktur ist wichtig – etwa in Form von Rechenzentren mit adäquater Anbindung. Ist die nämlich nicht gegeben, sinkt die Server-Antwortzeit, die ihrerseits wichtiger Bestandteil des PageSpeeds ist. Je nach Umfang des Projekts sind günstige „Einsteiger-Webhosting-Pakete“ möglicherweise dennoch bereits ausreichend. Dabei ist allerdings zu bedenken, dass sich beim klassischen Web-Hosting meist mehrere Präsenzen nicht nur die Ressourcen eines gemeinsamen Servers, sondern auch dessen IP-Adresse teilen. Sollte sich unter den „Server-Nachbarn“ ein schwarzes Schaf befinden, gerät die gemeinsame IP-Adresse womöglich damit ebenfalls in Verruf. Ein Risiko, das sich leider vor allem bei extrem günstigen Dumping-Angeboten nicht immer klar einschätzen lässt.
Mehr Flexibilität durch Emulation: Virtuelle Server!
Eine interessante Alternative sind deshalb vor allem so genannte virtuelle Server. Zwar ist die Administration hier meist etwas aufwendiger, da die Grundeinrichtung komplexer ist, dafür ist man jedoch auch flexibler. Grundsätzlich werden Ressourcen, ebenso wie die IP-Adresse, hier nicht geteilt, sondern stehen dem eigenen Projekt in vollem Umfang zur Verfügung. Dadurch können sich auch viele Parameter (wie beispielsweise Skript-Laufzeiten) eigenverantwortlich und beliebig wählen lassen.
Doch es geht noch eine Nummer „professioneller“ – und damit leider meist auch deutlich teurer: Bei einem dedizierten Server mietet man einen realen physischen Server. Das bringt jedoch auch gewisse Einschränkungen mit sich. Ist mehr Leistung gewünscht, ist dies nämlich oft nur durch einen aufwendigen Umzug auf einen anderen Server möglich.
Mehr Flexibilität bietet dagegen auch hier wieder der virtuelle Server, auch VPS genannt. Denn bei den häufig als „Business Hosting“ bezeichneten Speziallösungen handelt es sich um eine Emulation, also eine Software, die einen physischen Server „nachahmt“. Diese läuft auf einem Gesamtsystem – häufig ein Cluster aus mehreren Servern. Alle daraus resultierenden Ressourcen stehen beliebig vielen Instanzen virtueller Server zur Verfügung. Der große Vorteil: CPU-Leistung, Arbeitsspeicher, Festplattenspeicher und vieles mehr können in der Software beliebig zugewiesen und verteilt werden. Sind diese nicht mehr ausreichend, ist eine Anpassung schnell erledigt.
Kay Seegers ist 4th Level Care Support-Guide bei DomainFactory in München.