Beim GFXBench sieht das Ganze ungleich besser aus: Die hier generierte Rechenlast führt zu einer Leistungsaufnahme von maximal 2,5 W bei der GPU, ein Wert, der beim Spielen zwar nicht ganz, aber wenigstens ansatzweise erreicht wurde.
Das letzte Bild in der Bilderstrecke zeigt, in welchen Größenordnungen der Benutzer die Leistungsaufnahme des Displays steuern kann - je nach Kontrast und Helligkeit ist beim Galaxy S5 eine Bandbreite zwischen 90 mW und 1,3 W gegeben - das ist fast Faktor 15. In realen Szenarien ist damit das Display tatsächlich der größte Energiefresser, beim CPU-Benchmark ist dies dank der irrealen Core-Belastungen nicht der Fall, was das Ergebnis auch in diese Richtung verfälscht.
Der höchste CPU-Benchmark-Wert zeigt tatsächlich den schnellsten Prozessor an - theoretisch. Für den Kunden eines Smartphones sind diese Scores jedoch wertlos, da selbst beim Gaming der CPU-Workload nicht ansatzweise die Rechenleistung ausnutzt, welche die Cores bereitstellen. Ob ein GeekBench-Ergebnis 1.500 Punkte, 1.200 oder 1.400 Punkte ausweist - es spielt schlichtweg im Alltagsbetrieb keine Rolle mehr. Eine Bestenliste auf Grund von Benchmark-Scores aufzustellen, ist daher der falsche Ansatz. Sinn könnte eine stärkere CPU nur unter dem Gesichtspunkt der Energieeffizienz machen: Kann sie einen Workload schneller abarbeiten und damit schneller in den Sleep-Mode zurückgehen, könnte die verbrauchte Energie (Leistungsaufnahme x Zeit) geringer sein als bei einer CPU, die länger im aktiven Modus läuft. Dies hängt jedoch von der Rechenleistung/W der CPU-Architektur ab und nicht von Benchmark-Werten, die ausschließlich die Rechenleistung berücksichtigen.
Wichtiger wäre eine Sortierung der Smartphones nach Energieeffizienz, d.h. welches Gerät arbeitet einen definierten Workload mit der geringsten Energie ab. Dafür müsste die Reviewer-Gemeinde statt Benchmark-Apps in mühsamer Lötarbeit jedoch den gezeigten Meßaufbau nachbauen. Ob dieser Aufwand zukünftig betrieben werden wird? Ich habe meine Zweifel.