HPE entwickelt Memory-Driven Computing

Mit neuartigen Computerhirnen gegen das Vergessen

6. Juli 2017, 14:09 Uhr |

Fortsetzung des Artikels von Teil 1

Der Demenz auf der Spur

Mikroskope fotografieren Millionen einzelne lebendige Zellen - mit einem Datenvolumen von mehreren Terabyte. Die Analyse der Bilddaten erfordert erhebliche Rechenleistung und dauert derzeit mehrere Tage bis Wochen (auf einem Rechner mit 20 CPUs und 1
Mikroskope fotografieren Millionen einzelne lebendige Zellen - mit einem Datenvolumen von mehreren Terabyte. Die Analyse der Bilddaten erfordert erhebliche Rechenleistung und dauert derzeit mehrere Tage bis Wochen (auf einem Rechner mit 20 CPUs und 100 GB RAM).

Das DZNE produziert in vielen Bereichen bereits sehr große Datenmengen, etwa bei der Aufnahme von Bildern des Gehirns mithilfe der Magnetresonanztomographie (MRT). Weitere Beispiele sind die automatisierte Mikroskopie lebender Zellen oder die Erstellung von Gen-Daten. In all diesen Bereichen fallen heutzutage bereits viele Terabyte an Daten an mit weiter stark steigender Tendenz.

Während es inzwischen experimentell machbar ist, Nanotechnologie in der Untersuchung einzelner Gen-Bausteine anzuwenden, sind die Herausforderungen an die Rechner­Infrastruktur zur Verarbeitung der anfallenden Daten enorm. Es ist erforderlich, Algorithmen, Software- und Hardware-Infrastrukturen zu entwickeln, die mit solch speicher- und rechenintensiven Anforderungen umgehen können. Deshalb soll erforscht werden, wie die Architektur von »The Machine« genutzt werden kann, um Ergebnisse schneller und umfassender zu berechnen. Forscher am DZNE und bei HPE wollen in diesem Gebiet gemeinsam die ersten Pilotentwicklungen beginnen. Von diesen Möglichkeiten versprechen sich die Wissenschaftler völlig neue Erkenntnisse bei der Erforschung der Ursachen von Alzheimer und anderen Demenzerkrankungen.

Anwendung in der Hirnforschung
Das DZNE erstellt mithilfe der Magnetresonanztomographie (MRT) Bilder der Gehirne von Probanden. Bei schnellen Messungen mit hoher Auflösung können dabei bis zu 0,5 Gigabyte Rohdaten pro Sekunde anfallen – also bis zu zwei Terabyte pro Stunde. Diese werden im Gerät jedoch nicht gespeichert, sondern direkt in Bilder umgerechnet und anschließend verworfen. Am Ende sind die in den Bildern enthaltenen Informationen um einen Faktor 300 kleiner als die in den (nicht gespeicherten) Rohdaten.

Dies hat jedoch entscheidende Nachteile: Moderne Verfahren könnten Bilder mit deutlich höherer Qualität erzeugen, indem Störsignale aufgrund von Probandenbewegung oder Rauschen herausgefiltert würden. Dies kann zurzeit im Nachhinein allerdings nur schwer oder gar nicht erreicht werden, da die Menge der Rohdaten zu groß ist. Die neue HPE-Architektur würde eine ideale Plattform bieten, um diese Daten vollständig zu speichern und zu exzellenten MRT-Bildern zu verarbeiten. Dies wäre eine Revolution nicht nur für die MRT-Studien am DZNE, sondern für die gesamte diagnostische Praxis.

Ein weiterer Vorteil: Bisher werden die Bilder umgerechnet, verknüpft und anschließend ausgewertet. Diese Analyse dauert in der Regel zwischen sieben und 14 Tagen. Erst danach können die DZNE-Forscher den nächsten Schritt definieren und einen weiteren Analysezyklus starten. Der Einsatz der neuen HPE-Technologie würde die Auswertung von Großvolumen-Daten dramatisch beschleunigen und damit die unmittelbare Analyse erleichtern. Denn der Proband könnte während eines Untersuchungszeitraums spezifisch nachuntersucht werden. Oder die Forscher könnten sofort die aktuellen Aufnahmen mit älteren vergleichen. Auf die Situation im Krankenhaus übertragen würde dies eine personalisierte Diagnostik erlauben, die heute gar nicht machbar ist.

Flaschenhals muss weg
Bei der Suche nach neuen Therapien nutzen DZNE-Forscher auch automatisierte Mikroskope. Diese können molekulare Prozesse auf der Ebene einzelner lebendiger Zellen abbilden. Diese Zellen sind nur wenige Mikrometer (Tausendstel Millimeter) groß. In einem einzelnen Forschungsprojekt werden Millionen solcher Zellen fotografiert – mit einem Datenvolumen von mehreren Terabyte. Die Analyse der Bilddaten erfordert erhebliche Rechenleistung und dauert derzeit mehrere Tage bis Wochen (auf einem Rechner mit 20 CPUs und 100 GB RAM). Damit nimmt die Auswertung der Daten bisher viel mehr Zeit in Anspruch als die eigentlichen Bildaufnahmen am automatisierten Mikro-skop, die ein bis zwei Tage benötigen. Wieder einmal ist die Rechenleistung der »Flaschenhals«, der mit der neuen Rechnerstruktur beseitigt werden könnte.


  1. Mit neuartigen Computerhirnen gegen das Vergessen
  2. Der Demenz auf der Spur

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Hewlett-Packard Enterprise

Matchmaker+