Im Herbst 2012 wurde von der Deutschen Forschunsgemeinschaft (DFG) der Forschungsgroßgeräteantrag über die Beschaffung eines HPC-Clusters speziell für die Werkstoffwissenschaften und Physik über 2,6 Mio. EUR bewilligt und ist nun umgesetzt.
Nach einer europaweiten Ausschreibung konnte im Mai 2013 der Kaufvertrag mit der NEC Deutschland GmbH unterzeichnet werden. Die Installation der neuen Rechnerschränke und der Komponenten zur Datenspeicherung im Rechnerraum des RRZE wurde im August und September durchgeführt. Umfangreiche begleitende Infrastrukturmaßnahmen zur Anpassung der Kühlsysteme im Gebäude, bei deren Planung das RRZE, das Gebäudemanagement der Universität (G2, G3, G4), das staatliche Hochbauamt Erlangen-Nürnberg sowie ein externes Ingenieurbüro eng zusammengearbeitet haben.
Der neue HPC-Cluster hört auf den Namen Emmy (in Erinnerung an die 1882 in Erlangen geborene Mathematikerin Emmy Noether) und ist seit Oktober im „Friendly User“-Testbetrieb. Mit einer gemessenen Rechenleistung der 11.200 CPU-Rechenkerne von 191 TFlop/s hat es das System im November 2013 auf Platz 210 der Top500-Liste mit den schnellsten HPC-Systemen weltweit geschafft. Innerhalb Deutschlands rangiert das System immerhin auf Platz 14 und wird in Bayern nur durch das 3-Petaflop/s-System SuperMUC am Leibniz-Rechenzentrum (LRZ) in München sowie zwei Systeme der Max-Planck-Gesellschaft in Garching geschlagen.
Zugang zu den Hochleistungsrechnern am RRZE und damit natürlich auch zu dem neuen System erhalten alle Wissenschaftlerinnen und Wissenschaftler der Friedrich-Alexander-Universität mit hochkomplexen Simulationsaufgaben für die die PCs und Server des eigenen Lehrstuhls nicht mehr ausreichen. Die Anwendungsgebiete sind vielfältig: Vor allem Kunden aus den Materialwissenschaften und der Physik, aber auch aus den „Life Sciences“, der theoretischen Chemie, den Ingenieurwissenschaften, der angewandten Mathematik und der Informatik sind seit Jahren auf den Systemen des RRZE aktiv. Durch die nun massiv ansteigende Rechenleistung werden nicht nur Aufgaben lösbar, die bisher den großen Bundesrechnern in Garching, Stuttgart oder Jülich vorbehalten waren, sondern es ergeben sich neue Möglichkeiten, um die internationale Relevanz der Erlanger Aktivitäten auf diesen hochdynamischen Forschungsgebieten weiter auszubauen. Die Installation von Emmy hat jedoch gezeigt, dass dies in Zukunft nur dann noch möglich sein wird, wenn zunehmend mehr in die Kühl- und Elektroinfrastruktur investiert wird.
Technische Daten Emmy
- 560 Rechenknoten mit je zwei Intel „IvyBridge“ 10-Core-Chips (2,2 GHz) und 64 GB Hauptspeicher
- 16 NVidia Keppler K20m GPGPUs und 16 Intel Xeon Phi 5110P Koprozessorkarten als Acceleratoren
- Paralleles Dateisystem „LXFS“ auf Lustre-Basis mit über 400 TB und einer aggregierten Bandbreite von über 8.000 MB/s
- nichtblockierendes „Fat Tree“ QDR-Inifiniband-Netzwerk
- offene Racks mit wassergekühlten Rücktüren, um die elektrische Verlustleistung von knapp 170 kW zu „neutralisieren“
Weitere Informationen
http://www.rrze.fau.de/dienste/arbeiten-rechnen/hpc/systeme/emmy-cluster.shtml
Kontakt
Dr. Thomas Zeiser
hpc@fau.de