Supercomputing

Das Höchstleistungsrechnen hat die Art des Forschens revolutioniert. Neben der Theoriebildung und dem Experiment hat sich die Simulation längst als dritte Säule der Wissenschaft etabliert.

Hochleistungsrechner
Hochleistungsrechner © Boris Lehner Fotografie

Ohne Simulationsverfahren auf Hoch- und Höchstleistungsrechnern ist moderne Grundlagenforschung zum Beispiel in der Energieforschung, den Material- und Lebenswissenschaften oder auch der Klimaforschung undenkbar. Die Anwendungsgebiete sind vielfältig: die Simulation komplexer Abläufe in unserem Körper (Brustkrebs-, Herz- und Asthmaforschung), die Optimierung von Verbrennungskraftwerken und Windkraftanlagen oder Crashtests zur Entwicklung sicherer Fahrzeuge und Fahrassistenzsysteme.

Für Wissenschaft und Industrie

Hoch- und Höchstleistungsrechnen ist Grundlage für zahlreiche innovative Produkte in den Schlüsselbereichen der deutschen Wirtschaft und auch ein  „Motor“ für die anwendungsorientierte Forschung in den Bereichen künstliche Intelligenz (KI) und Big Data, die auf entsprechende Infrastrukturen angewiesen sind.

Höchstleistungsrechnen ist ein unverzichtbarer Baustein der neuen Hightech-Strategie der Bundesregierung. Das Bundesforschungsministerium fördert das Höchstleistungsrechnen als Basis für wissenschaftliche Exzellenz in Deutschland und Wertschöpfungspotenziale der Wirtschaft durch den Ausbau von Rechenkapazitäten, Vernetzung und Technologien.

Höchstleistungen im nationalen Verbund

Die drei leistungsfähigsten Rechenzentren Deutschlands sind seit 2007 unter dem Dach des „Gauss Centre for Supercomputing“ (GCS) vereint: das Höchstleistungsrechenzentrum Stuttgart (HLRS), das Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften in Garching bei München (LRZ) und das Jülicher Supercomputing Centre (JSC). Dazu haben das Bundesforschungsministeriums und die Wissenschaftsministerien von Baden-Württemberg, Bayern und Nordrhein-Westfalen ein Verwaltungsabkommen geschlossen.

Seit 2017 geht die Förderung des Höchstleistungsrechnens in Deutschland in die zweite Runde. Das Forschungsministerium und die Länder Baden-Württemberg, Bayern und NRW werden bis zum Jahr 2025 circa 450 Millionen Euro in GCS investieren. Dabei steht neben dem weiteren schrittweisen Ausbau der Infrastruktur auch die Weiterentwicklung von Rechner- und Softwaretechnologien im Mittelpunkt. Damit bewegt sich Deutschland weiterhin auf weltweitem Spitzenniveau.

Flops

Flops sind eine essenzielle Größe für die Leistungsfähigkeit von Computern. Das Akronym steht für „floating point operations per second“. Dies drückt aus, wie viele mathematische Operationen (wie Addieren oder Multiplizieren) ein Rechner pro Sekunde durchführen kann. Je mehr Flops ein Computer schafft, desto schneller und leistungsstärker ist er. Ein Petaflops entspricht einer Billiarde Operationen pro Sekunde.

Aktuell stehen den deutschen Forscherinnen und Forscher drei GCS Supercomputer mit einer Rechenkapazität von insgesamt 60 Petaflops zur Verfügung. Die Rechner sind spezifisch auf die unterschiedlichen Anwendungsschwerpunkte an den Standorten abgestimmt. Damit verfügt Deutschland über eine europaweit einzigartige Infrastruktur der höchsten Leistungsklasse. An dem weiteren Ausbau wird kontinuierlich gearbeitet.

SuperMUC-NG am Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften (LRZ)

Der derzeit schnellste Rechner Deutschlands ist das System „SuperMUC-NG“ am LRZ in Garching. Mit seinen etwa 305.000 Kernen schafft er eine Maximalleistung von 26,9 Petaflops – und ist damit momentan der neuntschnellste Rechner der Welt (Stand 11/2019). Er ist damit so schnell wie 170.000 moderne Computer. Der SuperMUC stellt Forscherinnen und Forschern u. a. aus Physik und Chemie, Lebens-, Geo-, Umwelt- und Ingenieurswissenschaften die benötigte erstklassige Informationstechnologie zur Verfügung. Dabei legt das LRZ besonderes Augenmerk auf die Unterstützung der Nutzerinnen und Nutzer, damit sie die vorhandenen Ressourcen optimal nutzen können. Nicht zuletzt zeichnet sich SuperMUC durch seine innovative Warmwasserkühlung aus, die ihn zu einem der energieeffizientesten Rechner seiner Art weltweit macht. Verantwortlich dafür ist das Engagement des LRZ für „Green IT“, um den Energieverbrauch weiter zu verringern.

JUWELS am Jülicher Supercomputing Centre (JSC)

Sehen lassen kann sich die Rechenleistung von JUWELS am JSC. Er berechnet, wie sich Proteine entfalten, Faserbahnen im Gehirn verlaufen oder wie sich Wasserdampf in der Stratosphäre verhält. Derzeit schafft es JUWELS auf Rang 31 der weltweit 100 schnellsten Rechner (Stand 11/2019). Doch schon bald könnte der hochflexible Supercomputer weiter aufsteigen: Denn er besteht aus verschiedenen Modulen. Dahinter verbirgt sich ein hoch-innovatives Konzept, welches sogar die Anbindung von JUWELS an einen Quantencomputer erlaubt. Die einzelnen Module lassen sich je nach Rechenbedarf dynamisch kombinieren – und jederzeit erweitern. So soll bereits im Jahr 2020 ein sogenanntes Booster-Modul die Rechenleistung von JUWELS vervielfältigen. Hauptbestandteil des Boosters sind sogenannte Beschleuniger-Karten, die sowohl für spezielle Berechnungen als auch für Künstliche Intelligenz verwendet werden.

Hawk am Höchstleistungsrechenzentrum Stuttgart (HLRS)

Aktuell wird das bisherige Rechnersystem „Hazel Hen“ abgebaut und durch das System „Hawk“ ersetzt. Das neue Rechnersystem Hawk ist dreieinhalb Mal schneller als der bisherige HLRS-Höchstleistungsrechner Hazel Hen und wird damit etwa so schnell wie der SuperMUC-NG sein. Damit ist er der weltweit schnellste Supercomputer für die industrielle Produktion. "Profitieren wird davon insbesondere die Nutzer-Community aus Computeringenieuren in der akademischen Forschung und Industrie, da damit die Durchführung von viel komplexeren Simulationen möglich ist," sagt Prof. Dr. Michael M. Resch, Direktor des HLRS. Anwendungen nutzen beispielsweise neue Rechenmodelle für den lokalen Klimawandel, es werden Simulationen für die Strömungsdynamik an Windrädern berechnet oder große Datenmengen für das maschinelle Lernen ausgewertet. Im Rahmen seiner Supercomputing-Akademie werden am HLRS Trainingsprogramms zum High-Performance-Computing angeboten.

Anwendungen zum Erfolg bringen

Erfolge im Höchstleistungsrechnen werden jedoch nicht durch die Rechner oder die Software selbst erzielt, sondern durch deren Anwender: die Wissenschaftlerinnen und Wissenschaftler der verschiedensten Disziplinen, zum Beispiel der Physik, der Lebenswissenschaften oder der Ingenieurswissenschaften, die das Höchstleistungsrechnen als eine Methode in ihrem eigenen Forschungsfeld nutzen.

Parallel zum Ausbau der Kapazitäten werden daher die Nutzerinnen und Nutzer dieser neuartigen Rechner durch das umfangreiche Servicekonzept des Gauss Centre for Supercomputing begleitet: Die Wissenschaftlerinnen und Wissenschaftler der verschiedensten Disziplinen werden durch Schulungen, Workshops und eine intensive Betreuung bei der Implementierung und Optimierung ihrer Software für die Anwendung auf den Höchstleistungsrechnern unterstützt.

Ein europäisches Ökosystem

Trotz des massiven Ausbaus der Supercomputerkapazitäten kann die europaweite Nachfrage an Rechenzeit kaum befriedigt werden. Mit dem von Deutschland maßgeblich vorangetriebene Supercomputer-Netzwerk PRACE (Partnership for Advanced Computing in Europe) haben europäische Wissenschaftlerinnen und Wissenschaftler und Unternehmen Zugang zu den leistungsfähigsten Rechenressourcen Europas, um exzellente Forschung auf höchstem Niveau betreiben zu können.

Zusätzlich wurde Ende 2018 das „Gemeinsame Unternehmen EuroHPC“ gegründet, mit dem Ziel, eine europäisches Supercomputer-Ökosystem auf Weltniveau zur Verfügung zu stellen. Die europäische Kommission und die Mitgliedsstaaten stellen damit einen unabhängigen Zugang zu Rechnern, Technologien und Anwendungen für die europäische Wissenschaft und Wirtschaft sicher.

Mit dem Start von EuroHPC – mit Deutschland als einem der Gründungsmitglieder – wird erstmals auch die europäische Kommission die Beschaffung und den Betrieb von Supercomputern unterstützen. Konkret will die EU die Hälfte der Investitions- und Betriebskosten der zukünftigen EuroHPC Infrastruktur tragen. Stand heute hat EuroHPC die Beschaffung von drei Pre-Exascale-Systemen (mit mehr als 150 Petaflops Leistung) sowie weiterer fünf Petascale-Systeme (mit mindestens 4 Petaflops Leistung) beschlossen. Die Supercomputer sollen in der zweiten Jahreshälfte 2020 in Betrieb gehen und den europäischen Nutzern aus Wissenschaft, Industrie und öffentlichem Sektor zur Verfügung stehen.