https://bodybydarwin.com
Slider Image

Die schnellste Wissenschaftsmaschine der Welt

2021

Mit der Veröffentlichung des nächsten TOP500-Rankings der schnellsten Supercomputer der Welt in nur wenigen Wochen hat das Oak Ridge National Laboratory (ORNL) diese Woche Titan, eine 20-Petaflop-Maschine, offiziell in Betrieb genommen. Es wird erwartet, dass Titan Sequoia verdrängt, eine weitere Maschine des US-Energieministeriums, die im Lawrence Livermore National Lab untergebracht ist, und die USA selbstbewusst auf die Supercomputer-Pyramide zurückführt (Sequoia wird voraussichtlich die Nummer zwei belegen), nachdem er in den letzten Jahren häufig China gejagt hat und Japan.

Aber Titan ist mehr als nur ein Prahler. Es wird zweifellos die schnellste offene Wissenschaftsmaschine der Welt sein und Wissenschaftlern aus Industrie, Wissenschaft und Regierungslabors im ganzen Land Zeit geben, die riesige Rechenfähigkeiten benötigen, um komplexe Datensätze in sechs Kernbereichen zu verstehen: Klimawandel, Astrophysik, Materialwissenschaften, Biokraftstoffe, Verbrennung und Kernenergiesysteme. Entscheidend ist, dass Grafikprozessoren (GPUs) neben den herkömmlichen CPU-Kernen (Central Processing Unit) integriert sind, die normalerweise in Supercomputern dieser Art eingesetzt werden. Diese erfolgreiche Verbindung von CPUs und GPUs könnte weitreichende Auswirkungen auf die Zukunft des Supercomputers haben, da Wissenschaftler nach einer neuen Generation von exascale-Wissenschaftsmaschinen streben.

"Wir haben die Farm auf diese Hybrid-Computing-Umgebung gesetzt und es ist uns gelungen." "Titan wird heute der größte und schnellste Open-Science-Computer sein", sagt Steve Scott, Chief Technology Officer von Tesla, der Geschäftseinheit von NVIDIA, die für die Versorgung der GPUs von Titan verantwortlich ist kann oder kann nicht Sequoia übertreffen. Es ist schön, diese Titel zu haben, aber es ist nicht so wichtig wie die Wissenschaft, die auf der Maschine gemacht wird. "

Für die Zusammenarbeit, die Titan entwickelt hat, ist es ein nachträglicher Gedanke, ob sich der Computer schneller einstellt als der amtierende Champion bei Lawrence Livermore. Sequoia, ein IBM BlueGene / Q-System, wurde entwickelt, um klassifizierte Forschungen für das DOE durchzuführen, und wird daher bald hinter dem Vorhang des Staatsgeheimnisses vom Radar verschwinden, wo der durchschnittliche Forscher kaum Zugang dazu haben wird. Titan hingegen ist auf offene Forschung ausgelegt. Und es ist bereits bereit, auf einem Niveau zu rechnen, das die Forschungsgemeinschaft noch nie zuvor gesehen hat.

Titan ist in der Lage, 20.000 Billionen Berechnungen pro Sekunde durchzuführen. Um Ihnen eine Vorstellung davon zu geben, wie weit und wie schnell sich diese Rechenleistung entwickelt hat, sollten Sie berücksichtigen, dass in ORNL 2009 auch der schnellste Supercomputer der Welt namens Jaguar (Titan ist eigentlich ein Upgrade von Jaguar und kein von Grund auf neu entwickeltes System) beheimatet war. obwohl Titans Architektur sehr unterschiedlich ist). Jaguar war ein 2, 3-Petaflops-System ("Flops" steht für Gleitkommaoperationen pro Sekunde und ist das Maß für die Leistung von Supercomputern), als es die Liste der schnellsten Computer der Welt anführte. In nur drei Jahren hat Titan Jaguar um das Zehnfache übertroffen.

Dieser Sprung nach vorne wurde größtenteils durch ein Überdenken der Art und Weise ermöglicht, wie ORNL Supercomputer baut. Man könnte die Rechenleistung durchaus um das Zehnfache steigern, indem man einen zehnmal größeren Computer mit zehnmal mehr CPUs baut, aber dies wäre auf vielen Ebenen unpraktisch. Abgesehen von den Hardware-Herausforderungen, die mit einer solch großen Maschine verbunden sind, entsprach der Energiebedarf des 2, 3-Petaflop-Jaguars dem von 7.000 amerikanischen Haushalten. Ein 20-Petaflop-Jaguar würde etwa 60 Megawatt oder 60.000 Haushalte Energie benötigen, um zu funktionieren. Um Titan dahin zu bringen, wo es jetzt ist, ohne einen massiven Energiesog aufzubauen, brauchte es viel Zusammenarbeit, ein verstärktes Vertrauen in eine neue Art von Hardware-Regime und eine ziemlich ernste Dosis Moxie.

„Im Jahr 2009 haben wir den Hybrid-Multi-Core erfunden, bevor wir überhaupt ein Wort dafür hatten, sagt Jeffrey Nichols.“ Von da an haben wir einen dreijährigen Vertrauenssprung gemacht, der sich in einem 10-fachen Leistungssprung, einer Fünf, enorm ausgezahlt hat -facher Effizienzsprung. "

Nichols bezieht sich auf die Integration von Grafikchips (GPUs) in die herkömmliche CPU-Architektur. GPUs eignen sich hervorragend für bestimmte Aufgaben und eignen sich besonders für die Verarbeitung von mehreren Dutzend oder sogar Hunderten von Berechnungen pro Sekunde. CPUs sind für diese Art von Computing nicht besonders gut geeignet, obwohl sie für herkömmliche Computing-Aufgaben, wie das grundlegende Ausführen von Codezeilen, immer noch sehr gut geeignet sind. Um Titan zu bauen, brachte ORNL den Supercomputerhersteller Cray und den GPU-Hersteller NVIDIA zusammen, um ein Hybridsystem mit 18.688 Advanced Micro Devices 16-Core-CPUs und 18.688 NVIDIA Tesla-GPUs zu schaffen, die zusammenarbeiten, um Aufgaben schneller und mit weitaus höherer Effizienz zu erledigen. Die Kernforschung war dort, aber die Herausforderung bestand darin, alle Teile - alle 40.000 - in eine Reihe zu bringen und zum Laufen zu bringen.

Alle, die an der Entwicklung von Titan beteiligt waren, arbeiteten hier an einem gewissen Grad an Vertrauen, und alle standen vor dem Scheitern. Cray musste sich einer neuen Art von Hardware und Schnittstelle aussetzen, die in der Lage war, zwischen CPUs und GPUs zu sprechen, etwas, was es zuvor noch nie getan hatte. NVIDIA, die seit einiger Zeit behauptet, dass ihre GPUs wichtige Funktionen besitzen, die weit über die Spielekonsole oder den PC hinausgehen, war es an der Zeit zu beweisen, dass diese Art von Hybrid-Computing wirklich im Super-Computing-Maßstab stattfinden kann. Und ORNL befand sich mit seiner Führungsrolle im globalen Supercomputing auf der Strecke vielleicht in der prekärsten Position von allen. Wenn Titan nicht rechtzeitig (oder überhaupt) online gegangen wäre, wäre dies ein schwerwiegender Rückschlag gewesen, vielleicht ein mehrjähriger Rückschlag - Jahre, die auf dem schnelllebigen Gebiet der Supercomputer nur schwer aufzuholen wären. "Für eine Organisation mit einer Mission, die erfüllt werden muss und die sich keinen Stunt leisten kann, setzen wir die Farm auf diese Hybrid-Computing-Umgebung, und es ist uns gelungen, sagt Scott.

Dieser Würfelwurf zahlt sich jetzt sehr gut aus. Anstatt einen zehnmal so großen Computer wie Jaguar zu entwickeln, können mit dem Upgrade auf 16-Kern-CPUs und leistungssteigernden GPUs die 200 Serverschränke genutzt werden, in die Jaguar passt. Und während es mehr Strom verbraucht als sein Vorgänger, benötigt Titan nur etwa 9 Megawatt - ein Bruchteil dessen, was bei einer reinen CPU-Architektur mit derselben Geschwindigkeit erforderlich wäre.

Das ist immer noch ein Energieverbrauch von 10 Millionen US-Dollar pro Jahr. Vergleicht man ihn jedoch mit dem aktuellen weltweiten Maschinenmarkt und dem Gebot, mit der Konkurrenz Schritt zu halten (insbesondere mit einem bestimmten Konkurrenten im gesamten pazifischen Raum). Titan ist ein wichtiger Schritt für das amerikanische Supercomputing. Das DOE versucht, (hoffentlich bis 2020) eine exascale Supercomputing-Kapazität zu schaffen, genau wie China, Japan, Indien und verschiedene andere Länder in Europa und auf der ganzen Welt versuchen, die USA zu schlagen (Exaflop-Performance ist der nächste wichtige Meilenstein in Europa) Leistung, gleich 1.000 Petaflops). Im Gegensatz zu einigen dieser Wettbewerber versucht das DOE, dies sowohl mit einem engen Finanzbudget als auch mit einem engen Energiebudget zu tun.

"Der Unterschied zwischen dem, was wir in den USA und anderswo sehen, besteht darin, dass wir versuchen, innerhalb von 20 Megawatt Leistung zu exaskalieren", sagt Nichols Dies bedeutet, dass der Fortschritt von Titan in Bezug auf Leistung und Effizienz sowohl im Hinblick auf Forschung und Entwicklung als auch auf die nationale Sicherheit umso bedeutender ist, wenn die Exaflop-Leistung des oben genannten Haushalts um das 50-fache verbessert werden soll Entmutigend, sicher, aber Nichols und seine Kollegen bei ORNL, Cray, nVidia und anderen arbeiten bereits intensiv an Lösungen.

"Wir hatten die größte Maschine im Jahr 2009 und haben bereits an die Maschine von 2012 gedacht", sagt Nichols. "Und wir haben bereits an die Maschine von 2016 gedacht."

Die traurige Geschichte der Digitalkameras, die versuchen, Filme zu imitieren

Die traurige Geschichte der Digitalkameras, die versuchen, Filme zu imitieren

8 wichtige Dinge, die Ihnen helfen, einen Sturm zu überstehen

8 wichtige Dinge, die Ihnen helfen, einen Sturm zu überstehen

Das Senden von drahtlosen Daten zwischen zwei Ballons mit einer Entfernung von 372 Meilen ist ein sehr gutes Ziel

Das Senden von drahtlosen Daten zwischen zwei Ballons mit einer Entfernung von 372 Meilen ist ein sehr gutes Ziel