StorageReview hat die prestigeträchtige rechnerische Krone zurückerobert, indem es π auf erstaunliche 314 Billionen Ziffern berechnet hat und damit den bisherigen Weltrekord brach. Das moderne Rennen um die Präzision von π hat sich von anfänglichen Cloud-Experimenten zu einer umfassenden Demonstration von Infrastrukturstärke und Ingenieurskunst entwickelt.
Im Jahr 2022 sorgte Google Cloud für Schlagzeilen, indem es π auf 100 Billionen Ziffern berechnete. Das Projekt nutzte eine massive Flotte von Cloud-Instanzen zur Ausführung des y-cruncher-Programms und verbrauchte dabei Dutzende von Petabytes an I/O-Daten. Damals galt dieser Meilenstein als definitive Benchmark für die oberen Grenzen dessen, was traditionelle Infrastruktur leisten konnte.
Der Fokus verlagerte sich dann auf On-Premises-Laborumgebungen. Anfang 2024 rüsteten wir unser System auf, um mit fast 1 Petabyte Solidigm QLC SSDs einen neuen Rekord von 105 Billionen Ziffern aufzustellen. Diese Leistung setzte einen neuen Maßstab für die Skalierbarkeit und bewies, dass eine einzelne On-Premises-Maschine eine außergewöhnliche Effizienz liefern konnte. Nur wenige Monate später erweiterten wir die Grenzen auf 202 Billionen Ziffern. Dieser Durchbruch bestätigte, dass hochdichte Flash-Speicher in Kombination mit sorgfältiger Systemabstimmung die Hyperscale-Cloud-Infrastruktur für diese sehr anspruchsvolle spezifische Arbeitslast übertreffen konnten.
Natürlich fordert jeder Rekord eine Herausforderung heraus. Linus Media Group und KIOXIA beanspruchten anschließend den Titel, indem sie π auf 300 Billionen Ziffern berechneten. Ihre Einrichtung basierte auf einem großen Weka Shared-Storage-Cluster, der mit 2 PB Flash-Speicher ausgestattet war. Dies zeigte zwar das Potenzial speicherintensiver traditioneller Infrastrukturen, ging aber mit erheblichen Kompromissen einher: ein voller Rack an Hardware, erheblicher Stromverbrauch und komplexe Kühlungsanforderungen. Wir waren entschlossen, diesen Rekord nicht unangefochten stehen zu lassen.
Heute ist StorageReview stolz, unseren neuen Sieg bekannt zu geben: π berechnet auf 314 Billionen Ziffern. Die Leistung wurde mit einem einzigen 2U Dell PowerEdge R7725 Server erzielt, ausgestattet mit zwei AMD EPYC 192-Kern-CPUs und vierzig 61,44 TB Micron 6550 Ion SSDs. Wir schlossen den Systemaufbau und die Abstimmung im Juli ab und starteten die Berechnung am 31. Juli 2025. Zufälligerweise endete die Ausführung am zweiten Tag der SC25, was diesen neuen High-Performance-Computing (HPC)-Rekord umso zeitgemäßer macht.
Skalierung von y-cruncher auf 314 Billionen Ziffern
Sobald die Berechnungsskala Hunderte von Billionen von Ziffern überschreitet, verwandelt sich y-cruncher von einem traditionellen Benchmark in einen anspruchsvollen Langstrecken-Infrastruktur-Stresstest. Die Kernlogik des Programms bleibt einfach, aber seine Interaktion mit der Hardware in diesem Maßstab wird zum entscheidenden Faktor. Der gesamte Betrieb hängt von der Fähigkeit des Systems ab, Tausende von Multi-Präzisionsoperationen reibungslos auszuführen – ohne die CPUs zu blockieren oder die Speicherschicht zu überlasten. Tatsächlich wurde dieser neue Rekord wirklich in der Speicherschicht gewonnen.
Wir haben 40 Micron 6550 Ion Gen5 NVMe SSDs eingesetzt, von denen 34 exklusiv für die Ausführung von y-cruncher zugewiesen wurden. Dieser SSD-Pool bietet etwa 2,1 Petabyte nutzbaren Speicherplatz und gibt y-cruncher den benötigten Speicher, um 314 Billionen Ziffern von π zu berechnen und zu verarbeiten. Die verbleibenden 6 SSDs sind zu einem Software-RAID10-Volume konfiguriert, das speziell zum Speichern der endgültigen Ergebnisse von 314 Billionen Ziffern verwendet wird.
Designverbesserungen zwischen der 16. und 17. Generation von Dell PowerEdge-Servern spielten ebenfalls eine Schlüsselrolle bei der Leistungssteigerung für diese 314-Billionen-Ziffern-Rekordlauf. Unser früherer Versuch mit 202 Billionen Ziffern nutzte den 24-Bay Dell PowerEdge R760, der einen PCIe-Switch auf der Laufwerks-Backplane enthielt – was die Laufwerksdichte gegen verbesserte Leistung eintauschte. Im Gegensatz dazu verfügen die PowerEdge-Server der 17. Generation, wie der Intel-basierte R770 und der AMD-basierte R7725, über Backplanes mit reinem Direct-Connect-Design, die 2 oder 4 PCIe-Lanes pro Bay bieten.
Der PowerEdge R7725 mit seiner 40-Bay Gen5 E3.S Backplane bietet 2 PCIe-Lanes pro SSD-Steckplatz. Während dies auf dem Papier ein potenzieller Leistungsabfall sein mag, kann die Plattform immer noch beeindruckende Geschwindigkeiten liefern: bis zu 280 GB/s gleichzeitige Lese- und Schreibgeschwindigkeit, wenn alle 40 Bays voll ausgelastet sind.
Mithilfe des internen y-cruncher-Speicher-Benchmarks haben wir die Speicherleistung jeder Plattform über ihre jeweilige Konfiguration hinweg gemessen. Über alle Workloads hinweg beobachteten wir Speicherleistungsverbesserungen von 72 % bis 383 % mit gut ausbalancierten Lese- und Schreibmetriken – was die Überlegenheit des PowerEdge-Servers der 17. Generation für speicherintensive Hochleistungsrechner festigt.
| Metrik | 202T System (alter Rekord) | 314T System (neuer Rekord) | Prozentuale Differenz (314T vs. 202T) |
|---|---|---|---|
| Sequenzielles Schreiben | 47,0 GiB/s | 107 GiB/s | +127,7 % |
| Sequenzielles Lesen | 56,7 GiB/s | 127 GiB/s | +124,0 % |
| Schwellenwert-Strich-Schreiben | 62,2 GiB/s | 107 GiB/s | +72,0 % |
| Schwellenwert-Strich-Lesen | 20,9 GiB/s | 101 GiB/s | +383,3 % |
Der Dell PowerEdge R7725 ist weit mehr als nur ein Speicher-Kraftpaket; er glänzt als Dual-Socket-AMD-Turin-Plattform mit außergewöhnlichem Rechenpotenzial. Wir haben unser System mit 192-Kern-AMD-EPYC-9965-Prozessoren ausgestattet, die insgesamt 384 Kerne liefern. Um diese Leistung zu erschließen, haben wir die Standard-Luftkühlungslösung auf flüssigkeitsgekühlte CoolIT SP5-Kühlplatten aufgerüstet, die von einer CoolIT AHx10 Flüssig-zu-Luft-CDU (Kühlmittelverteilungseinheit) gekühlt werden.
Dieses strategische Kühlungsupgrade lieferte drei wichtige Vorteile: Es ermöglichte den CPUs, eine hohe Taktfrequenz aufrechtzuerhaltenhohe Taktfrequenzen, hielt die Lüfter des Servergehäuses bei bemerkenswert niedrigen30 % PWM(Pulsweitenmodulation) und sorgte dafür, dass der durchschnittliche Stromverbrauch des Systems bei etwa1.600 W.
Software- und Systemoptimierung
Für die Software-Schicht haben wir uns von früheren Praktiken abgewandt und uns fürUbuntu 24.04.2 LTS Serveranstelle von Windows Server entschieden. Diese Entscheidung erwies sich als entscheidend für die Maximierung der Systemstabilität und die Erzielung erheblicher Leistungssteigerungen bei der Arbeitslast.
Vor Beginn des Rekordlaufs führten wir rigorose Testiterationen durch und optimierten die Konfiguration. Ein kritischer Schritt war die Reservierung von4 der 384 verfügbaren Kernefür kritische Hintergrundsystemoperationen, um sicherzustellen, dass die Hauptberechnungs-Threads ungehindert blieben. Das Ergebnis? Wir haben nicht nur den vorherigen Pi-Rekord gebrochen –wir haben ihn vernichtetüber alle messbaren Metriken hinweg. Unser Lauf ist unübertroffen in Bezug auf Leistung, Energieeffizienz und vor allem in seiner makellosen Zuverlässigkeit. Wir sind stolz darauf, die Auszeichnung zu tragen, der einzige groß angelegte Pi-Weltrekordversuch zu sein, der mitNull Ausfallzeitabgeschlossen wurde; die Berechnung lief nahtlos von Anfang bis Ende, ohne jemals fortgesetzt werden zu müssen.
Rekordverdächtige Energieeffizienz
Ein Kernprinzip hinter jedem Pi-Rekordversuch von StorageReview ist die Minimierung der Systemkomplexität und die Optimierung der Energieeffizienz. Der vorherige 300T-Rekord basierte auf einem verteilten Speichercluster mit Hochgeschwindigkeitsnetzwerk, der naturgemäß größere Strom- und Kühlbudgets erforderte.
Wir verfolgten einen grundlegend anderen Ansatz. Durch die Konzentration aufextreme Speicherdichte, haben wir sowohl den Swap-Speicher als auch den persistenten Ausgabe-Speicher auf einem einzigen 2U-Server konsolidiert. Diese architektonische Entscheidung war entscheidend für die drastische Reduzierung unseres gesamten Strom- und Kühlungs-Footprints.
Im Laufe der gesamten Berechnung von 314 Billionen Ziffern verbrauchte unser Dell PowerEdge R7725 insgesamt4.304,662 kWh. Dies entspricht außergewöhnlichen13,70 kWh pro Billion Ziffern– was unsere Lösung zu einer der energieeffizientesten groß angelegten Pi-Berechnungen macht, die jemals durchgeführt wurden. Der deutliche Kontrast zwischen unserem effizienten Single-Server-Ansatz und der stromhungrigen verteilten Cluster-Methode ist sofort ersichtlich, wie die Vergleichstabelle unten zeigt.
| Lauf | Gesamt kWh | Kosten bei 0,12 $/kWh | Kosten bei 0,20 $/kWh |
|---|---|---|---|
| 300T Weka Cluster Lauf | 33.600 kWh (geschätzt) | 4.032 $ | 6.720 $ |
| 314T Single-Server Lauf | 4.304,662 kWh | 517 $ | 861 $ |
Es ist wichtig hervorzuheben, dass wir während unserer Berechnung von 314 Billionen Ziffern SSDs in einer JBOD-Konfiguration (Just a Bunch of Disks) verwendet haben, die keine integrierte Datenresilienz aufweist. Diese Entscheidung wurde von zwei Kernprioritäten geleitet: Optimierung des Stromverbrauchs und Maximierung der Gesamtleistung des Systems. Sie löste jedoch auch eine wichtige Diskussion über die Anpassung von Speicherlösungen an die spezifischen Anforderungen der jeweiligen Arbeitslast aus. Jede Arbeitslast ist einzigartig – einige können mit minimalen Auswirkungen auf den Betrieb neu gestartet werden und erfordern daher nicht das gleiche hohe Maß an Fehlertoleranz wie geschäftskritische Aufgaben. In unserem Fall konzentrierten wir uns auf die Sicherung der endgültigen Datenausgabe durch ein herkömmliches Software-RAID-Setup, um die Integrität der rekordverdächtigen π-Ziffern zu gewährleisten, ohne die Effizienz des Systems zu beeinträchtigen.
110 Tage ununterbrochener Laufzeit
Trotz der Berechnung von mehr Ziffern als jeder frühere π-Rekordversuch war unsere Laufzeit deutlich kürzer als die vorherige Benchmark. Der vorherige 300-Billionen-Ziffern-Rekord benötigte etwa 225 Gesamttage bis zur Fertigstellung – was 175 tatsächlichen Berechnungstagen entspricht, wenn Ausfallzeiten ausgeschlossen werden. Im krassen Gegensatz dazu erreichte unser 314-Billionen-Ziffern-Lauf volle 110 Tage ununterbrochenen Betriebs. Diese außergewöhnliche Stabilität ist auf vier Schlüsselfaktoren zurückzuführen: ein robustes und stabiles Betriebssystem, eine minimierte Hintergrundlast zur Vermeidung von Ressourcenkonflikten, eine ausgewogene NUMA-Topologie (Non-Uniform Memory Access) für optimale CPU-Speicher-Kommunikation und ein Scratch-Array, das speziell entwickelt wurde, um die einzigartigen Datenzugriffsmuster zu bewältigen, die von y-cruncher in diesem beispiellosen Maßstab erzeugt werden.
Technische Highlights
- Gesamtzahl der berechneten Ziffern: 314.000.000.000.000
- Verwendete Hardware: Dell PowerEdge R7725 mit 2x AMD EPYC 9965 CPUs, 1,5 TB DDR5 DRAM, 40x Micron 61,44 TB 6550 Ion
- Software und Algorithmen: y-cruncher v0.8.6.9545, Chudnovsky
- SSD-Verschleiß pro SMART: 7,3 PB geschrieben pro Laufwerk oder 249,11 PB über die 34 für Swap verwendeten SSDs
- Größter logischer Checkpoint: 850.538.385.064.992 (774 TiB)
- Größte logische Festplattenauslastung: 1.605.960.520.636.440 (1,43 PiB)
- Logische Festplattenbytes gelesen: 148.356.635.606.263.504 (132 PiB)
- Logische Festplattenbytes geschrieben: 126.658.805.195.776.600 (112 PiB)
- Startdatum: Do 31. Juli 17:16:41 2025
- Enddatum: Di 18. Nov. 05:57:08 2025
- pi: 8793223,144 Sekunden, 101,773 Tage
- Gesamte Berechnungszeit: 9274878,580 Sekunden
- Wand-zu-Wand-Zeit: 9463226,454 Sekunden
Abschließende Gedanken
Seit Jahrzehnten dienen extreme π-Berechnungen als Schaufenster für Rechenleistung, wobei die "Big Iron" jeder Ära im Mittelpunkt steht. Frühe Rekorde basierten auf Hochleistungs-Desktops und externen Speicherarrays; der Fokus verlagerte sich dann auf On-Premises-Enterprise-Hardware. In jüngerer Zeit wanderte das Rennen in die Cloud, wo Initiativen wie Googles 100-Billionen-Ziffern-Lauf zeigten, dass Brachialgewalt – bewaffnet mit Tausenden von Instanzen und massivem I/O-Durchsatz – einen Rekord sichern konnte. Dann sahen wir das Aufkommen großer Shared-Storage-Cluster, die rohe Parallelität über Einfachheit stellten, aber auf Kosten erheblichen Stromverbrauchs und komplexer Kühlungsanforderungen.
Unsere Reise hat den entgegengesetzten Weg eingeschlagen. In aufeinanderfolgenden Rekordläufen haben wir die y-cruncher-Arbeitslast als kritische, Langstrecken-HPC-Aufgabe behandelt – nicht als einmaligen Stunt. Die 105T- und 202T-Kampagnen waren entscheidend für die Identifizierung von Kernengpässen: Optimierung der Scratch-Speicherkapazität, Gewährleistung einer stabilen CPU-Auslastung, ohne die I/O-Schicht zu überlasten, und Härtung des Systems, um über Monate hinweg zuverlässige Leistung zu liefern. Der 314T-Lauf ist die Krönung dieser hart erarbeiteten Expertise. Dies ist nicht nur eine größere Zahl; es repräsentiert einreiferes, produktionsreifes Design.
Die Daten sprechen für sich. Wir haben die 300-Billionen-Ziffern-Barriere auf einem einzigen 2U Dell PowerEdge R7725 durchbrochen, ausgestattet mit 40 Micron 6550 Ion SSDs und zwei 192-Kern-AMD-EPYC-CPUs. Das System lief 110 Tage lang fehlerfrei und schloss die Berechnung ohne eine einzige Unterbrechung oder Neustart ab. Der Speicher-Durchsatz verdoppelte sich im Vergleich zu unserer 202T-Plattform, dennoch behielt der Server eine moderate durchschnittliche Leistungsaufnahme von 1.600 W bei, mit einem Gesamtenergieverbrauch von nur 4.305 kWh. Dies entspricht bemerkenswerten 13,70 kWh pro Billion Ziffern – ein Bruchteil der geschätzten Leistung des vorherigen 300T-Clusters. Kurz gesagt, wir haben mehr Arbeit mit weniger Knoten, weniger Komplexität und geringeren Energiekosten erzielt.
Die Bedeutung dieses Rekords geht weit über Prahlerei hinaus. Wenn ein einzelner kommerzieller 2U-Server eine Arbeitslast dieses Ausmaßes mit solcher Zuverlässigkeit und Effizienz aufrechterhalten kann, lassen sich dieselben architektonischen Prinzipien direkt auf die wissenschaftliche Datenverarbeitung in der realen Welt übertragen. Langlaufende Klimamodelle, hochpräzise Physiksimulationen, Genomik-Pipelines und groß angelegte KI-Trainingsjobs hängen alle von denselben grundlegenden Elementen ab: ausgewogene I/O-Leistung, vorhersehbares Wärmemanagement, stabile Firmware und eine Architektur, die für den kontinuierlichen Betrieb über Monate hinweg ausgelegt ist. Unsere Plattform hat nun bewiesen, dass sie diese Grundlagen unter den anspruchsvollsten Bedingungen liefern kann.
Beijing Qianxing Jietong Technology Co., Ltd.
Sandy Yang/Global Strategy Director
WhatsApp / WeChat: +86 13426366826
E-Mail: yangyd@qianxingdata.com
Website: www.qianxingdata.com/www.storagesserver.com
Sandy Yang/Global Strategy Director
WhatsApp / WeChat: +86 13426366826
E-Mail: yangyd@qianxingdata.com
Website: www.qianxingdata.com/www.storagesserver.com
Geschäftsschwerpunkt:
ICT-Produktvertrieb/Systemintegration & Dienstleistungen/Infrastrukturlösungen
Mit über 20 Jahren Erfahrung im IT-Vertrieb arbeiten wir mit führenden globalen Marken zusammen, um zuverlässige Produkte und professionelle Dienstleistungen zu liefern.
"Technologie nutzen, um eine intelligente Welt aufzubauen" Ihr vertrauenswürdiger ICT-Produkt-Dienstleister!



