StorageReview hat die prestigeträchtige Rechenkrone zurückerobert, indem es π auf erstaunliche 314 Billionen Ziffern errechnet hat und damit den bisherigen Weltrekord gebrochen hat.Das moderne Rennen um die Präzision von π hat sich von anfänglichen Cloud-Experimenten zu einem groß angelegten Schaufenster für Infrastruktur und Ingenieurskunst entwickelt.
Im Jahr 2022 machte Google Cloud Schlagzeilen, indem es π bis zu 100 Billionen Ziffern berechnete.Das Projekt verbrauchte Dutzende Petabyte E/A DatenDieser Meilenstein war damals der endgültige Maßstab für die Obergrenzen der Leistungsfähigkeit traditioneller Infrastruktur.
Anfang 2024 haben wir unser System aktualisiert, um einen neuen Rekord von 105 Billionen Ziffern zu setzen, unterstützt von fast 1 Petabyte Solidigm QLC SSDs.Mit dieser Leistung wurde ein neuer Maßstab geschaffen.Nur wenige Monate später haben wir die Grenzen auf 202 Billionen Ziffern weiter verschoben.Dieser Durchbruch bestätigte, dass hochdichte Flash-Speicher, kombiniert mit sorgfältigem System-Tuning, könnte die Hyper-Scale-Cloud-Infrastruktur für diese sehr anspruchsvolle spezifische Arbeitslast übertreffen.
Linus Media Group und KIOXIA behaupteten anschließend den Titel, indem sie π auf 300 Billionen Ziffern berechneten.Ihre Einrichtung basierte auf einem großen Weka-Shared-Storage-Cluster mit 2PB Flash-Speicher.Dies zeigte zwar das Potenzial der traditionellen Infrastruktur mit hohem Speicherbedarf, kam aber mit erheblichen Kompromissen: ein volles Rack an Hardware, erheblicher Stromverbrauch,und komplexe KühlanforderungenWir waren entschlossen, diesen Rekord nicht unangefochten zu lassen.
Heute ist StorageReview stolz, unseren neuen Sieg bekannt zu geben: π berechnet auf 314 Billionen Ziffern.mit zwei AMD EPYC 192-Kern-CPUs und 40 61.44TB Micron 6550 Ion SSDs. Wir haben die Systemkonstruktion und das Tuning im Juli abgeschlossen und den Berechnungslauf am 31. Juli 2025 begonnen. Zufällig wurde der Lauf am zweiten Tag von SC25 abgeschlossen,Das macht diesen neuen Hochleistungsrechner (HPC) noch aktueller..
Skalierung des Y-Crunchers auf 314 Billionen Ziffern
Sobald die Berechnungsskala Hunderte von Billionen Ziffern überschreitet, verwandelt sich der y-Cruncher von einem traditionellen Benchmark in einen anstrengenden Langstrecken-Infrastruktur-Stresstest.Die Kernlogik des Programms bleibt einfach., aber die Wechselwirkung mit Hardware in diesem Maßstab wird der entscheidende Faktor.Der gesamte Betrieb hängt von der Fähigkeit des Systems ab, Tausende von Mehrpräzisionsoperationen reibungslos durchzuführen, ohne die CPUs zu stoppen oder die Speicherschicht zu überfordernTatsächlich wurde dieser neue Rekord wirklich in der Speicherschicht gewonnen.
Wir haben 40 Micron 6550 Ion Gen5 NVMe SSDs eingesetzt, von denen 34 ausschließlich für den Betrieb von y-Cruncher verwendet wurden.Das gibt Y-Cruncher den ausreichenden Speicher, den es braucht, um 314 Billionen Ziffern von π zu berechnen und zu verarbeiten.Die übrigen 6 SSDs sind in einem Software-RAID10-Volumen konfiguriert, das speziell für die Speicherung der endgültigen 314 Billionen-stelligen Ergebnisse verwendet wird.
Die Designverbesserungen zwischen der 16. und 17. Generation der Dell PowerEdge-Server spielten auch eine Schlüsselrolle bei der Steigerung der Leistung für diesen Rekordlauf von 314 Billionen Ziffern.Bei unserem letzten Versuch mit 202 Billionen Ziffern wurde der Dell PowerEdge R760, die einen PCIe-Switch auf dem Antriebs-Backplane zur Verbesserung der Leistungsdichte aufwies.wie der Intel-basierte R770 und der AMD-basierte R7725, verfügen über Hintergründe mit nur direkter Anbindung und bieten 2 oder 4 PCIe-Strecken pro Bahn.
Die PowerEdge R7725, ausgerüstet mit der 40-bay Gen5 E3.S Backplane, bietet 2 PCIe-Lane pro SSD-Slot.Die Plattform kann immer noch beeindruckende Geschwindigkeiten liefern.: bis zu 280 GB/s gleichzeitige Lese- und Schreibleistung, wenn alle 40 Bays voll ausgeschöpft sind.
Mit dem internen Y-Cruncher-Speicher-Benchmark haben wir die Speicherleistung jeder Plattform in ihrer jeweiligen Konfiguration gemessen.Wir beobachteten eine Verbesserung der Speicherleistung von 72% bis 383%, mit ausgewogenen Lese- und Schreibmetriken, die die Überlegenheit des PowerEdge-Servers der 17. Generation für großflächige speicherintensive Rechenprozesse festigen.
| Metrische | 202T-System (alte Aufzeichnung) | 314T-System (neuer Datensatz) | Prozentualer Unterschied (314T vs 202T) |
|---|---|---|---|
| Sequenzielles Schreiben | 47.0 GiB/s | 107 GiB/s | +127,7% |
| Sequentielles Lesen | 56.7 GiB/s | 127 GiB/s | +124,0% |
| Schreibschwelle geschritten | 62.2 GiB/s | 107 GiB/s | +72,0% |
| Schritt-Schwellenwert gelesen | 20.9 GiB/s | 101 GiB/s | +383,3% |
Der Dell PowerEdge R7725 ist weit mehr als nur ein Speicher-Powerhouse; er leuchtet als Dual-Socket AMD Turin-Plattform mit außergewöhnlichem Rechenpotenzial.Wir haben unser System mit 192-Kern-AMD EPYC 9965 Prozessoren ausgestattetUm diese Leistung zu erzielen, haben wir die vorhandene Luftkühllösung auf flüssiggekühlte CoolIT SP5-Kälteplatten aufgerüstet.mit einer CoolIT AHx10 Liquid-to-Air-CDU (Kühlmittelverteilgerät) gekühlt.
Diese strategische Abkühlungs-Aktualisierung erbrachte drei wesentliche Vorteile:nachhaltig hohe Taktgeschwindigkeiten, hielt die Chassis-Ventilatoren des Servers an einem bemerkenswert niedrigen30% PWM(Pulse Width Modulation) und gewährleistet, daß der durchschnittliche Stromverbrauch des Systems konstant bei etwa1,600 W.
Software- und Systemoptimierung
Für die Software-Schicht haben wir uns von früheren Praktiken entfernt, indem wirUbuntu 24. Ich bin hier.04.2 LTS-ServerDiese Entscheidung erwies sich als maßgeblich, um die Systemstabilität zu maximieren und erhebliche Leistungssteigerungen bei der Arbeitslast zu erzielen.
Vor Beginn des Rekordlaufes führten wir strenge Test-Iterationen durch und feinsteinigten die Konfiguration.4 der 384 verfügbaren KerneDas Ergebnis? Wir haben nicht nur den vorherigen Pi-Rekord geschlagen.Wir haben es ausgelöscht.Unser Lauf ist in Leistung, Energieeffizienz und am beeindruckendsten in seiner makellosen Zuverlässigkeit unvergleichlich.Wir sind besonders stolz darauf, die Auszeichnung zu haben, der einzige große Pi-Weltrekordversuch zu sein, der mitNull AusfallzeitenDie Berechnung verlief von Anfang bis Ende nahtlos, ohne dass sie wieder aufgenommen werden musste.
Rekordenergieeffizienz
Ein Kernprinzip hinter jedem der Pi-Record-Versuche von StorageReview besteht darin, die Systemkomplexität zu minimieren und die Energieeffizienz zu optimieren.Der bisherige 300T-Rekord stützte sich auf einen verteilten Speichercluster mit Hochgeschwindigkeitsnetzwerk, was von Natur aus größere Strom- und Kühlbudgets erforderte.
Wir haben einen grundlegend anderen Ansatz verfolgt.extreme LagerdichteDiese architektonische Wahl war entscheidend für die drastische Reduzierung unseres gesamten Strom- und Kühlbedarfs.
Im Laufe der vollen 314 Billionenstelligen Berechnung verbrauchte unser Dell PowerEdge R7725 insgesamt4,3040,662 kWhDas entspricht einem außergewöhnlichen130,70 kWh pro BillionenstelWir haben unsere Lösung zu den energieeffizientesten großräumigen Pi-Berechnungen gehört.Ein-Server-Ansatz und die Strom-hungrige verteilte Cluster-Methode ist sofort klar, wie in der nachstehenden Vergleichstabelle hervorgehoben.
| Lauf! | GesamtkWh | Kosten @ 0,12 USD/kWh | Kosten @ 0,20 USD/kWh |
|---|---|---|---|
| 300T Weka-Clusterlauf | 33,600 kWh (St.) | Vier Dollar.032 | - $6.720 |
| 314T Einzelserverlauf | 4,3040,662 kWh | 517 Dollar | $ 861 |
Es ist wichtig zu betonen, dass wir bei unserer 314 Billionenstelligen Berechnung SSDs in einer JBOD-Konfiguration (Just a Bunch of Disks) verwendet haben, die keine eingebaute Datenresilienz beinhaltet.Diese Entscheidung beruht auf zwei Kernprioritäten:: Optimierung des Stromverbrauchs und Maximierung der Gesamtleistung des Systems.Es hat auch zu einem wichtigen Gespräch über die Anpassung von Speicherlösungen an die spezifischen Anforderungen der aktuellen Arbeitsbelastung geführt.Jede Arbeitsbelastung ist einzigartig.Manche können mit minimalem Einsatz wieder gestartet werden und erfordern daher nicht das gleiche hohe Maß an Fehlerverträglichkeit wie Aufgaben von kritischer Bedeutung.Wir konzentrierten uns auf die Sicherung der Enddatenausgabe durch eine traditionelle Software RAID-Setup, so daß die Integrität der Rekord-π-Zahlen gewährleistet wird, ohne die Effizienz des Systems zu beeinträchtigen.
110 Tage ununterbrochene Laufzeit
Trotz der Berechnung von mehr Ziffern als bei jedem früheren π-Rekordversuch war die Laufzeit unserer Wanduhr deutlich kürzer als die vorherige Benchmark.Der bisherige 300 Billionenstellige Datensatz benötigte insgesamt etwa 225 Tage, was 175 tatsächlichen Rechentagen entspricht, wenn Ausfallzeiten ausgenommen werden.Im Gegensatz dazu erreichte unser 314 Billionenstelliger Betrieb 110 Tage ununterbrochenen Betrieb.ein robustes und stabiles Betriebssystem, eine minimierte Hintergrundbelastung, um Ressourcenkonflikte zu vermeiden, eine ausgewogene NUMA-Topologie (Non-Uniform Memory Access) für eine optimale CPU-Speicherkommunikation,und ein Scratch-Array speziell entwickelt, um die einzigartigen Datenzugriffsmuster zu verarbeiten, die von y-Cruncher in diesem beispiellosen Maßstab generiert werden.
Technische Merkmale
- Berechnung der Gesamtzahlen: 314,000,000,000,000
- Verwendete Hardware: Dell PowerEdge R7725 mit 2x AMD EPYC 9965 CPUs, 1,5TB DDR5 DRAM, 40x Micron 61.44TB 6550 Ion
- Software und Algorithmen- Das ist der Y-Cruncher V0.8.6.9545- Ich bin nicht derjenige.
- SSD-Ausnutzung pro SMART: 7.3PB pro Laufwerk oder 249.11PB auf den 34 für den Swap verwendeten SSDs geschrieben
- Logischer größter Kontrollpunkt: 850,538,385,064,992 (774 TiB)
- Logische Spitzendiskennutzung: 1,605,960,520,636,440 (1,43 PiB)
- Logische Festplattenbyte gelesen: 148,356,635,606,263,504 (132 PiB)
- Logische Festplatten-Bytes geschrieben: 126,658,805,195,776,600 (112 PiB)
- StartdatumDonnerstag, 31. Juli, 17:16Nr. 41 2025
- EnddatumAm Dienstag, 18.11.57:08 2025
- Pi:8793223.144 Sekunden, 101.773 Tage
- Gesamtberechnungszeit: 9274878.580 Sekunden
- Zeit der Wand von Anfang bis Ende: 9463226.454 Sekunden
Abschlussgedanken
Seit Jahrzehnten dienen extreme π-Berechnungen als Schaufenster für Rechenkraft, wobei das "große Eisen" jeder Ära im Mittelpunkt steht.Frühe Aufzeichnungen basierten auf Hochleistungs-Desktops und externen Speicher-ArraysDer Schwerpunkt verlagert sich dann auf On-Premise-Unternehmensgeräte.In den USA, wo Initiativen wie Google's 100-Billionen-Ziffern-Run zeigten, dass brute Force mit Tausenden von Instanzen und massiven I/O-DurchsatzWir haben dann die Entstehung großer Cluster mit gemeinsamen Speichern gesehen, die dem Rohparallelismus gegenüber der Einfachheit Priorität einräumen, jedoch auf Kosten eines erheblichen Stromverbrauchs und komplexer Kühlbedarfe.
Wir haben die Arbeitsbelastung des y-Crunchers in einer Reihe von Rekordläufen nicht als einmaliges Stunt, sondern als eine kritische, langfristige HPC-Aufgabe behandelt.Die Kampagnen 105T und 202T waren maßgeblich an der Identifizierung der wichtigsten Engpässe beteiligt.: Optimierung der Sprachspeicherkapazität, Gewährleistung einer stetigen CPU-Arbeitslast ohne Überforderung der E/A-Schicht und Verhärtung des Systems, um über Monate hinweg zuverlässige Leistung zu liefern.Der 314T-Lauf ist der Höhepunkt dieser hart erworbenen Expertise.Es handelt sich nicht nur um eine größere Zahl, sondern um eineein ausgereifteres Design für die Produktion.
Die Daten sprechen für sich. Wir haben die 300 Billionenstellige Barriere auf einem einzigen 2U Dell PowerEdge R7725 durchbrochen, ausgestattet mit 40 Micron 6550 Ion SSDs und doppelten 192-Kern AMD EPYC CPUs.Das System lief 110 Tage hintereinander einwandfrei.Die Speicherleistung hat sich im Vergleich zu unserer 202T-Plattform mehr als verdoppelt, dennoch hat der Server einen bescheidenen durchschnittlichen Stromverbrauch von 1%.600 WDies entspricht einer bemerkenswerten Effizienz von 13,70 kWh pro Billionenstel, einem Bruchteil der geschätzten Leistung des bisherigen 300T-Clusters.Kurz gesagt:, haben wir mehr Arbeit mit weniger Knoten, weniger Komplexität und geringere Energiekosten erreicht.
Wenn ein einzelner kommerzieller 2U-Server eine Arbeitsbelastung dieser Größenordnung mit solcher Zuverlässigkeit und Effizienz ertragen kann,Die gleichen Architekturprinzipien übersetzen sich direkt in die reale Welt des wissenschaftlichen Computers.Langfristige Klimamodelle, hochpräzise Physik-Simulationen, Genomik-Pipelines und groß angelegte KI-Ausbildungsarbeiten hängen alle von denselben grundlegenden Elementen ab: ausgewogene E/A-Leistung,vorhersehbares thermisches ManagementDie Plattform hat nun bewiesen, dass sie diese Grundlagen unter den anspruchsvollsten Bedingungen erfüllen kann.
Beibei Qianxing Jietong Technology Co., Ltd.
Sandy Yang, Leiterin der globalen Strategie
WhatsApp / WeChat: +86 13426366826
E-Mail: yangyd@qianxingdata.com
Website: www.qianxingdata.com/www.storagesserver.com Die Daten werden auf der Website der chinesischen Regierung gespeichert.
Sandy Yang, Leiterin der globalen Strategie
WhatsApp / WeChat: +86 13426366826
E-Mail: yangyd@qianxingdata.com
Website: www.qianxingdata.com/www.storagesserver.com Die Daten werden auf der Website der chinesischen Regierung gespeichert.
Geschäftsfokus:
Vertrieb von IKT-Produkten/Systemintegration und Dienstleistungen/Infrastrukturlösungen
Mit mehr als 20 Jahren Erfahrung im IT-Vertrieb arbeiten wir mit führenden globalen Marken zusammen, um zuverlässige Produkte und professionelle Dienstleistungen zu liefern.
¢Technologie nutzen, um eine intelligente Welt aufzubauen¡Ihr vertrauenswürdiger Dienstleister für IKT-Produkte!



