In einer beeindruckenden Demonstration der Rechenleistung hat das StorageReview Lab-Team einen aufeinanderfolgenden Weltrekord aufgestellt, indem es Pi auf erstaunliche 202.112.290.000.000 Stellen berechnet hat. Dieser bemerkenswerte Meilenstein übertrifft den bisherigen Rekord des Teams von 105 Billionen Stellen und unterstreicht die unübertroffenen Fähigkeiten des modernen Hochleistungsrechnens (HPC) und gut konzipierter Standard-Hardwareplattformen.
Beispiellose Rechenleistung
Um diese außergewöhnliche Leistung zu erreichen, setzte das StorageReview Lab-Team ein hochentwickeltes Hardware-Setup ein. Unter Verwendung von Intel Dieses bahnbrechende Projekt unterstreicht erhebliche Fortschritte sowohl bei der Rechenleistung als auch bei der Effizienz.
„Dieser neue Rekord unterstreicht das außergewöhnliche Potenzial der heutigen Hochleistungs-Computing-Infrastruktur“, erklärte Jordan Ranous, Systemarchitekt vom StorageReview Lab Team. „Mit dem Erreichen dieses Meilensteins setzen wir nicht nur neue Maßstäbe in der Computermathematik, sondern legen auch den Grundstein für zukünftige Innovationen in verschiedenen wissenschaftlichen und technischen Bereichen.“
Im März 2024 stellte das StorageReview Lab Team einen Weltrekord auf, indem es Pi auf 105 Billionen Stellen berechnete. Mithilfe eines AMD EPYC-Systems mit zwei Prozessoren, 256 Kernen und fast einem Petabyte Solidigm-QLC-SSDs überwand das Team große technische Hürden, darunter Arbeitsspeicher- und Massenspeicherbeschränkungen. Dieser Erfolg demonstrierte die Leistungsfähigkeit moderner Hardware und lieferte wertvolle Erkenntnisse zur Optimierung von HPC-Systemen.
„Die Solidigm-Laufwerke und der Dell PowerEdge R760 arbeiteten nicht nur nahtlos zusammen, sondern die nahezu unkomplizierte Art dieses neuen Rekords war eine erfrischende Abwechslung zu den Herausforderungen unseres letzten Versuchs“, sagte Kevin O'Brien, StorageReview Lab Director. „Nach dem, was wir im letzten Testlauf mit 105 Billionen Stellen durchgemacht haben, bin ich froh, dass wir uns für die Plattform entschieden haben, die wir für diesen großen Rekord gewählt haben“, fügte er hinzu. Weitere Einzelheiten zum vorherigen 105-Billionen-Stellen-Versuch und seinen Herausforderungen finden Sie hier im vollständigen Artikel.
CompSci- und Mathematikunterricht
Als wir begannen, nach interessanten Möglichkeiten zum Testen von SSDs mit großer Kapazität zu suchen, war die Lösung in unseren CPU- und Systemtests klar: Y-Cruncher. Bei der Verwendung von Swap-Speicherplatz für umfangreiche Berechnungen beträgt der Speicherplatzbedarf etwa 4,7:1 im Verhältnis zur Anzahl der Ziffern – das heißt, 100 Billionen Ziffern erfordern etwa 470 TiB Speicherplatz. Ohne zu tief in die Details der Mathematik und Informatik einzutauchen, verwendet y-cruncher den Chudnovsky-Algorithmus, der auf einer schnell konvergierenden Reihe basiert, die aus der Theorie modularer Funktionen und elliptischer Kurven abgeleitet ist. Der Kern dieses Algorithmus basiert auf der folgenden unendlichen Reihe:
Die häufigste Frage, die wir zu unseren 100-Billionen- und 105-Billionen-Stellen-Berechnungen erhielten, war: „Okay, das ist beeindruckend, aber warum dauert es so lange und erfordert so viel Speicher?“ Diese Frage wurde oft mit anderen frustrierenden Anfragen zu Open Source und den Programmierkenntnissen von Alex Yee gepaart. Lassen Sie uns einen Schritt zurücktreten und dies aus der Perspektive der Systemebene untersuchen.
Die Berechnung einer enormen Anzahl von Pi-Ziffern – beispielsweise 100 Billionen – erfordert aufgrund der umfangreichen Rechenoperationen erheblichen Speicherplatz. Die größte Herausforderung liegt in der Multiplikation großer Zahlen, die naturgemäß viel Speicher erfordert. Beispielsweise benötigen die besten Algorithmen zum Multiplizieren von N-stelligen Zahlen etwa 4 N Byte Speicher, von denen der größte Teil als Arbeitsspeicher verwendet wird. Auf diesen Speicher muss während der Berechnung mehrmals zugegriffen werden, wodurch der Prozess eher zu einer Festplatten-E/A-intensiven als zu einer CPU-gebundenen Aufgabe wird.
Die Chudnovsky-Formel, die häufig zur Berechnung einer großen Anzahl von Pi-Ziffern verwendet wird, erfordert umfangreiche arithmetische Operationen. Diese Multiplikations-, Divisions- und Quadrieraufgaben werden häufig zu Multiplikationen im großen Maßstab vereinfacht. In der Vergangenheit verwendeten Supercomputer AGM-Algorithmen, die zwar langsamer, aber einfacher zu implementieren waren und von der rohen Leistung mehrerer Maschinen profitierten. Allerdings haben moderne Fortschritte den Engpass von der Rechenleistung auf die Speicherzugriffsgeschwindigkeit verlagert.
Prozessor-Arithmetik-Logik-Einheiten (ALUs) und Gleitkommaeinheiten (FPUs) verarbeiten diese großen Multiplikationen ähnlich wie manuelle papierbasierte Multiplikationen und unterteilen sie in kleinere, überschaubare Aufgaben. Früher waren Pi-Berechnungen rechengebunden, aber die heutige Rechenleistung übersteigt die Speicherzugriffsgeschwindigkeiten, sodass Speicher und Zuverlässigkeit die Schlüsselfaktoren für die Erstellung von Pi-Rekorden sind. Beispielsweise konnten wir nur geringe Leistungsunterschiede zwischen unserem Intel-Rechner mit 128 Kernen und einem AMD Bergamo mit 256 Kernen feststellen; Der Schwerpunkt lag stattdessen auf der Festplatten-I/O-Effizienz.
Solidigm-SSDs spielen bei diesen Berechnungen eine entscheidende Rolle – nicht wegen ihrer hohen Geschwindigkeit, sondern wegen ihrer außergewöhnlichen Speicherdichte.
NVMe-Laufwerke der Verbraucherklasse können bis zu 4 TB in einem kompakten Formfaktor speichern, während Enterprise-SSDs diese Chips für eine noch größere Kapazität stapeln. Obwohl QLC NAND langsamer ist als andere Flash-Speichertypen, sorgt die Parallelität dieser SSDs mit hoher Dichte für eine höhere Gesamtbandbreite, was sie ideal für umfangreiche Pi-Berechnungen macht.
Solidigm QLC NVMe SSDs ermöglichen den Wahnsinn
Wenn Sie immer noch mitverfolgen, hier ist die wichtigste Erkenntnis: Bei der Berechnung von Zahlen, die zu groß sind, um in den Speicher zu passen, verlassen sich Computer auf Softwarealgorithmen für Multipräzisionsarithmetik. Diese Algorithmen zerlegen große Zahlen in überschaubare Teile und führen die Division mithilfe spezieller Techniken durch. Hier kommen die Solidigm P5336 61,44 TB NVMe SSDs ins Spiel. y-cruncher nimmt diese überschaubaren Blöcke, speichert sie zunächst im Systemspeicher und lagert sie dann auf dem Arbeitsspeicher aus.
Denken Sie daran, dass wir für den Swap-Speicherplatz ein Verhältnis von ungefähr 4,7:1 benötigen, da jede Komponente der zuvor erwähnten komplexen Formel durch unzählige Bits dargestellt werden muss.
y-cruncher verfügt über einen integrierten Schätzer für den benötigten Speicherplatz (immer noch mit „Festplatte“ beschriftet, *hust*), den wir in diesem und früheren Durchläufen als vollkommen genau befunden haben.
Sie könnten zwar Festplatten oder Objektspeicher verwenden, die Rohkapazität ist jedoch nur ein Teil eines sehr komplexen Puzzles – wie wir in unserer ersten Testrunde festgestellt haben. Die Möglichkeit, ausreichend großen und schnellen Speicher in der Nähe des Rechengeräts bereitzustellen, ist angesichts der steigenden KI-Arbeitslasten heutzutage ein wiederkehrendes Thema bei StorageReview. Die Leistung des Swap-Space ist der größte Engpass bei dieser Berechnung. Direkt angeschlossenes NVMe bietet die höchste verfügbare Leistung, und obwohl einige Optionen möglicherweise einen schnelleren Durchsatz pro Gerät bieten, war unser großes, dichtes Array an QLC-Laufwerken dieser Aufgabe mehr als gewachsen.
Verbraucherlaufwerk und CPU-Leistung. NICHT das Aufzeichnungssystem
y-cruncher verfügt über einen integrierten Benchmark, mit dem Sie verschiedene Einstellungen anpassen können, um die optimale Leistung für Ihr Festplatten-Array zu finden. Das ist äußerst wichtig. Der Screenshot oben zeigt die Benchmark-Ergebnisse für dieses Consumer-System, einschließlich Kennzahlen zur CPU-Verarbeitungsgeschwindigkeit und SSD-Leistung.
Alex Yee stellt eine ausführliche Dokumentation zur Verfügung, aber um es zusammenzufassen: Nach wochenlangen Tests haben wir festgestellt, dass die besten Ergebnisse erzielt werden, wenn Y-Cruncher direkt mit den Laufwerken interagiert. Wir haben Netzwerkziele, Laufwerke hinter einer SAS-RAID-Karte, NVMe-RAID-Karten und iSCSI-Ziele getestet. Wenn Y-Cruncher die direkte Kontrolle über die Hardware hat, ist der Leistungsunterschied dramatisch. iSCSI hat ebenfalls eine angemessene Leistung erbracht, wir haben es jedoch nur für die Ausgabedatei getestet, die „Direct IO“ für diese Interaktion verwenden kann. Der Swap-Modus-RAID-Code scheint nach unseren Tests und Gesprächen gut konzipiert zu sein

Die 61,44 TB Solidigm-Laufwerke erweisen sich schnell als ideale Lösung für viele Herausforderungen in diesem Bereich. Die Durchführung des Benchmarks auf unserem System zeigte, dass die Laufwerke mit den angegebenen Lese- und Schreibgeschwindigkeiten arbeiten. Wir haben uns speziell für Intel-CPUs entschieden, um das optimale Laufwerk-zu-Rechenverhältnis von 2:1 zu erreichen – so wird sichergestellt, dass die CPU nicht im Leerlauf ist und auf die Leistung der Laufwerke wartet. Mit fortschreitender Antriebstechnologie können wir umfangreichere und schnellere Läufe durchführen, indem wir CPUs mit höherer Kernanzahl auswählen.
„Benutzerdefinierter“ Dell PowerEdge R760 Server
Wie das Sprichwort sagt: Das dritte Mal ist ein Zauber. Dies ist nicht unser erstes Rodeo, bei dem wir mit Pi Rekorde brechen; Wir haben aus unseren ersten beiden Iterationen gelernt, um die beste Pi-Plattform zu entwickeln. Unser erster Build nutzte einen 2U-Server mit 16 NVMe-Schächten und drei internen SSD-Schlitten. Mit Solidigm P5316 SSDs mit 30,72 TB haben wir den Auslagerungsspeicher für Y-Cruncher bereitgestellt, für die Ausgabedatei mussten wir jedoch einen HDD-basierten Speicherserver nutzen. Es war nicht optimal, insbesondere am Ende der Ausschreibphase. Unsere zweite Plattform nutzte denselben Server mit angeschlossenem externen NVMe-JBOF, was uns zusätzlichen NVMe-Schacht verschaffte – allerdings auf Kosten empfindlicher Verkabelung und unausgewogener Leistung. Der Nachteil beider Plattformen bestand darin, dass sie während des gesamten Y-Cruncher-Laufs auf externe Hardware angewiesen waren, was auf Kosten zusätzlicher Leistung und zusätzlicher Fehlerquellen ging.
Für diesen Lauf wollten wir einen All-Direct-NVMe-Einzelserver nutzen und genügend Platz für unseren Y-Cruncher-Swap-Speicher und Ausgabespeicher unter einem Blechdach haben. Betreten Sie den Dell PowerEdge R760 mit der 24-Bay-NVMe-Direct-Drives-Backplane. Diese Plattform nutzt einen internen PCIe-Switch, um alle NVMe-Laufwerke gleichzeitig mit dem Server kommunizieren zu lassen, ohne dass zusätzliche Hardware oder RAID-Geräte erforderlich sind. Anschließend haben wir in unserer Laborumgebung eine PCIe-Riser-Konfiguration aus mehreren R760 zusammengestellt und so vier PCIe-Steckplätze auf der Rückseite für zusätzliche U.2-montierte NVMe-SSDs erhalten. Ein Bonus war die Entfernung größerer Kühlkörper von einem anderen R760, um uns so viel Turbo-Boost-Spielraum wie möglich zu geben. Die direkte Flüssigkeitskühlung kam einen Monat zu spät in unser Labor, um in diesem Lauf implementiert zu werden.
„Die Berechnung des Pi durch das StorageReview Lab-Team auf über 202 Billionen Stellen, erreicht mit 5ThDer Intel Xeon-Prozessor der Generation unterstreicht die Leistung und Effizienz dieser CPUs. Nutzen Sie die erhöhte Kernanzahl und die erweiterten Leistungsfunktionen des 5ThMit dem Gen Xeon-Prozessor setzt dieser Meilenstein einen neuen Maßstab in der Computermathematik und ebnet weiterhin den Weg für Innovationen bei verschiedenen wissenschaftlichen und technischen Arbeitslasten.“sagteSuzi Jewett, Intel General Manager für 5ThGen Intel Xeon Prozessorprodukte
Obwohl man technisch gesehen eine Dell-Konfiguration genauso bestellen konnte wie die in diesem Test verwendete, lag sie nicht herum und musste zusammengesetzt werden. (Vielleicht wird Michael eine limitierte „Pi“-Serie von R760 mit genau dieser Konfiguration, individueller Lackierung und dem SR-Logo betreiben.)
Auch die Größe des Netzteils war bei diesem Lauf von entscheidender Bedeutung. Während die meisten sofort denken würden, dass die CPUs den größten Teil der Leistung verbrauchen, bedeutet die Unterbringung von 28 NVMe-SSDs unter einem Dach eine erhebliche Auswirkung auf die Leistung. Unser Build nutzte die 2400-W-Netzteile, die, wie sich herausstellte, nur knapp funktionierten. Wir hatten ein paar Momente mit nahezu kritischem Stromverbrauch, in denen wir unterversorgt gewesen wären, wenn das System eine Verbindung zur Stromversorgung unterbrochen hätte. Das schlug schon früh ein; Der Stromverbrauch stieg sprunghaft an, während die CPU-Auslastung ihren Höhepunkt erreichte, und das System erhöhte die I/O-Aktivität auf allen SSDs. Wenn wir dies noch einmal tun müssten, wären die 2800-W-Modelle vorzuziehen gewesen.
Leistungsdaten
Technische Highlights
- Gesamtzahl der berechneten Ziffern: 202.112.290.000.000
- Verwendete Hardware: Dell PowerEdge R760 mit 2x Intel Xeon 8592+ CPUs, 1 TB DDR5 DRAM, 28x Solidigm 61,44 TB P5336
- Software und Algorithmen: y-cruncher v0.8.3.9532-d2, Chudnovsky
- Datenspeicherung: 3,76 PB geschrieben pro Laufwerk, 82,7 PB auf den 22 Festplatten für Swap-Array
- Berechnungsdauer: 100,673 Tage
Y-Cruncher-Telemetrie
- Logisch größter Kontrollpunkt: 305.175.690.291.376 (278 TiB)
- Logische maximale Festplattennutzung: 1.053.227.481.637.440 (958 TiB)
- Gelesene Bytes der logischen Festplatte: 102.614.191.450.271.272 (91,1 PiB)
- Geschriebene Bytes der logischen Festplatte: 88.784.496.475.376.328 (78,9 PiB)
- Startdatum: Dienstag, 6. Februar, 16:09:07 Uhr 2024
- Enddatum: Montag, 20. Mai, 05:43:16 Uhr 2024
- Pi: 7.272.017,696 Sekunden, 84,167 Tage
- Gesamtrechenzeit: 8.698.188,428 Sekunden, 100,673 Tage
- Wandzeit von Anfang bis Ende: 8.944.449,095 Sekunden, 103,524 Tage
Die größte bekannte Ziffer von Pi ist 2 an Position 202.112.290.000.000 (zweihundertzwei Billionen, einhundertzwölf Milliarden, zweihundertneunzig Millionen).
Weitere Implikationen
Während die Berechnung von Pi auf eine so große Anzahl von Ziffern wie eine abstrakte Herausforderung erscheint, haben die im Rahmen dieses Projekts entwickelten praktischen Anwendungen und Techniken weitreichende Auswirkungen. Diese Fortschritte können verschiedene Rechenaufgaben verbessern, von der Kryptographie bis hin zu komplexen Simulationen in Physik und Technik.
Die aktuelle 202-Billionen-stellige Pi-Berechnung verdeutlicht erhebliche Fortschritte bei der Speicherdichte und den Gesamtbetriebskosten (TCO). Unser Setup erreichte erstaunliche 1.720 Petabyte NVMe-SSD-Speicher in einem einzigen 2U-Gehäuse. Diese Dichte stellt einen Sprung nach vorn bei den Datenspeicherkapazitäten dar, insbesondere wenn man bedenkt, dass der Gesamtstromverbrauch bei voller CPU- und Laufwerkslast bei nur 2,4 kW lag.
Diese Energieeffizienz steht im Gegensatz zu herkömmlichen HPC-Rekordläufen, die deutlich mehr Strom verbrauchen und übermäßige Wärme erzeugen. Der Stromverbrauch steigt exponentiell, wenn Sie zusätzliche Knoten für Scale-Out-Speichersysteme berücksichtigen, wenn Sie gemeinsam genutzten Speicher mit geringer Kapazität im Vergleich zu lokalem Speicher mit hoher Dichte erweitern müssen. Das Wärmemanagement ist besonders für kleinere Rechenzentren und Serverschränke von entscheidender Bedeutung. Die Kühlung herkömmlicher HPC-Record-Systeme ist keine Kleinigkeit und erfordert Kältemaschinen für Rechenzentren, die mehr Strom aufnehmen können als die allein laufenden Geräte. Durch die Minimierung des Stromverbrauchs und der Wärmeabgabe bietet unser Setup eine nachhaltigere und überschaubare Lösung für kleine Unternehmen. Als Bonus wurde der Großteil unseres Laufs mit Frischluftkühlung durchgeführt.
Um dies ins rechte Licht zu rücken, stellen Sie sich die Herausforderungen vor, mit denen diejenigen konfrontiert sind, die mit vernetztem Shared Storage und nicht optimierten Plattformen arbeiten. Für diese Konfigurationen wären ein oder mehrere Kühlaggregate im Rechenzentrum erforderlich, um die Temperaturen unter Kontrolle zu halten. In diesen Umgebungen bedeutet jedes eingesparte Watt weniger Kühlbedarf und geringere Betriebskosten, was unseren Ansatz mit hoher Dichte und geringem Stromverbrauch zur idealen Wahl macht. Ein weiterer entscheidender Vorteil beim Betrieb einer schlanken und effizienten Plattform für einen Rekordlauf ist der Schutz des gesamten Setups durch Batterie-Backup-Hardware. Wie bereits erwähnt, benötigen Sie Batterie-Backups für Rechenserver, Switches, Speicherserver, Kältemaschinen und Wasserpumpen, um den Betrieb für einen guten Teil des Jahres aufrechtzuerhalten.
Insgesamt zeigt diese rekordverdächtige Leistung das Potenzial aktueller HPC-Technologien und unterstreicht die Bedeutung von Energieeffizienz und Wärmemanagement in modernen Computerumgebungen.
Genauigkeit sicherstellen: Die Bailey-Borwein-Plouffe-Formel
Die Berechnung von Pi auf 202 Billionen Ziffern ist eine monumentale Aufgabe, aber die Sicherstellung der Genauigkeit dieser Ziffern ist ebenso wichtig. Hier kommt die Bailey-Borwein-Plouffe-Formel (BBP) ins Spiel.
Mit der BBP-Formel können wir die Binärziffern von Pi im Hexadezimalformat (Basis 16) überprüfen, ohne alle vorhergehenden Ziffern berechnen zu müssen. Dies ist besonders nützlich für die Gegenprüfung von Abschnitten unserer umfangreichen Berechnung.
Hier ist eine vereinfachte Erklärung:
- Hexadezimale Ausgabe: Während der Hauptberechnung generieren wir zunächst die Ziffern von Pi im Hexadezimalformat. Mit der BBP-Formel kann jede beliebige einzelne Ziffer von Pi zur Basis 16 direkt berechnet werden. Sie können dies mit anderen Programmen wie GPUPI tun, aber Y-Cruncher verfügt auch über eine integrierte Funktion. Wenn Sie einen Open-Source-Ansatz bevorzugen, sind die Formeln bekannt.
- Gegenüberprüfung: Wir können diese Ergebnisse mit unserer Hauptberechnung vergleichen, indem wir bestimmte Positionen der Hexadezimalziffern von Pi unabhängig mit der BBP-Formel berechnen. Wenn sie übereinstimmen, ist dies ein starker Hinweis darauf, dass unsere gesamte Sequenz korrekt ist. Wir haben diese Gegenprüfung mehr als sechs Mal durchgeführt; hier sind zwei davon.
Wenn unsere Primärberechnung beispielsweise an verschiedenen Stellen dieselben hexadezimalen Ziffern liefert wie die aus der BBP-Formel erhaltenen, können wir die Genauigkeit unserer Ziffern mit Sicherheit behaupten. Diese Methode ist nicht nur theoretisch; Es wurde in allen wichtigen Pi-Berechnungen praktisch angewendet und gewährleistet Robustheit und Zuverlässigkeit der Ergebnisse.
R=Offizielles Laufergebnis, V=Verifizierungsergebnis
- R: f3f7e2296 822ac6a8c9 7843dacfbc 1eeb4a5893 37088*
- V: *3f7e2296 822ac6a8c9 7843dacfbc 1eeb4a5893 370888
Aufmerksame Leser werden feststellen, dass die Überprüfungen aus den Screenshots und dem obigen Vergleich etwas verschoben sind(*). Obwohl dies nicht notwendig ist, da das Hex am Ende betroffen sein würde, haben wir auch einige andere Stellen (z. B. 100 Billionen und 105 Billionen Ziffern) stichprobenartig überprüft, um sicherzustellen, dass der Lauf übereinstimmt. Obwohl es theoretisch möglich ist, mit einer ähnlichen Methode jede Dezimalstelle von Pi zu berechnen, ist unklar, ob dies eine Genauigkeit von mehr als 100 Millionen Stellen hätte oder überhaupt recheneffizient wäre, anstatt die Chudnovsky-Rechnung durchzuführen und alle zu erhalten. (Wenn Eric Weisstein das sieht, melden Sie sich bitte; ich würde es gerne ausprobieren.)
Durch die Integration dieses mathematischen Gegenprüfungsprozesses können wir die Integrität unserer rekordverdächtigen 202-Billionen-stelligen Pi-Berechnung sicherstellen und damit unsere Rechengenauigkeit und unser Engagement für wissenschaftliche Genauigkeit unter Beweis stellen.
Der Weg voraus
Dass es dem StorageReview Lab-Team gelungen ist, Pi auf mehr als 202 Billionen Stellen zu berechnen, ist ein eindrucksvoller Beweis für den bemerkenswerten Fortschritt bei Hochleistungsrechner- und Speichertechnologien. Diese rekordverdächtige Leistung – angetrieben durch Intel Der Erfolg des Projekts stellt nicht nur die Fachkompetenz des StorageReview-Teams unter Beweis, sondern unterstreicht auch das Potenzial der heutigen HPC-Infrastruktur, die Grenzen der Computermathematik und anderer wissenschaftlicher Bereiche zu verschieben.
„Dieser neue Pi-Weltrekord ist eine aufregende Errungenschaft, da diese Rechenlast genauso intensiv ist wie viele der KI-Arbeitslasten, die wir heute sehen. Solidigm D5-P5336 61,44 TB SSDs haben erneut bewiesen, dass die leistungsstarke Kombination aus ultrahoher Kapazität, PCIe 4 sättigender Leseleistung und hohen geschriebenen Petabytes einigen der anspruchsvollsten Anwendungen von heute standhalten und diese freisetzen kann“, sagteGreg Matson, Vizepräsident der Data Center Storage Group von Solidigm.„Wir freuen uns sehr, dass wir gemeinsam mit unseren Partnern von Dell Technologies und den Experten von StorageReview die Gelegenheit hatten, einen weiteren rekordverdächtigen Versuch zur Berechnung von Pi zu ermöglichen.“
Diese Initiative liefert auch wertvolle Erkenntnisse zur Optimierung der Speicherdichte und Energieeffizienz und ebnet den Weg für nachhaltigere und besser verwaltbare Computerlösungen. Während wir weiterhin das Potenzial von HPC erforschen, werden die aus diesem Projekt gewonnenen Erkenntnisse sicherlich zukünftige Innovationen vorantreiben und verschiedenen Bereichen von der Kryptographie bis zum Ingenieurwesen zugute kommen. Die Leistung des StorageReview Lab-Teams stellt einen Meilenstein in der Computergeschichte dar und zeigt, dass wir mit der richtigen Mischung aus Hardware und Fachwissen neue Höhen wissenschaftlicher Entdeckungen und technologischen Fortschritts erreichen können.
Danksagungen
Das StorageReview Lab-Team dankt Solidigm, Dell Technologies, Intel und Y-Cruncher Alex Yee für ihre unerschütterliche Unterstützung und Beiträge zu diesem Projekt.
Peking Qianxing Jietong Technology Co., Ltd.
Sandy Yang/Global Strategy Director
WhatsApp / WeChat: +86 13426366826
E-Mail: yangyd@qianxingdata.com
Website: www.qianxingdata.com/www.storagesserver.com
Geschäftsschwerpunkt:
IKT-Produktvertrieb/Systemintegration und -dienste/Infrastrukturlösungen
Mit mehr als 20 Jahren Erfahrung im IT-Vertrieb arbeiten wir mit führenden globalen Marken zusammen, um zuverlässige Produkte und professionelle Dienstleistungen zu liefern.
„Mit Technologie eine intelligente Welt aufbauen“ Ihr vertrauenswürdiger IKT-Produktdienstleister!