WEKA stellt den branchenweit ersten KI-Speichercluster auf Basis von NVIDIA Grace CPU Superchips vor
(ots) - Das Unternehmen stellt auf der Supercomputing 2024 mit NVIDIA, Arm und Supermicro eine neue Lösung vor, die eine außergewöhnliche Leistungsdichte und Energieeinsparungen für KI-Implementierungen in Unternehmen bietet
Von der Supercomputing 2024: WEKA, das Unternehmen für KI-native Datenplattformen, hat die branchenweit erste Hochleistungsspeicherlösung für den NVIDIA Grace™ CPU Superchip (https://c212.net/c/link/?t=0&l=de&o=4304625-1&h=1850647696&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0%26l%3Den%26o%3D4304625-1%26h%3D4214622855%26u%3Dhttps%253A%252F%252Fwww.nvidia.com%252Fen-us%252Fdata-center%252Fgrace-cpu-superchip%252F%26a%3DNVIDIA%2BGrace%25E2%2584%25A2%2BCPU%2BSuperchip&a=NVIDIA+Grace%E2%84%A2+CPU+Superchip) vorgestellt. Die Lösung wird auf einem leistungsstarken neuen Speicherserver von Supermicro laufen, der von der WEKA® Data Platform-Software und Arm® Neoverse™ V2 (https://c212.net/c/link/?t=0&l=de&o=4304625-1&h=2871945515&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0%26l%3Den%26o%3D4304625-1%26h%3D4171834813%26u%3Dhttps%253A%252F%252Fwww.arm.com%252Fproducts%252Fsilicon-ip-cpu%252Fneoverse%252Fneoverse-v2%26a%3DArm%25C2%25AE%2BNeoverse%25E2%2584%25A2%2BV2&a=Arm%C2%AE%C2%A0Neoverse%E2%84%A2+V2)-Kernen angetrieben wird, die den NVIDIA Grace CPU Superchip (https://c212.net/c/link/?t=0&l=de&o=4304625-1&h=339618773&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0%26l%3Den%26o%3D4304625-1%26h%3D2904614486%26u%3Dhttps%253A%252F%252Fwww.nvidia.com%252Fen-us%252Fdata-center%252Fgrace-cpu-superchip%252F%26a%3DNVIDIA%2BGrace%2BCPU%2BSuperchip&a=NVIDIA+Grace+CPU+Superchip) und NVIDIA ConnectX-7 (https://c212.net/c/link/?t=0&l=de&o=4304625-1&h=3655635079&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0%26l%3Den%26o%3D4304625-1%26h%3D776460394%26u%3Dhttps%253A%252F%252Fwww.nvidia.com%252Fen-us%252Fnetworking%252Fethernet-adapters%252F%26a%3DNVIDIA%2B&a=NVIDIA+ConnectX-7) sowie das NVIDIA BlueField-3 (https://c212.net/c/link/?t=0&l=de&o=4304625-1&h=2710677998&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0%26l%3Den%26o%3D4304625-1%26h%3D2509947370%26u%3Dhttps%253A%252F%252Fwww.nvidia.com%252Fen-us%252Fnetworking%252Fproducts%252Fdata-processing-unit%252F%26a%3DNVIDIA%2BBlueField-3&a=NVIDIA+BlueField-3)-Netzwerk nutzen, um KI-Workloads in Unternehmen mit unerreichter Leistungsdichte und Energieeffizienz zu beschleunigen.
Die nächste Generation von KI-Innovationen
Die heutigen KI- und High-Performance-Computing (HPC)-Workloads erfordern einen blitzschnellen Datenzugriff, aber die meisten Rechenzentren haben mit zunehmenden Platz- und Energiebeschränkungen zu kämpfen.
NVIDIA Grace integriert das Leistungsniveau einer x86-64-Zweisockel-Workstation oder -Serverplattform in einem einzigen Modul. Die Grace CPU Superchips werden von 144 leistungsstarken Arm Neoverse V2-Kernen angetrieben, die eine doppelt so hohe Energieeffizienz wie herkömmliche x86-Server bieten. Die NVIDIA ConnectX-7 NICs und BlueField-3 SuperNICs verfügen über eine speziell entwickelte RDMA/RoCE-Beschleunigung, die Netzwerkkonnektivität mit hohem Durchsatz und geringer Latenz bei Geschwindigkeiten von bis zu 400 Gb/s bietet. Die Kombination aus der revolutionären Zero-Copy-Software-Architektur der WEKA Data Platform, die auf dem Supermicro Petascale-Speicherserver läuft, minimiert I/O-Engpässe und reduziert die Latenzzeit der KI-Pipeline. Dadurch wird die GPU-Auslastung deutlich verbessert und das Training und die Inferenz von KI-Modellen beschleunigt, was die Zeit bis zum ersten Token, Entdeckungen und Erkenntnisse erheblich verkürzt und gleichzeitig den Stromverbrauch und die damit verbundenen Kosten senkt.
Zu den wichtigsten Vorteilen der Lösung gehören:
- Extreme Geschwindigkeit und Skalierbarkeit für Enterprise AI: Der NVIDIA Grace CPU Superchip mit 144 leistungsstarken Arm® Neoverse™ V2-Kernen, die über eine speziell entwickelte NVIDIA Scalable Coherency Fabric verbunden sind, bietet die Leistung eines x86 CPU-Servers mit zwei Sockeln bei halbem Stromverbrauch. Die NVIDIA ConnectX-7 NICs und NVIDIA BlueField-3 SuperNICs bieten Hochleistungsnetzwerke, die für KI-Workloads in Unternehmen unerlässlich sind. Gepaart mit der KI-nativen Architektur der WEKA Data Platform, die die Zeit bis zum ersten Token um das bis zu 10-fache beschleunigt, gewährleistet die Lösung eine optimale Leistung von KI-Datenpipelines in praktisch jedem Maßstab.
- Optimale Nutzung der Ressourcen: Die leistungsstarke WEKA Data Platform in Kombination mit der LPDDR5X-Speicherarchitektur der Grace-CPUs gewährleistet eine Speicherbandbreite von bis zu 1 TB/s und einen nahtlosen Datenfluss, wodurch Engpässe vermieden werden. Durch die Integration der verteilten Architektur und der Kernel-Bypass-Technologie von WEKA können Unternehmen ein schnelleres Training von KI-Modellen, kürzere Epochenzeiten und höhere Inferenzgeschwindigkeiten erzielen, was die Lösung zur idealen Lösung für die effiziente Skalierung von KI-Workloads macht.
- Außergewöhnliche Energie- und Raumeffizienz: Die WEKA Data Platform bietet eine 10- bis 50-fach höhere GPU-Stack-Effizienz, um große KI- und HPC-Arbeitslasten nahtlos zu bewältigen. Darüber hinaus kann die WEKA-Plattform durch Datenkopienreduzierung und Cloud-Elastizität den Platzbedarf der Dateninfrastruktur um das 4- bis 7-Fache verringern und den CO2-Ausstoß reduzieren – wodurch jährlich bis zu 260 Tonnen CO2e pro gespeichertem PB vermieden und die Energiekosten um das 10-Fache gesenkt werden. In Kombination mit der im Vergleich zu führenden x86-Servern zweifachen Energieeffizienz des Grace CPU Superchips können Kunden mit weniger mehr erreichen und so ihre Nachhaltigkeitsziele erfüllen und gleichzeitig die KI-Leistung steigern.
„KI verändert die Art und Weise, wie Unternehmen auf der ganzen Welt Innovationen entwickeln, schöpferisch tätig sind und arbeiten. Doch die stark zunehmende Nutzung von KI hat den Energieverbrauch von Rechenzentren drastisch erhöht, der sich laut der International Atomic Agency (Internationale Atomenergie-Organisation) bis 2026 verdoppeln wird", so Nilesh Patel, Leiter der Produktentwicklung bei WEKA.„WEKA freut sich, mit NVIDIA, Arm und Supermicro zusammenzuarbeiten, um leistungsstarke, energieeffiziente Lösungen für Rechenzentren der nächsten Generation zu entwickeln, die die KI in Unternehmen und Hochleistungs-Workloads vorantreiben und gleichzeitig die Verarbeitung großer Datenmengen beschleunigen sowie die Zeit bis zu umsetzbaren Erkenntnissen verkürzen."
„WEKA hat mit Supermicro eine leistungsstarke Speicherlösung entwickelt, die sich nahtlos in den NVIDIA Grace CPU Superchip integrieren lässt, um die Effizienz von skalierbaren, datenintensiven KI-Workloads zu verbessern. Die Lösung wird einen schnellen Datenzugriff ermöglichen undgleichzeitig den Energieverbrauch senken, sodass datengesteuerte Unternehmen ihre KI-Infrastruktur enorm beschleunigen können", sagte Ivan Goldwasser, Direktor für Rechenzentrums-CPUs bei NVIDIA.
„Der kommende ARS-121L-NE316RPetascale-Speicherserver von Supermicro ist der erste speicheroptimierte Server mit NVIDIA Grace Superchip-CPU", sagte Patrick Chiu, Senior-Direktor für Speicherproduktmanagement bei Supermicro. „Das Systemdesign umfasst 16 leistungsstarke Gen5 E3.S NVMe SSD-Schächte sowie drei PCIe Gen 5-Netzwerkschlitze, die bis zu zwei NVIDIA ConnectX 7- oder BlueField-3 SuperNIC-Netzwerkadapter und einen OCP 3.0-Netzwerkadapter unterstützen. DasSystem ist ideal für hochleistungsfähige Speicher-Workloads wie KI, Datenanalysen und Hyperscale-Cloud-Anwendungen. Unsere Zusammenarbeit mit NVIDIA und WEKA hat zu einer Datenplattform geführt, die es Kunden ermöglicht, ihre Rechenzentren energieeffizienter zu gestalten und gleichzeitig neue KI-Verarbeitungsfunktionen hinzuzufügen."
„KI-Innovationen erfordern einen neuen Ansatz für die Silizium- und Systemgestaltung, der Leistung und Energieeffizienz in Einklang bringt. Arm ist stolz darauf, mit NVIDIA, WEKA und Supermicro zusammenzuarbeiten, um eine hochleistungsfähige KI-Lösung für Unternehmen zu liefern, dieeinen außergewöhnlichen Mehrwert und eine kompromisslose Energieeffizienz bietet", sagte David Lecomber, Direktor für HPC bei Arm.
Die Speicherlösung von WEKA und Supermicro mit NVIDIA Grace CPU Superchips wird Anfang 2025 im Handel erhältlich sein. Besucher der Supercomputing 2024 können WEKA am Stand Nr. 1931 besuchen, um weitere Informationen und eine Demo der neuen Lösung zu erhalten.
Informationen zu WEKA
WEKA entwickelt einen neuen Ansatz für den Unternehmensdaten-Stack, der für die KI-Ära konzipiert ist. Die WEKA® Data Platform setzt mit einer Cloud- und KI-nativen Architektur, die überall eingesetzt werden kann und eine nahtlose Datenportabilität zwischen lokalen, Cloud- und Edge-Umgebungen ermöglicht, den Standard für KI-Infrastrukturen. Sie verwandelt veraltete Datensilos in dynamische Datenpipelines, die GPUs, KI-Modelltraining und -inferenz sowie andere leistungsintensive Arbeitslasten beschleunigen, sodass sie effizienter arbeiten, weniger Energie verbrauchen und die damit verbundenen CO2-Emissionen reduzieren können. WEKA unterstützt die innovativsten Unternehmen und Forschungseinrichtungen der Welt bei der Bewältigung komplexer Datenherausforderungen, um schneller und nachhaltiger zu Entdeckungen, Erkenntnissen und Ergebnissen zu gelangen – darunter zwölf der Fortune-50-Unternehmen. Besuchen Sie www.weka.io, um mehr zu erfahren, oder verbinden Sie sich mit WEKA auf LinkedIn, X, (https://c212.net/c/link/?t=0&l=de&o=4304625-1&h=193995073&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0%26l%3Den%26o%3D4304625-1%26h%3D1346957433%26u%3Dhttps%253A%252F%252Ftwitter.com%252FWekaIO%26a%3D%252C&a=%2C) und Facebook.
WEKA wurde als Visionary im 2024 Gartner® Magic Quadrant™ for File and Object Storage Platforms (Datei- und Objektspeicherplattformen) anerkannt - lesen Sie den Bericht (https://c212.net/c/link/?t=0&l=de&o=4304625-1&h=666752987&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0%26l%3Den%26o%3D4304625-1%26h%3D2392792168%26u%3Dhttps%253A%252F%252Fwww.weka.io%252Flp%252Fgartner-magic-quadrant-2024%252F%26a%3Dread%2Bthe%2Breport&a=lesen+Sie+den+Bericht).
WEKA und das WEKA-Logo sind eingetragene Marken von WekaIO, Inc. Andere hier verwendete Markennamen können Marken der jeweiligen Eigentümer sein.
Foto - https://mma.prnewswire.com/media/2561552/WEKA_NVIDIA_SMC_PR.jpg (https://c212.net/c/link/?t=0&l=de&o=4304625-1&h=130986417&u=https%3A%2F%2Fmma.prnewswire.com%2Fmedia%2F2561552%2FWEKA_NVIDIA_SMC_PR.jpg&a=https%3A%2F%2Fmma.prnewswire.com%2Fmedia%2F2561552%2FWEKA_NVIDIA_SMC_PR.jpg)
Logo– https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo.jpg (https://c212.net/c/link/?t=0&l=de&o=4304625-1&h=767216175&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0%26l%3Den%26o%3D4304625-1%26h%3D3960234995%26u%3Dhttps%253A%252F%252Fmma.prnewswire.com%252Fmedia%252F1796062%252FWEKA_v1_Logo.jpg%26a%3Dhttps%253A%252F%252Fmma.prnewswire.com%252Fmedia%252F1796062%252FWEKA_v1_Logo.jpg&a=https%3A%2F%2Fmma.prnewswire.com%2Fmedia%2F1796062%2FWEKA_v1_Logo.jpg)
View original content:https://www.prnewswire.com/de/pressemitteilungen/weka-stellt-den-branchenweit-ersten-ki-speichercluster-auf-basis-von-nvidia-grace-cpu-superchips-vor-302310044.html
Pressekontakt:
WEKA Kommunikation,
pr(at)weka.io
Original-Content von: WEKA,übermittelt durch news aktuell
Themen in diesem Fachartikel:
Unternehmensinformation / Kurzprofil:
Bereitgestellt von Benutzer: ots
Datum: 19.11.2024 - 16:06 Uhr
Sprache: Deutsch
News-ID 2135618
Anzahl Zeichen: 0
Kontakt-Informationen:
Ansprechpartner: ots
Stadt:
Atlanta und Campbell, Kalifornien
Kategorie:
Finanzen
Dieser Fachartikel wurde bisher 11 mal aufgerufen.
Der Fachartikel mit dem Titel:
"WEKA stellt den branchenweit ersten KI-Speichercluster auf Basis von NVIDIA Grace CPU Superchips vor"
steht unter der journalistisch-redaktionellen Verantwortung von
WEKA (Nachricht senden)
Beachten Sie bitte die weiteren Informationen zum Haftungsauschluß (gemäß TMG - TeleMedianGesetz) und dem Datenschutz (gemäß der DSGVO).