Automatische Übersetzung anzeigen
Dies ist eine automatisch generierte Übersetzung. Wenn Sie auf den englischen Originaltext zugreifen möchten, klicken Sie hier
#Produkttrends
{{{sourceTextContent.title}}}
Nvidia GPUs und Arm-Prozessoren heiraten in neuem Server-Referenzdesign
{{{sourceTextContent.subTitle}}}
Nvidia GPUs und arm-basierte Prozessoren werden in einem neuen Referenzdesign von Hard- und Softwareblöcken zusammenarbeiten, die Unternehmen in Hochleistungsserver für Cloud, Edge, AI, Storage und Supercomputing einbauen können.
{{{sourceTextContent.description}}}
Nvidia CEO Jensen Huang kündigte das Konzept am Montag auf der Supercomputing 19 Konferenz in Denver zusammen mit mehreren Technologiepartnern wie Arm, Ampere, Fujitsu und Marvell an. Cray und HPE, zwei frühe Anbieter von arm-basierten Servern, arbeiteten ebenfalls zusammen.
"Die Einführung von Nvidia-Grafikprozessoren öffnet den Innovatoren die Türen, um Systeme für wachsende Anwendungen von Hyperscale-Cloud bis hin zu exaskaliertem Supercomputing und darüber hinaus zu entwickeln", sagte Huang.
Nvidia kündigte im Juni an, dass seine CUDA-X-Software auf Arm-Designs laufen würde, und jetzt stellt Nvidia sein Arm-kompatibles Software-Entwicklungskit mit CUDA-X-Bibliotheken und Entwicklungstools für beschleunigtes Computing zur Verfügung.
"Nvidia-Grafikprozessoren sind praktisch zu Standardbeschleunigern für KI und High Performance Computing geworden, so dass es für Nvidia ein natürlicher Schritt ist, führende Armanbieter zu integrieren", sagte Karl Fruend, Analyst bei Moor Insights & Strategy. Der Wechsel zu Arm ist auch bemerkenswert für das jüngste langsame Wachstum von Arm in HPC "nach Jahren enttäuschender Leistung und Akzeptanz", fügte er hinzu.
Arm-Partner sind in der Lage, Server mit solider Leistung und Funktionen wie erweitertem Speicher und erhöhter I/O-Bandbreite zu bauen, fügte er hinzu.
In einem Beispiel gab Marvell am Montag bekannt, dass Nvidia-GPUs die ThunderX-Familie der Arm-Server unterstützen. Der ThunderX2 ist der neueste 64-Bit-Armv8-A-basierte Serverprozessor von Marvell, der mit Nvidia-GPUs kombiniert wird.
An anderer Stelle auf der Konferenz kündigte Intel einen exaskalierten GPU-Code namens Ponte Vecchio an, der im Aurora-Supercomputer des Argonne National Lab verwendet wird.
Ebenfalls auf der Konferenz stellte Nvidia die Magnum IO-Software vor, die Datenwissenschaftlern und Forschern hilft, große Datenmengen in Minuten statt in Stunden zu verarbeiten. Es bietet eine bis zu 20-fach schnellere Datenverarbeitung für Multi-Server- und Multi-GPU-Knoten auf Basis von Benchmarks. Magnum IO wurde mit DataDirect Networks, Excelero, IBM, Mellanox und WekaIO entwickelt.
Darüber hinaus kündigte Nvidia einen skalierbaren Supercomputer für die Microsoft Azure Cloud an, der GPU-beschleunigt ist. Die neue NDv2-Cloud-Instanz von Azure wird Nvidia V100 Tensor Core GPUs ausführen, die über ein einziges Mellanox InifiBand-Netzwerk verbunden sind. Kunden werden in der Lage sein, einen kompletten KI-Supercomputer bei Bedarf von einem Desktop aus zu betreiben.
Der Preis von Microsoft beträgt 22 $ pro Stunde für eine Instanz von acht Nvidia V100 Grafikprozessoren in der NDv2-Cloud und kann vergrößert werden.