
PNY NVIDIA H100 NVL HBM3 - GPU-Rechenprozessor - 94GB
Die NVIDIA® H100 NVL Tensor Core GPU ist die am stärksten optimierte Plattform für LLM-Inferenz (Large Language Models) – mit hoher Rechendichte, hoher Speicherbandbreite, hoher Energieeffizienz und einer einzigartigen NVLink-Architektur. Sie bietet eine beispiellose Beschleunigung für die leistungsfähigsten elastischen Rechenzentren der Welt im Bereich KI, Datenanalyse und High Performance Computing (HPC). Die NVIDIA H100 NVL Tensor Core Technologie unterstützt eine breite Palette an mathematischen Genauigkeiten und stellt somit einen einheitlichen Beschleuniger für unterschiedlichste Rechenlasten dar. Unterstützt werden Double Precision (FP64), Single Precision (FP32), Half Precision (FP16), 8-Bit Floating Point (FP8) und Integer (INT8) Berechnungen.
Außergewöhnliche Leistung für umfangreiche KI und HPC
Der Hopper Tensor-Core-Grafikprozessor wird die NVIDIA Grace Hopper CPU und GPU-Architektur unterstützen, die speziell für beschleunigtes Computing im Terabyte-Bereich entwickelt wurde und eine 10-mal höhere Leistung bei KI und HPC bei großen Modellen bietet. Die NVIDIA Grace-CPU nutzt die Flexibilität der Arm® Architektur, um eine CPU- und Serverarchitektur zu erstellen, die von Grund auf für beschleunigtes Computing entwickelt wurde. Die Hopper GPU wird mit der Grace CPU sowie der ultraschnellen Chip-zu-Chip-Verbindung von NVIDIA kombiniert und bietet eine Bandbreite von 900 GB/s – 7-mal schneller als PCIe der 5. Generation. Dieses innovative Design bietet eine bis zu 30-mal höhere Gesamt-Systemspeicherbandbreite im Vergleich zu den schnellsten gegenwärtig verfügbaren Servern und eine bis zu 10-mal höhere Leistung für Anwendungen mit einem Datenvolumen von mehreren Terabytes.
Die NVIDIA H100 NVL verfügt über Multi-Instance GPU (MIG)-Funktionalität. Damit lässt sich die GPU in bis zu sieben voneinander isolierte GPU-Instanzen aufteilen, wodurch eine flexible Plattform entsteht, die sich dynamisch an veränderte Anforderungen im Rechenzentrum anpassen kann. Gleichzeitig können Ressourcen optimal zugewiesen werden – von kleinsten bis zu größten Multi-GPU-Aufträgen. Dank ihrer Vielseitigkeit können IT-Manager mit der H100 NVL den Nutzen jeder einzelnen GPU im Rechenzentrum maximieren.
Enterprise-Ready: KI-Software optimiert Entwicklung und Bereitstellung
NVIDIA H100 NVL wird mit einem NVIDIA AI Enterprise Fünf-Jahres-Abonnement geliefert und vereinfacht den Aufbau einer KI-fähigen Plattform für Unternehmen. H100 beschleunigt die Entwicklung und Bereitstellung von KI für produktionsfähige generative KI-Lösungen, einschließlich Computer Vision, Sprach-KI, Retrieval Augmented Generation (RAG) und mehr. NVIDIA AI Enterprise umfasst NVIDIA NIM™, eine Reihe einfach zu bedienender Microservices, die entwickelt wurden, um die Bereitstellung generativer KI in Unternehmen zu beschleunigen. Zusammen bieten Bereitstellungen Sicherheit, Verwaltbarkeit, Stabilität und Support auf Unternehmensebene. Dies führt zu leistungsoptimierten KI-Lösungen, die schnelleren Geschäftswert und umsetzbare Erkenntnisse liefern.
Transformations-KI-Training
H100 verfügt über Tensor-Recheneinheiten der vierten Generation und eine Transformer Engine mit FP8-Präzision, die bis zu 4-mal schnelleres Training im Vergleich zur vorherigen Generation für GPT-3 (175B) Modelle bietet. Die Kombination aus NVLink der vierten Generation, das 900 GIGABYTE pro Sekunde (GB/s) der GPU-zu-GPU-Verbindung bietet, und dem NDR Quantum-2 InfiniBand-Netzwerk, das die Kommunikation durch jeden Grafikprozessor über Knoten hinweg beschleunigt, PCIe Gen5 und NVIDIA Magnum IO™ Software bietet effiziente Skalierbarkeit von Systemen für kleine Unternehmen bis hin zu riesigen, einheitlichen GPU-Clustern.
Die Bereitstellung von H100-Grafikprozessoren im Rechenzentrumsmaßstab bietet hervorragende Leistung sowie die nächste Generation von Exascale High-Performance-Computing (HPC) und Billionen-Parameter-KI für alle Forscher.
Echtzeit-Deep-Learning-Inferenz
KI löst eine Vielzahl von geschäftlichen Herausforderungen mit einer ebenso breiten Palette an neuronalen Netzen. Ein hervorragender KI-Inferenzbeschleuniger muss nicht nur höchste Leistung, sondern auch die Vielseitigkeit bieten, um diese Netzwerke zu beschleunigen.
H100 erweitert die marktführende Position von NVIDIA im Bereich Inferenz durch mehrere Verbesserungen, die die Inferenz um das bis zu 30-Fache beschleunigen und die niedrigste Latenz bieten. Tensor-Recheneinheiten der vierten Generation beschleunigen alle Präzisionen, einschließlich FP64, TF32, FP32, FP16, INT8 und jetzt FP8, um die Speichernutzung zu reduzieren und die Leistung zu steigern, während gleichzeitig die Genauigkeit für LLMs erhalten bleibt.
Exascale High-Performance Computing
Die NVIDIA-Rechenzentrumsplattform bietet konsistente Leistungssteigerungen, die über das Mooresche Gesetz hinausgehen. Die neuen bahnbrechenden KI-Funktionen von H100 verstärken die Leistungsfähigkeit von HPC und KI weiter, um für Wissenschaftler und Forscher, die an der Lösung der wichtigsten Herausforderungen der Welt arbeiten, die Zeit bis zum Entdecken zu verkürzen.
H100 verdreifacht die Gleitkommaoperationen pro Sekunde (FLOPS) der Tensor-Recheneinheiten mit doppelter Genauigkeit und liefert 60 TeraFLOPS FP64-Computing für HPC. KI-gestützte HPC-Anwendungen können auch die TF32-Präzision von H100 nutzen, um einen PetaFLOPS Durchsatz für Matrixmultiplikationsoperationen mit einfacher Genauigkeit zu erreichen, ohne Codeänderungen.
Außerdem verfügt H100 über neue DPX-Anweisungen, die 7-mal höhere Leistung als A100 und 40-fache Beschleunigung gegenüber CPUs bei dynamischen Programmieralgorithmen wie Smith-Waterman für die DNA-Sequenzausrichtung und Proteinausrichtung für die Proteinstrukturvorhersage liefern.
Leistungsschub für Inferenz großer Sprachmodelle mit H100 NVL
Für LLMs mit bis zu 70 Milliarden Parametern (Llama 2 70B) nutzt die PCIe-basierte NVIDIA H100 NVL mit NVLink-Brücke die Transformer Engine, NVLink und 188 GB HBM3-Speicher, um optimale Leistung und einfache Skalierung in jedem Rechenzentrum zu bieten – und bringt LLMs damit in den Mainstream. Server, die mit H100 NVL-GPUs ausgestattet sind, steigern die Llama-2-70B-Leistung um das bis zu 5-Fache gegenüber NVIDIA A100-Systemen bei gleichzeitiger geringer Latenz in Rechenzentrumsumgebungen mit begrenztem Stromverbrauch.

Technische Daten:
GPU Architektur: | NVIDIA Hopper™ Architektur |
GPU-Speichergröße: | 94 GB HBM3 |
GPU-Speicherbandbreite: | 3938 GB/s |
GPU-Speicherbusbreite: | 6016 bits |
FP64: | 30 TeraFLOPS |
FP64-Tensor-Core: | 60 TeraFLOPS |
FP32: | 60 TeraFLOPS |
FP32-Tensor-Core: | 835 TeraFLOPS |
BFLOAT16 Tensor Core: | 1.671 TeraFLOPS |
FP16 Tensor Core: | 1.671 TeraFLOPS |
FP8 Tensor Core: | 3.341 TeraFLOPS |
INT8 Tensor Core: | 3.341 TOPS |
Decoder: | 7 NVDEC / 7 JPEG |
max. Thermal Desing Power (TDP): | 350 - 400 Watt |
Mehr-Instanzen-Grafikprozessoren: | bis zu 7 MIGs mit je 12 GB |
Formfaktor: | PCIe mit zwei Steckplätzen und Luftkühlung FHFL 10.5", dual-slot |
Schnittstellen: | NVIDIA NVLINK: 600 GB/s PCIe Gen5: 128 GB/s |
Serveroptionen: | Partner und NVIDIA-zertifizierte Systeme mit 1–8 GPUs |
NVIDIA AI Enterprise: | Inbegriffen |
Treiberunterstützung: | Linux: ab R535 Windows: ab R535 WHQL: Windows 10, Windows 11, Windows Server 2019, Windows Server 2022 |
- Produktübersicht (englisch)