GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
Preview: GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
Preview: GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
Preview: GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
Preview: GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
Preview: GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
Preview: GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU

GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU

Hersteller-Nr.: 6NG494ZB4DR000ACP2
Mobile Preview: GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
Mobile Preview: GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
Mobile Preview: GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
Mobile Preview: GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
Mobile Preview: GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU
Mobile Preview: GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU

GIGABYTE 4HE Serversystem G494-ZB4-AAP2 - AMD EPYC / GPU-Plattform für Dual AMD EPYC 9004/9005 CPUs und bis zu 8x H200 NVL PCIe GPUs mit 4-Wege NVLink-Brücken

Die NVIDIA H200-Tensor-Core-Grafikkarte bietet generative KI- und HPC(High-Performance Computing)-Workloads mit bahnbrechender Leistung und Speicherkapazität. Als erste Grafikkarte mit HBM3e treibt der größere und schnellere Speicher der H200 die Beschleunigung generativer KI und großer Sprachmodelle (LLMs) an und beschleunigt gleichzeitig wissenschaftliche Berechnungen für HPC-Workloads.

Hauptmerkmale:

  • Modularer Aufbau: Der modulare Designansatz ermöglicht eine einfache Skalierung und Anpassung an verschiedene Arbeitslasten.
  • Optimierte GPUs: Die größere und schnellere Speicher der NVIDIA MGX™ H200 NVL GPUs beschleunigen generative KI und LLMs und bringen gleichzeitig das wissenschaftliche Computing für HPC-Workloads mit besserer Energieeffizienz und niedrigeren Gesamtbetriebskosten voran.
  • Fortschrittliche Verbindungen: Mit NVLink und anderen bis zu 6x 400 Gbit/s ausgestattet LAN-Verbindungen, ermöglicht die Plattform eine nahtlose Kommunikation.

Einsatzmöglichkeiten:

  • Wissenschaftliche Anwendungen: Ideal für komplexe Simulationen und Datenanalysen in Forschungseinrichtungen.
  • Künstliche Intelligenz: Optimiert für das Training und die Bereitstellung von KI-Modellen in verschiedenen Branchen.
  • Big Data Verarbeitung: Unterstützt die Analyse und Verarbeitung großer Datenmengen in Echtzeit.

Vorteile:

  • Hohe Effizienz: Maximale Rechenleistung bei niedrigen Einstiegskosten.
  • Flexibilität: Anpassbar an unterschiedliche Anforderungen, von Forschung bis hin zu kommerziellen Anwendungen.
  • Zukunftsorientiert: Diese Plattform wurde entwickelt, um sich flexibel ändernden Technologielandschaft anpassen zu können.
 

Der Server kann mit bis zu 8x NVIDIA H200 GPUs (NVL) mit jeweils 141GB RAM ausgestattet werden. Mit der revolutionären Hopper-Architektur bieten diese GPUs immense Rechenleistung für die Beschleunigung von Deep Learning, KI-Training und -Inferenzen. Jede H200 NVL GPU liefert bis zu 1,671TFLOPS Leistung bei FP16-Tensor-Core und bis zu 60TFLOPS bei FP64 Tensor Core Rechenoperationen, wodurch der Server auch die komplexesten Modelle schnell und effizient verarbeiten kann.

NVIDIA MGX™ Plattform

Das System basiert auf der NVIDIA MGX™ Plattform, die eine skalierbare Architektur für KI und Supercomputing-Anwendungen bietet. Dank der NVLink-Verbindung zwischen den GPUs wird eine Hochgeschwindigkeits-Datenübertragung gewährleistet, die deutlich schneller als herkömmliche PCIe-Verbindungen ist. So wird maximale Effizienz bei Multi-GPU-Workloads erreicht.

Die NVIDIA H200 basiert auf der NVIDIA Hopper™-Architektur und ist die erste Grafikkarte mit 141 Gigabyte (GB) HBM3e-Speicher bei einer Leistung von 4,8 Terabyte pro Sekunde (TB/s). Der große und schnellere Speicher der H200 beschleunigt generative KI und LLMs und forciert gleichzeitig das wissenschaftliche Computing für HPC-Workloads mit besserer Energieeffizienz und niedrigeren Gesamtbetriebskosten.

Der Server ist daher für eine Vielzahl von Anwendungen geeignet, darunter z.B.:

  • Künstliche Intelligenz (KI) und maschinelles Lernen (ML)
  • Hochleistungsrechnen (HPC)
  • Datenanalyse
  • Forschung und Entwicklung
  • Deep Learning
 

Mit dem GIGABYTE G494-ZB4-AAP2 erhalten Sie eine skalierbares und zuverlässiges System, die den anspruchsvollsten Workloads standhält. Die Kombination aus AMD EPYC Prozessoren, NVIDIA H200 GPUs und der MGX™-Plattform macht dieses Serversystem zur idealen Basis für Forschung, künstliche und wissenschaftlichen Anwendungen.

Leistungsmerkmale:

  • Dual AMD EPYC 9004/9005 Prozessoren
  • bis zu 6TB DDR5 RAM (48x DIMM Slots à 128GB, 12-Kanal)
  • 1 dedizierter Management LAN Port für IPMI (RJ-45)
  • 2x 1Gb/s LAN (1x Intel® I350-AM2)
  • bis zu 8x NVIDIA MGX™ H200 NVL Server-Edition GPUs
  • 2x interner M.2 Slot (2280/22110)
  • 12x hot-swap 2.5" Einschübe Gen5 NVMe/SATA/SAS-4
  • redundante Quad 3.000W 80 PLUS Titanium Netzteile


AMD EPYC CPUs Windows Server 2022Windows Server 2025 VMware READY ununtu Certified Hardware  redhat Certified HardwareSuse Linux Enterprise 15

 

Aktuelle Konfiguration

zzgl. 19% MwSt.
Eine Konfiguration laden: