Server IA HPC APY SCG 7U 8 GPU NVIDIA HGX H200 SXM Intel Xeon Scalable

Produkt zur Bestellung verfügbar

Neuer APY AI-Server, 7U NVIDIA HGX™ H200 mit acht GPUs und zwei skalierbaren Intel Xeon-Prozessoren der 5. Generation, konzipiert für KI und HPC im großen Maßstab mit bis zu 12 PCIE-Steckplätzen, 32 DIMMs, 10 NVMe.

KONTAKTIEREN SIE UNS
FÜR EIN ANGEBOT ODER EINE TERMINANFRAGE

  • Sichere BezahlungSichere Bezahlungper Visa- oder Mastercard-Bankkarte, SEPA-Banküberweisung oder sofort per FINTECTURE.
  • Schneller Versand ab 25 € ohne MwStSchneller Versand ab 25 € ohne MwStfür kleine Produkte per UPS, ab 60 € zzgl. MwSt. pro GEODIS und Palette für große Produkte
  • Kaufen und verkaufen Sie kostenlos und sammeln Sie es.Kaufen und verkaufen Sie kostenlos und sammeln Sie es.Kaufen Sie Ihre Produkte einfach online und holen Sie sie kostenlos direkt bei uns ab




  • New
    Server IA HPC APY SCG 7U 8 GPU NVIDIA HGX H200 SXM Intel Xeon Scalable
    Server IA HPC APY SCG 7U 8 GPU NVIDIA HGX H200 SXM Intel Xeon Scalable
    Server IA HPC APY SCG 7U 8 GPU NVIDIA HGX H200 SXM Intel Xeon Scalable
    keyboard_arrow_rightkeyboard_arrow_left

    Der 7U APY-Server ist eine High-End-Lösung für anspruchsvolle Anwendungen in den Bereichen künstliche Intelligenz (KI), High-Performance-Computing (HPC) und Big Data Analytics. Es zeichnet sich durch seine Rechenleistung, Energieeffizienz und erweiterte Konnektivität aus.

    1. Außergewöhnliche Rechenleistung

    Angetrieben von zwei skalierbaren Intel® Xeon®-Prozessoren der 5. Generation unterstützt der Server eine maximale TDP von 350 W pro Sockel und bietet eine hohe Verarbeitungskapazität, die für rechen- und KI-intensive Workloads geeignet ist.

    2. Erweiterte GPU-Beschleunigung mit NVIDIA HGX H200

    Es integriert das NVIDIA® HGX H200-System mit acht Tensor Core-GPUs und ermöglicht so eine unübertroffene Leistung für das Trainieren und Inferenzieren von Modellen künstlicher Intelligenz.

    3. Ultraschnelle GPU-Verbindung

    Mit NVLink und einer GPU-zu-GPU-Verbindung mit einer Bandbreite von 900 GB/s ermöglicht der Server eine ultraschnelle Kommunikation zwischen GPUs und verbessert so die Verarbeitung von KI- und HPC-Workloads.

    4. Entwickelt für generative KI und große Modelle (LLM)

    APY hat diesen Server für generative KI- und Deep-Learning-Anwendungen optimiert, mit spezieller Unterstützung für große Sprachmodelle (LLM) und dedizierter Software-Infrastruktur.

    5. Energieeffizienz und fortschrittliche Kühlung

    Es verfügt über unabhängige Luftstromtunnel für CPU und GPU, wodurch die Kühlung optimiert und der Stromverbrauch gesenkt wird. Es ist mit einem redundanten 4+2 oder 3+3 3000 W-Netzteil ausgestattet, das 80 PLUS® Titanium zertifiziert ist und optimale Energieeffizienz garantiert.

    6. Außergewöhnliche Konnektivität und Erweiterbarkeit

    Der Server bietet:

    12+1 PCIe-Steckplätze,

    32 DIMM-Steckplätze für ultraschnellen DDR5-Speicher,

    10 NVMe-Schächte für Hochgeschwindigkeitsspeicher,

    Duale 10-Gbit-LAN-Konnektivität mit Erweiterungsoptionen für erweiterte Netzwerkanforderungen.

    7. Reduzierte Latenz und GPU-Speicheroptimierung

    Die optimierte Nähe von Netzwerkschnittstellenkarten (NICs) und Speicher zu GPUs sowie ein GPU-zu-NIC-Verhältnis von 1:1 ermöglichen minimale Latenz und verbesserte Leistung, einschließlich NVIDIA GPUDirect Storage.

    Der APY-Server ist eine ideale Plattform für Unternehmen und Rechenzentren, die hochmoderne KI- und HPC-Lösungen einsetzen möchten. Seine leistungsstarke Architektur, Energieeffizienz und erweiterte Verbindungstechnologie machen ihn zu einer unverzichtbaren Wahl für die anspruchsvollsten Workloads.

    APY
    APY-7UIAintelxeon8GPUHGXH200

    Datenblatt

    Gehäusegröße
    Rack 7U
    Maße
    447mm x 222,25mm x 945mm
    CPU-Marke
    INTEL
    Prozessoren
    Skalierbarer Intel Xeon
    Anzahl der unterstützten Grafikkarte(n).
    8
    Grafikkartenmarke
    NVIDIA
    Standard-Grafikkarte
    NVIDIA HGX H200
    Solutions logiciels
    AI

    Spezifische Referenzen