SERVUR IA HPC APY SCG 7U 8 GPU NVIDIA HGX H200 SXM Intel Xeon Scalable

Prodotto disponibile per gli ordini

Nuovo server APY per AI, 7U NVIDIA HGX ™ H200 a otto GPU con due processori Intel Xeon Scalable 5th Generation, progettati per AI e HPC di grande scala con un massimo di 12 posizioni PCIe, 32 Dimm, 10 NVME.

contattaci
per una richiesta di citazioni o appuntamenti

  • pagamento sicuropagamento sicurotramite carta bancaria Visa o Mastercard, bonifico bancario SEPA o istantaneamente tramite FINTECTU
  • Spedizione veloce a partire da 25€ IVA esclusaSpedizione veloce a partire da 25€ IVA esclusaper prodotti di piccole dimensioni tramite UPS, a partire da 60€ IVA esclusa per GEODIS per pallet
  • Acquista e vendi ritira gratuitamente.Acquista e vendi ritira gratuitamente.Ti basterà acquistare online i tuoi prodotti e ritirarli direttamente presso la nostra sede, è grat





  • New
    SERVUR IA HPC APY SCG 7U 8 GPU NVIDIA HGX H200 SXM Intel Xeon Scalable
    SERVUR IA HPC APY SCG 7U 8 GPU NVIDIA HGX H200 SXM Intel Xeon Scalable
    SERVUR IA HPC APY SCG 7U 8 GPU NVIDIA HGX H200 SXM Intel Xeon Scalable
    keyboard_arrow_rightkeyboard_arrow_left

    Il server APY 7U è una soluzione ad alta end progettata per richieste applicazioni di intelligenza artificiale (IA), calcolo ad alte prestazioni (HPC) e enormi analisi dei dati. Si distingue per la sua potenza di calcolo, la sua efficienza energetica e la sua connettività avanzata.

    1. Performance di calcolo eccezionale

    dotato di due processori scalabili Intel® Xeon® di generazione 5ᵉ, il server supporta un TDP massimo di 350 W per socket, offrendo così un'elevata capacità di trattamento adattata a carichi di lavoro intensivi in ​​calcolo e IA.

    2. Accelerazione GPU avanzata con Nvidia Hgx H200

    incorpora il sistema NVIDIA® HGX H200 con otto core di tensore GPU, per ottenere prestazioni senza pari per la formazione e l'inferenza dei modelli di intelligenza artificiale.

    3. Ultra-Fast GPU Interconnection

    grazie a NVLink e un'interconnessione GPU GPU che offre una larghezza di banda di 900 GB/s, il server fornisce una comunicazione ultra veloce tra GPU, migliorando così il trattamento dei carichi di lavoro IA e HPC.

    4. Progettato per AI generativo e grandi modelli (LLM)

    APY ha ottimizzato questo server per applicazioni AI generative e apprendimento profondo, con supporto specializzato per modelli di linguaggio (LLM) di grandi dimensioni e infrastrutture software dedicate.

    5. Efficienza energetica avanzata e raffreddamento

    ha tunnel di flusso d'aria indipendenti per CPU e GPU, ottimizzando così il raffreddamento e la riduzione del consumo di energia. È dotato di un alimentatore ridondante 4+2 o 3+3+3, certificato in titanio 80 Plus®, garantendo un'efficienza energetica ottimale.

    6. Connettività eccezionale ed estensibilità

    il server offre:

    12+1 posizioni pcie,

    32 DIMM LOGAZIONI PER UNA MEMORIA DDR5 ULTRA FAST,

    10 baie nvme per archiviazione ad alta velocità,

    doppia connettività LAN 10 GB, con opzioni di estensione per esigenze di rete avanzate.

    7. Latenza ridotta e ottimizzazione dello stockage GPU

    La vicinanza ottimizzata delle schede di rete (NIC) e dell'archiviazione rispetto alle GPU, nonché al rapporto GPU/NIC 1: 1, consentire la latenza minima e prestazioni migliorate, in particolare grazie alla memoria NVIDIA GPUDIRECT.

    Il server APY è una piattaforma ideale per aziende e data center che desiderano distribuire soluzioni IA e HPC. La sua potente architettura, la sua efficienza energetica e la sua interconnessione avanzata lo rendono una scelta essenziale per i carichi di lavoro più esigenti

    APY
    APY-7UIAintelxeon8GPUHGXH200

    Scheda tecnica

    Dimensioni della cassa
    Rack 7U
    Dimensioni
    447mm x 222,25mm x 945mm
    Marca della CPU
    INTEL
    processori
    Intel Xeon scalabile
    Numero di schede grafiche supportate
    8
    Marchio della scheda grafica
    NVIDIA
    Scheda grafica predefinita
    NVIDIA HGX H200
    Solutions logiciels
    AI

    Riferimenti Specifici