Eliminare l'interruzione dell'alimentazione.
Elimina la capacità inutilizzata allineando i cluster di AI ai blocchi di capacità dei data center.
L’alimentazione in un data center è segmentata in blocchi di capacità , generalmente da 1 a 3 MW, determinati dal dimensionamento standard di interruttori o generatori.
L'intelligenza artificiale viene distribuita in cluster, che presto saranno comuni a 100+ kW / rack, e da lì in su.
L’allineamento dei cluster ai blocchi di capacità può garantire l’utilizzo di tutti i kW disponibili.
Bilanciare costi, ridondanza e rischi.
Il valore dell’hardware AI, pari a oltre 1-4 milioni di dollari per rack, e l’elaborazione supportata, spingono a considerare sempre di più la ridondanza nei progetti di alimentazione e raffreddamento, soprattutto per le applicazioni di inferenza.
I progetti che limitano il raggio di esplosione, ovvero l'impatto derivante dalla perdita di un singolo segmento di capacità (server, rack, fila), tendono a utilizzare un numero maggiore di componenti più piccoli, potenzialmente a scapito del costo totale di proprietà.
I progetti che favoriscono il costo totale di proprietà tendono a utilizzare un numero inferiore di componenti più grandi, spesso con ridondanza per ridurre la possibilità di perdita di un segmento di capacità.
Include il raffreddamento a liquido e ad aria.
L'alimentazione nel data center equivale al calore scartato.
Le temperature e i flussi di raffreddamento ad aria e liquido devono rimanere all’interno dell’involucro operativo sia dei server AI che delle apparecchiature di dissipazione del calore del data center.
Design per il futuro.
Pianifica oggi stesso per far fronte alla crescita futura e alla domanda ad alta densità.
La durata tipica del data center è di quasi due decenni. Il ciclo di progettazione del chip AI è inferiore a due anni.
Progettare insieme alimentazione e raffreddamento.
Ottimizza l'infrastruttura di IA garantendo che la tecnologia di alimentazione e raffreddamento sia progettata e implementata per lavorare in sinergia.
Alimentazione, raffreddamento e hardware di IA competono per spazi ed energie limitati.
È necessario un approccio olistico alla progettazione di alimentazione e raffreddamento per massimizzare la quota di spazio ed energia dedicata all'elaborazione dell'IA.
Vertiv Design
Principles
Explore how implementing
these principles can optimize
the strategic deployment of
AI workloads.
Gestisci i picchi di carico di lavoro dell'AI.
Pianificare per la variabilità che i carichi di lavoro dell'IA possono richiedere, includendo controlli a livello di sistema come buffer per l'alimentazione e il raffreddamento.
La “formazione” dell’AI tende a indurre un gran numero di processori ad agire all’unisono, creando enormi picchi di consumo energetico che possono ripetere e degradare sia le prestazioni che la durata dell’infrastruttura di alimentazione e raffreddamento.
I progetti per la mitigazione includono controlli a livello di sistema con risposta rapida, oltre a buffer immediatamente accessibili in potenza e capacità di raffreddamento.