54 V rencontre le mur physique : des courants de 2,5 kA et du cuivre qui fond

À l’heure actuelle, les niveaux de puissance des racks à 54 VDC rencontrent des limites strictes. À mesure que les systèmes se développent autour de plateformes comme le NVIDIA GB200 NVL72, la puissance par rack explose, et les mathématiques se retournent contre nous : la puissance est égale à la tension multipliée par le courant, donc une basse tension signifie un courant très élevé pour la même puissance [S3], [S5].

À 54 V, délivrer environ 100 à 150 kW génère des courants en kiloampères ; des chiffres autour de 2,5 kA font désormais partie des discussions de conception pour les racks IA, avec les pertes I²R et les maux de tête thermiques qui en découlent [S3]. Ces pertes évoluent avec le carré du courant, obligeant à utiliser des barres de cuivre surdimensionnées, des parcours courts et une gestion thermique minutieuse pour maintenir les conducteurs dans des limites de fonctionnement sûres [S2]. Le constat de The Register est sans appel : poussez plus de puissance à travers 54 V et votre cuivre devient rapidement grand, chaud et cher [S3].

C’est pourquoi les fournisseurs augmentent les tensions de distribution. Passer de 54 V à une infrastructure 800 VDC réduit le courant pour la même puissance d’un facteur d’environ 15, ce qui réduit considérablement les pertes de conduction et la masse de cuivre, tout en rapprochant la conversion de la charge avec des étages de haute efficacité GaN et SiC [S5], [S2]. L’approche 800 VDC de NVIDIA est spécifiquement conçue pour les usines IA de nouvelle génération, où les racks construits autour de systèmes de classe GB200 rendent la distribution à basse tension et à courant élevé de plus en plus impraticable au-delà de très courtes distances à l’intérieur du cabinet [S5], [S3].

  • Le 54 VDC est encore utile localement, mais le passage à des racks de plusieurs centaines de kilowatts génère des courants en kiloampères et des problèmes de chaleur [S3], [S2].
  • Les infrastructures HVDC (par exemple, 800 V) réduisent le courant, le cuivre et les pertes, rendues possibles par la conversion GaN/SiC près de la charge [S5], [S2].

Le pivot 800 VDC : le plan de rack HVDC de NVIDIA devient la spécification de facto

Le pivot 800 VDC : le plan de rack HVDC de NVIDIA devient la spécification de facto

NVIDIA n’a pas seulement proposé une tension plus élevée ; elle a publié une architecture 800 VDC au niveau des racks, visant directement les usines IA, avec un chemin clair depuis l’entrée de l’installation jusqu’à la distribution dans le cabinet et la conversion sur le rack [S5]. Une fois ce plan publié, les principaux fournisseurs d’énergie ont commencé à s’y aligner. Eaton a publiquement lié son portefeuille de centres de données au programme de NVIDIA, signalant des produits et un travail d’intégration pour accélérer les déploiements à l’ère de l’IA [S4]. Hitachi Energy a également annoncé son soutien à une architecture de 800 volts adaptée aux centres de données de nouvelle génération, s’alignant explicitement dans la même direction [S1].

Cette combinaison – le modèle de rack HVDC publié par NVIDIA plus les fournisseurs de premier plan s’engageant à fournir un équipement compatible – a effectivement établi une spécification de référence. L’attrait est pratique : 800 VDC réduit considérablement le courant par rapport aux schémas à basse tension, réduisant la masse de cuivre et les pertes de distribution tout en maintenant les étapes de conversion plus proches de la charge [S5]. Avec les acteurs du côté de l’offre construisant des équipements de commutation, de distribution et de protection alignés sur cette classe de tension, les opérateurs peuvent planifier des racks de plusieurs centaines de kilowatts sans avoir à concevoir des solutions électriques sur mesure à chaque fois [S4], [S1].

  • Le design 800 VDC de NVIDIA centre la distribution HVDC au niveau du rack, avec des étapes de conversion localisées adaptées aux systèmes IA [S5].
  • Eaton et Hitachi Energy se sont publiquement engagés à soutenir l’approche 800 volts, accélérant la disponibilité des produits et l’interopérabilité pour les centres de données ciblant les charges de travail IA [S4], [S1].
  • L’effet net : 800 VDC émerge comme la spécification par défaut pour les racks de nouvelle génération, avec NVIDIA, les fournisseurs et les opérateurs convergeant vers le même plan HVDC [S5], [S4], [S1].

Le tri des réseaux devient politique : le Royaume-Uni place les centres de données IA en tête de la file d’attente

Le tri des réseaux devient politique : le Royaume-Uni place les centres de données IA en tête de la file d’attente

La planification de l’énergie pour les centres de données IA a débordé dans la politique alors que les contraintes de capacité se heurtent à des charges de racks en forte augmentation. Les rapports de l’industrie soulignent la friction de base : la montée rapide de la puissance par rack, entraînée par les systèmes IA, met à l’épreuve la distribution conventionnelle et force des choix difficiles quant à qui obtient en premier les mégawatts rares [S3]. The Register met en lumière pourquoi ce débat s’intensifie : les schémas à basse tension gonflent le courant et les pertes alors que les installations poursuivent des densités plus élevées, poussant à un passage vers des infrastructures à haute tension pour extraire plus de puissance utilisable des alimentations limitées [S3].

Cette réalité technique façonne la conversation publique. Une vidéo du 12 mars 2026 capture comment les combats pour l’allocation débordent au-delà de la salle des serveurs, les spectateurs se concentrant sur la question de savoir si le calcul doit être priorisé sur des réseaux contraints [S7]. Les commentateurs le présentent comme un « tri des réseaux » : les opérateurs doivent-ils réarchitecturer pour l’efficacité et une tension plus élevée, ou les décideurs politiques réorganisent-ils la file d’attente de connexion pour favoriser les grandes constructions de calcul [S3], [S7] ?

Le fil conducteur technique est clair dans les rapports : sans passer au-delà de la distribution à basse tension héritée, la montée des charges IA amplifie les pertes I²R et la masse de cuivre, aggravant la rareté du côté du réseau à l’intérieur de la clôture. C’est pourquoi des architectures à haute tension sont positionnées pour des usines IA de l’échelle des gigawatts—une tentative de faire en sorte que la capacité limitée de l’utilitaire s’étire davantage tandis que la lutte politique sur qui passe en premier se déroule en public [S3], [S7].

Gagnants, perdants et le paradoxe du cuivre

Gagnants, perdants et le paradoxe du cuivre

Suivez le cuivre. À 54 V, l’augmentation de la puissance des racks impose un courant brutal, ce qui entraîne des barres de cuivre épaisses et coûteuses et des pertes I²R croissantes—le paradoxe du cuivre en pleine vue [S2]. Passer à une infrastructure 800 VDC fait chuter le courant pour la même puissance, réduisant les pertes de conduction et la masse de cuivre nécessaire entre l’entrée de l’installation et le rack [S2].

Cette physique choisit les gagnants. Les fournisseurs liés à la distribution 800 VDC et à la conversion à haute efficacité au point de charge sont en tête. Eaton a publiquement aligné son portefeuille de centres de données avec le programme HVDC de NVIDIA, signalant des voies de produits et un soutien à l’intégration pour les constructions à l’ère de l’IA [S4]. Hitachi Energy a également annoncé son soutien à une architecture de 800 volts ciblant les centres de données de nouvelle génération, renforçant la même direction [S1]. Du côté des semi-conducteurs, Navitas Semiconductor met en avant des dispositifs GaN et SiC adaptés à l’infrastructure 800 VDC de nouvelle génération, permettant des étapes de conversion efficaces près de la charge [S2].

Les perdants ? Les approches qui s’accrochent à la distribution à basse tension sur de longues distances, payant une taxe cumulée en courant, chaleur et métal à mesure que la puissance des racks augmente. Le passage à une tension plus élevée vise à réduire ces pénalités tout en maintenant la conversion localisée avec des étapes GaN/SiC—un plan qu’Eaton et Hitachi Energy construisent désormais publiquement [S4], [S1], [S2].

  • Eaton et Hitachi Energy sont positionnés pour fournir des équipements de classe 800 VDC pour les centres de données IA [S4], [S1].
  • Navitas Semiconductor propose des GaN/SiC pour une conversion à haute efficacité, près de la charge, dans des conceptions 800 VDC [S2].
  • L’utilisation et les pertes de cuivre diminuent avec la distribution 800 VDC par rapport aux parcours étendus à 54 V [S2].

Liste de contrôle de conception pour les racks de 1 MW : ce qu’il faut spécifier maintenant, ce qu’il faut différer

Liste de contrôle de conception pour les racks de 1 MW : ce qu’il faut spécifier maintenant, ce qu’il faut différer

  • À spécifier maintenant : infrastructure 800 VDC et protection — Alignez la distribution des racks et des rangées avec l’architecture de rack 800 VDC publiée pour réduire le courant, le cuivre et les pertes I²R par rapport aux parcours étendus à 54 V [S5], [S3]. Intégrez des équipements de commutation, d’isolation et de gestion des défauts compatibles avec cette classe de tension dès le premier jour [S5].
  • À spécifier maintenant : conversion près de la charge basée sur GaN/SiC — Planifiez des étapes de conversion au point de charge qui convertissent le HVDC en rails locaux avec des dispositifs à large bande passante (GaN et SiC) pour maintenir les budgets thermiques sous contrôle à des densités de puissance de rack élevées [S2], [S5].
  • À spécifier maintenant : parcours courts à 54 V à l’intérieur du cabinet — Conservez la distribution à 54 V uniquement sur de courtes distances à l’intérieur du rack pour éviter les courants en kiloampères et les pertes I²R cumulées à mesure que les charges approchent des classes proches du mégawatt [S3].
  • À spécifier maintenant : masse de cuivre là où cela en vaut la peine — Dimensionnez les barres de cuivre et le câblage pour des segments courts et à fort courant ; laissez l’infrastructure 800 VDC faire le travail de distance pour réduire le cuivre et la chaleur [S2], [S3].
  • À différer : distribution 54 V sur de longues distances — Évitez d’étendre les rails à basse tension à travers les rangées ou les salles ; les pénalités en courant et en thermique augmentent brutalement à 1 MW de puissance [S3].
  • À différer : verrouiller les topologies de convertisseur trop tôt — Gardez une option entre les sélections de dispositifs GaN et SiC et les fournisseurs de modules à mesure que l’efficacité, les vitesses de commutation et les protections dans les convertisseurs 800 VDC évoluent [S2].
  • Prévoir l’interopérabilité — Utilisez des interfaces et des schémas de protection cohérents avec le plan de rack 800 VDC de NVIDIA pour faciliter l’intégration des constructions d’usines IA à mesure qu’elles se développent [S5].
  • Clarté de la plaque signalétique — Que le cahier des charges du projet fasse référence à « des racks de 1 MW » ou à des abréviations marketing comme « Ayar Labs Wiwynn 1 024 GPUs », ancrez les spécifications aux limites de courant, de perte et thermiques HVDC documentées dans les architectures publiques et les notes de dispositifs [S5], [S2], [S3].

Standardiser l’usine IA : puissance, optique et la vague de capex d’un trillion de dollars

Standardiser l’usine IA : puissance, optique et la vague de capex d’un trillion de dollars

La standardisation arrive du train d’énergie vers l’extérieur. NVIDIA a publié une architecture de rack 800 VDC pour les usines IA, un plan de l’installation au cabinet qui réduit le courant, coupe le cuivre et rapproche les étapes de conversion à haute efficacité de la charge [S5]. Les principaux fournisseurs se regroupent autour de cela : Hitachi Energy soutient publiquement une approche de 800 volts pour les centres de données de nouvelle génération, alignant l’équipement du côté de l’utilitaire, la protection et la distribution avec la même classe de tension [S1]. À l’intérieur du rack, les dispositifs GaN et SiC permettent une conversion efficace, près de la charge, qui aide à contenir les budgets thermiques à des puissances de rack croissantes [S2].

C’est ainsi qu’une spécification de facto se forme : un modèle HVDC publié par NVIDIA plus des feuilles de route des fournisseurs ajustées à 800 VDC transforment l’ingénierie sur mesure en manuels répétables pour des cabinets de plusieurs centaines de kilowatts [S5], [S1]. Le résultat pratique est moins de pertes I²R et moins de cuivre entre l’entrée de l’installation et la charge, avec une conversion à large bande passante prenant en charge la charge localement [S2], [S5].

Les priorités des opérateurs reflètent ce pivot. Les cahiers des charges lient la distribution des racks, la protection et l’interopérabilité au plan 800 VDC de NVIDIA tout en laissant de la place pour optimiser les sélections de convertisseurs GaN/SiC à mesure que les modules mûrissent [S5], [S2]. La conversation sur le marché couvre les kits de puissance et de construction aux côtés des logiciels et des outils—des noms comme Dell’Oro Group, NVIDIA Kyber, et Omniverse Blueprint apparaissent dans la même phrase que HVDC et GaN/SiC. La verticalisation des puces ajoute également de la pression et de la clarté ; voir « Meta dévoile quatre puces IA internes pour alimenter les recommandations et l’IA générative« .

Le fil conducteur n’est pas subtil : la standardisation des usines IA commence par la distribution d’énergie 800 VDC, soutenue par des engagements des fournisseurs et une conversion à large bande passante près de la charge, et rayonne vers tout le reste [S5], [S1], [S2].

Restez informé : Recevez le briefing quotidien de CronCast dans votre boîte de réception. Abonnez-vous gratuitement.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *