Naissance de la première « superfactory » d’intelligence artificielle.
Imaginez deux immenses cerveaux numériques, séparés de plus de 1 000 kilomètres, travaillant pourtant comme un seul et même esprit. C’est ce que vient de créer Microsoft avec sa nouvelle Fairwater AI Superfactory, un réseau de centres de données reliés entre le Wisconsin et Atlanta.
L’objectif est clair : entraîner les modèles d’intelligence artificielle les plus gigantesques du monde en quelques semaines au lieu de plusieurs mois. Une prouesse d’ingénierie qui redéfinit la manière dont les machines apprennent.
Lire aussi :
- La Chine reprend à son compte une idée de Microsoft avec cette capsule de 1433 tonnes immergées au fond des océans
- Microsoft va-t-il devenir un géant de la fusion nucléaire avec ce partenariat inattendu ?
Microsoft lance sa nouvelle Fairwater AI Superfactory
Les modèles d’IA d’aujourd’hui ne se comptent plus en millions, mais en trillions de paramètres. Chaque paramètre, c’est une connexion neuronale virtuelle à ajuster et jusqu’ici, aucun centre de calcul isolé ne pouvait suivre cette croissance vertigineuse.
Les nouveaux Fairwater Data Centers de Microsoft, eux, forment un super-ordinateur distribué, capable de diviser la tâche d’apprentissage entre plusieurs sites tout en maintenant une synchronisation parfaite.
« Il s’agit de construire un réseau distribué capable d’agir comme un superordinateur virtuel pour relever les plus grands défis du monde, d’une manière qu’il serait impossible d’atteindre avec une seule installation », a déclaré Alistair Speirs, directeur général chez Microsoft chargé de l’infrastructure Azure.
En pratique, cela signifie qu’un modèle comme GPT ou Gemini pourrait être entraîné à une vitesse multipliée par dix, tout en consommant moins d’énergie et en évitant les goulets d’étranglement habituels du cloud.
Une architecture de nouvelle génération
Sous leurs allures de hangars futuristes, les Fairwater Data Centers abritent les tout derniers systèmes NVIDIA GB200 NVL72, capables de relier entre eux des centaines de milliers de GPU Blackwell.
Chaque baie fonctionne comme une mini-centrale neuronale, optimisée pour le calcul massivement parallèle.
Autre innovation : un système de refroidissement liquide double étage, qui remplace les torrents d’eau des data centers classiques par un circuit fermé à très faible consommation. Une manière d’allier puissance et sobriété énergétique.
Le design à deux niveaux permet de doubler la densité de processeurs dans un même volume, tout en simplifiant la maintenance et la dissipation thermique. L’ensemble forme une sorte de cathédrale numérique où chaque processeur « pense » à l’unisson.
Des centres de données qui communiquent à la vitesse de la lumière
Pour que cet ensemble fonctionne comme une seule machine, Microsoft a déployé un AI Wide Area Network (AI WAN), un réseau de fibres optiques privées reliant les sites à une vitesse quasi instantanée.
Les données voyagent littéralement à la vitesse de la lumière, sans passer par Internet public, ce qui évite toute congestion.
C’est cette interconnexion qui fait la différence entre une simple ferme de serveurs et une superfactory : ici, des milliers de processeurs disséminés à travers le continent se comportent comme un seul organisme informatique.
Chaque calcul est partagé, chaque octet synchronisé, comme les cellules d’un cerveau qui coopèrent pour résoudre une tâche unique.
Un investissement colossal pour l’ère post-GPU
Microsoft consacre une part majeure de ses 34 milliards d’euros d’investissements annuels à ces infrastructures.
Le pari ? Ne plus seulement empiler des cartes graphiques, mais bâtir l’écosystème capable de les faire travailler ensemble.
« Diriger l’IA, ce n’est pas accumuler des GPU, c’est construire l’infrastructure qui les unifie », résume Scott Guthrie, vice-président Cloud + AI.
Ce virage vers des architectures coopératives illustre une tendance globale. Amazon investit déjà dans son complexe Project Rainer en Indiana, Google étend son réseau Gemini Compute Fabric, et Meta déploie ses propres clusters maison pour Llama.
Une véritable course à la puissance distribuée est lancée entre les géants de la tech.
Vers un cerveau planétaire ?
Les analystes parlent parfois d’une « bulle de l’IA », gonflée par des promesses futuristes.
Microsoft, lui, voit une réalité déjà tangible : ses clients, d’OpenAI à Anthropic, signent des contrats à long terme, saturant la capacité de calcul mondiale.
À terme, ce réseau de superfactories pourrait entraîner un modèle comptant plusieurs centaines de trillions de paramètres, un seuil qui ouvre la porte à des intelligences artificielles capables de raisonner, planifier et concevoir de manière quasi autonome.
D’autres projets similaires dans le monde
Plusieurs autres entreprises et nations se sont lancées dans la construction d’infrastructures massives dédiées à l’intelligence artificielle, cherchant à reproduire, voire surpasser, le modèle de « superfactory ». Parmi celles-ci :
- L’Union européenne, qui a lancé un programme d’« AI Factories » visant à déployer des centres optimisés IA dans plusieurs pays membres, avec un investissement de 500 millions d’euros pour 6 nouveaux sites à l’automne 2025.
- Le groupe Brookfield Asset Management, qui s’engage à hauteur de près de 10 milliards de dollars dans un méga-data-center dédié à l’IA en Suède, près de Stockholm.
- Une joint-venture américano-norvégienne menée par OpenAI, Nscale et Aker ASA pour créer la « Stargate Norway », qui comptera dès 2026 environ 100 000 GPU Nvidia dans un site alimenté à 100 % par hydroélectricité.
- Des acteurs spécialisés comme CoreWeave, un fournisseur de cloud infrastructurel américain, qui exploite déjà plusieurs centaines de milliers de GPU pour des clients IA et étend ses centres de données en Europe.
Voici un tableau récapitulatif.
| Infrastructure | Entreprise / Nation | Localisation principale | Capacité / particularité |
| Fairwater AI Superfactory | Microsoft (États-Unis) | Wisconsin / Atlanta | Plusieurs centaines de milliers de GPU interconnectés pour IA à très grande échelle. |
| AI Factories | Union européenne | Czechia, Lituanie, Pays-Bas, Roumanie, Espagne, Pologne | 6 nouveaux sites en 2025, investissement 500 M €, réseau de 19 usines IA sur 16 États membres. |
| AI Gigafactory « Stargate Norway » | OpenAI / Nscale / Aker (Norvège) | Kvandal, près de Narvik | ~100 000 GPU Nvidia dès 2026, 230 MW initial, alimentation hydroélectrique. |
| AI Mega Data Center | Brookfield Asset Management (Canada/Europe) | Strängnäs, Suède | Investissement jusqu’à 10 milliards $ pour un data center géant IA. |
| Cloud infrastructure GPU | CoreWeave (États-Unis/Europe) | États-Unis & Royaume-Uni | Exploite plus de 250 000 GPU, construit de nouveaux centres pour IA à grande échelle. |
Sources :
- Microsoft – Communiqué de presse du 12 novembre 2025
- Innovation News Network — Europe invests €500 million in new AI Factories across the continent, 2025.
- The Wall Street Journal — Brookfield Pledges Up to $10 Billion for AI Data Center in Sweden, 2025.
- ITPro — OpenAI teams up with Nscale and Aker to build Europe’s first AI gigafactory “Stargate Norway”, 2025.
- Wikipedia (CoreWeave) — CoreWeave: Cloud Computing Company and GPU Infrastructure Provider, consulted 2025.
- GeekWire — What is an AI Superfactory? Microsoft unveils new approach to linking data centers for massive AI training, 2025.



