Calculer pour dominer: l’ombre algorithmique de la puissance edit

22 septembre 2025

Alors que l’intelligence artificielle s’impose comme un enjeu stratégique majeur, la capacité de calcul devient un critère central de puissance entre États. Devenue le socle d’une nouvelle grammaire de la puissance, elle redéfinit les hiérarchies mondiales: désormais, la souveraineté se mesure autant en teraFLOPS et en exaFLOPS qu’en PIB et en capacités militaires.

Le 17 juillet dernier, le Royaume-Uni inaugurait officiellement le supercalculateur Isambard-AI, machine hors norme hébergée dans un des laboratoires de l’Université de Bristol. Installé dans un espace comparable à un vaste plateau de data center, ce monstre technologique a pour mission première l’entraînement de modèles d’intelligence artificielle, mis à la disposition de chercheurs universitaires, d’entrepreneurs et d’industriels dans une logique mutualisée. Une inauguration en grande pompe qui rappelle une réalité parfois occultée : dans la course à l’IA, la bataille ne se joue pas seulement dans le code ou les algorithmes, mais aussi et surtout dans la maîtrise d’infrastructures physiques gigantesques.

Derrière chaque modèle de langage performant se cache en effet une machinerie massive, conçue dans le but de maximiser une ressource devenue centrale : la capacité de calcul — c’est-à-dire la quantité d’opérations qu’un système informatique peut exécuter en un temps donné, exprimée en FLOP (floating point operations per second). Isambard-AI atteint ainsi près de 21 exaFLOPS, soit vingt milliards de milliards d’opérations par seconde. Une performance qui n’a rien de magique mais qui résulte d’une accumulation méthodique de processeurs spécialisés (GPU), d’installations de refroidissement liquide et d’une alimentation électrique haute performance. Dans ce domaine, c’est une logique de force brute qui s’applique et celle-ci est implacable : plus de puces signifie plus de puissance… et des coûts qui atteignent rapidement des sommets. L’entraînement d’un modèle comme GPT-4 a nécessité, à titre d’exemple, plus de 10 000 puces graphiques, chacune facturée autour de 30 000 € — soit près de 300 millions d’euros de matériel, sans compter la consommation électrique, la logistique et les milliers d’heures de travail humain, allant des ingénieurs de pointe aux annotateurs de données précarisés.

Un tel niveau d’investissement — à l’image de la société OpenAI, qui a levé à elle seule près de 58 milliards de dollars depuis 2019 — témoigne d’une intensité capitalistique rarement égalée dans l’histoire récente de la Silicon Valley, qui ne laisse place qu’à un cercle très restreint d’acteurs dotés des moyens nécessaires à pareille réalisation. Dans le même temps, les États — au premier rang desquels les États-Unis — recourent aux contrôles à l’exportation pour restreindre l’accès de certains pays aux composants stratégiques, tout en assouplissant la régulation sur leur propre territoire. En janvier 2025, le Bureau of Industry and Security (BIS) a étendu les contrôles à de nouveaux équipements de calcul avancé ainsi qu’aux paramètres internes des modèles d’IA (« AI model weights »), appliquant pour la première fois des restrictions formelles à l’exportation de ces éléments. En parallèle, au niveau matériel, des décisions à forts enjeux ont été prises : à compter du 31 décembre 2025, la validité du statut privilégié de TSMC - leader mondial des puces électroniques - qui permettait l’export d’équipements vers son usine chinoise de Nanjing, sera révoquée, contraignant désormais l’entreprise à obtenir une licence pour chaque envoi de marchandises. Combiné au contrôle privé des volumes massifs de données nécessaires à l’entraînement, ce verrouillage à la fois géopolitique et industriel érige une barrière à l’entrée quasi infranchissable pour tout nouvel entrant potentiel. Résultat : l’IA devient le terrain de jeu exclusif d’une poignée d’acteurs, où la frontière entre intérêts publics et privés demeure souvent floue.

Dans ce contexte, il apparait clair que la notion de capacité de calcul dépasse le cadre purement technique : elle devient un instrument de puissance. Contrôler les architectures matérielles, les flux de données et les infrastructures d’entraînement, c’est détenir un levier stratégique majeur, capable d’influencer l’économie, la sécurité et la recherche scientifique. Cette nouvelle centralité du compute est en train de reconfigurer les hiérarchies entre États, entreprises et blocs géopolitiques. Elle redéfinit les contours mêmes de la souveraineté.

Dès lors, c’est notre conception de la puissance qu’il devient urgent de revisiter. Longtemps pensée à partir de critères classiques — démographie, ressources naturelles, force militaire, influence culturelle —, elle se redessine aujourd’hui autour de critères technologiques et computationnels. Les facteurs traditionnels ne disparaissent pas, mais ils sont désormais subordonnés à un nouveau socle : celui des infrastructures de calcul. En 2025, maîtriser la production de puces, disposer de supercalculateurs et sécuriser l’accès à l’énergie bas-carbone est peut-être plus stratégique que posséder des champs pétrolifères.

Historiquement confinée aux laboratoires et aux cercles d’experts de l’ère informatique naissante, la notion de « capacité de calcul » a quitté le domaine technique pour entrer de plain-pied dans l’arène stratégique. Elle est désormais un fait politique. Un fait géopolitique. Et à mesure que le monde se transforme en un immense graphe algorithmique, la souveraineté ne se mesurera plus seulement en frontières, en traités ou en PIB, mais aussi en teraFLOPS, petaFLOPS ou exaFLOPS. L’Europe a commencé à réagir, investissant dans ses propres infrastructures de calcul. Mais l’enjeu est immense et dépasse la simple réduction du retard : il s’agit de reprendre la maîtrise de notre destin technologique. Sans un effort soutenu et coordonné, l’Europe risque de cesser d’être une puissance influente pour devenir une simple zone d’exploitation technologique, au service d’intérêts extérieurs.