Après avoir annoncé un solide rapport financier pour le premier trimestre 2026, Lisa Su, PDG d'AMD, a déclaré lors de la conférence téléphonique sur les résultats qu'avec l'avènement de l'ère de l'IA agentique (intelligence artificielle agent), l'utilisation du processeur dans les centres de données est poussée à des sommets sans précédent. Elle a déclaré que dans le cadre de cette nouvelle tendance, le nombre de CPU et de GPU dans un seul nœud informatique se rapproche progressivement de un à plusieurs dans le passé, et il pourrait même y avoir plus de CPU que de GPU à l'avenir.

En répondant aux questions des analystes, Su Zifeng a souligné que les clusters traditionnels de formation et d'inférence d'IA utilisent généralement une configuration « d'un processeur avec quatre à huit GPU », et le CPU joue davantage un rôle « d'hôte », responsable de la planification et du lancement des tâches de calcul GPU. En mode Agentic AI, un grand nombre d'agents autonomes doivent s'appuyer sur le processeur hôte pour effectuer en permanence des mises à jour de statut, une orchestration des tâches et une collaboration, ce qui modifie fondamentalement la forme des nœuds informatiques.

Selon Su Zifeng, avec l'augmentation rapide du nombre d'agents, le ratio CPU/GPU se rapproche de 1:1. Elle a même suggéré que si les futurs clusters exécutent « un nombre extrêmement important » d’agents, il est tout à fait concevable d’avoir plus de CPU que de GPU dans un seul nœud. Cela signifie qu'à la vague d'expansion informatique accélérée menée par les GPU ces dernières années se superpose une vague de demande de CPU entraînée par les « charges de travail des agents ».

La soi-disant IA agentique exécute essentiellement plusieurs « agents » autonomes au-dessus d'un grand modèle de langage (LLM) pour exécuter automatiquement des processus de tâches complexes. Par exemple, dans un scénario de développement logiciel, un agent peut examiner le code par lui-même, implémenter des modifications, attendre la fin de la compilation et continuer à corriger les nouveaux bogues lorsqu'ils sont découverts, sans pratiquement aucune intervention manuelle requise dans l'ensemble du processus. Cependant, afin de coordonner, planifier et orchestrer ces tâches d'agent exécutées en parallèle, le système doit s'appuyer sur le processeur pour fournir des capacités de contrôle et de gestion continues.

Sous de telles charges de travail, le CPU n'est plus seulement un rôle de soutien dans le « démarrage de la formation ou de l'inférence GPU », mais est devenu la plaque tournante centrale qui pilote le fonctionnement de l'ensemble du système d'IA agentique. Alors que de plus en plus de tâches sont divisées et déléguées à des agents, l'utilisation du processeur est poussée à des niveaux extrêmement élevés, même à l'ère de l'expansion rapide de l'informatique accélérée par GPU. Le rapport cite la déclaration d'AMD selon laquelle la société « vend actuellement presque tous les processeurs qu'elle peut fournir aux laboratoires d'IA et aux fournisseurs de services cloud hyperscale » pour répondre à cette vague de nouvelles demandes provoquées par les tâches d'agents intelligents.

Cela signifie également que dans la conception de la future infrastructure d'IA, la relation entre CPU et GPU peut passer de "maître-esclave" à une forme plus égale, voire plus gourmande en CPU. Pour les fournisseurs de puces, Agentic AI continue non seulement de stimuler la demande de GPU, mais devrait également ouvrir une nouvelle phase de croissance sur le marché des processeurs pour serveurs.