Selon des personnes proches du dossier, Google a récemment conclu un nouvel accord pluriannuel de cloud computing et de coopération stratégique avec la startup d'intelligence artificielle Thinking Machines Lab. L'ampleur des transactions atteint des milliards de dollars, ce qui indique que le géant de la recherche augmente ses investissements dans les grands clients de pointe. Cet accord a été conclu après que Thinking Machines Lab a signé une coopération à grande échelle en matière d'approvisionnement en puissance de calcul avec NVIDIA, ce qui signifie que la société liera simultanément les principaux fournisseurs du secteur à la fois sur la puce sous-jacente et sur la plate-forme cloud.

Thinking Machines Lab a été fondé en 2025 par l'ancienne CTO d'OpenAI Mira Murati et son siège est à San Francisco. L'année de sa création, elle a réalisé un tour de table de financement d'amorçage de 2 milliards de dollars américains, avec une valorisation d'environ 12 milliards de dollars américains. Les investisseurs comprennent des institutions et des industries telles qu'Andreessen Horowitz, Accel, Nvidia et AMD, et est considéré comme l'un des laboratoires d'IA de pointe les plus actuels. L'entreprise se positionne comme une institution de recherche et développement de « systèmes généraux d'IA pour la collaboration humaine », mettant l'accent sur l'explicabilité, la personnalisation et les capacités interdisciplinaires, dans le but de réduire l'écart entre les capacités d'IA de pointe et la compréhension de la communauté scientifique.

En mars de cette année, Thinking Machines Lab vient d'annoncer une coopération pluriannuelle en matière de puissance de calcul avec NVIDIA, qui déploiera au moins 1 GW de systèmes NVIDIA Vera Rubin dans son infrastructure de formation et d'inférence à partir de 2027. NVIDIA réalisera également un investissement stratégique dans l'entreprise. Les experts du secteur en déduisent que la valeur globale de cette coopération au cours du cycle contractuel atteindra très probablement « des milliards de dollars », voire plus, sur la base de l'estimation précédente de Huang du coût d'un centre de données d'IA de 1 gigawatt à « jusqu'à 50 milliards de dollars ».

Dans ce contexte, la dernière coopération avec Google est considérée comme un ajout clé à son paysage de puissance de calcul : Nvidia fournit des puces et des systèmes dédiés, tandis que Google fournit à Thinking Machines Lab des clusters GPU/TPU à grande échelle, des réseaux, du stockage et un support technique via sa plateforme cloud pour former la nouvelle génération de grands modèles multimodaux du laboratoire. Dès la fin du cycle de financement d'amorçage, Thinking Machines Lab a déjà établi une coopération avec Google Cloud. Cet accord est considéré comme une amplification et un verrouillage de la relation existante, permettant à Google d'occuper une infrastructure et une niche écologique plus solide dans ce « prochain laboratoire potentiel OpenAI ou Anthropic ».

Selon des personnes proches de la transaction, outre la location de puissance de cloud computing, l'accord comprend également un ensemble d'optimisation technologique et de conditions commerciales communes, telles que la co-construction de systèmes de formation et d'inférence autour de la plate-forme TPU de nouvelle génération de Google, l'optimisation du réseau et du pipeline de données pour une formation distribuée à grande échelle, et une coopération approfondie en matière de sécurité et de conformité. Ce que Google apprécie, c'est qu'en établissant des relations étroites avec les premiers laboratoires de pointe, à l'avenir, qu'il s'agisse d'hébergement de modèles, de distribution d'API ou de solutions au niveau de l'entreprise, il y aura des opportunités d'obtenir des retours considérables en fonction de la croissance de ces clients.

Pour Thinking Machines Lab, la coopération continue et importante avec NVIDIA et Google signifie que sa garantie à long terme des ressources informatiques a été considérablement améliorée, ce qui l'aidera à poursuivre son parcours de recherche et de développement visant à « construire des modèles d'IA de pointe avec des résultats reproductibles ». Dans un environnement où la demande de l'industrie de l'IA en GPU et en puissance de calcul haut de gamme continue d'être forte, cette liaison contribue à réduire le risque que les plans de formation soient limités par l'offre de ressources, et jette également les bases de son éventuel lancement futur d'API commerciales et d'outils de recherche scientifique.

Cependant, une puissance de calcul aussi énorme et des contrats de services cloud signifient également que les deux parties doivent donner des réponses convaincantes sur les voies de recouvrement des coûts et de commercialisation. Pour Google, comment transformer ces clients de laboratoires de pointe à haut risque et à gros investissements en moteur de croissance à long terme de Google Cloud deviendra l'un des objectifs du marché des capitaux ; et pour Thinking Machines Lab, qui en est encore à ses débuts, la manière de lancer des produits de manière stable, de générer des revenus et de concrétiser la vision d'un « système d'IA général plus compréhensible et personnalisable » tout en continuant à dépenser de grandes quantités de puissance de calcul est également confrontée à un test.