Le 20 septembre, un article du géant du capital-risque Sequoia a poussé Nvidia et même l’ensemble de l’industrie de l’IA au premier plan. David Cahn, associé chez Sequoia, estime que selon des estimations prudentes, les 50 milliards de dollars de ventes de GPU de Nvidia correspondent à 100 milliards de dollars de dépenses en centres de données par d'autres sociétés. En supposant une marge bénéficiaire de 50 %, l’industrie de l’IA a besoin de 200 milliards de dollars de revenus pour compenser ces dépenses. Cependant, son chiffre d’affaires annuel ne dépasse actuellement que 75 milliards de dollars, ce qui laisse un déficit de 125 milliards de dollars.

Cahn a souligné que la capacité de production de GPU est une surcapacité et s'attend à ce que le modèle de « l'incinérateur d'argent » se répète dans le domaine de l'IA.

Après que l’incident ait fermenté pendant trois jours, Guido Appenzeller, conseiller spécial du géant du capital-risque A16Z de la Silicon Valley et fondateur de la startup d’IA 2X, a publié près de 10 tweets, non seulement renversant l’estimation de Sequoia sur la rentabilité de l’IA, mais soulignant également que le problème le plus fondamental de Sequoia était qu’elle sous-estimait l’impact de la révolution historique de l’IA.


Appenzeller : l’IA va bouleverser tous les logiciels et l’écart de revenus n’existe pas

Dans une série de tweets, Appenzeller a souligné trois erreurs majeures dans l'article de Cahn.

Tout d’abord, Cahn a utilisé un chiffre de 200 milliards de dollars au début de l’article pour attirer l’attention, mais Appenzeller estime qu’il y a un problème avec le processus de calcul de ce chiffre.


Appenzeller a souligné que Cahn avait additionné le coût d'achat (dépenses en capital) du GPU, les coûts d'exploitation annuels, les revenus cumulés pendant le cycle de vie du GPU et les revenus annuels des applications d'IA, pour arriver à un chiffre apparemment exagéré de 200 milliards de dollars.


Cependant, un calcul plus approprié serait basé sur le retour sur investissement annuel que les acheteurs de GPU peuvent obtenir après avoir investi du capital. En d’autres termes, le retour sur investissement des acheteurs de GPU doit être calculé,Plutôt que de simplement additionner divers coûts et revenus de différentes périodes et natures.


Deuxièmement, Appenzeller estime que les coûts électriques des GPU sont également surestimés.Cahn a supposé que le rapport entre la consommation électrique du GPU et le coût du matériel était de 1:1, mais en réalité, ce n'était pas si exagéré.

Selon Appenzeller, un GPU H100 PCIe coûte environ 30 000 dollars et consomme environ 350 watts d'énergie. En tenant compte des serveurs et du refroidissement, la consommation électrique totale devrait être d'environ 1 kilowatt.

Si le prix de l'électricité est de 0,1 $ US/kWh, alors ce GPU H100 auraPour chaque dollar dépensé en matériel GPU, la facture d’électricité requise n’est que de 0,15 $, bien inférieure au 1 $ estimé par Cahn.


Les deux estimations ci-dessus ne sont pas les plus fatales, estime Appenzeller :Le problème fondamental de cet article est qu’il sous-estime la portée de la révolution de l’IA.

Appenzeller a déclaré que les modèles d'IA sont un composant d'infrastructure au même titre que les processeurs, les bases de données et les réseaux. Désormais, presque tous les logiciels d’IA utilisent le processeur, la base de données et le réseau, et ce sera le cas à l’avenir.

Par conséquent, les modèles d’IA affecteront profondément tous les logiciels et systèmes informatiques, et leur portée d’influence va bien au-delà des domaines étroits analysés dans l’article. L’article ignore le statut des modèles d’IA en tant qu’infrastructure logicielle future et sous-estime donc la véritable signification de la révolution de l’IA.


Les startups peuvent-elles combler cette lacune ? Cahn estime qu'il existe une « grande opportunité ». Le saut technologique dans le domaine de l’IA et la vague sans précédent d’achats de GPU sont toujours une bonne nouvelle pour l’humanité.mais:

Au cours des cycles technologiques historiques, la construction excessive d’infrastructures a eu tendance à brûler des capitaux, mais a également permis de débloquer de futures innovations en abaissant le coût marginal du développement de nouveaux produits.Nous nous attendons à ce que ce schéma se répète dans le domaine de l’IA.

La question est donc la suivante : l’industrie de l’IA peut-elle gagner suffisamment de 200 milliards de dollars ?Appenzeller a donné une réponse affirmative et, de plus, en tant qu'infrastructure de réseau, les revenus qu'elle génère existeront sous différentes formes dans chaque département.

Appenzeller a dit :

Plus de 200 milliards de dollars sont dépensés chaque année en infrastructure de réseau,Peut-il générer 800 milliards de dollars de revenus liés aux « logiciels de réseau » ?

Non, mais Google utilise l'infrastructure réseau pour vendre des publicités, et les revenus générés sont présentés comme revenus publicitaires, et non comme revenus « logiciels réseau », et les revenus générés par Microsoft Office 365 ne seront pas étiquetés comme revenus « logiciels réseau ».


En d’autres termes, les revenus provenant des infrastructures seront classés dans différentes catégories de revenus selon le secteur.

Enfin, Appenzeller a conclu :L’IA renversera tous les logiciels. L’« écart de revenus de l’IA » décrit par Cahn n’existe pas réellement :

L’« écart de revenu de l’IA » supposé dans l’article n’existe en réalité pas. Les dépenses consacrées à l’IA et à l’infrastructure qu’elle prend en charge se traduiront à terme par les dépenses en logiciels et les revenus de divers secteurs, sous différentes formes.

L’IA affectera profondément tous les logiciels, et pas seulement les « logiciels d’IA » au sens étroit. Nous n’avons donc pas à nous soucier d’un quelconque « écart de revenus » et pouvons examiner avec confiance l’impact profond de la révolution de l’IA sur l’ensemble du secteur informatique.


Les clients de NVIDIA ont mis du temps à gagner de l'argent et la patience du capital s'épuise à « des centaines de milliards »

Il convient de noter que les inquiétudes de Sequoia concernant les capacités de monétisation de l’IA ne sont pas déraisonnables.

Un article précédent de Wall Street Insights mentionnait que l'énorme investissement dans chaque GPU devait finalement être converti en valeur pour le client final, afin que l'industrie puisse continuer à se développer sur le long terme.

À l'heure actuelle, en tant que principal bénéficiaire de la logique « Nuggets buy shovel », les performances de Nvidia au cours des deux premiers trimestres de cette année ont été assez impressionnantes. Cependant, au niveau de la couche applicative en aval, les investissements en IA n’ont fait qu’augmenter, mais les performances ne se sont pas améliorées.

Bénéficiant de l’énorme demande suscitée par la formation sur de grands modèles, les commandes et les performances des fabricants d’infrastructures d’IA ont été vérifiées en permanence. Cependant, les applications côté B en sont encore à leurs débuts. La plupart des fabricants d’applications d’IA ne sont pas encore entrés dans la phase de commercialisation. Du point de vue du délai de livraison, il devrait être 2 à 3 trimestres plus tard que la couche infrastructure.

Si les chercheurs d’or ne parviennent pas à gagner de l’argent et que leurs ventes de pelles explosent, bien sûr, elles ne dureront pas longtemps. Au cours du mois dernier, le cours de l'action Nvidia a chuté de plus de 11 %, revenant au niveau de juin de cette année.


En partant du principe que la réduction des coûts et l'amélioration de l'efficacité restent le thème principal du développement des actions technologiques mondiales, la patience des marchés des capitaux s'épuise.