Infrastructure d’IA : Recadrer le débat sur les processeurs graphiques par rapport aux circuits intégrés spécifiques aux applications
Par : Joshua Buchalter, Sean O'Loughlin, Lannie Trieu, Krish Sankar, John Blackledge, Derrick Wood
mai 30, 2025 - 5 minutes
Aperçu :
- Les applications d’intelligence artificielle (IA) générative rentables exigent d’énormes investissements dans la puissance de calcul de l’IA, ce qui en fait la croissance la plus intéressante dans le domaine des semi-conducteurs.
- Les processeurs graphiques ont incarné l’accélération de l’IA fondée sur le matériel informatique. Toutefois, des centres de données à très grande échelle ont développé et lancé des circuits intégrés spécifiques aux applications (ASIC) conçus pour l’IA.
- Nous recadrons la décision technique et économique liée au déploiement des capacités de calcul de centres de données à très grande échelle afin d’aborder l’IA dans son ensemble, en passant d’une analyse centrée sur les « processeurs graphiques par rapport aux ASIC » à une analyse qui se penche sur « l’achat ou la fabrication » avec différentes conditions de risque.
- Notre cadre montre que pour les accélérateurs d’IA, qu’ils soient sur mesure ou standards, la performance demeure cruciale.
Le point de vue de TD Cowen
Les processeurs graphiques de centres de données modernes sont des puces spécifiques aux applications conçues pour le traitement de l’IA. L’augmentation des investissements dans les capacités de calcul doit être présentée comme une décision fondée sur la fabrication ou sur l’achat en fonction des conditions de risque. Dans ce rapport, nous décrivons notre cadre d’établissement des coûts et du rendement du capital investi (RCI) des composants de silicium sur mesure. Nous montrons que la performance relative a un impact direct sur le taux de rendement interne d’un projet sur mesure et sur sa capacité à s’adapter aux volumes de production.
Les charges de travail de l’IA générative alimentent le besoin d’accélérateurs matériels
Les centres de données subissent un changement de paradigme fondamental vers l’informatique accélérée pour soutenir les charges de travail de l’IA générative. Plutôt que l’infrastructure de traitement centralisé fondée sur des logiciels qui a défini la première décennie de la structure infonuagique, la prochaine décennie (et au-delà) des centres de données comprendra des accélérateurs matériels pour le réseautage, le stockage et, surtout, l’IA.
Dans le passé, les investisseurs dans les semi-conducteurs étaient conditionnés à comprendre que le choix entre les applications générales et les applications spécifiques était un compromis entre la souplesse et l’efficacité (évaluée en fonction de la performance ou de la performance par watt). Les processeurs universels (les processeurs graphiques) souffriraient d’une pénalité de souplesse, tandis que les ASIC axés sur la charge de travail seraient « préférables » parce qu’ils ont été conçus pour une charge de travail spécifique : l’IA générative.
Selon nous, le débat sur l’utilisation des processeurs graphiques au lieu des ASIC serait mieux cadré si son objet portait sur le choix entre processeurs standards ou processeurs sur mesure, étant donné que les processeurs graphiques modernes de centres de données sont des ASIC. Pour ce qui est des composants en silicium, un processeur graphique de centre de données comporte très peu de « traitement graphique ». Il s’agit d’un processeur conçu pour accélérer les charges de travail liées à l’IA. Le cadre relatif à l’utilisation des processeurs universels par rapport aux circuits intégrés spécifiques aux applications n’est pas pertinent (et même contre-productif), car les processeurs universels continuent à surpasser les circuits intégrés spécifiques aux applications avec lesquels ils sont en concurrence. En fait, il s’agit dans les deux cas de circuits intégrés spécifiques aux applications, et ils luttent à armes égales. Si nous appliquons plutôt un cadre « standard ou sur mesure », le matériel d’IA générative (en particulier pour l’inférence de grands modèles de langage (GML)) peut être analysé selon un cadre « d’achat ou de fabrication » comparant les taux de rendement relatifs des deux options.
Quatre observations tirées de notre travail :
- Les accélérateurs standards et sur mesures coexisteront, même au sein de l’infrastructure d’un même centre de données à très grande échelle – les risques sont trop importants pour être ignorés en cas d’échec d’un projet sur mesure, et les récompenses sont trop intéressantes pour être écartées en cas de succès d’un projet sur mesure.
- La concurrence en tant que « no 2 » dans les accélérateurs standards est rude, car il faut rivaliser avec le chef de file du secteur non seulement pour les dépenses d’investissement (CapEx) et la notoriété au sein du secteur des technologies de l’information (TI), mais aussi pour les charges de travail applicables avec les entreprises qui font des pièces sur mesure… et ces pièces sur mesure peuvent être beaucoup moins performantes.
- De même, les composants de silicium sur mesure deviennent plus concurrentiels, car chaque génération d’accélérateurs doit être évaluée de façon indépendante pour sa capacité à générer des revenus, et l’obstacle de la « pénalité de performance » est plus facile à surmonter plus les marges du fournisseur d’ASIC sont faibles.
- Peut-être sans surprise, pour ce qui est des accélérateurs d’IA générative, qu’ils soient standards ou sur mesure, la performance demeure cruciale.
Cela nous amène à reconnaître que les composants de silicium sur mesure n’occuperont probablement pas une part équilibrée et stable dans l’ensemble du marché des accélérateurs. Les accélérateurs sur mesure finiront par plafonner, car peu des fournisseurs ont la capacité requise pour rivaliser, et la programmabilité des plateformes standards augmentera intrinsèquement leurs champs d’application. Mais avant ce plafonnement, il faut s’attendre à ce qu’ils continuent d’accaparer une part volatile du marché d’une génération d’accélérateurs à l’autre, car c’est la performance qui déterminera ultimement les projets sur mesure qui verront le jour… ou plutôt qui verront l’intérieur froid et fluorescent d’un centre de données.
Ce qui est exclusif
Nous élaborons (et mettons à la disposition des clients) un modèle économique ascendant des unités d’IA générative et un cadre de rendement du capital investi (RCI) qui comprend une nomenclature du matériel informatique et une génération de revenus par inférence. Nous intégrons les données économiques de ces unités dans une analyse du RCI des projets et comparons les taux de rendement internes relatifs aux stratégies de fabrication (sur mesure) par rapport aux stratégies d’achat (standard) pour l’infrastructure de l’IA générative.
Répercussions financières et sur les modèles du secteur
Nous caractérisons chaque génération successive d’accélérateurs d’IA générative sur mesure comme des résultats binaires plutôt que comme des fonctions de croissance continue : chaque génération doit être évaluée de nouveau par rapport au potentiel de génération de revenus de la plateforme alternative (standard) et au taux de rendement interne associé. Les coûts irrécupérables exigeront du fournisseur d’ASIC qu’il abandonne une puce sur mesure non performante plutôt que de redoubler les efforts de croissance, ce qui engendrera des conséquences financières importantes sous la forme de pertes de revenus.
De plus, nous étendons notre modèle d’utilisation des composants de silicium dans les centres de données afin d’inclure explicitement deux types d’unités de traitement non tensoriel supplémentaires : les projets d’accélérateurs sur mesure axés sur le grand modèle de langage que nous connaissons et les accélérateurs qui ne sont pas axés sur le grand modèle de langage. Tout en reconnaissant que nous n’avons pas une vue sur l’ensemble des pièces de l’échiquier, nous prévoyons que le marché des accélérateurs atteindra les 334 milliards de dollars américains d’ici 2030P (prévisionnel), avec environ 15 % de composants de silicium sur mesure (contre environ 10 % aujourd’hui), soit un taux de croissance annuel composé (TCAC) de 30 %, pour atteindre environ 50 milliards de dollars américains en 2030P, contre environ 11 milliards de dollars américains aujourd’hui. Nous modélisons le marché des accélérateurs standards comme susceptible de croître à un TCAC plus modeste d’environ 18 % à partir d’un point de départ plus élevé (le marché devrait tout de même presque doubler pour atteindre près de 300 milliards de dollars américains au bout de cette période).
Ce qu’il faut surveiller :
- Les annonces de partenariats supplémentaires aussi bien pour les accélérateurs standards que les accélérateurs sur mesure, qui peuvent rapidement modifier l’humeur des investisseurs;
- Les événements concernant certaines entreprises;
- La trajectoire des prix dans l’inférence de l’IA générative (du point de vue des revenus par seconde) sera un élément essentiel à surveiller en tant qu’intrants du cadre du RCI; elle aura des répercussions importantes sur les accélérateurs standards et sur mesure (ainsi que sur l’ensemble des dépenses liées aux infrastructures d’IA). Contrairement à l’opinion générale, nous croyons que le prix de l’inférence est susceptible de se stabiliser à mesure que les capacités des modèles s’amélioreront et que les centres de données à très grande échelle pourront mieux monétiser ces capacités (même si le dollar par jeton diminue).
Les clients qui s’inscrivent peuvent lire le rapport complet, A Rose By Any Other Name: Reframing GPU vs. ASIC - Ahead of the Curve, sure le portail Une seule TD