Avec les avancées technologiques qui évoluent actuellement à un rythme effréné, nous pensons qu’il est risqué de placer trop de confiance dans une seule approche.
Le 19 novembre, Karen Ward, Stratégiste en chef des marchés, EMOA, et Alex Whyte, Gestionnaire de portefeuille au sein de notre Groupe Actions internationales, ont échangé sur tous les enjeux liés à l’intelligence artificielle (IA). Compte tenu du vif intérêt manifesté par nos clients lors du webinaire, nous avons rassemblé ici les réponses aux questions les plus récurrentes. Vous pouvez accéder à cette webconférence à tout moment ici. Pour une vue d’ensemble plus complète de l’écosystème de l’IA, consultez nos Perspectives d’investissement pour 2026 ici.
Quelles sont les perspectives de monétisation des applications de l’IA, et en quoi diffèrent-elles selon qu’il s’agisse de modèles « business to business » (B2B) et « business to consumer » (B2C) ?
L’attention des investisseurs se concentre aujourd’hui principalement sur la monétisation directe des clients B2C (par exemple, les particuliers qui souscrivent un abonnement premium à ChatGPT), car il s’agit sans doute du meilleur indicateur du consentement à payer. Dans les faits, toutefois, cela ne représente vraisemblablement qu’une fraction limitée des revenus futurs des fournisseurs de modèles d’IA.
De nombreux fournisseurs d’applications d’IA sont encore des entreprises non cotées, et la répartition actuelle des revenus ne peut être reconstituée qu’en compilant un ensemble fragmentaire de sources. Nous pouvons cependant regrouper les sources potentielles de revenus en quatre catégories.
B2C
1) Ventes directes sous la forme d’abonnements
L’histoire abonde en exemples d’entreprises technologiques qui ont d’abord constitué une base d’utilisateurs fidèles, avant de rendre payants des services jusqu’alors gratuits. Le principal risque de cette approche est que le consentement à payer des consommateurs est le plus souvent faible, en particulier lorsqu’il existe des alternatives (potentiellement moins chères). Pour donner un ordre d’idée, Spotify et Netflix, deux des entreprises d’abonnement grand public les plus performantes au monde, devraient générer cette année environ 20 milliards et 50 milliards de dollars de chiffre d’affaires respectivement. OpenAI, qui table sur une croissance spectaculaire du nombre d’utilisateurs au cours des cinq prochaines années, prévoit cependant que moins de 10 % des consommateurs seront disposés à souscrire à un abonnement en 2030, selon le site The Information.
2) Monétisation indirecte
Plutôt que de faire payer directement les utilisateurs, les applications d’IA pourraient générer des revenus publicitaires, ou permettre aux utilisateurs de déléguer à leurs « agents » d’IA certaines tâches, comme des réservations en ligne, tout en prélevant une commission auprès des entreprises concernées. La publicité représente indéniablement un marché potentiel considérable : Meta devrait générer à elle seule près de 200 milliards de dollars de chiffre d’affaires cette année, essentiellement grâce à la publicité. Pour les investisseurs dans l’IA, il s’agit toutefois d’une approche très différente de la proposition originale. La publicité en ligne est en outre un marché très mature. De ce fait, toute hausse des revenus publicitaires des entreprises d’IA pourrait a) cannibaliser des flux de revenus existants d’autres méga-capitalisations technologiques, et b) exiger des dépenses d’investissement beaucoup plus importantes.
B2B
1) Accès direct aux modèles
Les acteurs de l’IA monétisent déjà leur technologie en facturant aux entreprises chaque requête effectuée via des « appels d’API » qui offrent un accès direct à un grand modèle de langage (LLM).
Les entreprises clientes peuvent alors définir leurs cas d’usage personnalisés à partir d’un modèle d’IA de base. Cette approche constitue l’une des sources de revenus les plus prometteuses pour les applications d’IA. Par conséquent, la manière dont ces partenariats sont déployés (et/ou sont abandonnés) est scrutée de près. Cela explique pourquoi l’étude du MIT Media Lab, parue en août dernier, qui a mis en évidence un taux d’échec de 95 % dans les projets pilotes d’IA, a suscité une réaction très négative chez de nombreux investisseurs.
2) Agents IA
Tout comme ils le font auprès des particuliers, les fournisseurs d’IA peuvent monétiser leur technologie en proposant aux entreprises des agents IA chargés d’exécuter des tâches concrètes. De nombreuses start-ups spécialisées dans l’IA misent sur ce modèle, promettant des solutions capables de gérer, à moindre coût, des tâches aujourd’hui effectuées par des humains.
Selon nous, cette approche présente le plus fort potentiel de croissance des revenus. En effet, les économies significatives que ces agents offrent aux entreprises peuvent justifier un prix élevé pour l’accès à ces technologies. Cependant, le diable est dans les détails, et des problèmes de fiabilité et de précision empêchent à ce jour l’adoption généralisée de ces agents. Nous restons également prudents face aux récents rapports annonçant des « emplois remplacés par l’IA », certaines entreprises pouvant être tentées d’utiliser cet argument pour dissimuler un affaiblissement de la demande.
Dans quelle mesure les méga-capitalisations actuelles de l’IA sont-elles menacées par une rupture technologique ?
Les progrès technologiques avancent à un rythme vertigineux, et nous estimons qu’il serait imprudent de s’en remettre à une seule approche.
L’essor actuel du secteur a été catalysé par le succès fulgurant des grands modèles de langage (LLM). Ces modèles simulent des conversations naturelles en « s’entraînant » sur d’immenses corpus de données et mobilisent une puissance de calcul considérable pour « apprendre » les réponses pertinentes dans différentes situations. La plupart des avancées actuelles en IA visent à améliorer les performances ou la précision des LLM existants et à les appliquer à la résolution de problèmes spécifiques. Les puces produites par des entreprises telles que NVIDIA sont particulièrement bien adaptées aux calculs nécessaires à ces grands modèles.
Cependant, nous identifions trois risques liés à cette approche. Le premier est le risque de rendements décroissants dans les prochaines évolutions des LLM. En effet, les progrès observés entre les générations successives des modèles (par exemple entre GPT-4 et GPT-5) sont déjà moins spectaculaires. Cela représente un véritable défi pour les acteurs établis, remettant en question leur capacité à conserver leur avantage concurrentiel, tout en soulevant des interrogations quant à l’utilité réelle de ces modèles pour les entreprises.
À ce jour, l’amélioration des modèles repose essentiellement sur l’augmentation de la puissance de calcul afin de les entraîner sur des volumes de données toujours plus importants. Si, à l’inverse, des avancées technologiques permettent aux entreprises de l’IA d’améliorer leurs modèles en mobilisant moins de ressources, les prévisions actuelles concernant les besoins futurs en puissance de calcul pourraient être significativement remaniées.
Le deuxième risque est lié à l’« épisode DeepSeek » survenu en janvier, lorsqu’une start-up chinoise a annoncé avoir développé une approche moins gourmande en ressources pour créer un modèle d’IA de fondation. Cela nous rappelle opportunément que de nouvelles techniques pourraient émerger et bousculer les leaders du secteur. Que se passerait-il si davantage d’entreprises extérieures à l’écosystème actuel de l’IA trouvaient des solutions plus rapides ou plus économiques pour créer de nouveaux modèles ? Non seulement les valorisations des acteurs établis seraient menacées, mais la demande de puces dans toute la chaîne d’approvisionnement en serait profondément affectée.
Troisième risque : et si les petits modèles détrônaient les géants ? Dans l’hypothèse, évoquée plus haut, d’un ralentissement des progrès des LLM, d’autres modèles compacts, très économes en ressources et ciblés sur des tâches spécifiques, pourraient devenir nettement plus séduisants. Au lieu de nécessiter d’immenses centres de données, ces modèles pourraient fonctionner sur des appareils personnels, avec là encore d’énormes répercussions sur les prévisions actuelles de dépenses d’investissement dans l’IA, à ce jour systématiquement revues à la hausse.
Quelles sont les perspectives pour la demande de puces ? Si la demande liée à l’IA faiblit, d’autres sources de demande pourraient-elles prendre le relais ?
La majorité des applications d’IA s’appuient aujourd’hui sur des GPU (unités de traitement graphique), des puces mises au point par NVIDIA. Ces puces sont extrêmement bien adaptées à l’entraînement et au fonctionnement des modèles d’IA, mais elles restent coûteuses, et les volumes d’offre sont aujourd’hui limités.
C’est pourquoi certaines entreprises délaissent les GPU pour se tourner vers des ASIC (circuits intégrés à application spécifique). Il s’agit de puces conçues sur mesure pour exécuter des applications d’IA et produites pour un client unique. Naturellement, toutes les entreprises n’ont pas les moyens nécessaires pour concevoir et produire leurs propres puces, si bien que les principaux acteurs sont des géants tels que Google (avec ses TPU, unités de traitement tensorielles) et Amazon (avec ses puces « Trainium »).
Les entreprises qui réussissent en la matière peuvent non seulement réduire leur dépendance à l’égard de NVIDIA, mais aussi disposer de puces moins coûteuses, mieux adaptées à leurs besoins spécifiques, bien qu’avec d’éventuelles concessions en matière de performances. Broadcom, qui travaille en collaboration avec ces grands clients pour concevoir des composants adaptés à leurs besoins, figure parmi les acteurs les mieux positionnés pour profiter de l’essor des ASIC.
Pour l’instant, nous ne prévoyons pas que l’émergence des ASIC remette en cause la suprématie de NVIDIA sur le marché. Nous pensons néanmoins que la demande d’ASIC de la part des grands clients continuera de croître, et qu’un éventail plus large d’options pour les consommateurs de puces devrait soutenir le marché à long terme.
Toutefois, si la demande de puces pour les applications d’IA venait à diminuer, il est difficile d’imaginer comment d’autres utilisations pourraient absorber les volumes d’offre prévus. Prenons l’exemple des GPU : sur les 130 milliards de dollars de revenus estimés de NVIDIA en 2025, plus de 115 milliards de dollars proviennent du segment des centres de données, contre moins de 3 milliards de dollars en 2020 1. Les jeux vidéo, l’autre grand moteur de la demande de GPU, ne représentent que 11 milliards de dollars cette année 1.
Nous observons le même phénomène chez les autres fournisseurs de puces, où les dépenses liées à l’IA éclipsent tous les autres débouchés. Les autres segments du marché, comme le minage de cryptomonnaies, restent bien trop limités pour remplacer, ne serait-ce que partiellement, la demande générée par les centres de données dédiés à l’IA. D’autres grands consommateurs de semi-conducteurs, tels que les fabricants de smartphones et de PC ou d’ordinateurs portables, connaissent une phase de croissance très faible, et ne parviendront probablement pas à rassurer les investisseurs si la demande de puces liée à l’IA ne se matérialise pas, conduisant à une situation de capacités excédentaires.
Dans quelle mesure devons-nous nous inquiéter des accords de financement circulaire ?
Au début des années 2000, l’éclatement de la bulle Internet avait révélé qu’une grande partie des « profits » soi-disant générés n’étaient en réalité que des flux de trésorerie entre différentes entreprises technologiques, sans création de valeur économique réelle. Par exemple, l’entreprise A achetait de la publicité en ligne auprès de l’entreprise B, qui utilisait ces revenus pour acheter de la publicité à l’entreprise C, laquelle réutilisait ces sommes en tant que client de l’entreprise A.
La situation actuelle semble radicalement différente. De nombreux géants de la technologie génèrent déjà des bénéfices réellement impressionnants, et contrairement aux bilans fragiles des entreprises observés il y a 25 ans, les principaux acteurs disposent aujourd’hui de réserves de liquidités qui se chiffrent en centaines de milliards de dollars américains. Point essentiel : cette solidité financière a permis jusqu’ici à de nombreux fournisseurs de centres de données « hyperscale » de financer leurs investissements dans l’IA à partir de leurs flux de trésorerie disponibles. Nous notons toutefois que les engagements en dépenses d’investissement prévus pour les années à venir vont progressivement entamer ces réserves de liquidités.
De plus, la multiplication des accords entre différents acteurs de l’écosystème de l’IA ces derniers mois évoque, à certains égards, la dynamique observée à la fin des années 1990. L’annonce en septembre par NVIDIA de son projet d’investissement dans OpenAI, à hauteur de 100 milliards de dollars, en est sans doute l’exemple le plus marquant. OpenAI, à son tour, consacrera une grande partie de cet investissement à l’acquisition de nouvelles capacités de calcul, soutenant à terme la demande de puces fournies par NVIDIA.
Les plus optimistes soutiendraient que NVIDIA utilise simplement les liquidités de son bilan pour anticiper une demande future. Toutefois, plus le sort des différents acteurs devient étroitement lié, plus le risque est élevé en cas de défaillance d’un seul d’entre eux.