Le repli des marchés peut être attribué à un certain nombre d’événements macroéconomiques tels que le ralentissement de l’économie et l’incertitude quant au résultat des élections aux Etats-Unis. Ces événements ont déclenché d’importantes rotations de style, les investisseurs délaissant la croissance pour la substance et passant des grandes capitalisations aux petites ou de l’international au domestique.
Focus sur les cash-flows d’après-demain
Les actifs à «duration longue», c’est-à-dire les entreprises dont la génération de cash-flow dépend davantage de l’avenir que du court terme, ont tendance à sous-performer dans un tel contexte et il n’y a rien d’étonnant à ce que les entreprises exposées à l’IA aient, du fait de leur profil orienté croissance, une part plus importante de leur cash-flow qui dépend de leurs résultats à long terme.
Quoique «conscients du facteur macroéconomique», nous limitons les interventions qui en dépendent, car leurs résultats sont trop imprévisibles et binaires. Le meilleur moyen pour créer de la valeur ajoutée est encore de concentrer son attention sur l’innovation et les entreprises qui élaborent les produits ou services de qualité susceptibles de séduire la demande, indépendamment ou presque, de la conjoncture. L’innovation entraîne une augmentation des ventes qui se traduit par une hausse des bénéfices, lesquels sont le véritable moteur de la performance des actions sur le long terme. C’est la raison pour laquelle l’IA est une thématique particulièrement intéressante à l’heure actuelle.
Outre l’élément macroéconomique, la question de la performance des investissements dans l’IA commence à faire débat chez les participants au marché. Si l’on prend pour exemple les géants de la «tech», Microsoft, Alphabet, Amazon et Meta, également désignés comme «centres de données à très grande échelle» (hyperscalers), leurs investissements cumulés sont passés de 125 milliards de dollars en 2023 à environ 200 milliards cette année.
Cette augmentation de 75 milliards est nettement supérieure à la hausse annuelle moyenne de 10 milliards observée ces dix dernières années. Pourtant, aucune ligne «revenus provenant de l’IA» ne semble justifier ces dépenses et l’application qui rendra toutes les autres caduques reste encore à inventer. OpenAI et ChatGPT, l’entreprise et son application qui sont les plus en vue dans le monde de l’IA, génèrent un chiffre d’affaires d’environ 3 milliards de dollars.
Le temps: un incontournable
Cette situation n’a rien d’anormal, car à aucun moment dans l’histoire du capitalisme des investissements massifs n’ont été immédiatement profitables. L’augmentation actuelle de l’intensité capitalistique des «hyperscalers» ne diffère pas de celle qu’ont connue Microsoft ou Amazon il y a 10 ou 15 ans, au début de la migration des données des ordinateurs centraux vers le «nuage». Ce phénomène se déroule simplement sur un laps de temps plus court dans la mesure où les entreprises associent le fait d’être le premier à la capacité à gagner rapidement une envergure suffisante.
Qu’il s’agisse de produits ou de services, tout changement de paradigme exige du temps. Netscape, souvent considéré comme le navigateur qui a permis l’avènement d’internet, a été lancé en 1994. Google, devenu entretemps Alphabet, est né 4 ans plus tard et elle est aujourd’hui l’entreprise internet la plus prospère et la plus rentable. Le premier iPhone a été commercialisé en 2007 et Uber n’a été créé que deux ans plus tard alors qu’il aura fallu 11 ans pour que TikTok émerge. Il faut donc du temps.
Le calcul de la rentabilité: un casse-tête
Par ailleurs, les modes de calcul de la rentabilité de l’IA manquent de cohérence. Le marché se focalise sur les revenus directement imputables à l’IA alors qu’il paraît difficile de les définir de manière aussi stricte. De fait, l’IA est intégrée dans de nombreux produits et les améliore et/ou permet d’éviter certains coûts. Elle est essentiellement utilisée pour deux raisons, l’une répondant à une approche très déterministe et l’autre à une approche non déterministe (tout ce qui se situe entre les deux reste encore de l’ordre du conceptuel).
L’utilisation déterministe concerne principalement la production de code: grâce à l’utilisation d’outils basés sur l’IA, la productivité des concepteurs de logiciels est nettement accrue (le processus est déterministe dans la mesure où la ligne de code fonctionne ou ne fonctionne pas et la boucle de rétroaction est rapide et précise). A l’autre extrême se trouvent Meta (Facebook/Instagram) et Alphabet (Google) qui accélèrent considérablement la croissance de leurs revenus en déployant l’IA pour améliorer les recommandations aux utilisateurs (c’est-à-dire le fil d’actualité) et aux annonceurs (c’est-à-dire une meilleure adéquation). L’IA déployée dans ce contexte exploite l’énorme quantité de données en temps réel qui proviennent des milliards d’utilisateurs quotidiens, ce qui permet d’effectuer les tests A/B1 les plus importants jamais réalisés.
L’IA n’en est qu’à ses débuts et son évolution ne sera pas linéaire. Elle se fera probablement par étapes et sur la durée. Dans cette optique, les valorisations restent relativement raisonnables. Les grandes entreprises de la «tech» se négocient à des multiples qui ne sont pas trop éloignés de ceux observés sur le marché dans son ensemble alors qu’elles offrent une croissance plus forte et affichent un bilan plus solide (avec un endettement moindre).
1L’A/B test, initialement conçu pour les sites internet, permet de comparer l’efficacité de deux versions d’un même élément auprès des utilisateurs.