Plus vite: trading à haute fréquence – Weekly Note de Credit Suisse

Burkhard Varnholt, Credit Suisse

7 minutes de lecture

Du courtier au superordinateur. Le pouvoir des algorithmes: utile ou nuisible? Réglementation? Trois options.

Performants, énigmatiques, controversés: quelle est la part de vérité dans les clichés concernant les courtiers haute fréquence? Et qu’est-ce que ces derniers apportent à la communauté en général? Après le «krach éclair» de décembre dernier, ils se retrouvent à nouveau sous le feu des critiques des investisseurs, des politiques et même de l’autorité de surveillance des marchés financiers. Ce qu’il faut se demander, c’est si le trading à haute fréquence (HFT pour «High Frequency Trading») ou fondé sur des algorithmes retire de la liquidité des marchés ou lui en procure, et s’il augmente leur volatilité. En d’autres termes, est-il plus nuisible qu’utile? Là se pose également la question de savoir s’il est possible de mieux prévenir un «krach éclair». Comme des investisseurs mais aussi des régulateurs me parlent souvent de ce sujet actuellement, j’aimerais l’approfondir ici.

1. Du courtier au superordinateur

S’il fallait brosser le profil professionnel du courtier haute fréquence dans un jeu de devinettes, on obtiendrait une description intéressante: il est probablement impliqué dans une transaction boursière sur deux mais ne génère guère, voire pas du tout, de liquidité sur le marché. Il poursuit souvent ses propres stratégies de placement, mais il ne s’intéresse ni au prix ni à la valeur. Ses investissements revêtent peu de risques, mais ils augmentent la volatilité générale du marché. Le courtier haute fréquence est considéré comme un parasite de l’infrastructure boursière existante, mais son activité n’est que peu réglementée. 

Cette définition ressemble à un réquisitoire sévère à l’encontre du trading actuel opéré par des ordinateurs. Néanmoins, il convient tout d’abord de bien préciser ce dont nous parlons. Les systèmes de négoce électronique et automatique n’ont rien de nouveau, mais le trading à haute fréquence en revanche si. Le fait que les systèmes de négoce automatique peuvent amplifier les fluctuations boursières n’est pas nouveau non plus. Lors de la journée «noire» du 18 octobre 1987, les algorithmes électroniques de couverture des portefeuilles, récents à l’époque, ont fait dévisser l’indice Dow Jones de 20% en une journée. Ce «krach éclair» n’était imputable ni à une récession, ni à d’autres facteurs fondamentaux, et il a offert une occasion historique de prendre des positions. Mais qui a les nerfs assez solides pour acheter après un tel effondrement? Le krach éclair de décembre dernier, qui en a fait le pire mois de décembre depuis 1931, relance la question de savoir s’il ne faudrait pas réglementer de tels algorithmes. 

Par le passé, les bourses et les marchés s’organisaient généralement autour des courtiers. Leur titre professionnel de «broker» vient du verbe anglais «to break» (casser ou fractionner). En d’autres termes, le broker, c’est-à-dire le courtier, avait souvent pour tâche de fractionner les ordres des clients en ordres plus petits pour pouvoir les traiter de façon aussi neutre que possible par rapport aux cours. À cette fin, il devait souvent détenir des positions propres, ce qui rendait son activité gourmande en capitaux. C’est pourquoi ce type de courtage («brokerage», également appelé «market making») était principalement l’affaire des banques. Cette formule (les ordres étaient initialement passés oralement ou par téléphone) a été remplacée progressivement par des systèmes de trading électronique à partir des années 1990, lesquels exécutaient donc les ordres des clients de manière anonyme et sur la base de règles, réunissant ainsi offres et demandes sur les places boursières. Ce trading automatisé permettait non seulement une économie de temps, de frais et de capitaux, mais il évitait aussi les abus, augmentait la confiance dans les marchés, accroissait la liquidité et améliorait au final l’allocation des capitaux, c’est-à-dire le pilier de toute économie de marché libre. Les bâtiments du XIXe siècle qui abritaient les places boursières mettent en évidence la considération que les sociétés organisées selon les principes de l’économie de marché portaient au négoce depuis longtemps. Les systèmes de trading électronique actuels se divisent en trois catégories (graphique 1).

Jusqu’ici, les titres se sont négociés de plusieurs façons en parallèle: orale, électronique, automatique et/ou entièrement automatique. Lorsque je travaillais au sein de la banque d’investissement américaine Morgan Stanley au milieu des années 1990, celle-ci employait 500 courtiers à travers le monde. Le brouhaha des entretiens téléphoniques de trading était assourdissant. Aujourd’hui, ces courtiers ne sont plus que trois. Le négoce se déroule presque exclusivement de manière électronique – et sans bruit! 

Néanmoins, les algorithmes de trading n’observent pas uniquement les principes d’exécution au mieux (best-execution), selon lesquels la plupart des transactions sur titres sont traitées actuellement. Ils peuvent aussi mettre en œuvre les propres stratégies de placement des courtiers en programmant des paramètres tels que des règles «momentum» ou de valorisation sur la base desquelles des ordres d’achat ou de vente sont émis. Ces stratégies entièrement automatisées sont souvent vantées comme assurant un traitement dénué d’émotions et plus rapide que ne le permettent l’analyse et l’exécution par des personnes.

Les stratégies de négoce à haute fréquence constituent une sous-catégorie des systèmes entièrement automatisés. Elles se distinguent principalement par leur rapidité et offrent l’avantage d’une courte longueur d’avance en matière d’informations entre le signal déclencheur et le négoce. À l’instar du banquier anglais du XIXe siècle Sir Nathan Rothschild, qui a bâti sa fortune grâce à l’avance d’information que lui procurait son vaste réseau de correspondants et de pigeons voyageurs, les superordinateurs d’aujourd’hui ont la tâche de réduire de plus en plus à la limite de la vitesse de la lumière le temps séparant le signal déclencheur et le négoce. Toutefois, à la différence de Sir Nathan Rothschild, les systèmes de trading à haute fréquence n’apportent pratiquement aucune nouvelle information aux acteurs des marchés et ne procurent aucune liquidité supplémentaire à ceux-ci non plus, car leur avance en matière d’informations et la durée de détention des positions se limitent généralement à quelques fractions de seconde. C’est donc là que se pose la question actuellement tant débattue de savoir si ces systèmes à haute fréquence sont de purs parasites de notre infrastructure boursière, sans aucune utilité, alors qu’ils agissent comme des vecteurs de krachs éclairs imprévisibles.

Le Service de recherche du Congrès américain estime que le trading à haute fréquence a gagné une grande part de marché au cours des dix dernières années. La proportion des transactions haute fréquence est déjà supérieure à 55% aux États-Unis et à 40% en Europe1. Si on y ajoute toutes les autres stratégies de trading entièrement automatiques (réplication indicielle passive, market making), il apparaît, d’après les estimations du Wall Street Journal, que 15% seulement des transactions sont encore opérées par des investisseurs axés sur les fondamentaux, tandis que 85% sont exécutées par des ordinateurs (graphique 2)2

De manière générale, les placements alternatifs tels que les hedge funds et le private equity (qui sont pondérés, en fonction du profil de risque, à hauteur de 7,5% à 15% dans les portefeuilles, selon l’allocation stratégique des actifs définie par le Credit Suisse) représentent aujourd’hui une composante incontournable de diversification pour nos clients. Ainsi, dans le cas du hedge fund «Renaissance Technologies LLC» créé en 1982 par l’ancien professeur de mathématiques Jim Simons, plus de 150 mathématiciens et informaticiens titulaires d’un doctorat géraient quelque 80 milliards de dollars sur la base de stratégies de négoce utilisant uniquement des méthodes mathématiques et statistiques – et ce avec un succès remarquable.

Que signifie cette évolution du négoce mondial des titres pour un investisseur axé sur les fondamentaux?

2. Le pouvoir des algorithmes: utile ou nuisible?

Comme je l’ai déjà mentionné, le débat n’est pas nouveau. En 1987 déjà, les stratégies automatiques de couverture de portefeuille (portfolio-insurance), toutes récentes à l’époque, ont été accusées, à juste titre, d’avoir accéléré la chute record de 20% enregistrée par l’indice Dow Jones en une seule journée. La couverture automatique de portefeuille a malheureusement un effet contreproductif lorsqu’elle est activée par tous les acteurs du marché en même temps. Il existe pourtant d’autres stratégies de négoce qui, prises dans leur globalité, sont utiles à la communauté, car elles procurent davantage de liquidité au marché et, partant, contribuent à la formation efficace des prix. C’est pourquoi leur réglementation se limitait jusqu’ici à des directives générales telles que la protection de l’intégrité des marchés ou de celle des investisseurs. 

L’expérience tirée du 18 octobre 1987 a débouché sur une règle importante, celle de «l’uptick», laquelle repose sur un concept simple qui a permis d’enrayer les cercles vicieux des dégagements boursiers. Le principe est le suivant: un titre dont le cours chute de plus de 10% en une journée est retiré du négoce jusqu’au soir, sauf pour les ordres d’achat. Le lendemain, il n’est possible d’effectuer que des ventes couvertes 

(mais pas à découvert) jusqu’à la première stabilisation du cours («uptick»). En d’autres termes, seuls les détenteurs du titre sont autorisés à s’en défaire. Sont interdits les ordres de vente émis par des acteurs du marché qui ne le possèdent pas mais pensent pouvoir le racheter moins cher à la livraison. Cette règle de l’uptick a ainsi permis d’éviter pendant vingt ans les externalités négatives découlant des dégagements simultanés de tous les acteurs et déclenchant des spirales descendantes qui s’autoalimentent. Mais en raison de la clause «Sunset» américaine (en vertu de laquelle de nombreuses lois doivent être à nouveau adoptées au bout de vingt ans ou sont automatiquement abrogées) et de la résistance opposée par plusieurs groupes de lobbyistes, la règle de l’uptick a fini par être supprimée aux États-Unis en 2007, alors qu’elle aurait pu se révéler très précieuse pendant la grande crise financière qui a suivi. 

Les stratégies à haute fréquence en revanche sont relativement nouvelles. Elles n’ont pu être mises en œuvre que grâce au développement des superordinateurs de plus en plus performants, qui permettent des arbitrages statistiques sur les prix en l’espace de millisecondes. Ces stratégies n’émettent pas d’hypothèses sur les prix ou la valeur. Elles reposent davantage sur une compétition douteuse dans laquelle le calculateur le plus véloce, la transmission de données la plus rapide, le meilleur logiciel gagne. Pour pouvoir placer leurs ordres plus rapidement que leurs concurrents, les traders haute fréquence louent leur propre emplacement directement dans le rack de serveur des différents marchés, de sorte que leurs superordinateurs ne se trouvent qu’à quelques centimètres de ceux de la bourse en question. Dans ce domaine en effet, l’avance se compte en millisecondes. Et pour soustraire les stratégies personnelles au regard des concurrents, celles-ci sont parfois dissimulées par des milliers d’ordres conditionnels d’achat et de vente, qui ne sont placés sur le marché que pour jeter de la poudre aux yeux. L’ordinateur calcule le prix d’exercice de ces ordres de telle manière que ceux-ci ne puissent jamais passer mais servent de camouflage à la stratégie poursuivie. Comme la durée de détention des transactions haute fréquence correspond généralement à une fraction de seconde, chacune d’elles considérée individuellement présente un risque infime. Mais pour que l’affaire en vaille la peine, il faut que chaque ordre porte sur un nombre gigantesque d’itérations. La réponse à la question de savoir si ces opérations haute fréquence procurent réellement de la liquidité aux marchés reste controversée. En revanche, il y a un large consensus sur le fait qu’elles augmentent leur volatilité, parfois même de façon extrême. 

Leon Cooperman, le célèbre milliardaire américain gérant de hedge funds, a fait récemment le commentaire suivant à propos du rôle du trading à haute fréquence: «Lorsque je demande à nos clients s’ils pensent que le trading à haute fréquence augmente fortement la volatilité des marchés financiers modernes, ils acquiescent presque tous».

En raison de la durée de détention très courte, les traders haute fréquence n’ont pas besoin de connaître les prix «corrects». Ils laissent aux investisseurs axés sur les fondamentaux la laborieuse tâche de déterminer ceux-ci et de réunir les liquidités. Sur le plan politique, cette pratique soulève actuellement deux questions pertinentes aux États-Unis: premièrement, le trading à haute fréquence devrait-il être réglementé à l’avenir du fait de son externalité supposée? Deuxièmement, serait-il opportun de réintroduire l’ancienne règle de l’uptick? Le ministre des finances américain, Steven Mnuchin, a déjà laissé entendre en décembre dernier qu’il était favorable aux deux suggestions, faisant référence à un groupe de travail créé à cet effet3.

3. Réglementation? Trois options

La réponse à la question de savoir si le trading à haute fréquence est plus nuisible qu’utile reste controversée. Il semble néanmoins évident que cette forme de négoce ne sera pas abandonnée et que les investisseurs axés sur les fondamentaux devront probablement faire preuve de davantage de patience et d’un certain recul à l’avenir. En matière de réglementation, trois options sont actuellement à l’étude aux États-Unis en dehors d’une réintroduction de la règle générale de l’uptick. D’autres pays devraient ensuite s’aligner sur la décision de Washington.  

  1. Durée de détention minimale. Si les traders haute fréquence étaient contraints de détenir leurs positions pendant une durée minimale, leur modèle commercial changerait. Certains devraient procéder à une estimation du prix ou de la valeur, d’autres seraient confrontés à un éventail d’opportunités nettement plus restreint. Mais, comme toujours, le diable se cache dans les détails. Quelle serait la durée de détention adéquate? Une seconde? Dix secondes? Une minute? Un jour? Il est difficile de répondre.
  2.  Introduction d’une petite taxe. Si l’on introduisait une taxe de 0,01%, cela correspondrait par exemple à un centime par action pour le négoce aller-retour d’un titre d’une valeur de 50 francs. Est-ce proportionné ou non? Bonne question.
  3. Obligation d’autodéclaration. Une telle obligation imposée à tous les acteurs du marché ne créerait qu’une distorsion négligeable du marché. Cette transparence serait susceptible d’éviter des krachs éclairs, car les acteurs concernés pourraient déterminer à tout moment si le marché est influencé par des investisseurs ou des algorithmes. Sur le plan technique, cette formule serait facile à mettre en œuvre. Dans la pratique, elle n’exigerait rien d’autre que de la probité. Quelque chose qui va de soi?

A lire aussi...