Informatique quantique: les percées se multiplient

Olivier Good, Synapse Invest

2 minutes de lecture

L’IA devrait bénéficier des multiples avancées du quantique, dont le déploiement à grande échelle est attendu d’ici la fin de la décennie.

Alors que les ordinateurs classiques reposent sur des données binaires ne pouvant avoir que deux états (zéro ou un), les ordinateurs quantiques quant à eux exploitent la capacité des bits quantiques, ou qubits, à exister dans une superposition de deux états en même temps. Cette particularité de la physique quantique permet d’effectuer certains calculs exponentiellement plus vite que les superordinateurs les plus avancés et, ainsi, d’être envisagés pour des utilisations visant à rendre les LLMs et l’IA générative plus rapides et moins énergivores.

Toutefois, l’un des principaux défis de l’informatique quantique est la désintégration des qubits qui entraîne des pertes de cohérence et donc des erreurs dans les calculs. Plusieurs découvertes récentes ouvrent de nouveaux horizons à ce domaine expérimental en plein essor.

Une équipe de chercheurs finlandais a ainsi démontré que la cause de la désintégration est liée à la dissipation thermique dans le circuit électrique qui contient le qubit. La résolution de ce problème majeur permettrait d’allonger les temps de cohérence des qubits, offrant ainsi un plus large volume d’opérations et permettant d’effectuer des calculs encore plus complexes.

En attendant de trouver une solution pour arrêter/ralentir la désintégration des qubits, les équipes de recherche utilisent une autre technique pour obtenir une informatique quantique fiable: la correction des erreurs quantiques ou QEC, qui compte de nombreuses percées récentes venant notamment de Microsoft ou encore de Google. La technologie QEC permettra d’atteindre un niveau de fidélité de 99,9% dans les qubits, ce qui permettra de créer des ordinateurs quantiques stables.

Il s’agit manifestement d’un élément clé pour la mise en place d’une informatique quantique à grande échelle, tout comme l’utilisation d’algorithmes dits hybrides, mélangeant l’informatique traditionnelle et les processus quantiques. Etant donné que l’informatique quantique n’est supérieure que pour des problèmes très spécifiques (nécessitant du nouveau code et de nouveaux algorithmes), cette combinaison augmente considérablement les cas d’utilisation et donc son attrait pour les utilisateurs potentiels.

L’amélioration des techniques de semi-conducteurs est un autre élément positif. De nombreuses équipes de développement cherchent des moyens de fabriquer des qubits en silicium afin de tirer parti de techniques de fabrication éprouvées et peu coûteuses pour les produire à grande échelle. Là encore, des avancées ont permis à des scientifiques australiens de fabriquer des qubits de haute fidélité à l’aide de processus de fabrication traditionnels, ouvrant ainsi la voie à la production industrielle de processeurs quantiques.

Enfin, la photonique connaît également des avancées significatives. Dans ce cas précis, les qubits sont des photons qui peuvent avoir simultanément deux états (deux longueurs d’onde ou couleurs de lumière différentes). Le principal défi consiste donc à intégrer directement des composants optiques dans une seule puce qui pourrait ainsi exploiter et modifier les flux de lumières pour effectuer des calculs.

Même si ces solutions n’en sont qu’au stade de prototype, le traitement quantique basé sur la photonique a d’ores et déjà démontré sa supériorité en termes de temps de calcul et d’efficacité par rapport aux solutions électroniques existantes.

Comme toujours, chaque avancée technologique a ses inconvénients. Dans le cas du quantique, la vulnérabilité accrue de la sécurité des systèmes informatiques en est le principal. Récemment, des chercheurs chinois ont apparemment réussi à violer des algorithmes de cryptage en utilisant une machine D-Wave. D’après un article de l’université de Shanghai, c’est la première fois que les ordinateurs quantiques représentent une menace réelle et substantielle pour plusieurs algorithmes de cryptographie couramment utilisés aujourd’hui. Etant donné que cet article universitaire omet de nombreux facteurs importants (comme la taille de la clé cryptographique), les experts en cryptographie du monde entier se demandent encore si ce «hack quantique» doit être pris au sérieux ou non.

De nombreuses entreprises et startups (IBM, Google en tandem avec Nvidia, Rigetti, IonQ...) se sont donc lancées dans la course du quantique avec pour objectif de faire passer l’IA au stade supérieur.

À l’heure actuelle, il semble très compliqué de déterminer les futurs gagnants de cette technologie étant donné que la technologie et sa monétisation sont à un stade encore très précoce, avec un début de maturité attendu pour la fin de la décennie au mieux.

Compte tenu des besoins de financement de cette industrie naissante, de nombreux acteurs spécialisés feront soit faillite soit, pour les rares présentant une valeur stratégique, l’objet des convoitises des géants de la technologie. Parmi ces acteurs spécialisés, IonQ semble présenter la dynamique la plus forte pour le moment, avec près de 100 millions de dollars de contrats signés et quelques accords avec des clients de premier plan tels qu’AstraZeneca.