Des chercheurs dirigés par l’IA quantique de Google trouvent le « point idéal » pour utiliser les ordinateurs quantiques actuels afin d’effectuer des calculs pratiques

Mémoire d’initié

  • Une étude récente menée par Google Quantum AI montre que les ordinateurs quantiques n’ont peut-être pas besoin d’atteindre une tolérance totale aux pannes pour surpasser les supercalculateurs classiques, trouvant une phase dans laquelle les appareils Noisy Intermediate-Scale Quantum (NISQ) d’aujourd’hui peuvent exceller.
  • À l’aide d’un système de 67 qubits, l’équipe a utilisé un échantillonnage de circuits aléatoires (RCS) pour identifier les conditions dans lesquelles les systèmes quantiques conservent une complexité suffisante pour dépasser les simulations classiques.
  • Les chercheurs visent à utiliser cette phase de calcul stable pour cibler des problèmes réels dans les domaines de la finance, des matériaux et des sciences de la vie, ce qui suggère que les dispositifs NISQ peuvent apporter de la valeur avant que des systèmes entièrement tolérants aux pannes ne soient développés.

Les ordinateurs quantiques n’ont peut-être pas besoin d’atteindre le stade complet de tolérance aux pannes pour effectuer des calculs commerciaux utiles, suggère une nouvelle étude.

Une équipe internationale de chercheurs, dirigée par Google Quantique IA, signaler dans un nouveau document de recherche publié dans Nature qu’ils ont identifié une phase de calcul complexe – un « point idéal » – où les ordinateurs quantiques bruyants peuvent surpasser les superordinateurs classiques.

Cette découverte pourrait conduire les ordinateurs quantiques bruyants à échelle intermédiaire (NISQ) actuels à surpasser les superordinateurs classiques dans certaines tâches commerciales, a déclaré Sergio Boixo, scientifique principal en informatique quantique chez Google Quantum AI, à The Quantum Insider. Boixo a aidé à diriger la recherche avec Alexis Morvan, chercheur scientifique chez Google Quantum AI.

“La question que nous abordons est donc la suivante : nous sommes dans l’ère NISQ, cela signifie que nous avons des ordinateurs quantiques bruyants et cette question se pose depuis longtemps : ‘Pouvez-vous trouver des applications où vous surpassez les superordinateurs avec des ordinateurs quantiques bruyants ?’ ?'”, a déclaré Boixo, “Il y a eu beaucoup d’avancées théoriques sur cette question. C’est donc la question que nous abordons dans le document et nous avons répondu : « Oui, c’est le cas ». Nous trouvons une phase de calcul complexe dans laquelle les ordinateurs quantiques bruyants peuvent surpasser les supercalculateurs.

L’équipe a mené des expériences sur la puce Sycamore de 67 qubits de Google qui révèlent une « phase à faible bruit » dans la transition entre les phases lorsque le calcul est suffisamment complexe pour que l’ordinateur quantique surpasse les appareils classiques. Ils démontrent également des performances au-delà du classique avec cette puce.

Ces preuves expérimentales indiquent qu’un jour, les ordinateurs quantiques bruyants, lorsqu’ils fonctionneront dans des conditions spécifiques, pourraient entrer dans ce que les scientifiques appellent une « phase complexe de calcul stable » et devenir meilleurs que les supercalculateurs actuels dans certaines tâches. Selon l’équipe, ce serait une avancée significative dans l’ère du bruit quantique à échelle intermédiaire (NISQ).

Les chercheurs se sont appuyés sur l’échantillonnage de circuits aléatoires, ou RCS, une technique d’analyse comparative conçue pour mesurer les performances des processeurs quantiques en comparant leurs distributions de sortie avec des simulations classiques de superordinateurs. Les chercheurs ont également ajouté dans l’article qu’ils utilisaient le Cross-Entropy Benchmarking, ou XEB, pour identifier et caractériser expérimentalement les transitions de phase dans le comportement de leur système quantique lors de l’utilisation d’un échantillonnage de circuits aléatoires.

Pour donner une idée du fonctionnement de ces techniques, RCS fonctionne en exécutant une séquence de portes quantiques générées de manière aléatoire sur un ensemble de qubits, produisant une distribution de sortie complexe difficile à simuler pour les ordinateurs classiques. Dans cette étude, cela permet de tester directement les capacités de calcul du système quantique. XEB est une méthode qui calcule l’entropie croisée – une mesure de l’écart ou de la différence entre deux distributions de probabilité – entre la distribution de sortie obtenue expérimentalement et la distribution théorique générée par des simulations classiques. En fin de compte, les scientifiques peuvent utiliser XEB pour évaluer la précision et la fidélité des performances du processeur quantique.

En employant cette méthode sur la puce Sycamore de 67 qubits de Google, les chercheurs ont identifié une phase où le système quantique peut maintenir des corrélations complexes, même en présence de bruit.

Détails et résultats expérimentaux

Selon l’article, la recherche étudie deux transitions de phase clés dans les systèmes quantiques à mesure qu’ils gagnent en complexité et sont confrontés à des problèmes de bruit. La première est une transition dynamique influencée par le nombre de cycles, ou la profondeur, des calculs quantiques. À mesure que la profondeur augmente, le système passe d’un état dans lequel les distributions de sortie sont concentrées dans un petit ensemble de chaînes de bits à une distribution plus large, connue sous le nom d’anti-concentration. Ce changement représente la complexité informatique croissante du système, mais maintenir cet état dans un environnement bruyant reste un défi de taille.

La deuxième transition de phase, sur laquelle les chercheurs soulignent dans l’étude, est contrôlée par le taux d’erreur par cycle, c’est-à-dire le bruit qui affecte chaque fonctionnement de porte et chaque interaction de qubit. L’étude a introduit un modèle statistique de « maillon faible » pour analyser cette transition, en faisant varier les niveaux de bruit pour comprendre son impact sur les performances du système. L’équipe a découvert que si le taux de bruit par cycle reste inférieur à un seuil critique, le processeur quantique maintient des corrélations globales dans l’ensemble du système, lui permettant ainsi d’atteindre des performances au-delà des performances classiques.

Dans la phase de faible bruit, ces corrélations sont suffisamment fortes pour empêcher les algorithmes classiques de simplifier et d’usurper les résultats du système quantique. Trouver cet équilibre où le système maintient des corrélations globales tout en minimisant le bruit est essentiel pour tirer parti de la puissance de calcul des processeurs quantiques, a déclaré Boixo.

Pour valider leurs résultats, les chercheurs se sont appuyés sur le XEB susmentionné pour mesurer la fidélité du système et déterminer les limites dans lesquelles un avantage quantique pourrait être obtenu. Les expériences ont démontré que dans cette phase stable et à faible bruit, la puce Sycamore pouvait effectuer des calculs actuellement impossibles à réaliser pour les supercalculateurs classiques, mettant en évidence un avantage pratique même avec le matériel existant.

Tester les limites quantiques par rapport aux limites classiques

L’étude a évalué les limites de calcul des supercalculateurs classiques en utilisant des algorithmes avancés de réseau tenseur pour simuler les expériences RCS. Les résultats ont montré que la simulation de l’expérience 67 qubits sur les supercalculateurs actuels de premier plan, tels que Frontier, prendrait des dizaines d’années, même dans les meilleures conditions de mémoire et de bande passante. Cette charge de calcul conforte l’idée selon laquelle la technologie quantique actuelle peut accomplir des tâches hors de portée des systèmes classiques.

Les chercheurs soulignent que malgré les progrès des algorithmes de simulation classiques, la complexité des systèmes quantiques reste un obstacle important au calcul classique. Leurs expériences, qui utilisaient un système de 67 qubits à 32 cycles, démontrent que ces circuits quantiques atteignent des niveaux de complexité et de profondeur que les systèmes classiques ne peuvent pas reproduire efficacement.

Candidatures ensuite ?

Cette étude offre des informations cruciales sur les conditions nécessaires pour obtenir un avantage quantique à l’ère du NISQ. En identifiant les seuils de bruit et en utilisant des techniques d’analyse comparative telles que RCS et XEB, les chercheurs fournissent un cadre permettant d’identifier et d’optimiser les conditions dans lesquelles les processeurs quantiques peuvent surpasser les ordinateurs classiques.

L’objectif est maintenant d’exploiter cette phase complexe de calcul stable pour utiliser un appareil NISQ pour un calcul utile. L’équipe suggère que de nombreux calculs dans les domaines de la finance, des matériaux et des sciences de la vie constituent des cibles intéressantes pour cette prochaine étape.

“Nous montrons que nous gagnons de manière convaincante sur ces critères, donc effectivement, la prochaine étape consiste à passer aux applications”, a déclaré Boixo.

Cette découverte peut également créer une période de transition au cours de laquelle les ordinateurs quantiques NISQ peuvent apporter une réelle valeur ajoutée à mesure que les scientifiques progressent vers des ordinateurs quantiques tolérants aux pannes.

“Les ordinateurs quantiques tolérants aux pannes, comme vous le savez, seront dans plusieurs années, nous n’allons donc pas sauter avant d’arriver à cette ère tolérante aux pannes”, a déclaré Boixo. « Cela va donc être un processus fluide. Et je pense qu’une grande partie de ce que nous apprenons en termes de recherche d’applications pour les ordinateurs quantiques bruyants sera également très utile au début de l’ère de la tolérance aux pannes.

Ces travaux peuvent également contribuer à améliorer la compréhension de la manière dont le bruit interagit avec la dynamique quantique afin de guider les futurs efforts d’atténuation des erreurs et d’ouvrir la voie à ces systèmes quantiques entièrement tolérants aux pannes.

Bien que cette recherche soit une étape nécessaire pour passer du premier NISQ au NISQ utile, Boixo a déclaré qu’il restait encore beaucoup de travail à faire.

“La prochaine étape consiste en effet à évoluer vers des applications, ce qui signifie transformer l’échantillonnage de circuits aléatoires ou trouver un autre problème ou un autre algorithme permettant de faire les deux choses en même temps”, a déclaré Boixo. “Nous voulons conserver suffisamment la difficulté de l’échantillonnage aléatoire des circuits, qui est encore difficile pour les supercalculateurs classiques, tout en le rendant plus utile.”

Pour une explication plus détaillée et technique du travail des chercheurs, veuillez lire l’article dans Nature.

Les institutions contribuant à cette étude comprennent Google Research, le laboratoire d’intelligence artificielle quantique du NASA Ames Research Center, KBR, l’université du Connecticut, le National Institute of Standards and Technology (NIST), l’université du Massachusetts à Amherst, l’université d’Auburn, l’université of Technology Sydney, l’Université de Californie Riverside et l’Université Harvard.

#Des #chercheurs #dirigés #par #lIA #quantique #Google #trouvent #point #idéal #pour #utiliser #les #ordinateurs #quantiques #actuels #afin #deffectuer #des #calculs #pratiques

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.