Google fait une percée avec un processeur quantique amélioré

Google fait une percée avec un processeur quantique amélioré

Google vient d’annoncer sa prochaine génération de processeurs quantiques. Baptisés Sycamore, les processeurs sont capables de corriger les erreurs quantiques. Et la démonstration que le géant de la technologie a annoncée est vraiment une percée dans l’informatique quantique.

Ainsi, l’itération du Sycamore n’est pas vraiment si dramatique. Il a le même nombre de qubits que la version précédente. Cependant, il s’est beaucoup amélioré en termes de performances. Et la correction d’erreurs n’est même pas le point fort de l’annonce. Google affirme avoir réussi à faire fonctionner le processeur il y a des années !

Google montre des signes de progrès avec Sycamore

Fondamentalement, les signes de progrès avec Sycamore ne sont pas si perceptibles. Au lieu de cela, c’est un peu plus subtil. Dans la génération précédente de processeurs de Google, les qubits étaient sujets aux erreurs. En fait, la nature sujette aux erreurs était très extrême. Autrement dit, en intégrer davantage dans un schéma de correction d’erreurs a causé encore plus de problèmes.

processeur quantique

En d’autres termes, le gain en corrections était significativement plus faible pour les précédents processeurs quantiques. Mais avec la nouvelle itération, l’équipe quantique de Google a réussi à faire en sorte que le taux d’erreur soit le plus bas possible. Et l’ajout de plus de qubits se traduit désormais par de meilleurs gains.

Les problèmes résolus par Google

En supposant que tous les qubits se comportent comme ils le devraient, on pense que vous pouvez effectuer des calculs correctement et plus efficacement avec plus de qubits. En d’autres termes, plus une machine a de qubits, plus elle sera performante. Mais, en général, les qubits ne se comportent pas comme prévu. Et c’est fondamentalement la principale priorité de Google.

La solution à ce problème consiste à créer un qubit logique corrigé des erreurs. Et cela implique le processus de distribution d’un état quantique entre tous les qubits. Autrement dit, la correction d’erreurs peut être activée avec des qubits supplémentaires voisins de chacun des membres du qubit logique.

Actualité mobile (sous-titrée) de notre partenaire de la semaine

YouTube video


Google Sycomore

Ainsi, Google reconnaît principalement deux problèmes principaux. Premièrement, il n’y a pas assez de qubits matériels à épargner. Le deuxième problème est que les taux d’erreur des qubits sont raisonnablement plus élevés que prévu. Cela les rend inaptes à effectuer un travail fiable.

En bref, ajouter des qubits existants à un qubit logique ne rend pas réellement un système robuste. Au lieu de cela, cela rend le système plus susceptible d’avoir de nombreuses erreurs. Et toutes ces erreurs peuvent survenir en même temps, ce qui rend leur correction très difficile.

Le même mais différent

Google a répondu aux problèmes mentionnés ci-dessus. Fondamentalement, sa réponse a été de construire une nouvelle génération de son processeur Sycamore. Il a la disposition des qubits matériels au même montant. En d’autres termes, les spécifications du nouveau processeur quantique n’ont pas vraiment vu de mise à niveau.

Au lieu de cela, Google s’est concentré sur la réduction du taux d’erreur pour tous les qubits. La réduction du taux d’erreur visait à rendre chaque qubit plus capable de gérer des opérations compliquées. Cela aussi, sans connaître la moindre panne. Voici un bref aperçu du matériel utilisé par Google pour tester les capacités de correction d’erreurs des qubits logiques :

Processeur quantique de Google

L’article publié décrit deux méthodes différentes. Dans les deux cas, les données se trouvaient dans une grille carrée de qubits. Ils avaient chacun des qubits voisins que Google utilisait pour mesurer afin de mettre en œuvre la correction d’erreurs. La seule différence entre les méthodes était la taille de la grille.

L’équipe de recherche de Google a également effectué différentes mesures pour calculer les performances. Mais l’objectif principal était simple. Il s’agissait de déterminer si les qubits avaient un taux d’erreurs plus faible. Et à partir de là, il semble que le schéma plus large ait gagné. Mais la différence n’était pas si importante.

En comparaison, le plus grand qubit logique avait un taux d’erreur de 2,914 %, tandis que le plus petit avait 3,028 %. Bien que cette différence puisse sembler minime, Google a en fait fait des progrès appropriés dans le monde quantique.