La mécanique quantique, élaborée entre
1900 (rayonnement des corps noirs par Max Planck) et 1927 (Principe
d’incertitude d’Heisenberg) reste, avec la relativité générale
d’Einstein, l’une des plus extraordinaires avancées scientifiques et
conceptuelles réalisée par l’esprit humain. Défiant le sens commun et
les réalités apparentes et perceptibles, cette théorie étrange constitue
une rupture radicale avec la représentation que l’homme se faisait du
monde depuis Aristote : désormais il nous faut admettre qu’à certains
niveaux de « réalité », les principes d’identité et de causalité n’ont
plus de sens et changent de nature.
Concrètement, si l’on peut dire, en parlant d’une théorie qui repose
sur un formalisme mathématique d’une extrême abstraction, cela signifie
notamment qu’une « particule » ne peut plus être appréhendée isolément,
comme un objet parfaitement délimité dans l’espace et dans le temps mais
doit
être considérée plutôt comme une manifestation particulière d’un
système physique global et « intriqué » intégrant l’Univers dans son
ensemble…
Les conséquences pratiques qu’entraine cette nouvelle conception du
monde sont redoutables et déroutantes. En mécanique quantique, on ne
peut, par exemple, connaître à la fois avec précision la position et la
vitesse d’une particule et l’on doit également admettre qu’une particule
interagit avec l’observateur et va se comporter tantôt comme un objet «
ponctuel », tantôt comme une onde, en fonction du dispositif
expérimental choisi pour l’observer !
Il a fallu plus d’un demi-siècle pour que la communauté scientifique
dans son ensemble accepte enfin ce renversement de perspectives de la
physique. Plus précisément, c’est en 1982, qu’à l’issue d’une série
d’expérimentations remarquables, le physicien français Alain Aspect a
montré de manière très convaincante que, contrairement à ce que pensait
Einstein – et qu’il avait exprimé en 1935 avec son fameux paradoxe EPR –
et conformément aux prévisions de la physique quantique, deux photons
issus d’une même source puis envoyés dans des directions opposées
restaient à jamais « intriqués », c’est-à-dire liés dans leurs
propriétés et leur « comportement ».
Aujourd’hui, plus de trente ans après les expériences historiques
réalisées par Alain Aspect à l’Institut d’optique d’Orsay, une équipe de
physiciens néerlandais vient de franchir une nouvelle étape décisive
dans la confirmation expérimentale de la physique quantique. Dirigés par
Ronald Hanson de la Delft University of Technology aux Pays-Bas, ces
scientifiques, qui avaient déjà réussi il y a un an à
transférer une
information d’un bit quantique (qbit) à un autre, situé à 3 mètres de
distance, sont cette fois parvenus à mettre en évidence ce phénomène
d’intrication quantique à une
distance-record de 1,3 km.
Dans cette série d’expériences, d’une extrême complexité, ces chercheurs ont pu effectuer 245 mesures (Voir
Hanson Lab et
article intitulé « Constatation expérimentale de la violation des
inégalités de Bell par la mesure du spin d’électrons distants de 1,4 km
»
Cornell University Library).
Les physiciens ont utilisé deux diamants permettant de produire des
photons polarisés intriqués avec des électrons. Ces diamants, qui
étaient séparés par une distance de 1,28 kilomètre, émettaient chacun un
photon. Ces deux photons s’éloignaient ensuite en direction d’un
détecteur situé entre les diamants à plusieurs centaines de mètres de
distance. Grâce à ce dispositif expérimental très ingénieux, les
physiciens ont pu effectuer des mesures de spins des électrons sur
presque toutes les paires de particules intriquées et combler ainsi
l’une des dernières failles méthodologiques qui auraient pu biaiser les
résultats.
En outre, ces expériences ont permis de garantir qu’aucun signal,
même à la vitesse de la lumière, n’avait eu le temps de voyager entre
les deux diamants au cours des mesures, pour « informer » ces diamants
du résultat de ces dernières. Le résultat de ces expériences est sans
appel : les corrélations de mesures de spin constatées sont en parfait
accord avec le théorème des inégalités de John Bell (1964) et confirment
de manière remarquable la théorie quantique, en excluant de manière
encore plus rigoureuse l’hypothèse de « variables cachées » locales qui
pourraient expliquer de tels résultats de mesures.
Autrement dit, il existe bien un niveau de réalité physique
fondamentalement différent de celui qui prévaut à notre échelle
(thermodynamique) ou à l’échelle cosmique (relativité générale), au sein
duquel s’exprime de manière non réductible, ce que le regretté Bernard
D’Espagnat, qui vient de disparaître, appelait un « réel voilé »,
organisé selon un principe de non-séparabilité. A ce niveau de réalité
insaisissable, matière et énergie, ondes et particules, espace et temps
sont enchevêtrés de manière inextricable. Cette dimension quantique du
monde ne résulte pas de notre ignorance, ni de l’imprécision de nos
instruments de mesure mais constitue bien une dimension fondamentale de
la nature…
Mais la physique quantique, après être restée longtemps une curiosité
théorique, s’est avérée depuis une vingtaine d’années une
extraordinaire source de ruptures et d’innovations technologiques. Il
faut par exemple savoir que c’est la physique quantique qui a permis la
naissance et l’essor de la spintronique et l’introduction des têtes de
lecture à magnétorésistance géante, à l’origine de l’
augmentation
considérable (par un facteur 100) de la densité de stockage
d’information sur disque dur.
Il faut également rappeler que les nombreux outils technologiques qui
constituent aujourd’hui notre quotidien,
comme le microprocesseur, le
laser, le GPS, ou encore l’imagerie par résonance magnétique,
n’existeraient pas sans la théorie quantique. Mais, comme le souligne
Dominique Sugny, du Laboratoire interdisciplinaire Carnot, à Dijon,
« aussi importantes soient-elles, ces applications s’appuient seulement
sur une compréhension passive des lois quantiques et désormais, les
chercheurs veulent aller plus loin, en contrôlant activement les objets à
cette échelle. » C’est là qu’intervient une jeune discipline pleine de
promesses, le contrôle quantique, qui vise à organiser et à manipuler
atomes et particules variées afin de leur conférer des fonctions
spécifiques et de leur faire accomplir des tâches précises.
Pour atteindre cet objectif ambitieux, les scientifiques se sont
notamment appuyés sur
la théorie du contrôle optimal qui consiste à
rechercher une solution sous la forme mathématique d’un problème
d’optimisation qu’on peut résoudre numériquement. C’est ce principe qui a
permis, il y a presque un demi-siècle, au cours du programme lunaire
américain Apollo, de déterminer les trajectoires minimisant le plus
possible la consommation de carburant pour atteindre la Lune.
L’augmentation exponentielle de la puissance de calcul informatique a
permis récemment au contrôle quantique de réaliser des pas de géant
dans plusieurs domaines. Par exemple, il est à présent possible de
contrôler certaines réactions chimiques complexes par laser en calculant
l’ensemble des paramètres des ondes lumineuses utilisées pour obtenir
cette réaction. Il y a quelques mois, des chercheurs ont ainsi réussi à
créer, à l’aide du contrôle quantique, une liaison entre deux atomes de
magnésium2.
Mais ces outils de contrôle quantique sont également en train de
bouleverser un autre domaine hautement stratégique, celui de
l’informatique quantique. Actuellement, les ordinateurs reposent sur une
logique binaire, issus de l’architecture imaginée par Van Neumann, l’un
des pères de l’informatique. Dans cette configuration, la plus petite
unité d’information, le bit, ne peut prendre que deux valeurs, 0 ou 1,
selon le passage ou non du courant électrique à travers un transistor.
Mais, dans un ordinateur quantique, les choses se passent de manière
radicalement différente. Le bit quantique (ou qbit), repose sur l’état
d’un système quantique et peut de ce fait s’affranchir de cette logique
binaire et utiliser les étranges propriétés quantiques d’intrication et
de superposition d’états.
Au lieu d’effectuer de manière séquentielle toute une série de
calculs pour parvenir à un résultat final, l’ordinateur quantique peut
donc, en théorie, avoir accès à la totalité des résultats en une seule
étape, ce qui laisse espérer des machines dont la puissance de calcul
serait des milliers de fois supérieure à celles de nos superordinateurs
d’aujourd’hui…
Mais le chemin technologique qui mène vers l’ordinateur quantique
opérationnel est semé d’embûches. L’un des principaux obstacles que
doivent par exemple surmonter les chercheurs est lié au nombre de qbits
pouvant fonctionner simultanément au sein d’une même machine. En effet,
pour être réellement efficace, un ordinateur quantique doit en théorie
pouvoir mobiliser en même temps plusieurs milliers de qbits. Mais plus
ces qbits sont nombreux et plus les risques d’interaction avec
l’environnement augmentent. Or ces interactions entraînent ce que les
physiciens appellent une décohérence, c’est-à-dire un brusque
effondrement des propriétés quantiques recherchées.
Mais le contrôle quantique parvient de mieux en mieux à détecter les
erreurs dues à la décohérence et à les corriger en temps réel. En 2011,
une avancée majeure dans ce domaine a été réalisée par l’équipe de Serge
Haroche, Prix Nobel de physique en 2012. Après être parvenu à mesurer
des photons sans les détruire, ces chercheurs ont réussi à stabiliser le
nombre de photons piégés dans une cavité supraconductrice en générant
un signal micro-onde approprié. Cette avancée remarquable confirme qu’il
est
possible de corriger en temps réel les bits d’un ordinateur
quantique, ce qui lève un verrou majeur dans la conception de ces
machines.
Le domaine biologique et médical va également connaître une
révolution grâce à l’application du contrôle quantique. En
imagerie IRM
par exemple, en utilisant la théorie du contrôle optimal, des chercheurs
sont parvenus à déterminer les profils de champ magnétique à appliquer
pour obtenir le
meilleur contraste possible d’une image pour des
conditions expérimentales données. Les physiciens ont validé ensuite
avec succès cette approche par une expérience test in vitro. Quant aux
premiers essais sur l’homme, ils pourraient commencer à l’horizon 2020
et, selon le physicien Dominique Sugny, ils devraient permettre
d’obtenir des images bien plus précises qu’aujourd’hui, ce qui permettra
de nouveaux progrès pour de nombreuses pathologies, en matière de
détection et de diagnostic.
Dans le domaine connexe des télécommunications qui doivent absorber
et véhiculer des quantités d’informations toujours plus grandes et vont
devoir intégrer demain l’Internet des objets et la visiophonie
personnelle en 3D, le déploiement des réseaux et des composants optiques
permet également d’avoir recours au
contrôle quantique pour décupler la
rapidité et la fiabilité de ces échanges de données numériques. Au
Canada, l’équipe du professeur Roberto Morandotti est récemment parvenue
à utiliser la photonique quantique pour produire directement des paires
de photons ayant une polarisation croisée (orthogonale), une première
en optique quantique intégrée sur puce. Grâce à cette avancée, il
devient possible de recourir à la polarisation des photons pour
améliorer considérablement le débit et la rapidité des communications
optiques d’informations numériques.
Dans le domaine des communications sécurisées, le contrôle quantique
est également en train de s’imposer. En début d’année, des chercheurs de
l’Université nationale australienne (ANU) et de l’Université d’Otago en
Nouvelle-Zélande Dr Jevon Longdell ont
créé un prototype de disque dur
quantique qui peut modifier fondamentalement le domaine du cryptage de
données sécurisé, à longue distance. Utilisant des atomes de l’élément
europium de terre rare intégré dans des cristaux d’orthosilicate
d’yttrium (YSO), ces scientifiques ont réussi à créer un dispositif de
stockage capable de maintenir jusqu’à six heures une information à
l’état quantique (Voir
Australian National University).
Toujours en matière de
cryptage quantique des communications, la
firme japonaise Toshiba a annoncé il y a quelques semaines qu’elle avait
commencé des tests de transmission sécurisée de données génétiques par
cryptographie quantique, une méthode de cryptage en théorie totalement
inviolable puisque chaque bit d’information est associé à un photon et
que toute tentative d’intrusion entraîne immédiatement la destruction de
l’information ainsi véhiculée (Voir
Toshiba). Toshiba a précisé que son système de cryptographie quantique
devrait être commercialisé dès 2020.
Enfin, il y a quelques jours, Google, la NASA et l’USRA (Universities
Space Research Association) ont annoncé qu’ils avaient décidé de
s’associer dans le cadre d’un projet de recherche destiné à rendre
opérationnel un ordinateur quantique. Pour atteindre cet objectif, les
deux partenaires vont s’équiper du
D-Wave 2X, la dernière machine
quantique du constructeur canadien D-Wave. Cet ordinateur utilisera une
puce quantique composée pour
la première fois de 1000 qbits, contre 512
pour la génération actuelle. « Avec ce programme de recherche, nous
espérons montrer que l’informatique quantique et les algorithmes
quantiques pourraient un jour améliorer radicalement notre capacité à
résoudre des problèmes d’optimisation complexes pour l’aéronautique, les
sciences de la Terre et de l’espace ou encore la conquête spatiale », a
déclaré le directeur du centre de recherche Ames de la Nasa, Eugene Tu,
dans le communiqué de D-Wave (Voir
D-Wave).
On voit donc que, presque 90 ans après sa formalisation très
confidentielle par une poignée de physiciens de génie, parmi lesquels il
faut rappeler les noms d’Einstein, de Planck, de Bohr, de Schrödinger,
d’Heinsenberg, de De Broglie, de Dirac ou encore de Pauli, la théorie
quantique, qui ne s’est pas imposée facilement dans le monde
scientifique tant elle remettait en cause les fondements mêmes de notre
représentation physique du réel, a gagné ses lettres de noblesse en se
manifestant de manière de plus en plus concrète, d’abord comme
instrument de recherche fondamentale et plus récemment comme outil
irremplaçable et extrêmement puissant d’innovation et de rupture
technologique et industrielle.
Aujourd’hui, les systèmes et dispositifs quantiques sont déjà
présents, sans que nous nous en rendions compte, dans de nombreux objets
de notre vie quotidienne et demain ils seront absolument partout et
permettront des avancées que nous ne pouvons même pas imaginer dans des
domaines aussi variés que l’énergie, les transports, la médecine,
l’informatique, les télécommunications, les matériaux ou la robotique…
Cette extraordinaire aventure scientifique que représente la physique
quantique apporte un démenti cinglant à ceux qui ne raisonnent qu’à
court terme et voudraient enfermer la Recherche dans une finalité
exclusivement utilitariste. Comme le disait avec humour, peu de temps
avant sa disparition, Jack Kilby, l’inventeur du premier circuit intégré
en 1958, « Le transistor qui est la base du microprocesseur et de
l’informatique actuelle n’est pas une simple amélioration de l’ampoule
électrique ou du tube à vide mais constitue une véritable rupture
technologique ». Cet ingénieur hors pair faisait également remarquer
qu’
il avait fallu 30 ans entre l’invention du transistor et la
commercialisation des premiers ordinateurs personnels. Il a fallu le
même laps de temps entre la découverte du concept d’images télévisées,
au milieu des années 1920 et la commercialisation des premiers
téléviseurs, au lendemain de la seconde guerre mondiale.
Dans cette société fébrile, obsédée par le court terme et les effets
d’annonces médiatiques et dominée par l’écume des choses, nous devons
comprendre qu’il existe un « temps long », qui est de l’ordre du quart
du siècle, entre une avancée théorique fondamentale et sa traduction
concrète pour le grand public, sous forme de produits, de systèmes ou de
services nouveaux. Si l’aventure quantique nous prouve une chose à
méditer, c’est qu’il n’existe pas, d’un côté, une Science « pure » et
abstraite et de l’autre une Recherche uniquement orientée vers des
applications concrètes. Le processus qui va de la découverte théorique à
l’invention, l’innovation et la production industrielle de produits et
services radicalement nouveaux est un long continuum qu’il faut préparer
et alimenter en ayant une vision stratégique et prospective à très long
terme de l’évolution scientifique, économique et sociale.
Faisons en sorte que notre Pays, qui a la chance de posséder à la
fois une Recherche fondamentale du plus haut niveau en physique et en
mathématiques et qui dispose d’un savoir technologique et industriel
reconnu au niveau mondial, sache mieux penser, préparer et accompagner
les prochaines révolutions scientifiques et techniques qui
bouleverseront notre société d’ici 2050.
Source.: RTflash, cet article est aussi sur Übergizmo France avec
l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et
fondateur du Groupe de Prospective du Sénat de la République Française.