La mécanique quantique, élaborée entre 
1900 (rayonnement des corps noirs par Max Planck) et 1927 (Principe 
d’incertitude d’Heisenberg) reste, avec la relativité générale 
d’Einstein, l’une des plus extraordinaires avancées scientifiques et 
conceptuelles réalisée par l’esprit humain. Défiant le sens commun et 
les réalités apparentes et perceptibles, cette théorie étrange constitue
 une rupture radicale avec la représentation que l’homme se faisait du 
monde depuis Aristote : désormais il nous faut admettre qu’à certains 
niveaux de « réalité », les principes d’identité et de causalité n’ont 
plus de sens et changent de nature.
Concrètement, si l’on peut dire, en parlant d’une théorie qui repose 
sur un formalisme mathématique d’une extrême abstraction, cela signifie 
notamment qu’une « particule » ne peut plus être appréhendée isolément, 
comme un objet parfaitement délimité dans l’espace et dans le temps mais
 doit 
être considérée plutôt comme une manifestation particulière d’un 
système physique global et « intriqué » intégrant l’Univers dans son 
ensemble…
Les conséquences pratiques qu’entraine cette nouvelle conception du 
monde sont redoutables et déroutantes. En mécanique quantique, on ne 
peut, par exemple, connaître à la fois avec précision la position et la 
vitesse d’une particule et l’on doit également admettre qu’une particule
 interagit avec l’observateur et va se comporter tantôt comme un objet «
 ponctuel », tantôt comme une onde, en fonction du dispositif 
expérimental choisi pour l’observer !
Il a fallu plus d’un demi-siècle pour que la communauté scientifique 
dans son ensemble accepte enfin ce renversement de perspectives de la 
physique. Plus précisément, c’est en 1982, qu’à l’issue d’une série 
d’expérimentations remarquables, le physicien français Alain Aspect a 
montré de manière très convaincante que, contrairement à ce que pensait 
Einstein – et qu’il avait exprimé en 1935 avec son fameux paradoxe EPR –
 et conformément aux prévisions de la physique quantique, deux photons 
issus d’une même source puis envoyés dans des directions opposées 
restaient à jamais « intriqués », c’est-à-dire liés dans leurs 
propriétés et leur « comportement ».
Aujourd’hui, plus de trente ans après les expériences historiques 
réalisées par Alain Aspect à l’Institut d’optique d’Orsay, une équipe de
 physiciens néerlandais vient de franchir une nouvelle étape décisive 
dans la confirmation expérimentale de la physique quantique. Dirigés par
 Ronald Hanson de la Delft University of Technology aux Pays-Bas, ces 
scientifiques, qui avaient déjà réussi il y a un an à 
transférer une 
information d’un bit quantique (qbit) à un autre, situé à 3 mètres de 
distance, sont cette fois parvenus à mettre en évidence ce phénomène 
d’intrication quantique à une 
distance-record de 1,3 km.
Dans cette série d’expériences, d’une extrême complexité, ces chercheurs ont pu effectuer 245 mesures (Voir 
Hanson Lab et
 article intitulé « Constatation expérimentale de la violation des 
inégalités de Bell par la mesure du spin d’électrons distants de 1,4 km 
» 
Cornell University Library).
 Les physiciens ont utilisé deux diamants permettant de produire des 
photons polarisés intriqués avec des électrons. Ces diamants, qui 
étaient séparés par une distance de 1,28 kilomètre, émettaient chacun un
 photon. Ces deux photons s’éloignaient ensuite en direction d’un 
détecteur situé entre les diamants à plusieurs centaines de mètres de 
distance. Grâce à ce dispositif expérimental très ingénieux, les 
physiciens ont pu effectuer des mesures de spins des électrons sur 
presque toutes les paires de particules intriquées et combler ainsi 
l’une des dernières failles méthodologiques qui auraient pu biaiser les 
résultats.
En outre, ces expériences ont permis de garantir qu’aucun signal, 
même à la vitesse de la lumière, n’avait eu le temps de voyager entre 
les deux diamants au cours des mesures, pour « informer » ces diamants 
du résultat de ces dernières. Le résultat de ces expériences est sans 
appel : les corrélations de mesures de spin constatées sont en parfait 
accord avec le théorème des inégalités de John Bell (1964) et confirment
 de manière remarquable la théorie quantique, en excluant de manière 
encore plus rigoureuse l’hypothèse de « variables cachées » locales qui 
pourraient expliquer de tels résultats de mesures.
Autrement dit, il existe bien un niveau de réalité physique 
fondamentalement différent de celui qui prévaut à notre échelle 
(thermodynamique) ou à l’échelle cosmique (relativité générale), au sein
 duquel s’exprime de manière non réductible, ce que le regretté Bernard 
D’Espagnat, qui vient de disparaître, appelait un « réel voilé », 
organisé selon un principe de non-séparabilité. A ce niveau de réalité 
insaisissable, matière et énergie, ondes et particules, espace et temps 
sont enchevêtrés de manière inextricable. Cette dimension quantique du 
monde ne résulte pas de notre ignorance, ni de l’imprécision de nos 
instruments de mesure mais constitue bien une dimension fondamentale de 
la nature…
Mais la physique quantique, après être restée longtemps une curiosité
 théorique, s’est avérée depuis une vingtaine d’années une 
extraordinaire source de ruptures et d’innovations technologiques. Il 
faut par exemple savoir que c’est la physique quantique qui a permis la 
naissance et l’essor de la spintronique et l’introduction des têtes de 
lecture à magnétorésistance géante, à l’origine de l’
augmentation 
considérable (par un facteur 100) de la densité de stockage 
d’information sur disque dur.
Il faut également rappeler que les nombreux outils technologiques qui
 constituent aujourd’hui notre quotidien, 
comme le microprocesseur, le 
laser, le GPS, ou encore l’imagerie par résonance magnétique, 
n’existeraient pas sans la théorie quantique. Mais, comme le souligne 
Dominique Sugny, du Laboratoire interdisciplinaire Carnot, à Dijon, 
« aussi importantes soient-elles, ces applications s’appuient seulement 
sur une compréhension passive des lois quantiques et désormais, les 
chercheurs veulent aller plus loin, en contrôlant activement les objets à
 cette échelle. » C’est là qu’intervient une jeune discipline pleine de 
promesses, le contrôle quantique, qui vise à organiser et à manipuler 
atomes et particules variées afin de leur conférer des fonctions 
spécifiques et de leur faire accomplir des tâches précises.
Pour atteindre cet objectif ambitieux, les scientifiques se sont 
notamment appuyés sur 
la théorie du contrôle optimal qui consiste à 
rechercher une solution sous la forme mathématique d’un problème 
d’optimisation qu’on peut résoudre numériquement. C’est ce principe qui a
 permis, il y a presque un demi-siècle, au cours du programme lunaire 
américain Apollo, de déterminer les trajectoires minimisant le plus 
possible la consommation de carburant pour atteindre la Lune.
L’augmentation exponentielle de la puissance de calcul informatique a
 permis récemment au contrôle quantique de réaliser des pas de géant 
dans plusieurs domaines. Par exemple, il est à présent possible de 
contrôler certaines réactions chimiques complexes par laser en calculant
 l’ensemble des paramètres des ondes lumineuses utilisées pour obtenir 
cette réaction. Il y a quelques mois, des chercheurs ont ainsi réussi à 
créer, à l’aide du contrôle quantique, une liaison entre deux atomes de 
magnésium2.
Mais ces outils de contrôle quantique sont également en train de 
bouleverser un autre domaine hautement stratégique, celui de 
l’informatique quantique. Actuellement, les ordinateurs reposent sur une
 logique binaire, issus de l’architecture imaginée par Van Neumann, l’un
 des pères de l’informatique. Dans cette configuration, la plus petite 
unité d’information, le bit, ne peut prendre que deux valeurs, 0 ou 1, 
selon le passage ou non du courant électrique à travers un transistor. 
Mais, dans un ordinateur quantique, les choses se passent de manière 
radicalement différente. Le bit quantique (ou qbit), repose sur l’état 
d’un système quantique et peut de ce fait s’affranchir de cette logique 
binaire et utiliser les étranges propriétés quantiques d’intrication et 
de superposition d’états.
Au lieu d’effectuer de manière séquentielle toute une série de 
calculs pour parvenir à un résultat final, l’ordinateur quantique peut 
donc, en théorie, avoir accès à la totalité des résultats en une seule 
étape, ce qui laisse espérer des machines dont la puissance de calcul 
serait des milliers de fois supérieure à celles de nos superordinateurs 
d’aujourd’hui…
Mais le chemin technologique qui mène vers l’ordinateur quantique 
opérationnel est semé d’embûches. L’un des principaux obstacles que 
doivent par exemple surmonter les chercheurs est lié au nombre de qbits 
pouvant fonctionner simultanément au sein d’une même machine. En effet, 
pour être réellement efficace, un ordinateur quantique doit en théorie 
pouvoir mobiliser en même temps plusieurs milliers de qbits. Mais plus 
ces qbits sont nombreux et plus les risques d’interaction  avec 
l’environnement augmentent. Or ces interactions entraînent ce que les 
physiciens appellent une décohérence, c’est-à-dire un brusque 
effondrement des propriétés quantiques recherchées.
Mais le contrôle quantique parvient de mieux en mieux à détecter les 
erreurs dues à la décohérence et à les corriger en temps réel. En 2011, 
une avancée majeure dans ce domaine a été réalisée par l’équipe de Serge
 Haroche, Prix Nobel de physique en 2012. Après être parvenu à mesurer 
des photons sans les détruire, ces chercheurs ont réussi à stabiliser le
 nombre de photons piégés dans une cavité supraconductrice en générant 
un signal micro-onde approprié. Cette avancée remarquable confirme qu’il
 est 
possible de corriger en temps réel les bits d’un ordinateur 
quantique, ce qui lève un verrou majeur dans la conception de ces 
machines.
Le domaine biologique et médical va également connaître une 
révolution grâce à l’application du contrôle quantique. En 
imagerie IRM 
par exemple, en utilisant la théorie du contrôle optimal, des chercheurs
 sont parvenus à déterminer les profils de champ magnétique à appliquer 
pour obtenir le 
meilleur contraste possible d’une image pour des 
conditions expérimentales données. Les physiciens ont validé ensuite 
avec succès cette approche par une expérience test in vitro. Quant aux 
premiers essais sur l’homme, ils pourraient commencer à l’horizon 2020 
et, selon le physicien Dominique Sugny, ils devraient permettre 
d’obtenir des images bien plus précises qu’aujourd’hui, ce qui permettra
 de nouveaux progrès pour de nombreuses pathologies, en matière de 
détection et de diagnostic.
Dans le domaine connexe des télécommunications qui doivent absorber 
et véhiculer des quantités d’informations toujours plus grandes et vont 
devoir intégrer demain l’Internet des objets et la visiophonie 
personnelle en 3D, le déploiement des réseaux et des composants optiques
 permet également d’avoir recours au 
contrôle quantique pour décupler la
 rapidité et la fiabilité de ces échanges de données numériques. Au 
Canada, l’équipe du professeur Roberto Morandotti est récemment parvenue
 à utiliser la photonique quantique pour produire directement des paires
 de photons ayant une polarisation croisée (orthogonale), une première 
en optique quantique intégrée sur puce. Grâce à cette avancée, il 
devient possible de recourir à la polarisation des photons pour 
améliorer considérablement le débit et la rapidité des communications 
optiques d’informations numériques.
Dans le domaine des communications sécurisées, le contrôle quantique 
est également en train de s’imposer. En début d’année, des chercheurs de
 l’Université nationale australienne (ANU) et de l’Université d’Otago en
 Nouvelle-Zélande Dr Jevon Longdell ont 
créé un prototype de disque dur 
quantique qui peut modifier fondamentalement le domaine du cryptage de 
données sécurisé, à longue distance. Utilisant des atomes de l’élément 
europium de terre rare intégré dans des cristaux d’orthosilicate 
d’yttrium (YSO), ces scientifiques ont réussi à créer un dispositif de 
stockage capable de maintenir jusqu’à six heures une information à 
l’état quantique (Voir 
Australian National University).
Toujours en matière de 
cryptage quantique des communications, la 
firme japonaise Toshiba a annoncé il y a quelques semaines qu’elle avait
 commencé des tests de transmission sécurisée de données génétiques par 
cryptographie quantique, une méthode de cryptage en théorie totalement 
inviolable puisque chaque bit d’information est associé à un photon et 
que toute tentative d’intrusion entraîne immédiatement la destruction de
 l’information ainsi véhiculée (Voir 
Toshiba). Toshiba a précisé que son système de cryptographie quantique 
devrait être commercialisé dès 2020.
Enfin, il y a quelques jours, Google, la NASA et l’USRA (Universities
 Space Research Association) ont annoncé qu’ils avaient décidé de 
s’associer dans le cadre d’un projet de recherche destiné à rendre 
opérationnel un ordinateur quantique. Pour atteindre cet objectif, les 
deux partenaires vont s’équiper du 
D-Wave 2X, la dernière machine 
quantique du constructeur canadien D-Wave. Cet ordinateur utilisera une 
puce quantique composée pour 
la première fois de 1000 qbits, contre 512 
pour la génération actuelle. « Avec ce programme de recherche, nous 
espérons montrer que l’informatique quantique et les algorithmes 
quantiques pourraient un jour améliorer radicalement notre capacité à 
résoudre des problèmes d’optimisation complexes pour l’aéronautique, les
 sciences de la Terre et de l’espace ou encore la conquête spatiale », a
 déclaré le directeur du centre de recherche Ames de la Nasa, Eugene Tu,
 dans le communiqué de D-Wave (Voir 
D-Wave).
On voit donc que, presque 90 ans après sa formalisation très 
confidentielle par une poignée de physiciens de génie, parmi lesquels il
 faut rappeler les noms d’Einstein, de Planck, de Bohr, de Schrödinger, 
d’Heinsenberg, de De Broglie, de Dirac ou encore de Pauli, la théorie 
quantique, qui ne s’est pas imposée facilement dans le monde 
scientifique tant elle remettait en cause les fondements mêmes de notre 
représentation physique du réel, a gagné ses lettres de noblesse en se 
manifestant de manière de plus en plus concrète, d’abord comme 
instrument de recherche fondamentale et plus récemment comme outil 
irremplaçable et extrêmement puissant d’innovation et de rupture 
technologique et industrielle.
Aujourd’hui, les systèmes et dispositifs quantiques sont déjà 
présents, sans que nous nous en rendions compte, dans de nombreux objets
 de notre vie quotidienne et demain ils seront absolument partout et 
permettront des avancées que nous ne pouvons même pas imaginer dans des 
domaines aussi variés que l’énergie, les transports, la médecine, 
l’informatique, les télécommunications, les matériaux ou la robotique…
Cette extraordinaire aventure scientifique que représente la physique
 quantique apporte un démenti cinglant à ceux qui ne raisonnent qu’à 
court terme et voudraient enfermer la Recherche dans une finalité 
exclusivement utilitariste. Comme le disait avec humour, peu de temps 
avant sa disparition, Jack Kilby, l’inventeur du premier circuit intégré
 en 1958, « Le transistor qui est la base du microprocesseur et de 
l’informatique actuelle n’est pas une simple amélioration de l’ampoule 
électrique ou du tube à vide mais constitue une véritable rupture 
technologique ». Cet ingénieur hors pair faisait également remarquer 
qu’
il avait fallu 30 ans entre l’invention du transistor et la 
commercialisation des premiers ordinateurs personnels. Il a fallu le 
même laps de temps entre la découverte du concept d’images télévisées, 
au milieu des années 1920 et la commercialisation des premiers 
téléviseurs, au lendemain de la seconde guerre mondiale.
Dans cette société fébrile, obsédée par le court terme et les effets 
d’annonces médiatiques et dominée par l’écume des choses, nous devons 
comprendre qu’il existe un « temps long », qui est de l’ordre du quart 
du siècle, entre une avancée théorique fondamentale et sa traduction 
concrète pour le grand public, sous forme de produits, de systèmes ou de
 services nouveaux. Si l’aventure quantique nous prouve une chose à 
méditer, c’est qu’il n’existe pas, d’un côté, une Science « pure » et 
abstraite et de l’autre une Recherche uniquement orientée vers des 
applications concrètes. Le processus qui va de la découverte théorique à
 l’invention, l’innovation et la production industrielle de produits et 
services radicalement nouveaux est un long continuum qu’il faut préparer
 et alimenter en ayant une vision stratégique et prospective à très long
 terme de l’évolution scientifique, économique et sociale.
Faisons en sorte que notre Pays, qui a la chance de posséder à la 
fois une Recherche fondamentale du plus haut niveau en physique et en 
mathématiques et qui dispose d’un savoir technologique et industriel 
reconnu au niveau mondial, sache mieux penser, préparer et accompagner 
les prochaines révolutions scientifiques et techniques qui 
bouleverseront notre société d’ici 2050.
Source.:  RTflash, cet article est aussi sur Übergizmo France avec
 l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et 
fondateur du Groupe de Prospective du Sénat de la République Française.