Rechercher sur ce blogue

jeudi 11 février 2016

Les 5 technologies qui vont changer le destin de l’Humanité




Le Big Data, les objets connectés, l’impression 3D, les énergies renouvelables et les MOOC sont les cinq technologies qui vont changer le destin de l’Humanité dès ces prochaines années. Explications
Nous qui avons la chance d’être nés au XXe ou XXIᵉ siècle dans un pays dit développé, pensions, en 1960, que les progrès apportés depuis deux siècles avec les révolutions industrielles, que ce soit l’électricité, le téléphone, la télévision, la voiture, le moteur et des milliers d’autres, étaient à nuls autre pareils et que jamais l’être humain ne pourrait connaître dans sa seule existence tous les bouleversements connus en huit générations par ses Anciens. Et pourtant si.
L’adolescent né avec le XXIᵉ siècle, qui a aujourd’hui 15 ans, n’aura plus, autour de son lit de mort un seul objet qui sera semblable à ceux qui entouraient son berceau. Et pourquoi cela ? Parce que nous changeons d’ère.
Jusqu’à ce jour, les progrès accomplis par l’Homme respectaient une progression arithmétique comme chaque année nous comptons les uns après les autres les jours des mois qui se succèdent.
Mais depuis plus de 50 ans, l’Humanité a changé de paradigme. Elle ne compte plus les jours de son destin en ajoutant arithmétiquement les nombres les uns après les autres, 1 – 2 – 3 – 4 – 5 … Son potentiel de connaissances évolue dorénavant de manière exponentielle.
Si nous prenons un mois de 31 jours comme échelle de référence de la vie d’un être humain né (dans un pays développé) en 1965 et qui, statistiquement, deviendra centenaire, cet être humain est aujourd’hui, alors qu’il a 50 ans, au 15e jour de son mois de vie.
Si les technologies avaient progressé depuis 50 ans au même rythme que par le passé, leurs évolutions auraient donc, dans notre exemple, été multipliées par 15 dans ce demi-siècle.
Or, en respectant la loi empirique édictée par Gordon Moore, co-créateur d’Intel, en 1965, le progrès des technologies n’a pas été multiplié par 15 en 50 ans mais par 16.384 (2¹⁴) !
Nous n’en avons pas conscience mais cette loi empirique a bien été respectée depuis 50 ans. Les microprocesseurs qui animent notre monde aujourd’hui sont 16.000 fois plus performants que les premiers microprocesseurs d’Intel !
Mais si je vous disais qu’il vous faudrait porter le nombre à 1.073.741.824 (1 milliard 73 millions) (2³⁰) dans la 31e case de la vie de notre centenaire, en 2065, vous seriez incrédule.
Et pourtant, cette affirmation se révèlera, avec le temps comme réaliste. Depuis l’énoncé de la Loi de Moore, en 1965, le premier demi-siècle nous paraîtra rapidement lascif quand nous constaterons que l’indice totalisant l’ensemble des progrès technologiques doublera tous les 3 ans dans les cinquante ans qui arrivent.
Très vite, l’ordinateur quantique qui remplacera l’informatique binaire actuelle se nourrissant de bits permettra de relever ce défi. Cette loi de Moore que nous pensions réservée à l’informatique jusqu’à ce jour va dorénavant s’appliquer à de nombreuses autres technologies.
Le Big Data qui collationne toutes les données émises par l’Homme ou les machines va suivre la même progression exponentielle.
Toutes les activités qui s’appuient sur le Savoir et qui ont pour finalité d’atteindre un coût marginal zéro comme l’affirme magistralement Jérémie Rifkin dans son dernier ouvrage, comme l’a fait l’informatique avec Internet dans ces 50 dernières années, respecteront cette progression exponentielle dans leur développement.
Aujourd’hui, je ne vais aborder, après avoir cité le Big Data, quatre de ces nouvelles technologies qui dès ces prochaines années vont changer le destin de l’Humanité : les objets connectés, les imprimantes 3D, les énergies renouvelables et les MOOC.
Depuis une quinzaine d’années, nous entendions parler des RFID et régulièrement je les citais dans RT Flash. Mais dans ces dernières années, ces puces RFID ont fait un bond extraordinaire en sachant s’alimenter avec l’énergie des terminaux avec lesquels elles communiquent et en voyant leur prix descendre à quelques cents.
Le développement de ces puces RFID que nous appelons maintenant « objets connectés » va être si rapide que chaque être humain devrait être entouré de 5000 à 7000 objets connectés avant 2030.
Ces objets connectés serviront strictement à tout, que ce soit dans notre vie publique ou dans notre vie privée. Comme l’usage du Web aujourd’hui, l’usage de ces objets connectés sera totalement gratuit. Mais mieux encore, comme les données émises par chaque être humain ou par les objets les entourant seront de plus en plus précieuses pour préparer l’Avenir et imaginer les produits du Futur,  les GAFA (Google, Apple, Facebook, Amazon) ou leurs remplaçants se battront pour nous acheter ces données, ce qui apporte de nécessaires revenus à une Humanité qui aura perdu par ailleurs des centaines de millions d’emplois détruits par une robotisation à outrance.
Dans le développement sidéral que va connaître notre civilisation dans ces prochaines années grâce aux objets connectés je ne vais aborder qu’un seul sujet : la santé.
En observant les travaux actuellement réalisés par les laboratoires de Google et en décryptant les prédictions de Raymond C. Kurzweil, l’un de ses directeurs, il n’est pas déraisonnable d’affirmer que les nombreuses morts liées, aujourd’hui, au cancer, aux maladies cardio-vasculaires, ou maladies dégénératives et bien d’autres maladies, devraient avoir presque totalement disparu à l’échéance d’une génération. Pourquoi cela ?
Parce que la médecine curative actuelle (qui traite une maladie seulement lorsque celle-ci s’est déclarée) aura été remplacée grâce aux objets connectés par une médecine prédictive.
Il suffira que quelques cellules dans un organisme soient atteintes par un cancer, alors qu’aujourd’hui il en faut des millions sinon des centaines de millions pour les déceler, pour qu’immédiatement le système automatisé qui surveille la santé de chacun avec des objets connectés vous conseillera (vous obligera ?) d’aller voir immédiatement un spécialiste qui, avec des nanostructures, vous détruira aussi facilement ces cellules cancéreuses qu’on le fait aujourd’hui pour les bacilles avec un antibiotique.
Il en sera de même avec les maladies cardio-vasculaires et bien d’autres maladies évoluant aujourd’hui sans bruit pendant des années et qui, maintenant, grâce à des « objets connectés » qui très tôt détecteront de faibles signaux de souffrance, indétectable avec nos outils actuels de surveillance et d’analyse, permettront de prendre, à temps, toutes les mesures qui élimineront toutes les évolutions fatales. Si ces « objets connectés » avaient existé il y a seulement quelques courtes années, notre ami Jean-Michel Billaut, n’aurait pas eu à souffrir d’une rupture d’anévrisme poplité.
Certes, l’Homme devra continuer à se battre pour découvrir toutes les démarches curatives pour tous ceux qui ayant échappé ou s’étant dérobés à la surveillance des « objets connectés » continueront à souffrir de cancers, de maladies cardio-vasculaires ou de toute autre maladie.
Mais il faut avoir bien conscience que le sort de l’Humanité passe bien à cette médecine prédictive et non par la seule médecine curative telle que la pratiquent aujourd’hui les pays les plus riches car, dans un demi-siècle, avec les 9 milliards de terriens, l’Humanité n’aurait pas la capacité financière de faire face à un tel défi.
Abordons, maintenant, une autre technologie qui elle aussi va changer l’avenir de l’Humanité : l’impression 3D.
Cette impression 3D va devoir très prochainement changer de nom tant elle va de moins en moins ressembler à notre vieille imprimante papier pour, de plus en plus, faire penser à l’image de la création du premier Homme dans la Genèse telle que l’a génialement imaginée Michel Ange dans son immortelle fresque de la Chapelle Sixtine.
L’impression 3D va connaître le même développement exponentiel que celui du « personal computer » (PC) depuis 40 ans.
Comme pour l’informatique, les technologies des imprimantes 3D vont tendre vers un coût marginal zéro. Les « makers » qui se comptent déjà en centaines de milliers à la surface de la Terre (les premières années du développement exponentiel d’une nouvelle technologie sont quasi invisibles pour le commun des mortels !) n’ont pas répété la malheureuse erreur des débuts de l’informatique avec des operating systems (OS) propriétaires. Ils ont choisi, dès l’origine, de partager universellement toutes leurs connaissances au travers de logiciels ouverts.
Les progrès de cette technologie révolutionnaire vont être foudroyants. On a déjà su reconstituer l’exact visage d’une personne horriblement défigurée par un accident et les chercheurs ont déjà su fabriquer des objets complexes faisant appel à de nombreux composants différents. Ces technologies qui permettront à terme de tout faire en partant de rien vont ouvrir des champs encore inconnus à l’imagination de l’Homme.
Pourquoi, ces imprimantes 3D vont-elles prendre une importance si grande ?
Tout d’abord parce que leur mode de production totalement automatisé repose sur une méthode additive et non soustractive.
Ainsi, aujourd’hui, pour fabriquer un meuble il faut abattre un arbre, en couper les branches, enlever l’écorce et le débiter en planches. Il faut ensuite raboter ces planches et les découper pour en faire toutes les pièces du meuble. Quant à la fin de la fabrication le bilan est dressé, nous constatons que seuls 10 % de l’arbre ont été utilisés pour fabriquer le meuble et que quelque 90 % ont été soit jetés, soit sous-utilisés.
Avec une Terre qui n’a pas les capacités naturelles d’accueillir 9 milliards d’êtres humains, avec leurs gaspillages actuels, il est grand temps d’imaginer et fabriquer des produits qui n’utiliseront qu’un strict minimum de ressources naturelles.
De plus, avec la mondialisation intégrale des process de production de ces imprimantes 3D, nous pourrons fabriquer n’importe où dans le Monde n’importe quel objet. Il suffira que vous ayez eu la précaution de prendre la photo 3D (la photo du Futur) de tout objet vous entourant pour qu’immédiatement vous le reproduisiez dans votre Fab-Lab personnel et ce pour un coût très proche de zéro.
Ainsi, même si vous cassez une belle assiette ancienne de belle-maman, vous pourrez en « fabriquer » une nouvelle avant même que votre épouse soit de retour !
Avec ces nouvelles technologies d’impression 3D, il sera devenu absurde de fabriquer à l’autre bout du monde, en Chine par exemple, des objets dont les prix ne feront que décroître alors qu’il vous faudrait des centaines de kilos de CO² pour les faire transporter jusqu’à vous.
Les objets les plus complexes à reproduire se feront dans des Fab-Lab départementaux qui ne seront jamais à plus d’une journée de cheval de votre domicile comme disaient les révolutionnaires en 1790…
Mais dans votre propre unité urbaine, il y aura des Fab-Lab qui pourront fabriquer 90 % des objets vous environnant. Chez vous, si vous le voulez,  vous pourrez même avoir des imprimantes 3D qui pourront reproduire la moitié des objets meublant votre intérieur.
Avez-vous bien conscience, vous qui me lisez en cette année 2015, que des Chinois viennent de fabriquer, en une journée, la première maison entièrement fabriquée par une monumentale imprimante 3D et ce pour moins de 300 € ?
Parlons maintenant d’une autre technologie qui, elle aussi, va changer le destin du Monde.
Après des millénaires et des millénaires d’adoration, l’Homme va enfin utiliser le Soleil pour en capter une partie de l’énergie qu’il envoie à notre Terre depuis des milliards d’années pour se fournir totalement en énergie. Les meilleurs spécialistes ont calculé qu’il suffirait à l’Homme de capter seulement 10 % de l’énergie envoyée par le Soleil pour subvenir à tous ses besoins.
Comme cette énergie reçue du Soleil est gratuite et restera gratuite, ceci signifie qu’à terme, à court terme (20 ans) devrais-je même dire avec la courbe exponentielle que va suivre son utilisation, l’énergie utilisée par l’Homme sera quasi gratuite. Sans bruit, le rendement des panneaux photovoltaïques a respecté la Loi de Moore depuis 20 ans et devrait encore la respecter pendant ces prochaines décennies.
Avec la gestion globale de l’énergie grâce au « smart grid » qui révolutionnera autant le monde qu’Internet et le Web en permettant à chacun, à chaque instant, de distribuer et de recevoir toute l’énergie qu’il aura en surplus ou dont il aura besoin.
Cette énergie à un coût marginal zéro sera un élément fondamental de pacification de l’ensemble de notre Planète.
Avant de conclure, abordons un dernier sujet qui va dorénavant dominer tout ce que je viens de traiter et qui va accélérer de façon exponentielle les mutations de l’humanité : les MOOC (Massive Open Online Course) que l’on peut traduire par « Cours en ligne ouvert et massif ».
Jusqu’à maintenant, seule une partie de l’Humanité a pu accéder au Savoir. Ce qui signifie que tous les autres seraient commandés par les robots de demain et ne pourraient en rien les dominer.
Maintenant, alors que les plus grands cours magistraux pourront être accessibles gratuitement, grâce aux MOOC, à tous les habitants de notre Terre, nous allons assister dès ces prochaines années à une réelle explosion de l’intelligence collective et individuelle de l’Humanité.
Les innovations comme les découvertes fondamentales vont éclore par milliers et nous allons assister, avec la traduction automatique dans toutes les langues, à un foisonnement encore difficilement imaginable aujourd’hui de nouveautés qui vont révolutionner tous les secteurs de l’activité humaine et toutes nos connaissances.
Ainsi, ce changement de paradigme qui voulait depuis des millénaires que l’évolution suive une progression arithmétique, et qui maintenant va se transformer en progression exponentielle, va avoir des conséquences fondamentales encore insoupçonnées. Ainsi l’Homme, lui-même, va plus évoluer dans ce prochain siècle qu’il n’a pu le faire, génération après génération, depuis des millions d’années. Cette mutation sera liée au fait que les mutations génétiques seront, elles-aussi, soumises à cette courbe exponentielle qui soutient mon raisonnement depuis le début de cet édito.
C’est dans cette mutation que réside, sans conteste, le plus grand défi auquel l’Homme va devoir faire face depuis son origine.
Les scientifiques voyant arriver ce bouleversement fondamental commencent à spéculer sur le fonctionnement du cerveau humain. Ils affirment que notre cerveau fonctionne avec des lois respectant la physique quantique, ce qui expliquerait que certains génies soient capables d’imaginer en quelques instants des situations que tous les ordinateurs de ce jour réunis en un seul ensemble ne pourraient même ne pas encore approcher.
Il est nécessaire que cette spéculation devienne une réalité car, sans cela, dans des temps maintenant très courts, l’intelligence humaine pourrait être dépassée par la machine que nous aurions inventée.
Mais il est vrai que l’Imagination et l’Amour sont incommensurables et que ces sentiments, qui n’appartiendront pour des millénaires encore qu’à l’Homme, n’auront rien à craindre de toute progression exponentielle.



Source.: 
RTflash, cet article est aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.

Physique quantique : La prochaine révolution industrielle ?


La mécanique quantique, élaborée entre 1900 (rayonnement des corps noirs par Max Planck) et 1927 (Principe d’incertitude d’Heisenberg) reste, avec la relativité générale d’Einstein, l’une des plus extraordinaires avancées scientifiques et conceptuelles réalisée par l’esprit humain. Défiant le sens commun et les réalités apparentes et perceptibles, cette théorie étrange constitue une rupture radicale avec la représentation que l’homme se faisait du monde depuis Aristote : désormais il nous faut admettre qu’à certains niveaux de « réalité », les principes d’identité et de causalité n’ont plus de sens et changent de nature.
Concrètement, si l’on peut dire, en parlant d’une théorie qui repose sur un formalisme mathématique d’une extrême abstraction, cela signifie notamment qu’une « particule » ne peut plus être appréhendée isolément, comme un objet parfaitement délimité dans l’espace et dans le temps mais doit être considérée plutôt comme une manifestation particulière d’un système physique global et « intriqué » intégrant l’Univers dans son ensemble…
Les conséquences pratiques qu’entraine cette nouvelle conception du monde sont redoutables et déroutantes. En mécanique quantique, on ne peut, par exemple, connaître à la fois avec précision la position et la vitesse d’une particule et l’on doit également admettre qu’une particule interagit avec l’observateur et va se comporter tantôt comme un objet « ponctuel », tantôt comme une onde, en fonction du dispositif expérimental choisi pour l’observer !
Il a fallu plus d’un demi-siècle pour que la communauté scientifique dans son ensemble accepte enfin ce renversement de perspectives de la physique. Plus précisément, c’est en 1982, qu’à l’issue d’une série d’expérimentations remarquables, le physicien français Alain Aspect a montré de manière très convaincante que, contrairement à ce que pensait Einstein – et qu’il avait exprimé en 1935 avec son fameux paradoxe EPR – et conformément aux prévisions de la physique quantique, deux photons issus d’une même source puis envoyés dans des directions opposées restaient à jamais « intriqués », c’est-à-dire liés dans leurs propriétés et leur « comportement ».
Aujourd’hui, plus de trente ans après les expériences historiques réalisées par Alain Aspect à l’Institut d’optique d’Orsay, une équipe de physiciens néerlandais vient de franchir une nouvelle étape décisive dans la confirmation expérimentale de la physique quantique. Dirigés par Ronald Hanson de la Delft University of Technology aux Pays-Bas, ces scientifiques, qui avaient déjà réussi il y a un an à transférer une information d’un bit quantique (qbit) à un autre, situé à 3 mètres de distance, sont cette fois parvenus à mettre en évidence ce phénomène d’intrication quantique à une distance-record de 1,3 km.
Dans cette série d’expériences, d’une extrême complexité, ces chercheurs ont pu effectuer 245 mesures (Voir Hanson Lab et article intitulé « Constatation expérimentale de la violation des inégalités de Bell par la mesure du spin d’électrons distants de 1,4 km » Cornell University Library). Les physiciens ont utilisé deux diamants permettant de produire des photons polarisés intriqués avec des électrons. Ces diamants, qui étaient séparés par une distance de 1,28 kilomètre, émettaient chacun un photon. Ces deux photons s’éloignaient ensuite en direction d’un détecteur situé entre les diamants à plusieurs centaines de mètres de distance. Grâce à ce dispositif expérimental très ingénieux, les physiciens ont pu effectuer des mesures de spins des électrons sur presque toutes les paires de particules intriquées et combler ainsi l’une des dernières failles méthodologiques qui auraient pu biaiser les résultats.
En outre, ces expériences ont permis de garantir qu’aucun signal, même à la vitesse de la lumière, n’avait eu le temps de voyager entre les deux diamants au cours des mesures, pour « informer » ces diamants du résultat de ces dernières. Le résultat de ces expériences est sans appel : les corrélations de mesures de spin constatées sont en parfait accord avec le théorème des inégalités de John Bell (1964) et confirment de manière remarquable la théorie quantique, en excluant de manière encore plus rigoureuse l’hypothèse de « variables cachées » locales qui pourraient expliquer de tels résultats de mesures.
Autrement dit, il existe bien un niveau de réalité physique fondamentalement différent de celui qui prévaut à notre échelle (thermodynamique) ou à l’échelle cosmique (relativité générale), au sein duquel s’exprime de manière non réductible, ce que le regretté Bernard D’Espagnat, qui vient de disparaître, appelait un « réel voilé », organisé selon un principe de non-séparabilité. A ce niveau de réalité insaisissable, matière et énergie, ondes et particules, espace et temps sont enchevêtrés de manière inextricable. Cette dimension quantique du monde ne résulte pas de notre ignorance, ni de l’imprécision de nos instruments de mesure mais constitue bien une dimension fondamentale de la nature…
Mais la physique quantique, après être restée longtemps une curiosité théorique, s’est avérée depuis une vingtaine d’années une extraordinaire source de ruptures et d’innovations technologiques. Il faut par exemple savoir que c’est la physique quantique qui a permis la naissance et l’essor de la spintronique et l’introduction des têtes de lecture à magnétorésistance géante, à l’origine de l’augmentation considérable (par un facteur 100) de la densité de stockage d’information sur disque dur.
Il faut également rappeler que les nombreux outils technologiques qui constituent aujourd’hui notre quotidien, comme le microprocesseur, le laser, le GPS, ou encore l’imagerie par résonance magnétique, n’existeraient pas sans la théorie quantique. Mais, comme le souligne Dominique Sugny, du Laboratoire interdisciplinaire Carnot, à Dijon, « aussi importantes soient-elles, ces applications s’appuient seulement sur une compréhension passive des lois quantiques et désormais, les chercheurs veulent aller plus loin, en contrôlant activement les objets à cette échelle. » C’est là qu’intervient une jeune discipline pleine de promesses, le contrôle quantique, qui vise à organiser et à manipuler atomes et particules variées afin de leur conférer des fonctions spécifiques et de leur faire accomplir des tâches précises.
Pour atteindre cet objectif ambitieux, les scientifiques se sont notamment appuyés sur la théorie du contrôle optimal qui consiste à rechercher une solution sous la forme mathématique d’un problème d’optimisation qu’on peut résoudre numériquement. C’est ce principe qui a permis, il y a presque un demi-siècle, au cours du programme lunaire américain Apollo, de déterminer les trajectoires minimisant le plus possible la consommation de carburant pour atteindre la Lune.
L’augmentation exponentielle de la puissance de calcul informatique a permis récemment au contrôle quantique de réaliser des pas de géant dans plusieurs domaines. Par exemple, il est à présent possible de contrôler certaines réactions chimiques complexes par laser en calculant l’ensemble des paramètres des ondes lumineuses utilisées pour obtenir cette réaction. Il y a quelques mois, des chercheurs ont ainsi réussi à créer, à l’aide du contrôle quantique, une liaison entre deux atomes de magnésium2.
Mais ces outils de contrôle quantique sont également en train de bouleverser un autre domaine hautement stratégique, celui de l’informatique quantique. Actuellement, les ordinateurs reposent sur une logique binaire, issus de l’architecture imaginée par Van Neumann, l’un des pères de l’informatique. Dans cette configuration, la plus petite unité d’information, le bit, ne peut prendre que deux valeurs, 0 ou 1, selon le passage ou non du courant électrique à travers un transistor. Mais, dans un ordinateur quantique, les choses se passent de manière radicalement différente. Le bit quantique (ou qbit), repose sur l’état d’un système quantique et peut de ce fait s’affranchir de cette logique binaire et utiliser les étranges propriétés quantiques d’intrication et de superposition d’états.
Au lieu d’effectuer de manière séquentielle toute une série de calculs pour parvenir à un résultat final, l’ordinateur quantique peut donc, en théorie, avoir accès à la totalité des résultats en une seule étape, ce qui laisse espérer des machines dont la puissance de calcul serait des milliers de fois supérieure à celles de nos superordinateurs d’aujourd’hui…
Mais le chemin technologique qui mène vers l’ordinateur quantique opérationnel est semé d’embûches. L’un des principaux obstacles que doivent par exemple surmonter les chercheurs est lié au nombre de qbits pouvant fonctionner simultanément au sein d’une même machine. En effet, pour être réellement efficace, un ordinateur quantique doit en théorie pouvoir mobiliser en même temps plusieurs milliers de qbits. Mais plus ces qbits sont nombreux et plus les risques d’interaction  avec l’environnement augmentent. Or ces interactions entraînent ce que les physiciens appellent une décohérence, c’est-à-dire un brusque effondrement des propriétés quantiques recherchées.
Mais le contrôle quantique parvient de mieux en mieux à détecter les erreurs dues à la décohérence et à les corriger en temps réel. En 2011, une avancée majeure dans ce domaine a été réalisée par l’équipe de Serge Haroche, Prix Nobel de physique en 2012. Après être parvenu à mesurer des photons sans les détruire, ces chercheurs ont réussi à stabiliser le nombre de photons piégés dans une cavité supraconductrice en générant un signal micro-onde approprié. Cette avancée remarquable confirme qu’il est possible de corriger en temps réel les bits d’un ordinateur quantique, ce qui lève un verrou majeur dans la conception de ces machines.
Le domaine biologique et médical va également connaître une révolution grâce à l’application du contrôle quantique. En imagerie IRM par exemple, en utilisant la théorie du contrôle optimal, des chercheurs sont parvenus à déterminer les profils de champ magnétique à appliquer pour obtenir le meilleur contraste possible d’une image pour des conditions expérimentales données. Les physiciens ont validé ensuite avec succès cette approche par une expérience test in vitro. Quant aux premiers essais sur l’homme, ils pourraient commencer à l’horizon 2020 et, selon le physicien Dominique Sugny, ils devraient permettre d’obtenir des images bien plus précises qu’aujourd’hui, ce qui permettra de nouveaux progrès pour de nombreuses pathologies, en matière de détection et de diagnostic.
Dans le domaine connexe des télécommunications qui doivent absorber et véhiculer des quantités d’informations toujours plus grandes et vont devoir intégrer demain l’Internet des objets et la visiophonie personnelle en 3D, le déploiement des réseaux et des composants optiques permet également d’avoir recours au contrôle quantique pour décupler la rapidité et la fiabilité de ces échanges de données numériques. Au Canada, l’équipe du professeur Roberto Morandotti est récemment parvenue à utiliser la photonique quantique pour produire directement des paires de photons ayant une polarisation croisée (orthogonale), une première en optique quantique intégrée sur puce. Grâce à cette avancée, il devient possible de recourir à la polarisation des photons pour améliorer considérablement le débit et la rapidité des communications optiques d’informations numériques.
Dans le domaine des communications sécurisées, le contrôle quantique est également en train de s’imposer. En début d’année, des chercheurs de l’Université nationale australienne (ANU) et de l’Université d’Otago en Nouvelle-Zélande Dr Jevon Longdell ont créé un prototype de disque dur quantique qui peut modifier fondamentalement le domaine du cryptage de données sécurisé, à longue distance. Utilisant des atomes de l’élément europium de terre rare intégré dans des cristaux d’orthosilicate d’yttrium (YSO), ces scientifiques ont réussi à créer un dispositif de stockage capable de maintenir jusqu’à six heures une information à l’état quantique (Voir Australian National University).
Toujours en matière de cryptage quantique des communications, la firme japonaise Toshiba a annoncé il y a quelques semaines qu’elle avait commencé des tests de transmission sécurisée de données génétiques par cryptographie quantique, une méthode de cryptage en théorie totalement inviolable puisque chaque bit d’information est associé à un photon et que toute tentative d’intrusion entraîne immédiatement la destruction de l’information ainsi véhiculée (Voir Toshiba). Toshiba a précisé que son système de cryptographie quantique devrait être commercialisé dès 2020.
Enfin, il y a quelques jours, Google, la NASA et l’USRA (Universities Space Research Association) ont annoncé qu’ils avaient décidé de s’associer dans le cadre d’un projet de recherche destiné à rendre opérationnel un ordinateur quantique. Pour atteindre cet objectif, les deux partenaires vont s’équiper du D-Wave 2X, la dernière machine quantique du constructeur canadien D-Wave. Cet ordinateur utilisera une puce quantique composée pour la première fois de 1000 qbits, contre 512 pour la génération actuelle. « Avec ce programme de recherche, nous espérons montrer que l’informatique quantique et les algorithmes quantiques pourraient un jour améliorer radicalement notre capacité à résoudre des problèmes d’optimisation complexes pour l’aéronautique, les sciences de la Terre et de l’espace ou encore la conquête spatiale », a déclaré le directeur du centre de recherche Ames de la Nasa, Eugene Tu, dans le communiqué de D-Wave (Voir D-Wave).
On voit donc que, presque 90 ans après sa formalisation très confidentielle par une poignée de physiciens de génie, parmi lesquels il faut rappeler les noms d’Einstein, de Planck, de Bohr, de Schrödinger, d’Heinsenberg, de De Broglie, de Dirac ou encore de Pauli, la théorie quantique, qui ne s’est pas imposée facilement dans le monde scientifique tant elle remettait en cause les fondements mêmes de notre représentation physique du réel, a gagné ses lettres de noblesse en se manifestant de manière de plus en plus concrète, d’abord comme instrument de recherche fondamentale et plus récemment comme outil irremplaçable et extrêmement puissant d’innovation et de rupture technologique et industrielle.
Aujourd’hui, les systèmes et dispositifs quantiques sont déjà présents, sans que nous nous en rendions compte, dans de nombreux objets de notre vie quotidienne et demain ils seront absolument partout et permettront des avancées que nous ne pouvons même pas imaginer dans des domaines aussi variés que l’énergie, les transports, la médecine, l’informatique, les télécommunications, les matériaux ou la robotique…
Cette extraordinaire aventure scientifique que représente la physique quantique apporte un démenti cinglant à ceux qui ne raisonnent qu’à court terme et voudraient enfermer la Recherche dans une finalité exclusivement utilitariste. Comme le disait avec humour, peu de temps avant sa disparition, Jack Kilby, l’inventeur du premier circuit intégré en 1958, « Le transistor qui est la base du microprocesseur et de l’informatique actuelle n’est pas une simple amélioration de l’ampoule électrique ou du tube à vide mais constitue une véritable rupture technologique ». Cet ingénieur hors pair faisait également remarquer qu’il avait fallu 30 ans entre l’invention du transistor et la commercialisation des premiers ordinateurs personnels. Il a fallu le même laps de temps entre la découverte du concept d’images télévisées, au milieu des années 1920 et la commercialisation des premiers téléviseurs, au lendemain de la seconde guerre mondiale.
Dans cette société fébrile, obsédée par le court terme et les effets d’annonces médiatiques et dominée par l’écume des choses, nous devons comprendre qu’il existe un « temps long », qui est de l’ordre du quart du siècle, entre une avancée théorique fondamentale et sa traduction concrète pour le grand public, sous forme de produits, de systèmes ou de services nouveaux. Si l’aventure quantique nous prouve une chose à méditer, c’est qu’il n’existe pas, d’un côté, une Science « pure » et abstraite et de l’autre une Recherche uniquement orientée vers des applications concrètes. Le processus qui va de la découverte théorique à l’invention, l’innovation et la production industrielle de produits et services radicalement nouveaux est un long continuum qu’il faut préparer et alimenter en ayant une vision stratégique et prospective à très long terme de l’évolution scientifique, économique et sociale.
Faisons en sorte que notre Pays, qui a la chance de posséder à la fois une Recherche fondamentale du plus haut niveau en physique et en mathématiques et qui dispose d’un savoir technologique et industriel reconnu au niveau mondial, sache mieux penser, préparer et accompagner les prochaines révolutions scientifiques et techniques qui bouleverseront notre société d’ici 2050.



Source.:  RTflash, cet article est aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.

Reprogrammer l' ADN ?



Il y a encore quelques années, modifier le génome était un travail long, complexe et coûteux. Mais depuis trois ans, un nouvel outil d’une puissance et d’une précision sans précédent, baptisé CRISPR-CAS9, est en train de révolutionner la génomique. Il utilise un fragment d’ARN capable de guider le gène à insérer vers le site de l’ADN cible, et une enzyme nommée Cas9 coupe ce dernier pour y insérer le nouveau code souhaité.




Mais la rupture fondamentale que représente ce nouvel outil est ailleurs car, non content d’être bien plus rapide et précis que toutes les autres méthodes employées jusqu’alors, CRISPR-CAS9 possède également un champ d’application bien plus vaste qui va permettre aux scientifiques d’intervenir sur le génome de multiples espèces animales ou végétales, y compris l’espèce humaine…
C’est en 1987 que le scientifique japonais Atsuo Nakata (Université d’Osaka), découvre d’étranges séquences d’ADN répétitives dans le génome de bactéries Escherichia coli. Dans certaines parties de ces séquences, les quatre lettres constitutives de l’ADN – adénine (A), guanine (G), cytosine (C) et thymine (T) – forment des suites immédiatement suivies des mêmes suites en sens inverse : elles peuvent donc être lues dans les deux sens, comme dans les palindromes. En 2002, la communauté scientifique baptise ce type de séquences du nom de CRISPR (Clustered Regularly Interspaced Palindromic Repeats).
En 2005, d’autres recherches montrent que les morceaux d’ADN intercalés entre ces palindromes sont souvent des morceaux d’ADN de virus capables d’infecter les bactéries (bactériophages) et en 2007, des chercheurs de l’entreprise agroalimentaire danoise Danisco découvrent que certaines des bactéries qu’ils utilisent pour fabriquer des yaourts et des fromages survivent mieux aux infections virales lorsqu’elles possèdent des séquences CRISPR. Ces travaux montrent que ces bactéries sont capables de mémoriser dans leurs séquences CRISPR, l’ADN des virus les ayant préalablement infectés, ce qui leur permet de reconnaître immédiatement ces virus et de les éliminer quand elles les rencontrent à nouveau.
La suite est plus connue : un tandem constitué de deux chercheuses remarquables, l’Américaine Jennifer Doudna de l’Université californienne Berkeley, et la microbiologiste française Emmanuelle Charpentier qui travaille alors à l’Université suédoise d’Umeå ont réussi à comprendre les mécanismes à l’œuvre chez ces bactéries. Elles ont notamment découvert que les ADN viraux des séquences CRISPR sont dupliqués en plus petites molécules nommées ARN qui s’arriment à une enzyme nommée Cas9.
Ces chercheuses ont également montré que, lorsqu’un ARN bactérien rencontre un virus à l’ADN correspondant, il s’apparie à cet ADN, ce qui permet enfin à l’enzyme CAS9 d’éliminer ce virus en découpant les deux brins de son ADN.
S’appuyant sur ces découvertes fondamentales, ces scientifiques ont montré en 2012 que ce couple CRISPR-CAS9 permettait de couper une séquence spécifique d’ADN afin de la remplacer par une autre. Plus récemment, des modifications de Cas9 ont rendu possible l’inactivation ou l’activation de gènes spécifiques (Voir Science) et ce binôme CRISP-CAS9 a été désigné « découverte de l’année en 2013 par la prestigieuse revue « Sciences ».
Au cours de ces trois dernières années, de multiples recherches à travers le monde ont montré que l’outil CRISP-CAS9 pouvait modifier des gènes d’organismes très variés : bactéries, levures, riz, mouches, nématodes, poissons-zèbres, rongeurs, etc. En outre, cette méthode initiale a encore été améliorée récemment de manière à ce que l’enzyme Cas9 ne coupe pas le gène cible, mais stimule son expression, l’inhibe ou y substitue un autre gène.
En mars 2014, des chercheurs du MIT ont utilisé CRISPR-Cas9 pour corriger une maladie génétique incurable du foie : la « tyrosinémie » causée par une mutation génétique sur un gène nécessaire pour dégrader l’acide aminé nommé tyrosine. Résultat : chez des souris souffrant de cette pathologie, CRISPR-Cas9 a réussi à remplacer le gène déficient par sa forme saine dans environ 0,5 % des cellules du foie (hépatocytes). Au bout d’un mois, ces cellules redevenues saines avaient proliféré : elles représentaient un tiers de tous les hépatocytes… de quoi permettre aux souris de survivre sans le traitement de référence !
À l’été 2014, c’est à une autre maladie génétique incurable que s’attaquent les chercheurs : la « myopathie de Duchenne », une dégénérescence musculaire due à des mutations sur le gène codant pour la protéine indispensable au bon fonctionnement des fibres musculaires. À l’Université du Texas, des chercheurs parviennent à corriger cette mutation dans des embryons de souris, puis les réimplantent dans des mères porteuses. Neuf mois après leur naissance, parmi ceux chez lesquels la correction avait touché au moins 40 % des cellules, les muscles étaient parfaitement normaux !
Mais la puissance de l’outil commence à susciter des inquiétudes. En avril 2015, une équipe chinoise de l’Université Sun-Yat-sen de Canton s’est en effet servie de CRISPR-Cas9 pour tenter de modifier le génome d’un embryon humain. Certes, il s’agissait pour ces chercheurs de prévenir le développement d’une maladie génétique, la beta-thalassémie, en modifiant le génome d’un embryon humain. Reste que cette technique modifie également celui de ses cellules sexuelles et par conséquent, toute sa descendance potentielle.
Enfin, l’application au génome humain pourrait s’avérer plus simple encore que prévu. En effet, une équipe du MIT, dirigée par Feng Zhang a découvert un nouveau système de CRISPR basé non plus sur l’enzyme Cas9, mais sur une autre molécule, le Cpf1, beaucoup plus précis et plus adapté à l’usage sur les mammifères complexes (Voir Nature).
Mais pour s’en tenir uniquement au couple CRISPR-CAS9, il offre déjà un immense champ de recherche et d’action thérapeutique qui couvre tous les domaines de la biologie et de l’agronomie. L’année dernière par exemple, une équipe américaine du MIT à Boston a réussi, en utilisant un vecteur viral qui a transporté le gène de l’enzyme CAS9 et son ARN, à réduire de moitié en une semaine le taux de cholestérol chez des souris. Il y a quelques mois, une autre équipe américaine de l’Université Johns Hopkins à Baltimore, a réussi pour sa part à corriger, dans les cellules souches de sang, la mutation génétique responsable de l’anémie falciforme.
En agronomie, les perspectives d’utilisation de CRISPR-CAS9 sont tout aussi impressionnantes. L’année dernière, une équipe chinoise de l’Académie des sciences de Pékin a ainsi réussi à produire un blé tendre mutant qui résiste à un champignon parasite. Pour parvenir à ce résultat les chercheurs ont inactivé un gène de susceptibilité à ce champignon. Dans ce cas précis, ce résultat été obtenu en couplant CRISPR avec un autre ciseau moléculaire, TALEN. En fait, cette nouvelle panoplie d’outils génétiques ouvre des perspectives presque illimitées de recherche et d’intervention dans l’ensemble des sciences de la vie. Ces nouveaux outils vont notamment révolutionner à moyen terme l’agronomie et l’agriculture car ils permettent de réaliser des modifications génétiques ciblées en ayant uniquement recours à la séquence d’ADN souhaité et sans être obligé d’insérer des gènes étrangers. Les nouvelles plantes ainsi obtenues ne pourront plus être qualifiées de transgéniques puisqu’elles ne seront plus porteuses dans leur génome d’une séquence d’ADN étrangère à leur espèce. Dans le domaine animal, ces outils ouvrent la voie à une correction des maladies génétiques et une modification « à la carte » des cellules, tissus et organismes.
Mais alors que CRISPR-CAS9 se révèle être un nouvel outil extraordinaire dans les domaines de la Recherche et de l’intervention génétique et génomique, plusieurs découvertes fondamentales récentes sont venues bouleverser la conception que les scientifiques se faisaient jusqu’à présent de notre génome.
En août dernier, une équipe de généticiens suisses de l’Université de Genève (UNIGE), de l’École Polytechnique Fédérale de Lausanne (EPFL) et de l’Université de Lausanne (UNIL) a découvert que les variations génétiques sont en mesure d’affecter l’état du génome à de nombreux endroits, apparemment séparés, et de moduler l’activité des gènes un peu comme le ferait un chef d’orchestre coordonnant les instrumentistes pour qu’ils jouent en harmonie.
Au cœur de ce mécanisme subtil et global, la chromatine semble jouer un rôle essentiel. Découverte il y a plus d’un siècle, la chromatine, dont la structure moléculaire fine n’a été comprise qu’en 1997, est un ensemble de protéines et d’ADN qui « empactent » le génome dans une cellule. Comme l’ADN doit être décompacté pour pouvoir s’exprimer, cette chromatine reconfigure l’ADN de telle sorte qu’il puisse être « lu » par un groupe de protéines appelé facteurs de transcription, qui activent ou répriment l’expression des gènes.
La séquence d’ADN varie toutefois d’un individu à l’autre, entraînant ainsi une variation moléculaire entre les états de la chromatine des individus. Cela finit par causer des variations dans la manière dont les humains répondent à l’environnement. Comprendre les processus génétiques et moléculaires régissant la variabilité de la chromatine est l’un des défis les plus importants dans le domaine des sciences de la vie qui permettrait de découvrir comment les variations génétiques prédisposent les individus à certaines maladies comme le cancer, le diabète ou les maladies auto-immunes.
Ces travaux de pointe confirment que le génome est bien davantage qu’un ensemble linéaire d’éléments qui interagissent par paires ; il s’organise de manière complexe et en réseaux. Dans ce système, lorsqu’un élément ne remplit pas correctement sa tâche, c’est l’ensemble du génome qui s’en trouve perturbé. « Nous sommes en train de découvrir des règles biologiques de base sur le fonctionnement du génome et la manière dont les séquences régulatrices agissent ensemble pour impacter l’expression d’un gène, » précise le professeur Alexandre Reymond de l’Université de Lausanne.
Faisant écho à cette découverte, il y a quelques jours, une équipe américaine regroupant plusieurs universités et centres de recherche (Stanford, MIT, Université Rice et Baylor College de Houston), étudiant la structure tridimensionnelle de la chromatine dans le noyau cellulaire, a réussi, pour la première fois, à provoquer des réorganisations de cette structure grâce à la modification d’un très petit nombre de paires de bases d’ADN. En manipulant ces petites séquences d’ADN qui guident la structure spatiale du génome, ces chercheurs ont confirmé le rôle-clé de la chromatine dans le noyau cellulaire (Voir PNAS et phys.org). Ces scientifiques ont en outre développé un modèle mathématique qui permet de prévoir l’organisation et l’évolution du déploiement du génome humain.
Il faut également souligner qu’en septembre dernier, la revue scientifique Nature a publié une exceptionnelle série d’articles relatant les résultats du programme Encode : Encyclopedia of DNA Elements. Cette publication représente une quantité phénoménale d’informations – l’équivalent de 3 000 DVD – sur le génome humain considéré comme un ensemble global et cohérent. Lancé depuis 12 ans, ce programme pharaonique est mis en œuvre grâce à une coopération scientifique internationale qui regroupe plus de 400 scientifiques sous la direction des principales universités américaines.
Encode vise clairement à dépasser le programme historique de séquençage du génome humain qui s’est achevé il y a 15 ans. Jusqu’à la fin du siècle dernier, la plupart des biologistes pensaient, en effet, qu’il suffirait d’analyser de manière exhaustive les séquences de l’ADN  pour déchiffrer cette supposée information génétique. Mais force est de constater que les espoirs de ces scientifiques ont été largement déçus car la simple connaissance de cette information génétique, certes très précieuse, ne suffit pas, loin s’en faut, à comprendre la logique profonde du vivant et à provoquer la révolution thérapeutique que la médecine attendait pour pouvoir enfin traiter les nombreuses maladies génétiques.
Avec la publication récente de cette moisson impressionnante de données génétiques, les scientifiques sont à présent convaincus qu’étudier l’ADN en tant que tel n’a pas de sens. Dans les organismes vivants, l’ADN d’une cellule est toujours en interaction avec une multitude d’autres protéines dans une structure nommée chromatine. Or, il s’avère que ces interactions jouent un rôle absolument capital car elles décident si certaines protéines doivent être fabriquées ou pas.
Le programme Encode vise précisément à étudier avec un niveau de précision extrême ces interactions en nombre phénoménal. Cela suppose l’identification et le classement, à l’échelle du génome entier, de toutes les séquences de l’ADN et de toutes les protéines interagissant ensemble dans une cellule, de manière à activer certains gènes. Avec Encode, c’est bien une nouvelle vision du vivant qui émerge : la cellule peut être comparée à une mélodie harmonieuse et spécifique qui, pour être correctement exécutée, doit mettre en relation au bon endroit et au bon moment une partition correcte – l’ADN – et une multitude d’exécutants, dont le rôle est crucial puisqu’il leur revient d’interpréter et de traduire en musique mélodieuse cette partition génétique initiale.
Certes, les biologistes savaient déjà que nombreuses séquences d’ADN sont transcrites en ARN (acide ribonucléique), mais que ce processus est loin de toujours entraîner la production de protéines par la cellule. Encode montre que ce phénomène, loin d’être exceptionnel est très largement répandu dans la cellule, ce qui conforte sérieusement l’hypothèse selon laquelle les ARN possèdent des fonctions de régulation très importantes dans le fonctionnement du génome.
Ce changement de perspective théorique est considérable et nous oblige à rompre définitivement avec la représentation d’un niveau génétique qui serait « fondamental » et commanderait l’ensemble des mécanismes biologiques. Il semble au contraire que le vivant obéisse à un ensemble de mécanismes subtils, intriqués et circulaires dans lequel sont à l’œuvre d’extraordinaires processus d’action des parties sur le tout mais aussi du tout sur les parties.
L’ensemble de ces découvertes et avancées récentes ouvre un nouveau cadre théorique qui n’est pas sans rappeler celui de la physique quantique. Dans ce cadre conceptuel, processus et phénomènes aléatoires complètent et enrichissent considérablement des mécanismes déterministes, à commencer par le fameux « programme génétique ». La dimension épigénétique portant sur l’ensemble des modifications et changements provoqués par nos expériences personnelles, notre éducation, notre environnement social et culturel, devient centrale. L’un des exemples les plus remarquables de cette dimension épigénétique fondamentale est le processus de méthylation par lequel l’expression de notre ADN peut être profondément et définitivement modifiée par des facteurs environnementaux, une modification de notre mode de vie par exemple.
Cette nouvelle approche du génome conforte une nouvelle conception de l’homme dans laquelle l’individu se construit tout au long de sa vie, dans une myriade d’interactions avec le monde, et n’est jamais achevé, ni jamais réduit à l’une de ses dimensions constitutives, qu’elle soit biologique, psychique, sociale ou culturelle. Cette nouvelle vision de l’homme et du vivant rend caduque et artificielle l’opposition si longtemps érigée en dogme entre gènes et organisme, corps et esprit, inné et acquis.


Source.:  RTflash, cet article est aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.

Un monde prévisible: avec le Big data et l'intelligence artificielle






Encore abstraites, les technologies du Big data et de l'intelligence artificielle pourraient elles aboutir à la disparition du hasard au profit d'un monde où tout puisse être anticipé ? C'est l'interrogation de René Trégouët, dans cette nouvelle chronique
Certaines ruptures technologiques sont particulièrement visibles et frappent les esprits : c’est par exemple le cas pour les tablettes numériques, les voitures électriques ou encore de l’éclairage par LED. Mais certaines révolutions techniques se déroulent sous nos yeux sans que nous en soyons vraiment conscients : tel est le cas des « Données massives » (Big Data). En seulement cinq ans, les données massives et leur traitement intelligent ont déjà profondément bouleversé l’ensemble des secteurs d’activité économique et scientifique… et ce n’est qu’un début !
Dans le domaine capital de la production d’énergie propre par exemple, nous allons être confrontés au cours du prochain quart de siècle à un redoutable défi mondial : assurer au moins la moitié de notre production totale d’énergie à partir de sources d’énergies renouvelables, principalement le vent, le soleil, et les énergies marines. Mais ces sources d’énergie, si elles présentent l’immense avantage d’être à la fois gratuites, inépuisable et très faiblement émettrices de gaz à effet de serre, présentent aussi le redoutable inconvénient d’être diffuses et intermittentes. Dès lors, pour que les réseaux de distribution -et notamment le réseau électrique- soient capables d’absorber une part de plus en plus importante d’énergie issue de ces sources renouvelables, il est absolument capital de pouvoir lisser et gérer les fluctuations considérables de production liées aux brusques changements météorologiques. Les outils de prévision de production d’énergie solaire ont d’ailleurs été désignés comme « technologie de rupture majeure » par le MIT en 2014.
La jeune société Reuniwatt, basée à la Réunion et fondée en 2010, a décidé de relever ce défi en combinant les technologies du Big Data, Intelligence Artificielle, météorologie, traitement d’images-satellites et d’images grand-angle du ciel. En quelques années seulement, Reuniwatt est devenue l’un des leaders mondiaux de la prévision d’énergie solaire grâce à son outil d’aide à la décision Soleka. Ile très ensoleillée, La Réunion souhaitait intégrer dans son mix énergétique une part majoritaire provenant des énergies renouvelables. Mais une telle montée en puissance des énergies propres, et notamment de l’énergie solaire, n’était envisageable qu’à la condition de pouvoir prévoir de manière particulièrement fiable l’évolution de la production d’électricité solaire en fonction des aléas de la météo.
Au terme de cinq années de recherche, Reuniwatt a réussi à mettre au point un remarquable logiciel prédictif, baptisé Soleka. Cet outil, reconnu au niveau mondial pour son excellence, fonctionne à trois horizons temporels (les prévisions allant de la minute à plusieurs jours à l’avance) et pour l’ensemble des acteurs de l’énergie, producteurs, distributeurs et consommateurs. En utilisant de manière intelligente et particulièrement ingénieuse des données massives, Soleka a donc réussi à faire sauter un obstacle très important vers la production prévisible à très grande échelle d’énergie solaire.
Autre domaine dans lequel les données massives sont en train de s’imposer : la biologie et la médecine. A l’institut Pasteur, le professeur Marco Vignuzzi et son équipe ont développé une méthode très innovante pour comprendre les mutations virales des ARN à partir de souches du Chikungunya ayant été isolées avant qu’elles ne mutent. Appliqué au virus du Chikungunya, de l’hépatite C ou de la grippe, cet outil permet de comprendre et de prévoir ce mécanisme de progression infectieuse. « Avant, on était obligé de séquencer un seul génome de virus à la fois ; mais à présent le séquençage à haut débit permet de couvrir la totalité d’une population virale qui existe au sein d’un même échantillon », souligne M. Vignuzzi.
Cette nouvelle approche prédictive devrait non seulement permettre de repérer en amont les mutations virales au potentiel épidémique important, mais devrait également déboucher sur la conception d’une nouvelle génération de vaccins plus efficaces, créés à partir des données observées et des schémas de mutations qui en découlent.
Une autre équipe américaine de l’Université d’Harvard, dirigée par le professeur Kou, a présenté il y a quelques semaines un modèle baptisé ARGO (AutoRegression with GOogle search data), capable de suivre en temps réel différentes épidémies de grippe. Ce modèle statistique de nouvelle génération, qui utilise notamment les données de Google, est présenté comme « flexible, robuste, auto-correctif et évolutif ». Bientôt disponible en « open source », ARGO va constituer un outil particulièrement précieux pour les pouvoirs publics et autorités de santé qui vont pouvoir planifier et gérer de manière beaucoup plus fiable les campagnes de vaccination contre la grippe. Il faut en effet rappeler que cette maladie, parfois présentée à tort comme bénigne, tue environ 500 000 personnes dans le monde chaque année. Il faut également rappeler qu’en France, plus de 18 000 personnes sont mortes de la grippe l’année dernière…
On peut aussi évoquer le lancement cet été par la fédération Unicancer d’un outil d’analyse sémantique appelé ConSoRe (Continum soins-recherche) qui va exploiter l’ensemble des données générées par les 18 centres de lutte contre le cancer (CLCC) afin notamment de simplifier la mise en place de programmes de recherche. Il permet d’effectuer des recherches en texte libre, « à la Google », ou multicritères. Le système fonctionne comme « une moulinette de traitement » qui effectue « une analyse sémantique des dossiers ». Son point fort est qu’il peut lancer des requêtes sur l’ensemble du corpus documentaire du patient. Concrètement, l’outil peut faire le lien entre un critère A présent dans un compte rendu et un critère B présent dans la base pharmaceutique, par exemple.
Cet outil permet de simplifier la mise en place de programmes de recherche par la constitution facilitée de cohortes de patients. Mais à terme, ConSoRe a des objectifs bien plus vastes et ambitieux et permettra, comme le fait déjà Watson, l’ordinateur intelligent d’IBM aux Etats-Unis, de proposer à chaque patient un traitement entièrement « sur mesure », conçu en fonction des spécificités biologiques et génétiques individuelles du malade.
Comme je vous l’ai déjà dit il y a quelques semaines, l’utilisation de ces données massives s’est également imposée dans le domaine de la sécurité et de la lutte contre le crime. L’année dernière par exemple, la ville de Santa Cruz, en Californie, a réussi à faire baisser de 27 % sa criminalité globale grâce à l’utilisation du nouveau logiciel PredPol. Cet outil de prévision criminelle est également utilisé depuis un an par la police du Kent, en Grande-Bretagne. Se présentant sous la forme d’une carte, actualisée en permanence, PredPol existe aussi en version « mobile », pour smartphone ou tablette, et permet aux policiers de mieux prévenir activement la criminalité en concentrant leurs actions sur les zones à risques.
PredPol est dérivé des programmes de prévention des séismes. Il analyse, grâce à des algorithmes spécifiques, une multitude d’informations contenues dans une gigantesque base de données qui recense toutes les infractions passées dans une aire précise (quartier, ville ou région). À présent, de nombreuses grandes villes américaines, comme New York ou Los Angeles, utilisent avec beaucoup de satisfaction PredPol.
En Europe, des chercheurs ont mis au point après cinq ans de travaux, dans le cadre d’un programme européen de recherche, l’outil Indect qui vise à mieux lutter contre les activités criminelles ou terroristes grâce à la détection automatique intelligente d’événements et de situations « à risque ». Ce système permet, notamment, d’effectuer, avec des taux de réussite pouvant dépasser les 90 %, le traçage et le suivi de personnes et d’objets, ainsi que leur identification. Couplé aux caméras de vidéosurveillance, Indect peut aussi repérer des comportements anormaux dans une foule, ce qui peut évidemment s’avérer extrêmement précieux dans le nouveau contexte actuel de lutte mondiale contre le terrorisme.
En France, la gendarmerie expérimente depuis quelques mois un nouveau logiciel prédictif pour anticiper les grandes tendances de la délinquance sur le territoire. L’idée est d’analyser certaines catégories de délits fréquents – les cambriolages, les vols, les trafics de stupéfiants ou encore les agressions sexuelles – s’étant produits au cours des cinq dernières années, pour en extraire les points de comparaison et les singularités et essayer de prévoir où et quand ces types de crimes et délits risquent de se reproduire dans un proche avenir.
Outre-Atlantique, la ville de New York utilise depuis juillet 2013 un nouvel outil logiciel destiné à mieux prévenir les 3 000 incendies majeurs qui se déclenchent chaque année dans cette mégapole. Cet outil prédictif explore et recoupe 60 critères, puis attribue une note de risque à chacun des 330 000 immeubles répertoriés dans sa base de données. Chaque semaine, ce logiciel peut ainsi fournir aux pompiers de la ville la liste des bâtiments à aller inspecter car pouvant être le foyer du prochain incendie (Voir The Wall Street Journal).
Les outils d’analyse prédictive ont également récemment fait leur apparition dans le secteur de l’industrie aéronautique. Depuis quelques mois, l’ensemble des 1,6 giga-octets de données provenant de 24 000 capteurs embarqués et correspondant à chaque vol d’un Airbus A380, sont récupérées par Wi-Fi puis transmises au centre d’ingénierie et de maintenance d’Air France KLM à Toulouse. Ces données sont alors comparées et recoupées, grâce à un moteur d’analyse prédictive, avec des données d’exploitation de toute la flotte des A380 pendant les deux dernières années. Ce nouvel outil a fait la preuve de son efficacité pour prévoir et détecter les pannes sur la pompe de circulation, le composant le plus fragile du circuit qui amène le carburant aux moteurs. A partir de janvier 2016, le système sera étendu à d’autres équipements fragiles des A380 puis à d’autres avions de la compagnie comme les Boeing 777.
Ce système est si fiable et si précis que les techniciens peuvent à présent intervenir rapidement et directement sur la pièce responsable de la panne, sans suivre le manuel technique de l’avion. Le temps d’identification et de localisation de l’origine de la panne passe ainsi de 6 heures à seulement 5 minutes, ce qui permet un gain de temps et d’argent très important pour la compagnie.
À Lyon, la start-up ForCity, fondée en janvier 2014, a développé une plate-forme du même nom qui permet de modéliser une ville miroir numérique. Cette ville miroir est ensuite rendue dynamique par des modèles mathématiques simulant l’évolution du territoire au cours du temps. Cet outil de simulation numérique permet alors aux collectivités et aux entreprises de simuler une multitude de scénarios correspondants à des évolutions de territoire, en faisant varier de nombreux paramètres  (population, transports, énergie, attractivité d’un quartier, etc). Parmi les clients de ForCity, on trouve par exemple Veolia Asia pour qui cette société a développé une maquette numérique de Hong Kong, afin d’étudier les interactions entre le territoire et les métiers de Veolia : valorisation des déchets, cycle de l’eau, distribution de froid dans les bâtiments.
La gestion et la comptabilité des entreprises n’échappent pas non plus à cette révolution des données massives : Cegedim SRH a ainsi développé une solution de pilotage pour gérer la masse salariale et formuler des hypothèses de manière prédictive. Cet outil est entièrement dédié au pilotage de la masse salariale. Il permet aux entreprises d’anticiper les départs à la retraite, d’évaluer les futurs besoins en compétences, ou encore de bâtir un plan prévisionnel de gestion des ressources humaines en tenant compte de l’évolution de la pyramide des âges dans l’entreprise…
Là encore, ce logiciel exploitant le Big Data a permis d’effectuer un saut décisif entre la simulation et la prédiction. Grâce à ce système, lorsqu’une entreprise octroie une augmentation ou une prime à ses collaborateurs, elle peut désormais avoir une vue d’ensemble, sur le long terme, des impacts que sa politique salariale  va avoir sur les charges sociales et patronales, sur les mutations, sur les processus de mobilité interne.
Mais cette analyse d’une masse gigantesque de données peut également permettre aux recruteurs publics ou privés de mieux cerner le profil et les aptitudes d’un candidat pour un poste donné. Il existe déjà des tests, comme le questionnaire de personnalité PAPI, qui consiste à vous faire répondre à une longue série de questions, qui croisées, créent une sorte d’organigramme reflétant votre comportement en entreprise. Mais en combinant les potentialités des données massives et de l’apprentissage automatique, on peut aller encore plus loin. Ainsi, le service Watson Developer Cloud BlueMix d’IBM permet d’analyser votre personnalité, et d’en dresser là aussi une carte.
En outre, les algorithmes peuvent même permettre de prédire le départ d’un salarié. Le Crédit Suisse utilise ainsi ses données pour évaluer les risques qu’un employé quitte l’entreprise, en fonction de ses performances, de son lieu de vie, de ses traits de personnalité, ou encore de ses interactions sociales. L’objectif est bien sûr de repérer les collaborateurs les plus précieux qui risquent de partir, afin de les garder au moyen de primes et d’augmentations de salaires… (Voir The Wall Street Journal).
Les outils prédictifs intelligents sont également en train de révolutionner le secteur de la vente et de l’immobilier. Aux États-Unis, Smartzip propose par exemple à un agent immobilier de scanner une zone, à partir du code postal, ce qui correspond aux Etats-Unis à un quartier. Ce logiciel permet d’analyser l’ensemble des données associées à toutes les adresses répertoriées et le professionnel peut ainsi savoir très rapidement si tel ou tel résident est propriétaire, depuis quand et quel est le montant et la durée de son crédit immobilier. Au final, cet outil permet d’identifier les biens immobiliers qui ont le plus de chances d’être vendus dans l’année qui suit. Signalons au passage qu’en France, l’utilisation de ce type d’outils prédictifs extrêmement puissants n’est pas encore possible car il se heurte à un cadre législatif et réglementaire européen et national plus strict qu’aux États-Unis et qui restreint de manière beaucoup plus drastique l’utilisation à des fins commerciales des données personnelles sans le consentement exprès des consommateurs…
Il faut encore évoquer l’outil prédictif très futuriste mis au point par une jeune chercheuse israélienne, Kira Radinsky, qui a été classée parmi les 35 jeunes les plus innovants au monde, par le magazine MIT Tech Review. L’algorithme imaginé par cette brillante scientifique repose sur un vaste ensemble de faits de toute nature (épidémies, guerres, catastrophes, crises économiques) qui se sont déroulés dans le passé. Selon Kira Radinsky, même si, chaque événement survient dans des circonstances particulières, il obéit tout de même à un modèle déjà observé dans le passé et qui obéit à certaines lois subtiles et utilisables. Ce logiciel de recoupement de données (Link Data), croise des milliards d’informations afin d’en extraire les corrélations et points communs. Il est alors possible, en recourant à des modèles mathématiques de prévisions, de calculer les probabilités d’occurrence de faits semblables. Cet outil serait capable, selon sa conceptrice, de prévoir 90 % des risques épidémiques, une performance hors d’atteinte pour le cerveau humain.
L’exploitation intelligente des données massives est donc devenue très rapidement l’un des nouveaux moteurs de mutation numérique en cours dans nos économies développées. Il suffit d’ailleurs pour s’en convaincre d’observer la progression de ce marché au niveau mondial. Selon une récente étude du cabinet IDC, celui-ci passera globalement de 3,2 milliards de dollars en 2010 à 48 milliards en 2019 ! On le voit, cette révolution des données massives n’en est encore qu’à ses prémices : selon une étude réalisée par Pure Storage, trois entreprises sur quatre déclarent collecter des informations qui ne sont pas exploitées, soit par manque de moyens humains et techniques soit par manque de temps.
Soulignons enfin que les enjeux liés à la généralisation de ces nouveaux outils de prédiction intelligente ne sont pas seulement scientifiques et économiques mais également sociaux et humains. Face à un chômage de masse persistant, l’utilisation intelligente des données massives pourrait en effet permettre une mise en relation beaucoup plus fluide et efficace de l’offre et de la demande de compétences sur le marché du travail. Il faut en effet savoir qu’en France, on estime (selon les données de Pôle Emploi et du Medef) à 570 000 par an le nombre de postes qui ne peuvent être pourvus qu’avec de grandes difficultés et à 400 000 chaque année celui des emplois qui ne trouvent pas preneurs, faute de candidats possédant les compétences requises…
L’utilisation généralisée de ces nouveaux outils extrêmement puissants dans les domaines du travail et de la formation professionnelle devrait donc permettre d’exploiter bien plus efficacement de vastes gisements d’emplois, aujourd’hui inaccessibles mais également d’adapter et d’anticiper de manière active l’évolution des filières de formation professionnelle, ce qui permettrait à chacun de trouver sa place dans notre société, et à notre Pays de tirer pleinement profit les mutations techno économiques en cours au lieu de les subir.
Reste que l’utilisation de plus en plus pertinente et pointue d’une quantité toujours plus grande de données concernant nos activités et nos vies soulèvent de réelles interrogations éthiques et politiques. Comment en effet s’assurer que l’utilisation à des fins scientifiques mais également commerciales, sociales ou politiques de toutes ces données, se fait bien avec le consentement « libre et éclairé », selon la formule juridique consacrée, de tous les acteurs ? Jusqu’où sommes-nous prêts à limiter la protection de nos données personnelles pour vivre dans une société plus efficace, plus performante et plus confortable ? Ces questions essentielles, qui ne peuvent avoir de réponses simples, seront, soyons-en assurés, au cœur du débat démocratique de ces prochaines années.
 

Source.: publié sur RTflash, cet article est reproduit aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.

lundi 8 février 2016

Notre Monde est vide et vaste, c'est juste 5% de la matière

En cosmologie, l'énergie sombre ou énergie noire (dark energy en anglais) est une forme d'énergie hypothétique emplissant uniformément tout l'Univers et dotée d'une pression négative, qui la fait se comporter comme une force gravitationnelle répulsive. L'existence de l'énergie sombre est nécessaire pour expliquer diverses observations astrophysiques, notamment l'accélération de l'expansion de l'Univers détectée au tournant du XXIe siècle.
Malgré une densité très faible (de l'ordre de 10-29 g/cm3), l'énergie sombre est une composante majeure de l'Univers, représentant environ 68 % de la densité d'énergie totale de l'Univers. Sa nature reste aujourd'hui encore inconnue. Il peut s'agir simplement de la constante cosmologique induite par la relativité générale qui aurait une valeur non nulle. Il existe d'autres hypothèses, menant soit à une modélisation différente de la matière (quintessence, k-essence, modèles unifiés de matière et d'énergie sombre), soit à une modélisation différente de la gravitation (gravité f(R), champs scalaires, cosmologie branaire). Le choix entre ces différentes hypothèses dépend essentiellement des contraintes apportées par l'observation, notamment des supernovae de type Ia, de fond diffus cosmologique ou des oscillations acoustiques des baryons.
L'énergie sombre ne doit pas être confondue avec la matière sombre qui, contrairement à l'énergie sombre, ne remplit pas uniformément l'Univers et qui interagit normalement (forces attractives) avec la gravitation.



Tandis que la matière noire ou matière sombre (traduction de l'anglais dark matter), parfois aussi nommée de façon plus réaliste matière transparente1,2, désigne une catégorie de matière hypothétique, invoquée pour rendre compte d'observations astrophysiques, notamment les estimations de masse des galaxies et des amas de galaxies et les propriétés des fluctuations du fond diffus cosmologique.
Différentes hypothèses sont explorées sur la composition de la matière noire : gaz moléculaire, étoiles mortes, naines brunes en grand nombre, trous noirsetc. Cependant, les estimations de la densité de l'Univers et du nombre d'atomes impliquent une nature non baryonique. Des astrophysiciens supposent d'autres particules, peut-être des superpartenaires tels que le neutralino, regroupées sous le nom générique de « WIMP ».
La matière noire aurait pourtant une abondance au moins cinq fois plus importante que la matière baryonique, pour constituer environ 27 %3 de la densité d'énergie totale de l'Univers observable4, selon les modèles de formation et d'évolution des galaxies, ainsi que les modèles cosmologiques.

 Donc notre monde de la matière ici serait d'environ 4.9% .(représentation avec un arbre)La matière noire creuse l'espace-temps dans lequel coule la matière normale et vient nourrire les galaxies.C'est cette énergie noire qui provoquerait l'expention de l'univers.



Sur le plan expérimental ou observationnel, quelles sont les perspectives pour aller au-delà de la relativité générale ?
La détection d'ondes gravitationnelles par les détecteurs Advanced ligo et Advanced Virgo nous offrira des moyens inédits pour tester les processus physiques qui opèrent tout près de l'horizon des trous noirs. Stephen Hawking nous a appris que des phénomènes quantiques y jouent un rôle : c'est le fameux rayonnement de Hawking, qu'il sera difficile d'identifier, mais des surprises restent possibles. Pour obtenir des mesures de précision, il faudra probablement attendre l'observatoire spatial lisa vers 2030. La mission technique lisa Pathfinder qui le prépare a été lancée en décembre 2015 et vient de publier des premiers résultats spectaculaires. Cela est de bon augure pour la future mission. lisa devrait permettre d'étudier avec précision l'horizon de deux trous noirs superlatifs en coalescence, et de tester ainsi avec une précision inégalée la théorie de la gravitation.

Source.:



jeudi 4 février 2016

La molécule de l'esprit: Le DMT (dimethyltryptamine)




The Spirit Molecule(la molécule de l'esprit) une enquête sur le dimethyltryptamine (DMT), un composé psychoactif endogène, qui existe chez l'homme et de nombreuses espèces de plantes et d'animaux. Le documentaire  sanctionnée par le gouvernement,retrace chez l' humaine le DMT .Plusieurs recherche et de nombreuses essais, les tribulations du Dr Rick Strassman et ses réalisations inconcevables. Un examen plus approfondi des effets du DMT à travers le prisme de deux concepts traditionnellement opposés, la science et la spiritualité, la molécule de l'Esprit explore les liens entre la neurosciences, la physique quantique, et la spiritualité humaine. La recherche de Strassman, et les expériences des sujets humains avant, pendant, et après les essais cliniques intenses, soulève de nombreuses questions intéressantes. Une variété d'experts exprime leurs pensées et des expériences uniques avec le DMT dans leurs domaines respectifs. Comme l'histoire de Strassman se déroule, les contributeurs peser sur ses théories remarquables, y compris la synthèse du DMT dans la glande pinéale de notre cerveau, et son lien avec les expériences de mort imminente.
La diméthyltryptamine (N, N-diméthyltryptamine) ou DMT est une substance psychotrope puissante (souvent synthétique mais aussi présente de façon naturelle dans plusieurs plantes dont les psychotria ou Anadenanthera). Elle est considérée comme un stupéfiant dans certains pays. Se présentant pure sous forme cristalline et généralement fumée, elle procure un effet hallucinogène quasi-immédiat et de courte durée ainsi qu'une expérience de mort imminente dans certains cas (en sens inverse, certaines études lient cette expérience de mort imminente à une possible production de diméthyltryptamine par la glande pinéale).
Certaines recherches tendent à montrer que la DMT est produite naturellement en très petites quantités par la glande pinéale, connue également sous le nom d'épiphyse. Habituellement, cette glande produit de la mélatonine, molécule de l'horloge biologique, mais avec un fort stress hormonal, elle stoppe cette synthèse pour produire de la DMT endocrine.


Certains écrivains ont relaté leurs expériences supposées avec la diméthyltryptamine, en particulier Terence McKenna et Jeremy Narby. Le premier auteur décrit la rencontre avec des « elfes mécaniques en mutation » (« self-transforming machine elves ») ; d'autres font état de communication avec des intelligences non humaines.
D'un point de vue plus scientifique, le docteur Rick Strassman (en), psychiatre et pharmacologue américain, a écrit La molécule de l'esprit (The Spirit Molecule).
Bernard Werber, dans son livre L'Ultime Secret, émet l'hypothèse qu'à l'instant précis de la mort, la glande pinéale décharge une plus grande dose de diméthyltryptamine dans le cerveau, rendant le passage de vie à trépas moins pénible. Cette hypothèse expliquerait cette sensation de mort imminente relatée par certains utilisateurs de la DMT.
Dans le film Enter the Void de Gaspar Noé, une très longue séquence tente de reproduire les effets de la DMT sur la conscience. Par ailleurs, Gaspar Noé aurait déjà fumé de la DMT6.
Hunter S. Thompson y fait référence dans Las Vegas Parano, où il déclare être nostalgique de l'époque où la DMT courait les rues de San Francisco.
Sense8, une série TV d'Andy Wachowski, y fait également référence dans son premier épisode.





Le docteur Rick J. Strassman, professeur en psychiatrie à l’école de médecine de l’Université du Nouveau-Mexique, et un des psychiatres américains parmi les plus éminents, a mené la plus grande recherche psychédélique jamais réalisée en expérimentant sur des dizaines de volontaires la mystérieuse "molécule de l'esprit", nommée DMT, ou diméthyltryptamine.
Avec sincérité et une rigueur scientifique exceptionnelle, le docteur Strassman relate de très nombreux récits dont l'intensité, la profondeur et l'étrangeté sont réellement saisissantes, d'autant plus que beaucoup d'entre eux se réfèrent au Bardo, l'état intermédiaire qui va de la mort à la prochaine naissance.
Selon l'article du site en lien ci-dessous : Dès le début de sa carrière, Rick J. Strassman s’était fixé comme but de pratiquer des recherches légales aux États-Unis sur les substances psychédéliques, selon un protocole rigoureux. Dans le cadre de l’Université du Nouveau-Mexique, il s’est interrogé sur le rôle éventuel de la glande pinéale dans les états de conscience extraordinaires.
Les hypothèses avancées qu'il présente en irriteront plus d'un, mais personne ne restera insensible aux incroyables ouvertures qui se dégagent de ces recherches sur le cerveau humain et ses potentialités insoupçonnées. La DMT est-elle cette molécule de l'esprit en connexion avec la fameuse glande pinéale, considérée par les Hindous comme le lieu du septième Chakra et par Descartes comme le siège de l'esprit ? Une remarquable étude aux frontières de la connaissance.
Le Dr. Strassman a poursuivi ses travaux cliniques en cherchant à déterminer la fonction de la mélatonine, l’hormone secrétée par la glande pinéale connue également sous le nom épiphyse. Le groupe de recherches qu’il a animé a réalisé la première étude permettant de connaître le rôle principal de la mélatonine chez l’homme.
Il s’intéressa ensuite à la DMT, l’agent actif de l’Ayahuasca, et il entreprit en 1990 la seule expérimentation approuvée et financée par le gouvernement américain sur les psychédéliques pendant ces vingt dernières années.


L’ayahuasca ou yagé est un breuvage à base de lianes consommé traditionnellement par les chamanes des tribus indiennes d'Amazonie, utilisé pour sa capacité curative associée aux croyances et pratiques locales.
Par extension, ayahuasca est le nom donné aux lianes du genre Banisteriopsis dont l'écorce sert principalement à la composition de cette boisson.


Il a du batailler pendant deux ans avant de recevoir le feu vert de la FDA pour évaluer les effets physiologiques de la DMT, et mettre au point le questionnaire d’évaluation "Hallucinogen Rating Scale", servant à mesurer les effets psychologiques de la DMT et autres substances enthéogènes. Ces recherches sur les psychédéliques étaient approuvées et financées par le National Institute on Drug Abuse.
Le chercheur explique : "En occident, les études sur la conscience se sont multipliées. Un volet particulier de cette recherche étudie les effets des agents psychoactifs sur la conscience. Dans le cadre de la Fondation Cottonwood, nous poursuivons l’exploration des mystères les plus étranges de l’esprit humain. Nous utilisons les composants psychoactifs des plantes pour étudier les divers champs de conscience manifestés chez l’homme, leur processus, et découvrir leurs bases biochimiques et physiologiques.
Nous nous intéressons également aux implications médicales, sociales, et spirituelles de ces différents états, afin de savoir comment les appliquer au mieux pour soigner, développer la créativité et acquérir une certaine sagesse.
Pendant de nombreux siècles, des cultures indigènes ont utilisé des plantes médicinales pour induire avec méthode des états de conscience amplifiés et de type mystique. La science occidentale commence à peine à s’intéresser aux immenses ressources du savoir traditionnel concernant ces plantes et leurs effets. Nous poursuivrons nos buts en confrontant diverses perspectives, scientifique, anthropologique, et spirituelle.
Notre vice-président, le Dr. Steven Barker de l’Université de Louisiane, met au point un nouveau protocole ultra-sensible pour mesurer les émissions naturelles de la DMT et d’agents similaires dans le corps humain. Ceci devrait nous permettre de comparer les quantités habituelles avec celles qu’on relève lors des états de conscience amplifiés."
Le docteur Strassman sait que ses recherches ne feront pas l’unanimité. D’autres chercheurs ne manqueront pas de réfuter l’idée que la DMT peut permettre à nos cerveaux de percevoir la matière sombre ou des Univers parallèles, tels des plans d’existence habités par des entités conscientes...
(ecologie-interieure.com/)
Certaines recherches tendent à montrer que la DMT est une substance psychotrope puissante, mais aussi produite naturellement en très petites quantités par la glande pinéale.
Son usage pour ses propriétés psychotropes remonte à l'antiquité. La DMT est présente à l'état naturel dans de nombreuses plantes dont les Psychotria ou Anadenanthera, et dont certaines entrent dans la composition de préparations hallucinogènes artisanales comme le breuvage Ayahuasca ou la poudre à priser Yopo qui sont utilisés lors de cérémonies rituelles chamaniques.
Tout au long de l'histoire de l'humanité, la plupart des civilisations humaines ont utilisé des substances psychotropes dans des buts spirituels, divinatoires, médicinaux ou encore récréatifs.




Source.:

samedi 12 décembre 2015

Que veut dire la reconnaissance des réfugiés climatiques , selon le COP21 ?



La reconnaissance des réfugiés climatiques(selon le COP21, grande conférence de l'ONU sur le climat)

C'est une nouveauté : la mention dans l'accord des "déplacements de population liés aux effets néfastes des changements climatiques". Non seulement ces "migrants" figurent en préambule, mais la question fait également l'objet d'un article spécifique dans le corps du texte, qui prévoit la création d'une "équipe spéciale" onusienne  ("task force", sorte de "groupe de travail" amélioré) pour faire face aux déplacements de population. Si la charge symbolique est importante, le chercheur en sciences politiques François Gemenne (spécialiste des migrations environnementales) reconnaît que le concept est très flou : "Pour l'instant, c'est difficile de savoir ce que c'est. En fait, ce sera ce qu'on voudra en faire ! Il s'agit d'un signal envoyé à la communauté internationale dont il va falloir qu'elle s'empare."


* Surement a cause des personnes en danger de mourir des effets  néfastes des changements climatiques !

Conséquences humaines du réchauffement climatique:

Face au réchauffement climatique, l'Académie des Sciences américaine note, dans un rapport de 2002223 : « il est important de ne pas adopter d'attitude fataliste en face des menaces posées par le changement de climat. (…) Les sociétés ont dû faire face à des changements du climat graduels ou abrupts durant des millénaires et ont su s'adapter grâce à des réactions diverses, telles que s'abriter, développer l'irrigation ou migrer vers des régions plus hospitalières. Néanmoins, parce que le changement du climat est destiné à continuer dans les prochaines décennies, dénier la possibilité d'événements climatiques abrupts ou minimiser leur impact dans le passé pourrait s'avérer coûteux. ».

Impact sur les régions côtières:

La montée du niveau de la mer est évaluée entre 18 et 59 cm d'ici 2100 par le quatrième rapport du GIECa 7.
Les populations de certaines îles de l'océan Pacifique ou de l'océan Indien, telles que les îles Maldives ou Tuvalu, sont directement menacées, car une partie de leur territoire pourrait se retrouver submergée. Mais l'ensemble des populations vivant dans des régions côtières (soit plus de cinq cent millions de personnes) risquent de voir leur environnement dégradé (érosion du littoral, salinité des aquifères, disparition des zones humides, inondations permanentes)127.
Localement, cette montée s'ajoute à des phénomènes qui ne sont pas liés au climat et qui entraînent un enfoncement du sol : charge des sédiments dans les deltas des fleuves, pompage des eaux souterraines, extraction de gaz et de pétrole, affaissements miniers ...
En France, des études sont menées pour évaluer l'impact de la montée des eaux sur le littoral d'ici 2100 et les aménagements à envisager224.

Source.: