Rechercher sur ce blogue

Aucun message portant le libellé science. Afficher tous les messages
Aucun message portant le libellé science. Afficher tous les messages

jeudi 19 novembre 2020

Des chercheurs prennent la première photo numérique de 3200 mégapixels au monde

 

 

Des chercheurs prennent la première photo numérique de 3200 mégapixels au monde

Des chercheurs de Stanford ont pris des photos de 3 200 mégapixels, les plus grandes jamais prises, en utilisant des capteurs qui feront partie du plus grand appareil photo numérique au monde.

Les chercheurs de Menlo Park ont testé avec succès leur appareil photo numérique capable de prendre des photos gigantesques de 3200 mégapixels.


Les prises de vue sont rendues possibles grâce à 189 capteurs individuels répartis sur un plan focal large de 60 centimètres qui éclipse les capteurs habituels de 1,4 pouce de large d’une caméra standard. Chacun des capteurs peut prendre des images de 16 mégapixels.

L’appareil photo sera installé à l’observatoire Vera Rubin au Chili. Cet appareil de 3,2 gigapixels va peut-être permettre de percer certains mystères de l’univers dans le domaine de l’astronomie. Pour se rendre compte de la taille d’une telle image, il faudrait 378 téléviseurs 4K pour en afficher une à la bonne échelle, selon le SLAC (Stanford Linear Accelerator Center).

Avec ses 3200 mégapixels, il pourrait repérer une balle de golf à une distance de 24 km. Son champ de vision est suffisamment large pour capturer 40 lunes à la fois. Il sera capable de repérer des objets 100 millions de fois plus petits que ceux visibles à l’œil nu. La NASA publie régulièrement de magnifiques images de galaxies, d’étoiles ou de supernovae. Elle avait récemment dévoilé une image d’un « papillon cosmique » à des milliers d’années-lumière. Elle a aussi publié quelques images de Mars, capturées par le Mars Reconnaissance Orbiter (MRO).

Quel sera le rôle de ce capteur gigantesque ?

Une fois que l’observatoire Vera Rubin sera opérationnel, l’appareil photo numérique de 3 200 mégapixels capturera une succession d’images panoramiques de tout le ciel austral, ce qu’il fera une fois tous les quelques jours pendant 10 ans.

Ce projet, connu sous le nom de Legacy Survey of Space and Time (LSST), permettra de suivre les mouvements de milliards d’étoiles et de galaxies, tout en créant le plus grand film d’astronomie au monde. Cet observatoire nouvelle génération est prêt à s’attaquer à des questions concernant la formation de l’univers, la matière noire et l’énergie noire. Les chercheurs ont dévoilé la première image et ont expliqué comment ils ont réalisé cet exploit dans une vidéo.

 Source. : SLAC

jeudi 30 avril 2020

La NASA est prête à envoyer un hélicoptère sur Mars

La NASA est prête à envoyer un hélicoptère sur Mars

par Bruno Clairet,




NASA, exploration, spatiale, cosmos, astronomie, science,




La NASA vient d’ajouter l’hélicoptère et son système de livraison au Rover Perseverance. Le lancement des deux engins est toujours prévu pour le 17 juillet prochain, et le drone devrait effectuer un premier vol martien fin mars 2021.
Malgré la pandémie de Covid-19, la NASA se doit de respecter le calendrier de la mission Mars 2020 pour être prête le 17 juillet prochain. En cas de retard, le lancement du Rover Perseverance devrait être repoussé de deux ans, la durée nécessaire pour que les positions de la Terre et de Mars soient à nouveau favorables. Le robot à six roues est donc en phase finale de préparation au Kennedy Space Center de Floride où il subit ses derniers tests. Les ingénieurs de la NASA viennent notamment d’intégrer l’hélicoptère qui l’accompagnera sur Mars.

Les techniciens de la NASA ont arrimé avec succès le système de livraison de l’hélicoptère martien sous le ventre du Rover. Le dispositif qui contrôle le lancement du drone fonctionne parfaitement. Les premiers tests indiquent qu’il communique correctement avec le Rover, et que son système de recharge électrique est opérationnel. Avant de pouvoir déployer ses panneaux solaires, il sera en effet totalement tributaire des ressources énergétiques de Perpseverance.

L’hélicoptère de la NASA affiche des ambitions techniques plus que scientifiques

L’hélicoptère de Mars 2020 sera le premier engin volant dans une atmosphère extraterrestre. Un véritable défi technique qui a conduit la NASA à le priver de toute mission scientifique. L’appareil de moins de 2 kg a démontré qu’il pouvait voler en conditions martiennes dans la chambre à vide du Jet Propulsion Laboratory. Il lui reste à faire ses preuves sur la planète rouge. La mission prévoit un premier vol un mois et demi après l’atterrissage de Perseverance dans le cratère de Jezero le 18 février 2021. Le drone s’élancera alors dans le ciel martien pendant une période d’une trentaine de jours.
La mission Mars 2020 doit principalement rechercher des signes de vie microbienne passée, mais elle s’inscrit également dans un programme plus large pour préparer l’exploration de Mars par l’Homme. Avec le programme Artemis, la NASA compte d’abord retourner sur la Lune en 2024 et y installer progressivement une base permanente.


Source. : NASA

jeudi 8 février 2018

Une intelligence artificielle peut-elle prédire la mort ?

Jusqu'où ira l'intelligence artificielle ?

  • LA RECHERCHE • Plusieurs techniques sont mises au point pour apprendre aux machines à réfléchir. Si l'ordinateur arrive même à tirer les leçons de ses erreurs, il est encore loin de réussir à fonctionner comme notre cerveau.
  • LES APPLICATIONS • Nous utilisons déjà l'intelligence artificielle avec les chatbots, les assistants vocaux, certains réseaux sociaux, la voiture autonome...
  • LES CRAINTES • Les robots vont-ils voler nos emplois ? Prendre le pouvoir sur l'homme ? La compétition pour la supériorité de l'intelligence artificielle déclenchera-t-elle la Troisième Guerre mondiale ? Nombreuses sont les peurs liées à ces avancées technologiques.

Une équipe de chercheurs de l'université de Stanford a mis au point un programme d'intelligence artificielle capable de prédire la mortalité d'un patient.
En utilisant un algorithme d’intelligence artificielle (IA) pour prédire la mortalité, une équipe de recherche de l'université de Stanford espère améliorer le calendrier des soins palliatifs des patients atteinte de maladies incurables. Lors des tests, le système s'est révélé extrêmement précis, prédisant correctement les taux de mortalité dans 90% des cas. Mais si le système est capable de prédire quand un patient pourrait mourir, il ne peut toujours pas dire aux médecins comment il est arrivé à sa conclusion. Pronostiquer la mortalité est difficile.

En effet, les médecins doivent tenir compte de tout un tas de facteurs, allant de l'âge et des antécédents familiaux du patient, à sa réaction aux médicaments, ainsi qu’à la nature même du mal qui l'affecte. Lorsqu’un patient a peu de chances de vivre au-delà d'une année, son traitement est transféré à une équipe de soins palliatifs qui s'efforce de rendre les derniers jours ou mois du patient aussi exempts de souffrance que possible. A cette fin, ils s’attachent à gérer la douleur, la nausée, la perte d'appétit, voire la confusion mentale, tout en apportant un soutien moral et psychologique au patient, ainsi qu’à ses proches.

160.000 dossiers mis à contribution

De fait, il arrive parfois que les médecins soumettent le malade à des examens complémentaires, ainsi qu’à des traitements douloureux et très contraignants, alors que des soins palliatifs seraient souvent bien plus appropriés. Et, à l'inverse, s'ils sont admis trop tôt, cela entraîne l'arrêt des traitements destinés à lutter contre la maladie et, par conséquent, l’imminence de sa mort. Il est donc essentiel de trouver le bon timing, c'est pourquoi le chercheur Anand Avati et son équipe de l'université de Stanford ont développé un système qui utilise une forme d'intelligence artificielle, qu’on appelle plus couramment le "deep learning" (ou "apprentissage profond", en bon français), qui permet à un réseau de neurones d'artificiels copiant le cerveau humain, d'assimilier des quantités immenses d'informations.

Dans notre cas, le programme a été formé grâce aux données des dossiers médicaux de 160.000 patients adultes et enfants admis à l'hôpital Stanford ou à l'hôpital pour enfants Lucile Packard. Les malades en question souffraient de toutes sortes d’affections, allant du cancer aux maladies neurologiques, en passant par l’insuffisance cardiaque ou rénale. L'IA a examiné en détail les diagnostics, le type de traitements, ainsi que les médicaments que chaque patient prenait.

L'IA a prédit avec succès la mortalité du patient dans 9 cas sur 10

Armé de ses nouvelles capacités, l'algorithme a été chargé d'évaluer les 40.000 patients vivants. Il a été capable de prédire avec succès la mortalité des patients sur une période de trois à douze mois dans neuf cas sur dix - les patients ayant moins de trois mois de durée de vie n'ont pas été pris en compte, car cela ne laisserait pas suffisamment de temps pour les soins palliatifs. Ainsi, près de 95% des patients qui avaient été évalués avec une faible probabilité de mourir au cours de cette période ont vécu au-delà d'un an.

L'étude pilote s'est avérée fructueuse et les chercheurs espèrent maintenant que leur système sera appliqué plus largement. L'algorithme de prédiction de la mort n'est pas destiné à remplacer les médecins, mais offre un outil complémentaire qui permet d’améliorer l'exactitude des prédictions, comme l'expliquent les chercheurs de Stanford dans leur compte-rendu. Surveiller les patients à risque de manière continue est une tâche quasiment impossible à accomplir pour les professionnels de santé. En effet, les ressources dans ce secteur sont minces, notamment concernant la dotation en personnel.

De quoi améliorer la fin de vie des malades ?

Notre société a tendance à médicaliser la fin de la vie, ce qui rend souvent l’hospitalisation incontournable. Le domicile reste, en effet, le parent pauvre des politiques de développement des soins palliatifs en France. Ainsi, les personnes transférées à l’hôpital vont bénéficier le plus souvent de traitements à visée curative (62%), alors que l’intérêt thérapeutique n’est pas évident. A l’inverse, chez ceux ou celles qui restent à domicile, très peu vont bénéficier de soins palliatifs.

En France comme dans les autres pays occidentaux, on le sait, les décès avaient lieu principalement à la maison jusque dans les années 1950. Mais depuis, le domicile a progressivement cédé la place aux institutions, du type Ephad. Un peu plus de 50 ans plus tard, seulement un quart des Français décèdent chez eux, comme l’indiquait en 2010 l’enquête "Fin de vie en France" réalisée par l’Ined.

REF.:

jeudi 26 mai 2016

Un virus qui pourrait guérir la maladie d'Alzheimer, de Parkinson, etc




En 2004, le chimiste britannique Chris Dobson spéculé qu'il pourrait y avoir un élixir universel là-bas qui pourrait combattre non seulement l'alpha-synucléine pour la maladie de Parkinson, mais les amyloïdes causées par de nombreuses maladies de protéines repliement à la fois. Remarquablement, dans cette même année, un scientifique israélien nommé Beka Salomon a découvert un candidat peu probable pour cet élixir, un micro-organisme naturel appelé un phage.
Solomon, professeur à l'Université de Tel Aviv, a fait une découverte fortuite, un jour où elle a été teste une nouvelle classe d'agents contre la maladie d'Alzheimer. Si elle casseroles, il pourrait marquer le début de la fin de la maladie d'Alzheimer, de Parkinson, et beaucoup d'autres maladies neurodégénératives. Il est une histoire remarquable, et le personnage principal est pas Salomon ou tout autre scientifique, mais un virus humble que les scientifiques se réfèrent comme M13.alzheimers atrophie scan mriLa maladie d'Alzheimer peut causer des tissus cérébraux à l'atrophie, vu ici en bleu.
Parmi les nombreuses variétés de virus, il y a une sorte que seulement infecte les bactéries. Connu comme bactériophages, ou tout simplement phages, ces microbes sont anciens (plus de trois milliards d'années) et omniprésente: on les trouve partout dans le fond de l'océan aux estomacs humains. Le but du phage M13 est d'infecter un seul type de bactérie, Escherichia coli, ou E. coli, qui peut être trouvé en quantités abondantes dans les intestins des mammifères. Comme d'autres micro-organismes, tels que les phages M13 ont un seul but: transmettre leurs gènes. Pour ce faire, ils ont mis au point des armes pour leur permettre d'envahir, prendre en charge, et même tuer leurs hôtes bactériens. Avant l'avènement des antibiotiques, en fait, les médecins parfois utilisés phages pour combattre les infections bactériennes autrement incurables.
Pour comprendre l'intérêt de Salomon à M13 exige un peu de fond de ses recherches. Solomon est un éminent chercheur d'Alzheimer, réputé pour pionnier des traitements dits immunothérapie pour la maladie. Immunothérapie emploie des anticorps fabriqués spécialement, plutôt que de médicaments à petites molécules, pour cibler les plaques et les écheveaux de la maladie. Comme les élèves du secondaire apprennent en classe de biologie, les anticorps sont des protéines en forme de Y qui font partie de la défense naturelle de l'organisme contre l'infection. Ces protéines sont conçus pour se verrouiller sur des envahisseurs et de les tenir afin qu'elles puissent être détruites par le système immunitaire. Mais depuis les années 1970, les biologistes moléculaires ont pu anticorps génétiquement ingénieur d'origine humaine, façonné pour attaquer les intrus indésirables comme les cellules cancéreuses. Dans les années 1990, Salomon a cherché à prouver que de tels anticorps modifiés pourraient être efficaces pour attaquer les plaques bêta-amyloïde dans la maladie d'Alzheimer ainsi.
En 2004, elle a été en cours d'exécution d'une expérience sur un groupe de souris qui avaient été génétiquement modifiées pour développer les plaques de la maladie d'Alzheimer dans leur cerveau. Elle voulait voir si des anticorps humains faits livrés par les voies nasales des animaux seraient traverser la barrière hémato-encéphalique et dissoudre les plaques bêta-amyloïde dans leur cerveau. Cherchant un moyen d'obtenir plus d'anticorps dans le cerveau, elle a décidé de les attacher à phages M13 dans l'espoir que les deux agissant de concert serait mieux pénétrer la barrière hémato-encéphalique, dissoudre plus des plaques, et d'améliorer les symptômes chez les souris -comme mesurée par leur capacité à exécuter des labyrinthes et effectuer des tâches similaires.A l'époque, Salomon avait aucune idée claire comment un phage simple pourrait dissoudre les plaques d'Alzheimer.
Salomon a divisé les rongeurs en trois groupes. Elle a donné l'anticorps à un seul groupe. Le deuxième groupe a reçu la combinaison de phage-anticorps, qui elle espérait aurait un effet accru à dissoudre les plaques. Et comme un contrôle scientifique, le troisième groupe a reçu le phage M13 plaine.
Parce que M13 ne peut pas infecter tout organisme, sauf E. coli, elle attend que le groupe témoin de souris obtiendrait absolument aucun avantage à partir du phage. Mais, de manière surprenante, le phage par lui-même avéré très efficace pour dissoudre les plaques bêta-amyloïde et dans les tests de laboratoire a amélioré la cognition et le sens de l'odorat des souris. Elle a répété l'expérience encore et encore, et la même chose. "La souris a montré très belle récupération de leur fonction cognitive», dit Salomon. Et quand Salomon et son équipe ont examiné les cerveaux des souris, les plaques ont été en grande partie dissous. Elle a couru l'expérience pendant un an et a constaté que les souris de phages traités avaient 80% moins de plaques que celles non traitées. Salomon avait aucune idée claire comment un phage simple pourrait dissoudre les plaques d'Alzheimer, mais étant donné la moindre chance qu'elle avait trébuché à travers quelque chose d'important, elle a décidé de faire breveter des propriétés thérapeutiques de M13 pour l'Université de Tel Aviv. Selon son fils Jonathan, elle a même ", a plaisanté sur le lancement d'une nouvelle entreprise autour du phage appelé NeuroPhage. Mais elle était pas vraiment sérieux à ce sujet. "
L'année suivante, Jonathan Solomon-who'd vient de terminer plus d'une décennie dans les forces spéciales d'Israël, au cours de laquelle il a obtenu un BS en physique et une maîtrise en génie électrique voyagé à Boston pour vous inscrire à la Harvard Business School. Alors il a étudié pour son MBA, Jonathan ne cessait de penser au sujet du phage sa mère avait enquêté et son potentiel pour traiter des maladies terribles comme la maladie d'Alzheimer. A Harvard, il a rencontré beaucoup de brillants entrepreneurs potentiels, y compris le Hampus Hillerstrom Swiss-instruits, qui, après avoir étudié à l'Université de Saint-Gall, près de Zurich, avait travaillé pour une société européenne de capital-risque biotechnologique appelé HealthCap.
Après la première année d'école de commerce, les deux élèves ont remporté des stages d'été: Solomon au fabricant d'appareils médicaux Medtronic et Hillerstrom au géant pharmaceutique AstraZeneca. Mais comme Hillerstrom rappelle, ils sont retournés à Harvard qui veulent plus: «Nous avions tous deux passé ... Je les appellerais« étés bizarres »dans les grandes entreprises, et nous avons dit à l'autre:« Eh bien, nous devons faire quelque chose de plus dynamique et plus intéressant . ' "
Dans leur deuxième année du MBA, Salomon et Hillerstrom ont pris une classe ensemble dans lequel les élèves ont été chargés de créer une nouvelle société sur le papier. La classe, Salomon dit, "a été appelé une étude sur le terrain, et l'idée était d'explorer une technologie ou une nouvelle idée d'entreprise par vous-même tout en étant encadrés par un professeur de Harvard Business School. Donc, je levai l'idée avec Hampus de démarrage d'une nouvelle entreprise autour du phage M13 comme un projet de classe. A la fin de ce semestre, nous avons développé un plan d'affaires Mini. Et nous sommes si bien que nous avons décidé qu'il valait la peine d'un plan à faire pour de vrai ".
En 2007, avec 150 000 $ en fonds de démarrage contribué par les membres de la famille, une nouvelle entreprise, NeuroPhage Pharmaceuticals, est né. Après avoir négocié une licence avec l'Université de Tel-Aviv pour explorer des propriétés thérapeutiques de M13, Salomon et Hillerstrom atteint aux investisseurs désireux de miser sur les pouvoirs thérapeutiques potentiels de M13. En Janvier 2008, ils ont recueilli plus de 7 millions $ et a commencé à embaucher du personnel.
chef scientifique de leur premier employé-NeuroPhage officier était Richard Fisher, un vétéran de cinq start-up de biotechnologie. Fisher se souvient sentir sceptique quand il a entendu parler du phage miraculeux. "Mais la façon dont il a été dans ma vie est qu'il est vraiment tout sur le peuple, et donc d'abord j'ai rencontré Jonathan et Hampus et je les ai vraiment aimé. Et je pensais que dans un an ou alors nous pourrions probablement comprendre si elle était un artefact ou s'il y avait quelque chose de vraiment, mais j'était extrêmement sceptique. ""Pourquoi un phage faire à des fibres amyloïdes?"
Fisher a entrepris de répéter les expériences de la souris de Beka Salomon et a constaté que avec une certaine difficulté, il a été en mesure de montrer les M13 phage dissous plaques bêta-amyloïde lorsque le phage a été livré par les voies nasales les rongeurs. Au cours des deux prochaines années, Fisher et ses collègues ont alors découvert quelque chose de totalement inattendu: que le virus humble M13 pourrait également dissoudre d'autres enchevêtrements agrégats-amyloïde tau trouvés dans la maladie d'Alzheimer ainsi que les plaques amyloïdes associées à d'autres maladies, y compris l'alpha-synucléine (Parkinson ), la huntingtine (maladie de Huntington), et la superoxyde dismutase (sclérose latérale amyotrophique). Le phage a même travaillé contre les amyloïdes dans les maladies à prions (une classe qui comprend la maladie de Creutzfeldt-Jakob). Fisher et ses collègues ont démontré cette première dans des tubes à essai, puis dans une série d'expériences sur les animaux. Etonnamment, le simple virus M13 est apparu, en principe, de posséder les propriétés d'une «thérapie pan», un élixir universel du genre le chimiste Chris Dobson avait imaginé.
capacité unique de ce phage pour attaquer des cibles multiples attiré de nouveaux investisseurs dans un second tour de financement en 2010. Solomon rappels sentir un mélange d'exubérance et le doute: «Nous avons eu quelque chose d'intéressant qui attaque des cibles multiples, et qui a été passionnant. D'autre part, nous ne savions pas comment le phage a travaillé. "La clé
Cela n'a pas été leur seul problème. Leur produit thérapeutique, un virus vivant, il est apparu, était très difficile à fabriquer. Il était également difficile de savoir comment des quantités suffisantes de particules virales peuvent être livrés à des êtres humains. Les méthodes utilisées dans les expériences animales-inhalées par le nez ou injectés directement dans le cerveau étaient inacceptables, de sorte que la meilleure option disponible semblait être une injection dite intrathécale dans le canal rachidien. Comme le dit Hillerstrom, "Il était semblable à une péridurale; ce fut la route que nous avions décidé de livrer notre virus avec ".
Alors que Salomon et Hillerstrom inquiets de trouver une voie d'administration acceptable, Fisher a passé de longues heures à essayer de comprendre le mécanisme sous-jacent de l'action du phage. "Pourquoi un phage faire à des fibres amyloïdes? Et nous avons vraiment n'a pas eu une très bonne idée, sauf que sous un microscope électronique du phage ressemblait beaucoup à une fibre amyloïde; elle avait les mêmes dimensions. "
Boston est une ville avec d'énormes ressources scientifiques. Moins d'un mile de bureaux de NeuroPhage était MIT, un centre mondial de la science et de la technologie. En 2010, Fisher a recruté Rajaraman Krishnan-un étudiant postdoctoral indienne travaillant dans un laboratoire MIT consacré à mauvais repliement des protéines à enquêter sur le casse-tête M13. Krishnan dit qu'il a été immédiatement intrigué. Le jeune scientifique mis sur le développement de nouveaux outils biochimiques pour étudier comment le virus a travaillé aussi dévoré la littérature scientifique sur les phages. Il est avéré que les scientifiques savaient beaucoup de choses sur le phage M13 humbles. Les virologues ont des bibliothèques de formes mutantes de M13 même créé. En exécutant une série d'expériences pour tester qui mutants liés à l'amyloïde et ceux qui ne sont pas, Krishnan a pu comprendre que les capacités spéciales du phage impliqués un ensemble de protéines affichées sur la pointe du virus, appelé GP3. «Nous avons testé les différentes variantes pour des exemples de phages avec ou sans protéines de pointe, et nous avons constaté que chaque fois que nous foiré autour avec les protéines de pointe, il réduit la capacité du phage à joindre à amyloïdes», dit Krishnan.
Virologues, il est avéré, avaient également visualisé la structure du phage en utilisant cristallographie aux rayons X et l'imagerie par résonance magnétique nucléaire. Sur la base de cette analyse, les microbiologistes avaient prédit que le mode normal de fonctionnement du phage était de nature à déployer les protéines de pointe en tant que clés moléculaires; les touches en effet permis au parasite de "déverrouiller" les bactéries E. coli et injecter son ADN. Parfois, en 2011, Krishnan est devenu convaincu que le phage faisait quelque chose de semblable quand il lié à des agrégats amyloïdes toxiques. Le secret des pouvoirs extraordinaires du phage, il a supposé, était tout à fait dans la protéine GP3.
Comme le fait remarquer Fisher, ceci est fortuite. Juste par «pure chance, les clés de M13 non seulement déverrouiller E. coli; ils travaillent aussi sur des amas de protéines mal repliées. "Les chances que cela se produise par hasard, Fisher dit, sont très petites. "Les virus ont une spécificité exquise dans leurs mécanismes moléculaires, parce qu'ils sont en concurrence les uns avec les autres ... et vous avez besoin d'avoir tout droit, et les deux verrous doivent travailler exactement de la façon dont ils sont conçus. Et ce une façon d'obtenir dans des bactéries travaille également pour la liaison aux plaques amyloïdes qui causent de nombreuses maladies chroniques de notre époque ".
Après avoir prouvé laïque secret du virus dans quelques protéines à la pointe, Fisher, Krishnan, et leurs collègues se demandaient si elles pouvaient capturer le pouvoir d'amyloïde-busting du phage dans un médicament plus respectueux des patients qui ne doit pas être délivré par péridurale. Donc, au cours des deux prochaines années, les scientifiques de NeuroPhage conçus un nouvel anticorps (un soi-disant protéine de fusion, car il est composé de matériel génétique provenant de différentes sources) qui affiche la protéine GP3 critique sur sa surface de telle sorte que, comme le phage, il pourrait dissoudre les plaques amyloïdes. Fisher espérait que ce produit fabriqué roman collerait à des agrégats toxiques comme le phage.
En 2013, les chercheurs de NeuroPhage avaient testé le nouveau composé, qu'ils ont appelé NPT088, dans des tubes à essai et chez les animaux, y compris les primates non humains. Il effectue de façon spectaculaire, en ciblant simultanément plusieurs protéines mal repliées telles que la bêta-amyloïde, tau, et l'alpha-synucléine à divers stades d'assemblage amyloïde. Selon Fisher, NPT088 ne colle pas normalement plié protéines individuelles; il a laissé l'alpha-synucléine normale seul. Il coincé seulement à des protéines mal repliées, pas seulement les dissoudre directement, mais aussi de bloquer leur transmission du prion-like de cellule à cellule: "Il cible de petits agrégats, ces oligomères, que certains scientifiques considèrent comme toxiques. Et elle vise des fibres amyloïdes qui forment des agrégats. Mais il ne colle pas aux protéines individuelles normalement pliées. "Et en prime, il pourrait être livré par perfusion intraveineuse.Les essais
Il y avait un bourdonnement d'excitation dans l'air lors de ma visite les bureaux de NeuroPhage à Cambridge, Massachusetts, à l'été 2014. Le 18 personnel, y compris Salomon, Hillerstrom, Fisher et Krishnan, espéraient que leur nouvelle découverte, qu'ils ont appelé la général motif amyloïde d'interaction, ou GAIM, plate-forme, pourraient changer l'histoire. Une décennie après sa mère avait fait sa découverte fortuite, Jonathan Solomon a été en train de finaliser un plan pour obtenir le produit dans la clinique. Comme le dit Salomon: «Nous avons maintenant potentiellement un médicament qui fait tout ce que le phage pourrait faire, qui peut être délivré par voie systémique et est facile à fabriquer."
Est-il efficace chez l'homme? Alors NPT088, étant constitué de grosses molécules, est relativement pauvre à pénétrer la barrière hémato-encéphalique, le médicament persiste dans l'organisme pendant plusieurs semaines, et ainsi de Fisher estime que le temps devient assez dans le cerveau de prendre efficacement des plaques. Le concept est que cet anticorps peut être administré à des patients une fois ou deux fois par mois par perfusion intraveineuse pendant aussi longtemps que nécessaire."Si notre médicament fonctionne, nous allons le voir travailler dans ce procès."
NeuroPhage doit maintenant naviguer système de réglementation de la FDA et de démontrer que son produit est sûr et efficace. Jusqu'à présent, NPT088 a prouvé sûr chez les primates non humains. Mais le grand test sera l'essai de phase 1A devrait être en cours cette année. Cette première étude humaine proposée est un essai à dose unique pour chercher des effets indésirables chez des volontaires sains. Si tout va bien, NeuroPhage va lancer une étude de phase 1B impliquant quelque 50 patients atteints de la maladie d'Alzheimer pour démontrer la preuve de l'activité de la drogue. Les patients auront leur cerveau imagées au début afin de déterminer la quantité de bêta-amyloïde et tau. Puis, après avoir pris le médicament pendant six mois, ils seront réimagés pour voir si le médicament a réduit les agrégats en dessous de la ligne de base.
"Si notre médicament fonctionne, nous allons le voir travailler dans ce procès», dit Hillerstrom. "Et puis nous pouvons être en mesure d'aller directement à la phase 2 des essais à la fois la maladie d'Alzheimer et de Parkinson." Il n'y a pas encore de test d'imagerie pour l'alpha-synucléine, mais parce que leur médicament réduit simultanément bêta-amyloïde, tau, et les niveaux d'alpha-synucléine chez les animaux, un test 1B de phase réussie dans la maladie d'Alzheimer peut être acceptable à la FDA. "Chez les souris, le même médicament abaisse la bêta-amyloïde, tau, et l'alpha-synucléine," dit Hillerstrom. "Par conséquent, nous pouvons dire si nous pouvons réduire chez l'homme le tau et bêta-amyloïde, puis sur la base des données sur les animaux, nous pouvons nous attendre à voir une réduction chez l'homme dans l'alpha-synucléine ainsi."
Sur le chemin, l'entreprise devra prouver son système GAIM est supérieure à la concurrence. À l'heure actuelle, il existe plusieurs sociétés pharmaceutiques et biotechnologiques tests produits dans les essais cliniques pour la maladie d'Alzheimer, à la fois contre la bêta-amyloïde (Lilly, Pfizer, Novartis et Genentech) et tau (TauRx) et également les sociétés avec des produits contre l'alpha-synucléine pour la maladie de Parkinson (AFFIRIS et Prothena / Roche). Mais Salomon et Hillerstrom pense qu'ils ont deux avantages: la flexibilité multi-cible (leur produit est le seul qui peut cibler plusieurs amyloïdes à la fois) et la puissance (ils croient que NPT088 élimine les agrégats plus toxiques que les produits de leurs concurrents). La puissance est un gros problème. l'imagerie TEP a montré que les médicaments d'Alzheimer existant aiment crenezumab réduire les charges amyloïdes que modestement, d'environ 10%. "Une faiblesse des produits existants,« Salomon dit, "est qu'ils ont tendance à empêcher que de nouveaux agrégats. Vous avez besoin d'un produit assez puissant pour dissoudre les agrégats existants aussi bien. Vous avez besoin d'un produit puissant, car il y a beaucoup de pathologie dans le cerveau et relativement peu de temps pour le traiter ".cibles futures
L'ascension de NeuroPhage est un exemple extraordinaire de l'esprit d'entreprise scientifique. Alors que je suis d'enracinement pour Salomon, Hillerstrom, et leurs collègues, et je serais heureux de faire du bénévolat pour un de leurs essais (j'ai été diagnostiqué avec la maladie de Parkinson en 2011), il y a encore beaucoup de raisons pour lesquelles NeuroPhage a une route difficile à venir. Biotech est une entreprise risquée brutalement. A la fin de la journée, NPT088 peut se révéler dangereux. Et il peut encore ne pas être assez puissant. Même si NPT088 réduit de manière significative la bêta-amyloïde, tau, et l'alpha-synucléine, il est possible que cela ne peut pas conduire à des avantages cliniques mesurables chez des patients humains, comme il l'a fait dans des modèles animaux.
Mais si cela fonctionne, alors, selon Salomon, ce médicament sera en effet changer le monde: ". Un seul composé qui traite efficacement la maladie d'Alzheimer et de Parkinson pourrait être un blockbuster drogue 20000000000 dollar par an" Et à l'avenir, un version modifiée pourrait aussi travailler pour Huntington, la SLA, les maladies à prions comme la maladie de Creutzfeldt-Jakob, et plus encore.
Je demandai Jonathan à propos de sa mère, qui a lancé cette histoire remarquable en 2004. Selon lui, elle a continué à d'autres choses. «Ma mère, Beka Salomon, reste un vrai scientifique. Après avoir fait la découverte scientifique passionnante, elle était heureuse de laisser les choses-la ingénierie et de marketing des choses moins intéressantes pour l'amener à la clinique nous à. Elle est hors la recherche de la prochaine grande découverte ».



Source.:

jeudi 11 février 2016

Les 5 technologies qui vont changer le destin de l’Humanité




Le Big Data, les objets connectés, l’impression 3D, les énergies renouvelables et les MOOC sont les cinq technologies qui vont changer le destin de l’Humanité dès ces prochaines années. Explications
Nous qui avons la chance d’être nés au XXe ou XXIᵉ siècle dans un pays dit développé, pensions, en 1960, que les progrès apportés depuis deux siècles avec les révolutions industrielles, que ce soit l’électricité, le téléphone, la télévision, la voiture, le moteur et des milliers d’autres, étaient à nuls autre pareils et que jamais l’être humain ne pourrait connaître dans sa seule existence tous les bouleversements connus en huit générations par ses Anciens. Et pourtant si.
L’adolescent né avec le XXIᵉ siècle, qui a aujourd’hui 15 ans, n’aura plus, autour de son lit de mort un seul objet qui sera semblable à ceux qui entouraient son berceau. Et pourquoi cela ? Parce que nous changeons d’ère.
Jusqu’à ce jour, les progrès accomplis par l’Homme respectaient une progression arithmétique comme chaque année nous comptons les uns après les autres les jours des mois qui se succèdent.
Mais depuis plus de 50 ans, l’Humanité a changé de paradigme. Elle ne compte plus les jours de son destin en ajoutant arithmétiquement les nombres les uns après les autres, 1 – 2 – 3 – 4 – 5 … Son potentiel de connaissances évolue dorénavant de manière exponentielle.
Si nous prenons un mois de 31 jours comme échelle de référence de la vie d’un être humain né (dans un pays développé) en 1965 et qui, statistiquement, deviendra centenaire, cet être humain est aujourd’hui, alors qu’il a 50 ans, au 15e jour de son mois de vie.
Si les technologies avaient progressé depuis 50 ans au même rythme que par le passé, leurs évolutions auraient donc, dans notre exemple, été multipliées par 15 dans ce demi-siècle.
Or, en respectant la loi empirique édictée par Gordon Moore, co-créateur d’Intel, en 1965, le progrès des technologies n’a pas été multiplié par 15 en 50 ans mais par 16.384 (2¹⁴) !
Nous n’en avons pas conscience mais cette loi empirique a bien été respectée depuis 50 ans. Les microprocesseurs qui animent notre monde aujourd’hui sont 16.000 fois plus performants que les premiers microprocesseurs d’Intel !
Mais si je vous disais qu’il vous faudrait porter le nombre à 1.073.741.824 (1 milliard 73 millions) (2³⁰) dans la 31e case de la vie de notre centenaire, en 2065, vous seriez incrédule.
Et pourtant, cette affirmation se révèlera, avec le temps comme réaliste. Depuis l’énoncé de la Loi de Moore, en 1965, le premier demi-siècle nous paraîtra rapidement lascif quand nous constaterons que l’indice totalisant l’ensemble des progrès technologiques doublera tous les 3 ans dans les cinquante ans qui arrivent.
Très vite, l’ordinateur quantique qui remplacera l’informatique binaire actuelle se nourrissant de bits permettra de relever ce défi. Cette loi de Moore que nous pensions réservée à l’informatique jusqu’à ce jour va dorénavant s’appliquer à de nombreuses autres technologies.
Le Big Data qui collationne toutes les données émises par l’Homme ou les machines va suivre la même progression exponentielle.
Toutes les activités qui s’appuient sur le Savoir et qui ont pour finalité d’atteindre un coût marginal zéro comme l’affirme magistralement Jérémie Rifkin dans son dernier ouvrage, comme l’a fait l’informatique avec Internet dans ces 50 dernières années, respecteront cette progression exponentielle dans leur développement.
Aujourd’hui, je ne vais aborder, après avoir cité le Big Data, quatre de ces nouvelles technologies qui dès ces prochaines années vont changer le destin de l’Humanité : les objets connectés, les imprimantes 3D, les énergies renouvelables et les MOOC.
Depuis une quinzaine d’années, nous entendions parler des RFID et régulièrement je les citais dans RT Flash. Mais dans ces dernières années, ces puces RFID ont fait un bond extraordinaire en sachant s’alimenter avec l’énergie des terminaux avec lesquels elles communiquent et en voyant leur prix descendre à quelques cents.
Le développement de ces puces RFID que nous appelons maintenant « objets connectés » va être si rapide que chaque être humain devrait être entouré de 5000 à 7000 objets connectés avant 2030.
Ces objets connectés serviront strictement à tout, que ce soit dans notre vie publique ou dans notre vie privée. Comme l’usage du Web aujourd’hui, l’usage de ces objets connectés sera totalement gratuit. Mais mieux encore, comme les données émises par chaque être humain ou par les objets les entourant seront de plus en plus précieuses pour préparer l’Avenir et imaginer les produits du Futur,  les GAFA (Google, Apple, Facebook, Amazon) ou leurs remplaçants se battront pour nous acheter ces données, ce qui apporte de nécessaires revenus à une Humanité qui aura perdu par ailleurs des centaines de millions d’emplois détruits par une robotisation à outrance.
Dans le développement sidéral que va connaître notre civilisation dans ces prochaines années grâce aux objets connectés je ne vais aborder qu’un seul sujet : la santé.
En observant les travaux actuellement réalisés par les laboratoires de Google et en décryptant les prédictions de Raymond C. Kurzweil, l’un de ses directeurs, il n’est pas déraisonnable d’affirmer que les nombreuses morts liées, aujourd’hui, au cancer, aux maladies cardio-vasculaires, ou maladies dégénératives et bien d’autres maladies, devraient avoir presque totalement disparu à l’échéance d’une génération. Pourquoi cela ?
Parce que la médecine curative actuelle (qui traite une maladie seulement lorsque celle-ci s’est déclarée) aura été remplacée grâce aux objets connectés par une médecine prédictive.
Il suffira que quelques cellules dans un organisme soient atteintes par un cancer, alors qu’aujourd’hui il en faut des millions sinon des centaines de millions pour les déceler, pour qu’immédiatement le système automatisé qui surveille la santé de chacun avec des objets connectés vous conseillera (vous obligera ?) d’aller voir immédiatement un spécialiste qui, avec des nanostructures, vous détruira aussi facilement ces cellules cancéreuses qu’on le fait aujourd’hui pour les bacilles avec un antibiotique.
Il en sera de même avec les maladies cardio-vasculaires et bien d’autres maladies évoluant aujourd’hui sans bruit pendant des années et qui, maintenant, grâce à des « objets connectés » qui très tôt détecteront de faibles signaux de souffrance, indétectable avec nos outils actuels de surveillance et d’analyse, permettront de prendre, à temps, toutes les mesures qui élimineront toutes les évolutions fatales. Si ces « objets connectés » avaient existé il y a seulement quelques courtes années, notre ami Jean-Michel Billaut, n’aurait pas eu à souffrir d’une rupture d’anévrisme poplité.
Certes, l’Homme devra continuer à se battre pour découvrir toutes les démarches curatives pour tous ceux qui ayant échappé ou s’étant dérobés à la surveillance des « objets connectés » continueront à souffrir de cancers, de maladies cardio-vasculaires ou de toute autre maladie.
Mais il faut avoir bien conscience que le sort de l’Humanité passe bien à cette médecine prédictive et non par la seule médecine curative telle que la pratiquent aujourd’hui les pays les plus riches car, dans un demi-siècle, avec les 9 milliards de terriens, l’Humanité n’aurait pas la capacité financière de faire face à un tel défi.
Abordons, maintenant, une autre technologie qui elle aussi va changer l’avenir de l’Humanité : l’impression 3D.
Cette impression 3D va devoir très prochainement changer de nom tant elle va de moins en moins ressembler à notre vieille imprimante papier pour, de plus en plus, faire penser à l’image de la création du premier Homme dans la Genèse telle que l’a génialement imaginée Michel Ange dans son immortelle fresque de la Chapelle Sixtine.
L’impression 3D va connaître le même développement exponentiel que celui du « personal computer » (PC) depuis 40 ans.
Comme pour l’informatique, les technologies des imprimantes 3D vont tendre vers un coût marginal zéro. Les « makers » qui se comptent déjà en centaines de milliers à la surface de la Terre (les premières années du développement exponentiel d’une nouvelle technologie sont quasi invisibles pour le commun des mortels !) n’ont pas répété la malheureuse erreur des débuts de l’informatique avec des operating systems (OS) propriétaires. Ils ont choisi, dès l’origine, de partager universellement toutes leurs connaissances au travers de logiciels ouverts.
Les progrès de cette technologie révolutionnaire vont être foudroyants. On a déjà su reconstituer l’exact visage d’une personne horriblement défigurée par un accident et les chercheurs ont déjà su fabriquer des objets complexes faisant appel à de nombreux composants différents. Ces technologies qui permettront à terme de tout faire en partant de rien vont ouvrir des champs encore inconnus à l’imagination de l’Homme.
Pourquoi, ces imprimantes 3D vont-elles prendre une importance si grande ?
Tout d’abord parce que leur mode de production totalement automatisé repose sur une méthode additive et non soustractive.
Ainsi, aujourd’hui, pour fabriquer un meuble il faut abattre un arbre, en couper les branches, enlever l’écorce et le débiter en planches. Il faut ensuite raboter ces planches et les découper pour en faire toutes les pièces du meuble. Quant à la fin de la fabrication le bilan est dressé, nous constatons que seuls 10 % de l’arbre ont été utilisés pour fabriquer le meuble et que quelque 90 % ont été soit jetés, soit sous-utilisés.
Avec une Terre qui n’a pas les capacités naturelles d’accueillir 9 milliards d’êtres humains, avec leurs gaspillages actuels, il est grand temps d’imaginer et fabriquer des produits qui n’utiliseront qu’un strict minimum de ressources naturelles.
De plus, avec la mondialisation intégrale des process de production de ces imprimantes 3D, nous pourrons fabriquer n’importe où dans le Monde n’importe quel objet. Il suffira que vous ayez eu la précaution de prendre la photo 3D (la photo du Futur) de tout objet vous entourant pour qu’immédiatement vous le reproduisiez dans votre Fab-Lab personnel et ce pour un coût très proche de zéro.
Ainsi, même si vous cassez une belle assiette ancienne de belle-maman, vous pourrez en « fabriquer » une nouvelle avant même que votre épouse soit de retour !
Avec ces nouvelles technologies d’impression 3D, il sera devenu absurde de fabriquer à l’autre bout du monde, en Chine par exemple, des objets dont les prix ne feront que décroître alors qu’il vous faudrait des centaines de kilos de CO² pour les faire transporter jusqu’à vous.
Les objets les plus complexes à reproduire se feront dans des Fab-Lab départementaux qui ne seront jamais à plus d’une journée de cheval de votre domicile comme disaient les révolutionnaires en 1790…
Mais dans votre propre unité urbaine, il y aura des Fab-Lab qui pourront fabriquer 90 % des objets vous environnant. Chez vous, si vous le voulez,  vous pourrez même avoir des imprimantes 3D qui pourront reproduire la moitié des objets meublant votre intérieur.
Avez-vous bien conscience, vous qui me lisez en cette année 2015, que des Chinois viennent de fabriquer, en une journée, la première maison entièrement fabriquée par une monumentale imprimante 3D et ce pour moins de 300 € ?
Parlons maintenant d’une autre technologie qui, elle aussi, va changer le destin du Monde.
Après des millénaires et des millénaires d’adoration, l’Homme va enfin utiliser le Soleil pour en capter une partie de l’énergie qu’il envoie à notre Terre depuis des milliards d’années pour se fournir totalement en énergie. Les meilleurs spécialistes ont calculé qu’il suffirait à l’Homme de capter seulement 10 % de l’énergie envoyée par le Soleil pour subvenir à tous ses besoins.
Comme cette énergie reçue du Soleil est gratuite et restera gratuite, ceci signifie qu’à terme, à court terme (20 ans) devrais-je même dire avec la courbe exponentielle que va suivre son utilisation, l’énergie utilisée par l’Homme sera quasi gratuite. Sans bruit, le rendement des panneaux photovoltaïques a respecté la Loi de Moore depuis 20 ans et devrait encore la respecter pendant ces prochaines décennies.
Avec la gestion globale de l’énergie grâce au « smart grid » qui révolutionnera autant le monde qu’Internet et le Web en permettant à chacun, à chaque instant, de distribuer et de recevoir toute l’énergie qu’il aura en surplus ou dont il aura besoin.
Cette énergie à un coût marginal zéro sera un élément fondamental de pacification de l’ensemble de notre Planète.
Avant de conclure, abordons un dernier sujet qui va dorénavant dominer tout ce que je viens de traiter et qui va accélérer de façon exponentielle les mutations de l’humanité : les MOOC (Massive Open Online Course) que l’on peut traduire par « Cours en ligne ouvert et massif ».
Jusqu’à maintenant, seule une partie de l’Humanité a pu accéder au Savoir. Ce qui signifie que tous les autres seraient commandés par les robots de demain et ne pourraient en rien les dominer.
Maintenant, alors que les plus grands cours magistraux pourront être accessibles gratuitement, grâce aux MOOC, à tous les habitants de notre Terre, nous allons assister dès ces prochaines années à une réelle explosion de l’intelligence collective et individuelle de l’Humanité.
Les innovations comme les découvertes fondamentales vont éclore par milliers et nous allons assister, avec la traduction automatique dans toutes les langues, à un foisonnement encore difficilement imaginable aujourd’hui de nouveautés qui vont révolutionner tous les secteurs de l’activité humaine et toutes nos connaissances.
Ainsi, ce changement de paradigme qui voulait depuis des millénaires que l’évolution suive une progression arithmétique, et qui maintenant va se transformer en progression exponentielle, va avoir des conséquences fondamentales encore insoupçonnées. Ainsi l’Homme, lui-même, va plus évoluer dans ce prochain siècle qu’il n’a pu le faire, génération après génération, depuis des millions d’années. Cette mutation sera liée au fait que les mutations génétiques seront, elles-aussi, soumises à cette courbe exponentielle qui soutient mon raisonnement depuis le début de cet édito.
C’est dans cette mutation que réside, sans conteste, le plus grand défi auquel l’Homme va devoir faire face depuis son origine.
Les scientifiques voyant arriver ce bouleversement fondamental commencent à spéculer sur le fonctionnement du cerveau humain. Ils affirment que notre cerveau fonctionne avec des lois respectant la physique quantique, ce qui expliquerait que certains génies soient capables d’imaginer en quelques instants des situations que tous les ordinateurs de ce jour réunis en un seul ensemble ne pourraient même ne pas encore approcher.
Il est nécessaire que cette spéculation devienne une réalité car, sans cela, dans des temps maintenant très courts, l’intelligence humaine pourrait être dépassée par la machine que nous aurions inventée.
Mais il est vrai que l’Imagination et l’Amour sont incommensurables et que ces sentiments, qui n’appartiendront pour des millénaires encore qu’à l’Homme, n’auront rien à craindre de toute progression exponentielle.



Source.: 
RTflash, cet article est aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.

Physique quantique : La prochaine révolution industrielle ?


La mécanique quantique, élaborée entre 1900 (rayonnement des corps noirs par Max Planck) et 1927 (Principe d’incertitude d’Heisenberg) reste, avec la relativité générale d’Einstein, l’une des plus extraordinaires avancées scientifiques et conceptuelles réalisée par l’esprit humain. Défiant le sens commun et les réalités apparentes et perceptibles, cette théorie étrange constitue une rupture radicale avec la représentation que l’homme se faisait du monde depuis Aristote : désormais il nous faut admettre qu’à certains niveaux de « réalité », les principes d’identité et de causalité n’ont plus de sens et changent de nature.
Concrètement, si l’on peut dire, en parlant d’une théorie qui repose sur un formalisme mathématique d’une extrême abstraction, cela signifie notamment qu’une « particule » ne peut plus être appréhendée isolément, comme un objet parfaitement délimité dans l’espace et dans le temps mais doit être considérée plutôt comme une manifestation particulière d’un système physique global et « intriqué » intégrant l’Univers dans son ensemble…
Les conséquences pratiques qu’entraine cette nouvelle conception du monde sont redoutables et déroutantes. En mécanique quantique, on ne peut, par exemple, connaître à la fois avec précision la position et la vitesse d’une particule et l’on doit également admettre qu’une particule interagit avec l’observateur et va se comporter tantôt comme un objet « ponctuel », tantôt comme une onde, en fonction du dispositif expérimental choisi pour l’observer !
Il a fallu plus d’un demi-siècle pour que la communauté scientifique dans son ensemble accepte enfin ce renversement de perspectives de la physique. Plus précisément, c’est en 1982, qu’à l’issue d’une série d’expérimentations remarquables, le physicien français Alain Aspect a montré de manière très convaincante que, contrairement à ce que pensait Einstein – et qu’il avait exprimé en 1935 avec son fameux paradoxe EPR – et conformément aux prévisions de la physique quantique, deux photons issus d’une même source puis envoyés dans des directions opposées restaient à jamais « intriqués », c’est-à-dire liés dans leurs propriétés et leur « comportement ».
Aujourd’hui, plus de trente ans après les expériences historiques réalisées par Alain Aspect à l’Institut d’optique d’Orsay, une équipe de physiciens néerlandais vient de franchir une nouvelle étape décisive dans la confirmation expérimentale de la physique quantique. Dirigés par Ronald Hanson de la Delft University of Technology aux Pays-Bas, ces scientifiques, qui avaient déjà réussi il y a un an à transférer une information d’un bit quantique (qbit) à un autre, situé à 3 mètres de distance, sont cette fois parvenus à mettre en évidence ce phénomène d’intrication quantique à une distance-record de 1,3 km.
Dans cette série d’expériences, d’une extrême complexité, ces chercheurs ont pu effectuer 245 mesures (Voir Hanson Lab et article intitulé « Constatation expérimentale de la violation des inégalités de Bell par la mesure du spin d’électrons distants de 1,4 km » Cornell University Library). Les physiciens ont utilisé deux diamants permettant de produire des photons polarisés intriqués avec des électrons. Ces diamants, qui étaient séparés par une distance de 1,28 kilomètre, émettaient chacun un photon. Ces deux photons s’éloignaient ensuite en direction d’un détecteur situé entre les diamants à plusieurs centaines de mètres de distance. Grâce à ce dispositif expérimental très ingénieux, les physiciens ont pu effectuer des mesures de spins des électrons sur presque toutes les paires de particules intriquées et combler ainsi l’une des dernières failles méthodologiques qui auraient pu biaiser les résultats.
En outre, ces expériences ont permis de garantir qu’aucun signal, même à la vitesse de la lumière, n’avait eu le temps de voyager entre les deux diamants au cours des mesures, pour « informer » ces diamants du résultat de ces dernières. Le résultat de ces expériences est sans appel : les corrélations de mesures de spin constatées sont en parfait accord avec le théorème des inégalités de John Bell (1964) et confirment de manière remarquable la théorie quantique, en excluant de manière encore plus rigoureuse l’hypothèse de « variables cachées » locales qui pourraient expliquer de tels résultats de mesures.
Autrement dit, il existe bien un niveau de réalité physique fondamentalement différent de celui qui prévaut à notre échelle (thermodynamique) ou à l’échelle cosmique (relativité générale), au sein duquel s’exprime de manière non réductible, ce que le regretté Bernard D’Espagnat, qui vient de disparaître, appelait un « réel voilé », organisé selon un principe de non-séparabilité. A ce niveau de réalité insaisissable, matière et énergie, ondes et particules, espace et temps sont enchevêtrés de manière inextricable. Cette dimension quantique du monde ne résulte pas de notre ignorance, ni de l’imprécision de nos instruments de mesure mais constitue bien une dimension fondamentale de la nature…
Mais la physique quantique, après être restée longtemps une curiosité théorique, s’est avérée depuis une vingtaine d’années une extraordinaire source de ruptures et d’innovations technologiques. Il faut par exemple savoir que c’est la physique quantique qui a permis la naissance et l’essor de la spintronique et l’introduction des têtes de lecture à magnétorésistance géante, à l’origine de l’augmentation considérable (par un facteur 100) de la densité de stockage d’information sur disque dur.
Il faut également rappeler que les nombreux outils technologiques qui constituent aujourd’hui notre quotidien, comme le microprocesseur, le laser, le GPS, ou encore l’imagerie par résonance magnétique, n’existeraient pas sans la théorie quantique. Mais, comme le souligne Dominique Sugny, du Laboratoire interdisciplinaire Carnot, à Dijon, « aussi importantes soient-elles, ces applications s’appuient seulement sur une compréhension passive des lois quantiques et désormais, les chercheurs veulent aller plus loin, en contrôlant activement les objets à cette échelle. » C’est là qu’intervient une jeune discipline pleine de promesses, le contrôle quantique, qui vise à organiser et à manipuler atomes et particules variées afin de leur conférer des fonctions spécifiques et de leur faire accomplir des tâches précises.
Pour atteindre cet objectif ambitieux, les scientifiques se sont notamment appuyés sur la théorie du contrôle optimal qui consiste à rechercher une solution sous la forme mathématique d’un problème d’optimisation qu’on peut résoudre numériquement. C’est ce principe qui a permis, il y a presque un demi-siècle, au cours du programme lunaire américain Apollo, de déterminer les trajectoires minimisant le plus possible la consommation de carburant pour atteindre la Lune.
L’augmentation exponentielle de la puissance de calcul informatique a permis récemment au contrôle quantique de réaliser des pas de géant dans plusieurs domaines. Par exemple, il est à présent possible de contrôler certaines réactions chimiques complexes par laser en calculant l’ensemble des paramètres des ondes lumineuses utilisées pour obtenir cette réaction. Il y a quelques mois, des chercheurs ont ainsi réussi à créer, à l’aide du contrôle quantique, une liaison entre deux atomes de magnésium2.
Mais ces outils de contrôle quantique sont également en train de bouleverser un autre domaine hautement stratégique, celui de l’informatique quantique. Actuellement, les ordinateurs reposent sur une logique binaire, issus de l’architecture imaginée par Van Neumann, l’un des pères de l’informatique. Dans cette configuration, la plus petite unité d’information, le bit, ne peut prendre que deux valeurs, 0 ou 1, selon le passage ou non du courant électrique à travers un transistor. Mais, dans un ordinateur quantique, les choses se passent de manière radicalement différente. Le bit quantique (ou qbit), repose sur l’état d’un système quantique et peut de ce fait s’affranchir de cette logique binaire et utiliser les étranges propriétés quantiques d’intrication et de superposition d’états.
Au lieu d’effectuer de manière séquentielle toute une série de calculs pour parvenir à un résultat final, l’ordinateur quantique peut donc, en théorie, avoir accès à la totalité des résultats en une seule étape, ce qui laisse espérer des machines dont la puissance de calcul serait des milliers de fois supérieure à celles de nos superordinateurs d’aujourd’hui…
Mais le chemin technologique qui mène vers l’ordinateur quantique opérationnel est semé d’embûches. L’un des principaux obstacles que doivent par exemple surmonter les chercheurs est lié au nombre de qbits pouvant fonctionner simultanément au sein d’une même machine. En effet, pour être réellement efficace, un ordinateur quantique doit en théorie pouvoir mobiliser en même temps plusieurs milliers de qbits. Mais plus ces qbits sont nombreux et plus les risques d’interaction  avec l’environnement augmentent. Or ces interactions entraînent ce que les physiciens appellent une décohérence, c’est-à-dire un brusque effondrement des propriétés quantiques recherchées.
Mais le contrôle quantique parvient de mieux en mieux à détecter les erreurs dues à la décohérence et à les corriger en temps réel. En 2011, une avancée majeure dans ce domaine a été réalisée par l’équipe de Serge Haroche, Prix Nobel de physique en 2012. Après être parvenu à mesurer des photons sans les détruire, ces chercheurs ont réussi à stabiliser le nombre de photons piégés dans une cavité supraconductrice en générant un signal micro-onde approprié. Cette avancée remarquable confirme qu’il est possible de corriger en temps réel les bits d’un ordinateur quantique, ce qui lève un verrou majeur dans la conception de ces machines.
Le domaine biologique et médical va également connaître une révolution grâce à l’application du contrôle quantique. En imagerie IRM par exemple, en utilisant la théorie du contrôle optimal, des chercheurs sont parvenus à déterminer les profils de champ magnétique à appliquer pour obtenir le meilleur contraste possible d’une image pour des conditions expérimentales données. Les physiciens ont validé ensuite avec succès cette approche par une expérience test in vitro. Quant aux premiers essais sur l’homme, ils pourraient commencer à l’horizon 2020 et, selon le physicien Dominique Sugny, ils devraient permettre d’obtenir des images bien plus précises qu’aujourd’hui, ce qui permettra de nouveaux progrès pour de nombreuses pathologies, en matière de détection et de diagnostic.
Dans le domaine connexe des télécommunications qui doivent absorber et véhiculer des quantités d’informations toujours plus grandes et vont devoir intégrer demain l’Internet des objets et la visiophonie personnelle en 3D, le déploiement des réseaux et des composants optiques permet également d’avoir recours au contrôle quantique pour décupler la rapidité et la fiabilité de ces échanges de données numériques. Au Canada, l’équipe du professeur Roberto Morandotti est récemment parvenue à utiliser la photonique quantique pour produire directement des paires de photons ayant une polarisation croisée (orthogonale), une première en optique quantique intégrée sur puce. Grâce à cette avancée, il devient possible de recourir à la polarisation des photons pour améliorer considérablement le débit et la rapidité des communications optiques d’informations numériques.
Dans le domaine des communications sécurisées, le contrôle quantique est également en train de s’imposer. En début d’année, des chercheurs de l’Université nationale australienne (ANU) et de l’Université d’Otago en Nouvelle-Zélande Dr Jevon Longdell ont créé un prototype de disque dur quantique qui peut modifier fondamentalement le domaine du cryptage de données sécurisé, à longue distance. Utilisant des atomes de l’élément europium de terre rare intégré dans des cristaux d’orthosilicate d’yttrium (YSO), ces scientifiques ont réussi à créer un dispositif de stockage capable de maintenir jusqu’à six heures une information à l’état quantique (Voir Australian National University).
Toujours en matière de cryptage quantique des communications, la firme japonaise Toshiba a annoncé il y a quelques semaines qu’elle avait commencé des tests de transmission sécurisée de données génétiques par cryptographie quantique, une méthode de cryptage en théorie totalement inviolable puisque chaque bit d’information est associé à un photon et que toute tentative d’intrusion entraîne immédiatement la destruction de l’information ainsi véhiculée (Voir Toshiba). Toshiba a précisé que son système de cryptographie quantique devrait être commercialisé dès 2020.
Enfin, il y a quelques jours, Google, la NASA et l’USRA (Universities Space Research Association) ont annoncé qu’ils avaient décidé de s’associer dans le cadre d’un projet de recherche destiné à rendre opérationnel un ordinateur quantique. Pour atteindre cet objectif, les deux partenaires vont s’équiper du D-Wave 2X, la dernière machine quantique du constructeur canadien D-Wave. Cet ordinateur utilisera une puce quantique composée pour la première fois de 1000 qbits, contre 512 pour la génération actuelle. « Avec ce programme de recherche, nous espérons montrer que l’informatique quantique et les algorithmes quantiques pourraient un jour améliorer radicalement notre capacité à résoudre des problèmes d’optimisation complexes pour l’aéronautique, les sciences de la Terre et de l’espace ou encore la conquête spatiale », a déclaré le directeur du centre de recherche Ames de la Nasa, Eugene Tu, dans le communiqué de D-Wave (Voir D-Wave).
On voit donc que, presque 90 ans après sa formalisation très confidentielle par une poignée de physiciens de génie, parmi lesquels il faut rappeler les noms d’Einstein, de Planck, de Bohr, de Schrödinger, d’Heinsenberg, de De Broglie, de Dirac ou encore de Pauli, la théorie quantique, qui ne s’est pas imposée facilement dans le monde scientifique tant elle remettait en cause les fondements mêmes de notre représentation physique du réel, a gagné ses lettres de noblesse en se manifestant de manière de plus en plus concrète, d’abord comme instrument de recherche fondamentale et plus récemment comme outil irremplaçable et extrêmement puissant d’innovation et de rupture technologique et industrielle.
Aujourd’hui, les systèmes et dispositifs quantiques sont déjà présents, sans que nous nous en rendions compte, dans de nombreux objets de notre vie quotidienne et demain ils seront absolument partout et permettront des avancées que nous ne pouvons même pas imaginer dans des domaines aussi variés que l’énergie, les transports, la médecine, l’informatique, les télécommunications, les matériaux ou la robotique…
Cette extraordinaire aventure scientifique que représente la physique quantique apporte un démenti cinglant à ceux qui ne raisonnent qu’à court terme et voudraient enfermer la Recherche dans une finalité exclusivement utilitariste. Comme le disait avec humour, peu de temps avant sa disparition, Jack Kilby, l’inventeur du premier circuit intégré en 1958, « Le transistor qui est la base du microprocesseur et de l’informatique actuelle n’est pas une simple amélioration de l’ampoule électrique ou du tube à vide mais constitue une véritable rupture technologique ». Cet ingénieur hors pair faisait également remarquer qu’il avait fallu 30 ans entre l’invention du transistor et la commercialisation des premiers ordinateurs personnels. Il a fallu le même laps de temps entre la découverte du concept d’images télévisées, au milieu des années 1920 et la commercialisation des premiers téléviseurs, au lendemain de la seconde guerre mondiale.
Dans cette société fébrile, obsédée par le court terme et les effets d’annonces médiatiques et dominée par l’écume des choses, nous devons comprendre qu’il existe un « temps long », qui est de l’ordre du quart du siècle, entre une avancée théorique fondamentale et sa traduction concrète pour le grand public, sous forme de produits, de systèmes ou de services nouveaux. Si l’aventure quantique nous prouve une chose à méditer, c’est qu’il n’existe pas, d’un côté, une Science « pure » et abstraite et de l’autre une Recherche uniquement orientée vers des applications concrètes. Le processus qui va de la découverte théorique à l’invention, l’innovation et la production industrielle de produits et services radicalement nouveaux est un long continuum qu’il faut préparer et alimenter en ayant une vision stratégique et prospective à très long terme de l’évolution scientifique, économique et sociale.
Faisons en sorte que notre Pays, qui a la chance de posséder à la fois une Recherche fondamentale du plus haut niveau en physique et en mathématiques et qui dispose d’un savoir technologique et industriel reconnu au niveau mondial, sache mieux penser, préparer et accompagner les prochaines révolutions scientifiques et techniques qui bouleverseront notre société d’ici 2050.



Source.:  RTflash, cet article est aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.

lundi 8 février 2016

Notre Monde est vide et vaste, c'est juste 5% de la matière

En cosmologie, l'énergie sombre ou énergie noire (dark energy en anglais) est une forme d'énergie hypothétique emplissant uniformément tout l'Univers et dotée d'une pression négative, qui la fait se comporter comme une force gravitationnelle répulsive. L'existence de l'énergie sombre est nécessaire pour expliquer diverses observations astrophysiques, notamment l'accélération de l'expansion de l'Univers détectée au tournant du XXIe siècle.
Malgré une densité très faible (de l'ordre de 10-29 g/cm3), l'énergie sombre est une composante majeure de l'Univers, représentant environ 68 % de la densité d'énergie totale de l'Univers. Sa nature reste aujourd'hui encore inconnue. Il peut s'agir simplement de la constante cosmologique induite par la relativité générale qui aurait une valeur non nulle. Il existe d'autres hypothèses, menant soit à une modélisation différente de la matière (quintessence, k-essence, modèles unifiés de matière et d'énergie sombre), soit à une modélisation différente de la gravitation (gravité f(R), champs scalaires, cosmologie branaire). Le choix entre ces différentes hypothèses dépend essentiellement des contraintes apportées par l'observation, notamment des supernovae de type Ia, de fond diffus cosmologique ou des oscillations acoustiques des baryons.
L'énergie sombre ne doit pas être confondue avec la matière sombre qui, contrairement à l'énergie sombre, ne remplit pas uniformément l'Univers et qui interagit normalement (forces attractives) avec la gravitation.



Tandis que la matière noire ou matière sombre (traduction de l'anglais dark matter), parfois aussi nommée de façon plus réaliste matière transparente1,2, désigne une catégorie de matière hypothétique, invoquée pour rendre compte d'observations astrophysiques, notamment les estimations de masse des galaxies et des amas de galaxies et les propriétés des fluctuations du fond diffus cosmologique.
Différentes hypothèses sont explorées sur la composition de la matière noire : gaz moléculaire, étoiles mortes, naines brunes en grand nombre, trous noirsetc. Cependant, les estimations de la densité de l'Univers et du nombre d'atomes impliquent une nature non baryonique. Des astrophysiciens supposent d'autres particules, peut-être des superpartenaires tels que le neutralino, regroupées sous le nom générique de « WIMP ».
La matière noire aurait pourtant une abondance au moins cinq fois plus importante que la matière baryonique, pour constituer environ 27 %3 de la densité d'énergie totale de l'Univers observable4, selon les modèles de formation et d'évolution des galaxies, ainsi que les modèles cosmologiques.

 Donc notre monde de la matière ici serait d'environ 4.9% .(représentation avec un arbre)La matière noire creuse l'espace-temps dans lequel coule la matière normale et vient nourrire les galaxies.C'est cette énergie noire qui provoquerait l'expention de l'univers.



Sur le plan expérimental ou observationnel, quelles sont les perspectives pour aller au-delà de la relativité générale ?
La détection d'ondes gravitationnelles par les détecteurs Advanced ligo et Advanced Virgo nous offrira des moyens inédits pour tester les processus physiques qui opèrent tout près de l'horizon des trous noirs. Stephen Hawking nous a appris que des phénomènes quantiques y jouent un rôle : c'est le fameux rayonnement de Hawking, qu'il sera difficile d'identifier, mais des surprises restent possibles. Pour obtenir des mesures de précision, il faudra probablement attendre l'observatoire spatial lisa vers 2030. La mission technique lisa Pathfinder qui le prépare a été lancée en décembre 2015 et vient de publier des premiers résultats spectaculaires. Cela est de bon augure pour la future mission. lisa devrait permettre d'étudier avec précision l'horizon de deux trous noirs superlatifs en coalescence, et de tester ainsi avec une précision inégalée la théorie de la gravitation.

Source.: