Rechercher sur ce blogue

mardi 1 mars 2016

La Réalité pour les aspirants Policiers c'est :

La désillusion,du monde réel de notre société dysfonctionnelle.





Des étudiants de l'école nationale de police du québec assistent à la projection de police académie




C'est ce que près de 300 aspirants policiers ont pu voir dans le documentaire Police Académie de la réalisatrice Mélissa Beaudet, à l'École nationale de police du Québec (ENPQ), à Nicolet. Aux étudiants de l'institution se sont greffés quelques curieux du Cégep de Trois-Rivières et du Collège Ellis de Drummondville qui étudient présentement en techniques policières.



Quel type de formation reçoivent les policiers? Comment sont-ils formés pour répondre aux appels de détresse et de violence? Comment font-ils pour gérer leur stress? Ce sont les questions auxquelles Mélissa Beaudet tente de répondre.

Selon une étude menée pendant 7 ans, sur 734 policiers ,l'éthique professionnelle des diplômés de l'école nationale de police du Québec,se détériore considérablement une fois qu'ils sont embauchés.
La principale cause serait la Désillusion !

Le stress,la maladie mentale,la pauvreté,la drogue ,le racisme et la mauvaise presse du corps policier sont directement responsable de cette désillusion.
La police du 21 ième siècle devra être de plus en plus des travailleurs sociaux.
Dans tout les emplois,il faut chercher a devenir plus Humain,car le demon du monde vous rattrapera !
Il est en enfer,............la au fond de ta tête , situé entre 2 neuronnes ,a la limite du chromosome de vos ancêtres .


Il faut aimer l'être humain ,avant de l'aider !
Donc les valeurs de respect,intégrité et de l'engagement du SPVM,font parti du monde a l'envers.
Pour sortir de cette enfer,il faudra être respectable pour être respecté,être intègre c'est de sortir d'abord les pommes pourrites du troupeau canin et l'engagement ça vient de vos Boss,c'est bien mieux "servir" a la place !



REF.:

vendredi 26 février 2016

Centraide: Les bénévoles passe au Ca$h ?

Les bénévoles de cette organisme sont souvent des gens payants leurs nombreuses contraventions.Plusieurs sorte de prison et d'autres en minorité sont des gens ayant besoin d'argent pour payer leurs traitements médicaux,non payés par le gouvernement .

Plusieurs des grandes entreprises du Québec sont partenaires de Centraide dans la réalisation de leur mission dont des institutions bancaires, la Caisse de dépôt et placement du Québec, Desjardins, les sociétés d'état, la fonction publique québécoise et canadienne, les établissements publics et un grand nombre de PME, d'entreprises de production, de commerces et de professionnels.
Et c'est la que ça blesse! Car Centraide est une organisation philanthropique au Canada, reconnue comme une fondation publique, visant à rassembler des ressources humaines et financières en vue de lutter contre la pauvreté, à briser l'exclusion sociale, à diminuer les inégalités et à prévenir des problèmes sociaux.Sauf que les bénévoles engagés en très faible minorité,car souvent malade(lettre médicale d'un médecin traitant,justifiant un travail léger),travail comme mettons ,a faire du déchiquetage de papier de contravention de la ville.
Wow,avec 90 millions qu'ont leur donne ils font travailler leurs bénévoles comme si c'était du travail a la chaîne,ou la vitesse des employés est surveillé(comme au Centre d'action bénévole L'Actuel de l'ouest de Mtl).......Coup dont ,c'est tu des employés syndiqués que tu veut,ou si de temps en temps,les gestionnaires bénévoles,volent aussi l'argent de Centraide ??? On le saura un jour,lorsque le journalisme d'enquête enquêtera ???............................Dégueulasse !
Quant tu voit des Hummers dans le stationnement des cadres,c'est que c'est louche ???............Moisson Mtl ,etc,.....et les autres !
Jeunesse au Soleil, lui a des voitures électriques qui lui sont prêtées,au moins c'est mieux ça !!!


REF.:ostryeKysonkave.com

dimanche 21 février 2016

Gestionnaires véreux ou intimidation administrative ?

Qui en souffre ou a peur ,..........les employés !
L'intimidation déguisé ça existe !

Oui,les CLSC ,tout comme le Ministre Barrette,pratique plus que jamais de l'intimidation administrative, a cause de l'austérité actuelle. Ce que l'on peut comparer a des postes tablettes de la fonction publique du Canada mettons, ou bien a des employés mis sur liste de rappel a des postes temporaires avec peu d'heure de travail,sinon il y a des infirmières qui sont obligées de faire du surtemps.Tout le monde saient, et la ,c'est l'opinion  publique qui le dit ; qu'il y a trop de gestionnaire dans les commissions scolaire,dans le secteur de la santé, au secteur municipal,gouvernementale,mais pas assez d'employé.
Seul,quelque P.M.E. et compagnies familiale ,ou la, règne un système de gestion efficace.

Le monde syndicale n'a jamais empêché ce phénomène ,car il y participe.Tout ce monde ont les mains sales.Il y a des pays que le gouvernement et les forces de l'ordre sont corrumpu même !

-Un symdicat qui mange dans les mains de l'employeur:
C'est connu,aucun syndicat n'est meilleur que l'autre! Donc FTQ, CSN etc ... aucun n'est meilleur.
Sauf le prix de vos cotisations; et la, la FTQ a le meilleur ,car en secteur de la Santé,ça coûte de 15 a 20$ de moins par paye (de 2 semaines) ,pour le même service. Lorsque ça sonne a leur bureau,il ne réponde qu'a des causes relier a la CSST et rien d'autres ! Par contre,s'il y a grève, l'arme du Ministre, est la loi spéciale pour forcer le retour au travail !

Dernièrement,on a déja vu qu'un employé chum avec un cadre (gestionnaire)en secteur Santé,faire engager son agence de P.A.B. sans diplôme a la fonction publique(Cente de réadaptation) a gros salaire,passant de 10$ a 22$/Hr.On devrait appeler ça un conflit d'intérêt,mais le pire c'est qu'un autre gestionnaire est parti avec l'argent de la caisse des employés sans qu'aucun journaliste ne dise mots ! Un juge a simplement fait réengager les 130 employés mis a pied(certains disent 300) de l'agence en question,pendant que l'organisme en question changea de nom,parce qu'il  y avait trop d'histoire d'horreur dans cette affaire(comme des attouchements sexuel,violence envers les usagers etc...) !

On a déja vu un intervenant demandant un info a un plâtrier(de l'équipe d'entretient des résidences)si ça fait longtemps qui travail la ? Il a répondu a la question et rajoute que sa fille travaille comme éducatrice. ??? Éduc.,wow ! ..........C'est tu une entreprise familliale icitte !...... Si on engageait les intervenants syndiqués,comme on engage l'équipe d'entretient,ça serait pas beau a voir !
Déja que les maisons appartiennent a une Fondation,.................ça c'est de l'économie !

Mais qu'entend-t'on par intimidation administrative ?
C'est l'effet des coupures de leurs postes de gestionnaire qui déboule sur les postes d'employé de l'entreprise.Moins de gestionnaire , moins d'employé.On cré des postes occasionnels,on nous dit que les usagers sont en déclin,mais on s'arrange pour éviter de payer des pensions en engageant des employés a temps partiel et en abolissant des postes a temps plein ! Ce que l'agence en soins santé fait,c'est ce que ne veut pas faire comme travail les employés régulier! Mais le partage des heures de travail par ancienneté et par compétence, est crétiquable et pas toujours équitable.Le syndicat fait souvant des enquêtes ,pour manque a gagner ,pour les employés!C'est souvent payer a la fin de l'année financière,.....bizarre ! Si personne chiale,personne n'est payé,personne ne travail !
On a déja vu des postes de gestionnaire abolis,mais que ceux-ci se font migrer dans des services nouvellement créé pour eux.Rien de tel existe pour de simple employé !

Maladie mentale en déclin ? Encore plus d’élèves autistes,leur nombre est passé de 429 à 832 en cinq ans dans les commissions scolaires de Québec.Le terme d’autisme – que l’on appelle maintenant «les troubles du spectre autistique» – des situations cliniques très variées, qui vont du syndrome d’Asperger à d’autres manifestations comme l’apparition de comportements simplement atypiques, sans oublier des formes très graves où l’enfant est totalement clos, se mutilant lourdement. D’où des affirmations qui reviennent souvent : «Il y avait un autiste pour 1 000 naissances en France en 2004, il y en a dix fois plus aujourd’hui.» Un chiffre qui ne veut rien dire, comme si on mélangeait dans une même donnée statistique des angoissés et des psychotiques.«On atteint aujourd’hui un taux de diagnostic génétique de l’ordre de 30% à 35%, essentiellement dans les formes d’autisme associées à une déficience intellectuelle, et considérées par les pédopsychiatres comme atypiques.» Et ce généticien d’ajouter, non sans raison : «L’autisme est un symptôme, ce n’est pas une maladie. Il n’y pas pas un gène de l’autisme mais des dizaines. Et il y a des centaines de mécanismes distincts qui concourent à l’autisme.»C’est à partir de l’âge de 2 a  6 mois (et non dans l'ADN du foetus)que peut commencer à différer le développement des enfants atteints de troubles du spectre autistique (TSA) par rapport à celui des autres enfants, conclut cette étude de la John Hopkins University et de la Harvard Medical School, la plus grande étude prospective, longitudinale jamais menée à ce jour auprès d’enfants avec diagnostic précoce de TSA. Ces résultats, publiés dans la revue Child Development appellent à la détection très précoce de l’autisme.
Tout est une question d'argent;Les trisomiques sont rendu en résidence privée avec des employés a 12$/hr.,car ils sont peu autonomes.
Alors le gouvernement place ces employés(donc ceci baisse sa masse salariale) plutôt avec les Autistes(TSA) qui peuvent eux travailler et payer de l'impôt et être autonome ,avec des employés-intervenant payé par l'état a 25$/hr. !

 
- Conflit d'intérêt: On a vu aussi des gestionnaires être en conflit d'intérêt, en gardant chez-eux ou en résidence des usagers ,venant de leur propre organisme,pour qui ils travaillent !
 Est-ce normal, bien que non syndiqué, ces gestionnaires ont des postes tablettes,ou bien travail dans des services inactif non productif,pour se rendre jusqu'a leur retraite.
Ou bien s'ils pourraient aller dans d'autres services ou dans le secteur privé.
 Non,car c'est l'Austérité du Ministre de la Santé,qui fait que ça ne peut être que ça!
Au fond,parce que le Gouvernement,le système de gestion actuel ne fait que créer des postes occasionnels,comme au privé.
Pourquoi ,parce que personne n'a assez d'argent pour payer des pensions a des travailleurs a temps plein.Par exemple: Dans le milieu de la déficience intellectuelle,on fait accroire qu'ont ferme des maisons(établissements) pour simplement switcher les usagers(c'est toujours le même nombre) de maison spécialisé en des maisons avec des déficients légers ,et dans lesquels il y aura des travailleurs (intervenants) a 12$/hr(au privé) au lieux de 22$/Hr pour ses employés de l'état.Ça,ça crée des employés sur la liste de rappel !

Même la RRQ(régie des rentes du Qc),n'a pas assez d'argent et ça vous le savez !
Sauf,les postes de haut niveau (dans la pyramide)administratifs ,la ou tout est permis.

En politique ,les pensions des gestionnaires sont garanties ,incluant les primes de départ,bonus et j,en passe...... des enveloppes !
 Parce qu'au fond, un gestionnaire c'est un politichien en puissance !


REF.: argentegotrip.com

jeudi 11 février 2016

Informatique : Le contrôle de l’ensemble des objets par une seule et même application




Le MIT nous donne le contrôle sur les objets 
 
Après trois ans de recherche, le MIT vient de mettre au point une application permettant d’interconnecter des objets entre eux et de les rendre « intelligents » par le biais de la réalité augmentée. Baptisée Reality Editor, cette application est capable de permettre à l’utilisateur de connecter et de manipuler les fonctionnalités des objets physiques qui l’entourent.
Concrètement, par l’intermédiaire de l’application qui utilise la réalité augmentée, l’appareil dont les fonctionnalités apparaissent à l’écran après avoir été pointées avec la caméra du smartphone, devient contrôlable. Aussi, il est possible d’interconnecter des objets en dessinant une ligne virtuelle entre deux éléments depuis l’écran du téléphone.
L'objectif de ce projet est à la fois simple et ambitieux : pouvoir "reconstruire" numériquement et customiser son espace de vie en le personnalisant. Le système permet notamment de contrôler l’éclairage et la température d’une pièce mais aussi de reprogrammer les fonctionnalités d’un appareil.
Reality Editor vise à terme le contrôle de l’ensemble des objets qui peuplent notre environnement proche via une seule et même application, créant une expérience unifiée. Et les chercheurs du MIT vont encore plus loin en incitant la collaboration de tous : la totalité de leurs travaux sont en effet partagés sur une plate-forme open source, Open Hybrid, dans le but d’inspirer une communauté à « bâtir une nouvelle génération d’objets hybrides », comme il est expliqué sur le site de Reality Editor.
Article rédigé par Georges Simmonds pour RT Flash


Source.: Reality Editor

Les 5 technologies qui vont changer le destin de l’Humanité




Le Big Data, les objets connectés, l’impression 3D, les énergies renouvelables et les MOOC sont les cinq technologies qui vont changer le destin de l’Humanité dès ces prochaines années. Explications
Nous qui avons la chance d’être nés au XXe ou XXIᵉ siècle dans un pays dit développé, pensions, en 1960, que les progrès apportés depuis deux siècles avec les révolutions industrielles, que ce soit l’électricité, le téléphone, la télévision, la voiture, le moteur et des milliers d’autres, étaient à nuls autre pareils et que jamais l’être humain ne pourrait connaître dans sa seule existence tous les bouleversements connus en huit générations par ses Anciens. Et pourtant si.
L’adolescent né avec le XXIᵉ siècle, qui a aujourd’hui 15 ans, n’aura plus, autour de son lit de mort un seul objet qui sera semblable à ceux qui entouraient son berceau. Et pourquoi cela ? Parce que nous changeons d’ère.
Jusqu’à ce jour, les progrès accomplis par l’Homme respectaient une progression arithmétique comme chaque année nous comptons les uns après les autres les jours des mois qui se succèdent.
Mais depuis plus de 50 ans, l’Humanité a changé de paradigme. Elle ne compte plus les jours de son destin en ajoutant arithmétiquement les nombres les uns après les autres, 1 – 2 – 3 – 4 – 5 … Son potentiel de connaissances évolue dorénavant de manière exponentielle.
Si nous prenons un mois de 31 jours comme échelle de référence de la vie d’un être humain né (dans un pays développé) en 1965 et qui, statistiquement, deviendra centenaire, cet être humain est aujourd’hui, alors qu’il a 50 ans, au 15e jour de son mois de vie.
Si les technologies avaient progressé depuis 50 ans au même rythme que par le passé, leurs évolutions auraient donc, dans notre exemple, été multipliées par 15 dans ce demi-siècle.
Or, en respectant la loi empirique édictée par Gordon Moore, co-créateur d’Intel, en 1965, le progrès des technologies n’a pas été multiplié par 15 en 50 ans mais par 16.384 (2¹⁴) !
Nous n’en avons pas conscience mais cette loi empirique a bien été respectée depuis 50 ans. Les microprocesseurs qui animent notre monde aujourd’hui sont 16.000 fois plus performants que les premiers microprocesseurs d’Intel !
Mais si je vous disais qu’il vous faudrait porter le nombre à 1.073.741.824 (1 milliard 73 millions) (2³⁰) dans la 31e case de la vie de notre centenaire, en 2065, vous seriez incrédule.
Et pourtant, cette affirmation se révèlera, avec le temps comme réaliste. Depuis l’énoncé de la Loi de Moore, en 1965, le premier demi-siècle nous paraîtra rapidement lascif quand nous constaterons que l’indice totalisant l’ensemble des progrès technologiques doublera tous les 3 ans dans les cinquante ans qui arrivent.
Très vite, l’ordinateur quantique qui remplacera l’informatique binaire actuelle se nourrissant de bits permettra de relever ce défi. Cette loi de Moore que nous pensions réservée à l’informatique jusqu’à ce jour va dorénavant s’appliquer à de nombreuses autres technologies.
Le Big Data qui collationne toutes les données émises par l’Homme ou les machines va suivre la même progression exponentielle.
Toutes les activités qui s’appuient sur le Savoir et qui ont pour finalité d’atteindre un coût marginal zéro comme l’affirme magistralement Jérémie Rifkin dans son dernier ouvrage, comme l’a fait l’informatique avec Internet dans ces 50 dernières années, respecteront cette progression exponentielle dans leur développement.
Aujourd’hui, je ne vais aborder, après avoir cité le Big Data, quatre de ces nouvelles technologies qui dès ces prochaines années vont changer le destin de l’Humanité : les objets connectés, les imprimantes 3D, les énergies renouvelables et les MOOC.
Depuis une quinzaine d’années, nous entendions parler des RFID et régulièrement je les citais dans RT Flash. Mais dans ces dernières années, ces puces RFID ont fait un bond extraordinaire en sachant s’alimenter avec l’énergie des terminaux avec lesquels elles communiquent et en voyant leur prix descendre à quelques cents.
Le développement de ces puces RFID que nous appelons maintenant « objets connectés » va être si rapide que chaque être humain devrait être entouré de 5000 à 7000 objets connectés avant 2030.
Ces objets connectés serviront strictement à tout, que ce soit dans notre vie publique ou dans notre vie privée. Comme l’usage du Web aujourd’hui, l’usage de ces objets connectés sera totalement gratuit. Mais mieux encore, comme les données émises par chaque être humain ou par les objets les entourant seront de plus en plus précieuses pour préparer l’Avenir et imaginer les produits du Futur,  les GAFA (Google, Apple, Facebook, Amazon) ou leurs remplaçants se battront pour nous acheter ces données, ce qui apporte de nécessaires revenus à une Humanité qui aura perdu par ailleurs des centaines de millions d’emplois détruits par une robotisation à outrance.
Dans le développement sidéral que va connaître notre civilisation dans ces prochaines années grâce aux objets connectés je ne vais aborder qu’un seul sujet : la santé.
En observant les travaux actuellement réalisés par les laboratoires de Google et en décryptant les prédictions de Raymond C. Kurzweil, l’un de ses directeurs, il n’est pas déraisonnable d’affirmer que les nombreuses morts liées, aujourd’hui, au cancer, aux maladies cardio-vasculaires, ou maladies dégénératives et bien d’autres maladies, devraient avoir presque totalement disparu à l’échéance d’une génération. Pourquoi cela ?
Parce que la médecine curative actuelle (qui traite une maladie seulement lorsque celle-ci s’est déclarée) aura été remplacée grâce aux objets connectés par une médecine prédictive.
Il suffira que quelques cellules dans un organisme soient atteintes par un cancer, alors qu’aujourd’hui il en faut des millions sinon des centaines de millions pour les déceler, pour qu’immédiatement le système automatisé qui surveille la santé de chacun avec des objets connectés vous conseillera (vous obligera ?) d’aller voir immédiatement un spécialiste qui, avec des nanostructures, vous détruira aussi facilement ces cellules cancéreuses qu’on le fait aujourd’hui pour les bacilles avec un antibiotique.
Il en sera de même avec les maladies cardio-vasculaires et bien d’autres maladies évoluant aujourd’hui sans bruit pendant des années et qui, maintenant, grâce à des « objets connectés » qui très tôt détecteront de faibles signaux de souffrance, indétectable avec nos outils actuels de surveillance et d’analyse, permettront de prendre, à temps, toutes les mesures qui élimineront toutes les évolutions fatales. Si ces « objets connectés » avaient existé il y a seulement quelques courtes années, notre ami Jean-Michel Billaut, n’aurait pas eu à souffrir d’une rupture d’anévrisme poplité.
Certes, l’Homme devra continuer à se battre pour découvrir toutes les démarches curatives pour tous ceux qui ayant échappé ou s’étant dérobés à la surveillance des « objets connectés » continueront à souffrir de cancers, de maladies cardio-vasculaires ou de toute autre maladie.
Mais il faut avoir bien conscience que le sort de l’Humanité passe bien à cette médecine prédictive et non par la seule médecine curative telle que la pratiquent aujourd’hui les pays les plus riches car, dans un demi-siècle, avec les 9 milliards de terriens, l’Humanité n’aurait pas la capacité financière de faire face à un tel défi.
Abordons, maintenant, une autre technologie qui elle aussi va changer l’avenir de l’Humanité : l’impression 3D.
Cette impression 3D va devoir très prochainement changer de nom tant elle va de moins en moins ressembler à notre vieille imprimante papier pour, de plus en plus, faire penser à l’image de la création du premier Homme dans la Genèse telle que l’a génialement imaginée Michel Ange dans son immortelle fresque de la Chapelle Sixtine.
L’impression 3D va connaître le même développement exponentiel que celui du « personal computer » (PC) depuis 40 ans.
Comme pour l’informatique, les technologies des imprimantes 3D vont tendre vers un coût marginal zéro. Les « makers » qui se comptent déjà en centaines de milliers à la surface de la Terre (les premières années du développement exponentiel d’une nouvelle technologie sont quasi invisibles pour le commun des mortels !) n’ont pas répété la malheureuse erreur des débuts de l’informatique avec des operating systems (OS) propriétaires. Ils ont choisi, dès l’origine, de partager universellement toutes leurs connaissances au travers de logiciels ouverts.
Les progrès de cette technologie révolutionnaire vont être foudroyants. On a déjà su reconstituer l’exact visage d’une personne horriblement défigurée par un accident et les chercheurs ont déjà su fabriquer des objets complexes faisant appel à de nombreux composants différents. Ces technologies qui permettront à terme de tout faire en partant de rien vont ouvrir des champs encore inconnus à l’imagination de l’Homme.
Pourquoi, ces imprimantes 3D vont-elles prendre une importance si grande ?
Tout d’abord parce que leur mode de production totalement automatisé repose sur une méthode additive et non soustractive.
Ainsi, aujourd’hui, pour fabriquer un meuble il faut abattre un arbre, en couper les branches, enlever l’écorce et le débiter en planches. Il faut ensuite raboter ces planches et les découper pour en faire toutes les pièces du meuble. Quant à la fin de la fabrication le bilan est dressé, nous constatons que seuls 10 % de l’arbre ont été utilisés pour fabriquer le meuble et que quelque 90 % ont été soit jetés, soit sous-utilisés.
Avec une Terre qui n’a pas les capacités naturelles d’accueillir 9 milliards d’êtres humains, avec leurs gaspillages actuels, il est grand temps d’imaginer et fabriquer des produits qui n’utiliseront qu’un strict minimum de ressources naturelles.
De plus, avec la mondialisation intégrale des process de production de ces imprimantes 3D, nous pourrons fabriquer n’importe où dans le Monde n’importe quel objet. Il suffira que vous ayez eu la précaution de prendre la photo 3D (la photo du Futur) de tout objet vous entourant pour qu’immédiatement vous le reproduisiez dans votre Fab-Lab personnel et ce pour un coût très proche de zéro.
Ainsi, même si vous cassez une belle assiette ancienne de belle-maman, vous pourrez en « fabriquer » une nouvelle avant même que votre épouse soit de retour !
Avec ces nouvelles technologies d’impression 3D, il sera devenu absurde de fabriquer à l’autre bout du monde, en Chine par exemple, des objets dont les prix ne feront que décroître alors qu’il vous faudrait des centaines de kilos de CO² pour les faire transporter jusqu’à vous.
Les objets les plus complexes à reproduire se feront dans des Fab-Lab départementaux qui ne seront jamais à plus d’une journée de cheval de votre domicile comme disaient les révolutionnaires en 1790…
Mais dans votre propre unité urbaine, il y aura des Fab-Lab qui pourront fabriquer 90 % des objets vous environnant. Chez vous, si vous le voulez,  vous pourrez même avoir des imprimantes 3D qui pourront reproduire la moitié des objets meublant votre intérieur.
Avez-vous bien conscience, vous qui me lisez en cette année 2015, que des Chinois viennent de fabriquer, en une journée, la première maison entièrement fabriquée par une monumentale imprimante 3D et ce pour moins de 300 € ?
Parlons maintenant d’une autre technologie qui, elle aussi, va changer le destin du Monde.
Après des millénaires et des millénaires d’adoration, l’Homme va enfin utiliser le Soleil pour en capter une partie de l’énergie qu’il envoie à notre Terre depuis des milliards d’années pour se fournir totalement en énergie. Les meilleurs spécialistes ont calculé qu’il suffirait à l’Homme de capter seulement 10 % de l’énergie envoyée par le Soleil pour subvenir à tous ses besoins.
Comme cette énergie reçue du Soleil est gratuite et restera gratuite, ceci signifie qu’à terme, à court terme (20 ans) devrais-je même dire avec la courbe exponentielle que va suivre son utilisation, l’énergie utilisée par l’Homme sera quasi gratuite. Sans bruit, le rendement des panneaux photovoltaïques a respecté la Loi de Moore depuis 20 ans et devrait encore la respecter pendant ces prochaines décennies.
Avec la gestion globale de l’énergie grâce au « smart grid » qui révolutionnera autant le monde qu’Internet et le Web en permettant à chacun, à chaque instant, de distribuer et de recevoir toute l’énergie qu’il aura en surplus ou dont il aura besoin.
Cette énergie à un coût marginal zéro sera un élément fondamental de pacification de l’ensemble de notre Planète.
Avant de conclure, abordons un dernier sujet qui va dorénavant dominer tout ce que je viens de traiter et qui va accélérer de façon exponentielle les mutations de l’humanité : les MOOC (Massive Open Online Course) que l’on peut traduire par « Cours en ligne ouvert et massif ».
Jusqu’à maintenant, seule une partie de l’Humanité a pu accéder au Savoir. Ce qui signifie que tous les autres seraient commandés par les robots de demain et ne pourraient en rien les dominer.
Maintenant, alors que les plus grands cours magistraux pourront être accessibles gratuitement, grâce aux MOOC, à tous les habitants de notre Terre, nous allons assister dès ces prochaines années à une réelle explosion de l’intelligence collective et individuelle de l’Humanité.
Les innovations comme les découvertes fondamentales vont éclore par milliers et nous allons assister, avec la traduction automatique dans toutes les langues, à un foisonnement encore difficilement imaginable aujourd’hui de nouveautés qui vont révolutionner tous les secteurs de l’activité humaine et toutes nos connaissances.
Ainsi, ce changement de paradigme qui voulait depuis des millénaires que l’évolution suive une progression arithmétique, et qui maintenant va se transformer en progression exponentielle, va avoir des conséquences fondamentales encore insoupçonnées. Ainsi l’Homme, lui-même, va plus évoluer dans ce prochain siècle qu’il n’a pu le faire, génération après génération, depuis des millions d’années. Cette mutation sera liée au fait que les mutations génétiques seront, elles-aussi, soumises à cette courbe exponentielle qui soutient mon raisonnement depuis le début de cet édito.
C’est dans cette mutation que réside, sans conteste, le plus grand défi auquel l’Homme va devoir faire face depuis son origine.
Les scientifiques voyant arriver ce bouleversement fondamental commencent à spéculer sur le fonctionnement du cerveau humain. Ils affirment que notre cerveau fonctionne avec des lois respectant la physique quantique, ce qui expliquerait que certains génies soient capables d’imaginer en quelques instants des situations que tous les ordinateurs de ce jour réunis en un seul ensemble ne pourraient même ne pas encore approcher.
Il est nécessaire que cette spéculation devienne une réalité car, sans cela, dans des temps maintenant très courts, l’intelligence humaine pourrait être dépassée par la machine que nous aurions inventée.
Mais il est vrai que l’Imagination et l’Amour sont incommensurables et que ces sentiments, qui n’appartiendront pour des millénaires encore qu’à l’Homme, n’auront rien à craindre de toute progression exponentielle.



Source.: 
RTflash, cet article est aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.

Physique quantique : La prochaine révolution industrielle ?


La mécanique quantique, élaborée entre 1900 (rayonnement des corps noirs par Max Planck) et 1927 (Principe d’incertitude d’Heisenberg) reste, avec la relativité générale d’Einstein, l’une des plus extraordinaires avancées scientifiques et conceptuelles réalisée par l’esprit humain. Défiant le sens commun et les réalités apparentes et perceptibles, cette théorie étrange constitue une rupture radicale avec la représentation que l’homme se faisait du monde depuis Aristote : désormais il nous faut admettre qu’à certains niveaux de « réalité », les principes d’identité et de causalité n’ont plus de sens et changent de nature.
Concrètement, si l’on peut dire, en parlant d’une théorie qui repose sur un formalisme mathématique d’une extrême abstraction, cela signifie notamment qu’une « particule » ne peut plus être appréhendée isolément, comme un objet parfaitement délimité dans l’espace et dans le temps mais doit être considérée plutôt comme une manifestation particulière d’un système physique global et « intriqué » intégrant l’Univers dans son ensemble…
Les conséquences pratiques qu’entraine cette nouvelle conception du monde sont redoutables et déroutantes. En mécanique quantique, on ne peut, par exemple, connaître à la fois avec précision la position et la vitesse d’une particule et l’on doit également admettre qu’une particule interagit avec l’observateur et va se comporter tantôt comme un objet « ponctuel », tantôt comme une onde, en fonction du dispositif expérimental choisi pour l’observer !
Il a fallu plus d’un demi-siècle pour que la communauté scientifique dans son ensemble accepte enfin ce renversement de perspectives de la physique. Plus précisément, c’est en 1982, qu’à l’issue d’une série d’expérimentations remarquables, le physicien français Alain Aspect a montré de manière très convaincante que, contrairement à ce que pensait Einstein – et qu’il avait exprimé en 1935 avec son fameux paradoxe EPR – et conformément aux prévisions de la physique quantique, deux photons issus d’une même source puis envoyés dans des directions opposées restaient à jamais « intriqués », c’est-à-dire liés dans leurs propriétés et leur « comportement ».
Aujourd’hui, plus de trente ans après les expériences historiques réalisées par Alain Aspect à l’Institut d’optique d’Orsay, une équipe de physiciens néerlandais vient de franchir une nouvelle étape décisive dans la confirmation expérimentale de la physique quantique. Dirigés par Ronald Hanson de la Delft University of Technology aux Pays-Bas, ces scientifiques, qui avaient déjà réussi il y a un an à transférer une information d’un bit quantique (qbit) à un autre, situé à 3 mètres de distance, sont cette fois parvenus à mettre en évidence ce phénomène d’intrication quantique à une distance-record de 1,3 km.
Dans cette série d’expériences, d’une extrême complexité, ces chercheurs ont pu effectuer 245 mesures (Voir Hanson Lab et article intitulé « Constatation expérimentale de la violation des inégalités de Bell par la mesure du spin d’électrons distants de 1,4 km » Cornell University Library). Les physiciens ont utilisé deux diamants permettant de produire des photons polarisés intriqués avec des électrons. Ces diamants, qui étaient séparés par une distance de 1,28 kilomètre, émettaient chacun un photon. Ces deux photons s’éloignaient ensuite en direction d’un détecteur situé entre les diamants à plusieurs centaines de mètres de distance. Grâce à ce dispositif expérimental très ingénieux, les physiciens ont pu effectuer des mesures de spins des électrons sur presque toutes les paires de particules intriquées et combler ainsi l’une des dernières failles méthodologiques qui auraient pu biaiser les résultats.
En outre, ces expériences ont permis de garantir qu’aucun signal, même à la vitesse de la lumière, n’avait eu le temps de voyager entre les deux diamants au cours des mesures, pour « informer » ces diamants du résultat de ces dernières. Le résultat de ces expériences est sans appel : les corrélations de mesures de spin constatées sont en parfait accord avec le théorème des inégalités de John Bell (1964) et confirment de manière remarquable la théorie quantique, en excluant de manière encore plus rigoureuse l’hypothèse de « variables cachées » locales qui pourraient expliquer de tels résultats de mesures.
Autrement dit, il existe bien un niveau de réalité physique fondamentalement différent de celui qui prévaut à notre échelle (thermodynamique) ou à l’échelle cosmique (relativité générale), au sein duquel s’exprime de manière non réductible, ce que le regretté Bernard D’Espagnat, qui vient de disparaître, appelait un « réel voilé », organisé selon un principe de non-séparabilité. A ce niveau de réalité insaisissable, matière et énergie, ondes et particules, espace et temps sont enchevêtrés de manière inextricable. Cette dimension quantique du monde ne résulte pas de notre ignorance, ni de l’imprécision de nos instruments de mesure mais constitue bien une dimension fondamentale de la nature…
Mais la physique quantique, après être restée longtemps une curiosité théorique, s’est avérée depuis une vingtaine d’années une extraordinaire source de ruptures et d’innovations technologiques. Il faut par exemple savoir que c’est la physique quantique qui a permis la naissance et l’essor de la spintronique et l’introduction des têtes de lecture à magnétorésistance géante, à l’origine de l’augmentation considérable (par un facteur 100) de la densité de stockage d’information sur disque dur.
Il faut également rappeler que les nombreux outils technologiques qui constituent aujourd’hui notre quotidien, comme le microprocesseur, le laser, le GPS, ou encore l’imagerie par résonance magnétique, n’existeraient pas sans la théorie quantique. Mais, comme le souligne Dominique Sugny, du Laboratoire interdisciplinaire Carnot, à Dijon, « aussi importantes soient-elles, ces applications s’appuient seulement sur une compréhension passive des lois quantiques et désormais, les chercheurs veulent aller plus loin, en contrôlant activement les objets à cette échelle. » C’est là qu’intervient une jeune discipline pleine de promesses, le contrôle quantique, qui vise à organiser et à manipuler atomes et particules variées afin de leur conférer des fonctions spécifiques et de leur faire accomplir des tâches précises.
Pour atteindre cet objectif ambitieux, les scientifiques se sont notamment appuyés sur la théorie du contrôle optimal qui consiste à rechercher une solution sous la forme mathématique d’un problème d’optimisation qu’on peut résoudre numériquement. C’est ce principe qui a permis, il y a presque un demi-siècle, au cours du programme lunaire américain Apollo, de déterminer les trajectoires minimisant le plus possible la consommation de carburant pour atteindre la Lune.
L’augmentation exponentielle de la puissance de calcul informatique a permis récemment au contrôle quantique de réaliser des pas de géant dans plusieurs domaines. Par exemple, il est à présent possible de contrôler certaines réactions chimiques complexes par laser en calculant l’ensemble des paramètres des ondes lumineuses utilisées pour obtenir cette réaction. Il y a quelques mois, des chercheurs ont ainsi réussi à créer, à l’aide du contrôle quantique, une liaison entre deux atomes de magnésium2.
Mais ces outils de contrôle quantique sont également en train de bouleverser un autre domaine hautement stratégique, celui de l’informatique quantique. Actuellement, les ordinateurs reposent sur une logique binaire, issus de l’architecture imaginée par Van Neumann, l’un des pères de l’informatique. Dans cette configuration, la plus petite unité d’information, le bit, ne peut prendre que deux valeurs, 0 ou 1, selon le passage ou non du courant électrique à travers un transistor. Mais, dans un ordinateur quantique, les choses se passent de manière radicalement différente. Le bit quantique (ou qbit), repose sur l’état d’un système quantique et peut de ce fait s’affranchir de cette logique binaire et utiliser les étranges propriétés quantiques d’intrication et de superposition d’états.
Au lieu d’effectuer de manière séquentielle toute une série de calculs pour parvenir à un résultat final, l’ordinateur quantique peut donc, en théorie, avoir accès à la totalité des résultats en une seule étape, ce qui laisse espérer des machines dont la puissance de calcul serait des milliers de fois supérieure à celles de nos superordinateurs d’aujourd’hui…
Mais le chemin technologique qui mène vers l’ordinateur quantique opérationnel est semé d’embûches. L’un des principaux obstacles que doivent par exemple surmonter les chercheurs est lié au nombre de qbits pouvant fonctionner simultanément au sein d’une même machine. En effet, pour être réellement efficace, un ordinateur quantique doit en théorie pouvoir mobiliser en même temps plusieurs milliers de qbits. Mais plus ces qbits sont nombreux et plus les risques d’interaction  avec l’environnement augmentent. Or ces interactions entraînent ce que les physiciens appellent une décohérence, c’est-à-dire un brusque effondrement des propriétés quantiques recherchées.
Mais le contrôle quantique parvient de mieux en mieux à détecter les erreurs dues à la décohérence et à les corriger en temps réel. En 2011, une avancée majeure dans ce domaine a été réalisée par l’équipe de Serge Haroche, Prix Nobel de physique en 2012. Après être parvenu à mesurer des photons sans les détruire, ces chercheurs ont réussi à stabiliser le nombre de photons piégés dans une cavité supraconductrice en générant un signal micro-onde approprié. Cette avancée remarquable confirme qu’il est possible de corriger en temps réel les bits d’un ordinateur quantique, ce qui lève un verrou majeur dans la conception de ces machines.
Le domaine biologique et médical va également connaître une révolution grâce à l’application du contrôle quantique. En imagerie IRM par exemple, en utilisant la théorie du contrôle optimal, des chercheurs sont parvenus à déterminer les profils de champ magnétique à appliquer pour obtenir le meilleur contraste possible d’une image pour des conditions expérimentales données. Les physiciens ont validé ensuite avec succès cette approche par une expérience test in vitro. Quant aux premiers essais sur l’homme, ils pourraient commencer à l’horizon 2020 et, selon le physicien Dominique Sugny, ils devraient permettre d’obtenir des images bien plus précises qu’aujourd’hui, ce qui permettra de nouveaux progrès pour de nombreuses pathologies, en matière de détection et de diagnostic.
Dans le domaine connexe des télécommunications qui doivent absorber et véhiculer des quantités d’informations toujours plus grandes et vont devoir intégrer demain l’Internet des objets et la visiophonie personnelle en 3D, le déploiement des réseaux et des composants optiques permet également d’avoir recours au contrôle quantique pour décupler la rapidité et la fiabilité de ces échanges de données numériques. Au Canada, l’équipe du professeur Roberto Morandotti est récemment parvenue à utiliser la photonique quantique pour produire directement des paires de photons ayant une polarisation croisée (orthogonale), une première en optique quantique intégrée sur puce. Grâce à cette avancée, il devient possible de recourir à la polarisation des photons pour améliorer considérablement le débit et la rapidité des communications optiques d’informations numériques.
Dans le domaine des communications sécurisées, le contrôle quantique est également en train de s’imposer. En début d’année, des chercheurs de l’Université nationale australienne (ANU) et de l’Université d’Otago en Nouvelle-Zélande Dr Jevon Longdell ont créé un prototype de disque dur quantique qui peut modifier fondamentalement le domaine du cryptage de données sécurisé, à longue distance. Utilisant des atomes de l’élément europium de terre rare intégré dans des cristaux d’orthosilicate d’yttrium (YSO), ces scientifiques ont réussi à créer un dispositif de stockage capable de maintenir jusqu’à six heures une information à l’état quantique (Voir Australian National University).
Toujours en matière de cryptage quantique des communications, la firme japonaise Toshiba a annoncé il y a quelques semaines qu’elle avait commencé des tests de transmission sécurisée de données génétiques par cryptographie quantique, une méthode de cryptage en théorie totalement inviolable puisque chaque bit d’information est associé à un photon et que toute tentative d’intrusion entraîne immédiatement la destruction de l’information ainsi véhiculée (Voir Toshiba). Toshiba a précisé que son système de cryptographie quantique devrait être commercialisé dès 2020.
Enfin, il y a quelques jours, Google, la NASA et l’USRA (Universities Space Research Association) ont annoncé qu’ils avaient décidé de s’associer dans le cadre d’un projet de recherche destiné à rendre opérationnel un ordinateur quantique. Pour atteindre cet objectif, les deux partenaires vont s’équiper du D-Wave 2X, la dernière machine quantique du constructeur canadien D-Wave. Cet ordinateur utilisera une puce quantique composée pour la première fois de 1000 qbits, contre 512 pour la génération actuelle. « Avec ce programme de recherche, nous espérons montrer que l’informatique quantique et les algorithmes quantiques pourraient un jour améliorer radicalement notre capacité à résoudre des problèmes d’optimisation complexes pour l’aéronautique, les sciences de la Terre et de l’espace ou encore la conquête spatiale », a déclaré le directeur du centre de recherche Ames de la Nasa, Eugene Tu, dans le communiqué de D-Wave (Voir D-Wave).
On voit donc que, presque 90 ans après sa formalisation très confidentielle par une poignée de physiciens de génie, parmi lesquels il faut rappeler les noms d’Einstein, de Planck, de Bohr, de Schrödinger, d’Heinsenberg, de De Broglie, de Dirac ou encore de Pauli, la théorie quantique, qui ne s’est pas imposée facilement dans le monde scientifique tant elle remettait en cause les fondements mêmes de notre représentation physique du réel, a gagné ses lettres de noblesse en se manifestant de manière de plus en plus concrète, d’abord comme instrument de recherche fondamentale et plus récemment comme outil irremplaçable et extrêmement puissant d’innovation et de rupture technologique et industrielle.
Aujourd’hui, les systèmes et dispositifs quantiques sont déjà présents, sans que nous nous en rendions compte, dans de nombreux objets de notre vie quotidienne et demain ils seront absolument partout et permettront des avancées que nous ne pouvons même pas imaginer dans des domaines aussi variés que l’énergie, les transports, la médecine, l’informatique, les télécommunications, les matériaux ou la robotique…
Cette extraordinaire aventure scientifique que représente la physique quantique apporte un démenti cinglant à ceux qui ne raisonnent qu’à court terme et voudraient enfermer la Recherche dans une finalité exclusivement utilitariste. Comme le disait avec humour, peu de temps avant sa disparition, Jack Kilby, l’inventeur du premier circuit intégré en 1958, « Le transistor qui est la base du microprocesseur et de l’informatique actuelle n’est pas une simple amélioration de l’ampoule électrique ou du tube à vide mais constitue une véritable rupture technologique ». Cet ingénieur hors pair faisait également remarquer qu’il avait fallu 30 ans entre l’invention du transistor et la commercialisation des premiers ordinateurs personnels. Il a fallu le même laps de temps entre la découverte du concept d’images télévisées, au milieu des années 1920 et la commercialisation des premiers téléviseurs, au lendemain de la seconde guerre mondiale.
Dans cette société fébrile, obsédée par le court terme et les effets d’annonces médiatiques et dominée par l’écume des choses, nous devons comprendre qu’il existe un « temps long », qui est de l’ordre du quart du siècle, entre une avancée théorique fondamentale et sa traduction concrète pour le grand public, sous forme de produits, de systèmes ou de services nouveaux. Si l’aventure quantique nous prouve une chose à méditer, c’est qu’il n’existe pas, d’un côté, une Science « pure » et abstraite et de l’autre une Recherche uniquement orientée vers des applications concrètes. Le processus qui va de la découverte théorique à l’invention, l’innovation et la production industrielle de produits et services radicalement nouveaux est un long continuum qu’il faut préparer et alimenter en ayant une vision stratégique et prospective à très long terme de l’évolution scientifique, économique et sociale.
Faisons en sorte que notre Pays, qui a la chance de posséder à la fois une Recherche fondamentale du plus haut niveau en physique et en mathématiques et qui dispose d’un savoir technologique et industriel reconnu au niveau mondial, sache mieux penser, préparer et accompagner les prochaines révolutions scientifiques et techniques qui bouleverseront notre société d’ici 2050.



Source.:  RTflash, cet article est aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.

Reprogrammer l' ADN ?



Il y a encore quelques années, modifier le génome était un travail long, complexe et coûteux. Mais depuis trois ans, un nouvel outil d’une puissance et d’une précision sans précédent, baptisé CRISPR-CAS9, est en train de révolutionner la génomique. Il utilise un fragment d’ARN capable de guider le gène à insérer vers le site de l’ADN cible, et une enzyme nommée Cas9 coupe ce dernier pour y insérer le nouveau code souhaité.




Mais la rupture fondamentale que représente ce nouvel outil est ailleurs car, non content d’être bien plus rapide et précis que toutes les autres méthodes employées jusqu’alors, CRISPR-CAS9 possède également un champ d’application bien plus vaste qui va permettre aux scientifiques d’intervenir sur le génome de multiples espèces animales ou végétales, y compris l’espèce humaine…
C’est en 1987 que le scientifique japonais Atsuo Nakata (Université d’Osaka), découvre d’étranges séquences d’ADN répétitives dans le génome de bactéries Escherichia coli. Dans certaines parties de ces séquences, les quatre lettres constitutives de l’ADN – adénine (A), guanine (G), cytosine (C) et thymine (T) – forment des suites immédiatement suivies des mêmes suites en sens inverse : elles peuvent donc être lues dans les deux sens, comme dans les palindromes. En 2002, la communauté scientifique baptise ce type de séquences du nom de CRISPR (Clustered Regularly Interspaced Palindromic Repeats).
En 2005, d’autres recherches montrent que les morceaux d’ADN intercalés entre ces palindromes sont souvent des morceaux d’ADN de virus capables d’infecter les bactéries (bactériophages) et en 2007, des chercheurs de l’entreprise agroalimentaire danoise Danisco découvrent que certaines des bactéries qu’ils utilisent pour fabriquer des yaourts et des fromages survivent mieux aux infections virales lorsqu’elles possèdent des séquences CRISPR. Ces travaux montrent que ces bactéries sont capables de mémoriser dans leurs séquences CRISPR, l’ADN des virus les ayant préalablement infectés, ce qui leur permet de reconnaître immédiatement ces virus et de les éliminer quand elles les rencontrent à nouveau.
La suite est plus connue : un tandem constitué de deux chercheuses remarquables, l’Américaine Jennifer Doudna de l’Université californienne Berkeley, et la microbiologiste française Emmanuelle Charpentier qui travaille alors à l’Université suédoise d’Umeå ont réussi à comprendre les mécanismes à l’œuvre chez ces bactéries. Elles ont notamment découvert que les ADN viraux des séquences CRISPR sont dupliqués en plus petites molécules nommées ARN qui s’arriment à une enzyme nommée Cas9.
Ces chercheuses ont également montré que, lorsqu’un ARN bactérien rencontre un virus à l’ADN correspondant, il s’apparie à cet ADN, ce qui permet enfin à l’enzyme CAS9 d’éliminer ce virus en découpant les deux brins de son ADN.
S’appuyant sur ces découvertes fondamentales, ces scientifiques ont montré en 2012 que ce couple CRISPR-CAS9 permettait de couper une séquence spécifique d’ADN afin de la remplacer par une autre. Plus récemment, des modifications de Cas9 ont rendu possible l’inactivation ou l’activation de gènes spécifiques (Voir Science) et ce binôme CRISP-CAS9 a été désigné « découverte de l’année en 2013 par la prestigieuse revue « Sciences ».
Au cours de ces trois dernières années, de multiples recherches à travers le monde ont montré que l’outil CRISP-CAS9 pouvait modifier des gènes d’organismes très variés : bactéries, levures, riz, mouches, nématodes, poissons-zèbres, rongeurs, etc. En outre, cette méthode initiale a encore été améliorée récemment de manière à ce que l’enzyme Cas9 ne coupe pas le gène cible, mais stimule son expression, l’inhibe ou y substitue un autre gène.
En mars 2014, des chercheurs du MIT ont utilisé CRISPR-Cas9 pour corriger une maladie génétique incurable du foie : la « tyrosinémie » causée par une mutation génétique sur un gène nécessaire pour dégrader l’acide aminé nommé tyrosine. Résultat : chez des souris souffrant de cette pathologie, CRISPR-Cas9 a réussi à remplacer le gène déficient par sa forme saine dans environ 0,5 % des cellules du foie (hépatocytes). Au bout d’un mois, ces cellules redevenues saines avaient proliféré : elles représentaient un tiers de tous les hépatocytes… de quoi permettre aux souris de survivre sans le traitement de référence !
À l’été 2014, c’est à une autre maladie génétique incurable que s’attaquent les chercheurs : la « myopathie de Duchenne », une dégénérescence musculaire due à des mutations sur le gène codant pour la protéine indispensable au bon fonctionnement des fibres musculaires. À l’Université du Texas, des chercheurs parviennent à corriger cette mutation dans des embryons de souris, puis les réimplantent dans des mères porteuses. Neuf mois après leur naissance, parmi ceux chez lesquels la correction avait touché au moins 40 % des cellules, les muscles étaient parfaitement normaux !
Mais la puissance de l’outil commence à susciter des inquiétudes. En avril 2015, une équipe chinoise de l’Université Sun-Yat-sen de Canton s’est en effet servie de CRISPR-Cas9 pour tenter de modifier le génome d’un embryon humain. Certes, il s’agissait pour ces chercheurs de prévenir le développement d’une maladie génétique, la beta-thalassémie, en modifiant le génome d’un embryon humain. Reste que cette technique modifie également celui de ses cellules sexuelles et par conséquent, toute sa descendance potentielle.
Enfin, l’application au génome humain pourrait s’avérer plus simple encore que prévu. En effet, une équipe du MIT, dirigée par Feng Zhang a découvert un nouveau système de CRISPR basé non plus sur l’enzyme Cas9, mais sur une autre molécule, le Cpf1, beaucoup plus précis et plus adapté à l’usage sur les mammifères complexes (Voir Nature).
Mais pour s’en tenir uniquement au couple CRISPR-CAS9, il offre déjà un immense champ de recherche et d’action thérapeutique qui couvre tous les domaines de la biologie et de l’agronomie. L’année dernière par exemple, une équipe américaine du MIT à Boston a réussi, en utilisant un vecteur viral qui a transporté le gène de l’enzyme CAS9 et son ARN, à réduire de moitié en une semaine le taux de cholestérol chez des souris. Il y a quelques mois, une autre équipe américaine de l’Université Johns Hopkins à Baltimore, a réussi pour sa part à corriger, dans les cellules souches de sang, la mutation génétique responsable de l’anémie falciforme.
En agronomie, les perspectives d’utilisation de CRISPR-CAS9 sont tout aussi impressionnantes. L’année dernière, une équipe chinoise de l’Académie des sciences de Pékin a ainsi réussi à produire un blé tendre mutant qui résiste à un champignon parasite. Pour parvenir à ce résultat les chercheurs ont inactivé un gène de susceptibilité à ce champignon. Dans ce cas précis, ce résultat été obtenu en couplant CRISPR avec un autre ciseau moléculaire, TALEN. En fait, cette nouvelle panoplie d’outils génétiques ouvre des perspectives presque illimitées de recherche et d’intervention dans l’ensemble des sciences de la vie. Ces nouveaux outils vont notamment révolutionner à moyen terme l’agronomie et l’agriculture car ils permettent de réaliser des modifications génétiques ciblées en ayant uniquement recours à la séquence d’ADN souhaité et sans être obligé d’insérer des gènes étrangers. Les nouvelles plantes ainsi obtenues ne pourront plus être qualifiées de transgéniques puisqu’elles ne seront plus porteuses dans leur génome d’une séquence d’ADN étrangère à leur espèce. Dans le domaine animal, ces outils ouvrent la voie à une correction des maladies génétiques et une modification « à la carte » des cellules, tissus et organismes.
Mais alors que CRISPR-CAS9 se révèle être un nouvel outil extraordinaire dans les domaines de la Recherche et de l’intervention génétique et génomique, plusieurs découvertes fondamentales récentes sont venues bouleverser la conception que les scientifiques se faisaient jusqu’à présent de notre génome.
En août dernier, une équipe de généticiens suisses de l’Université de Genève (UNIGE), de l’École Polytechnique Fédérale de Lausanne (EPFL) et de l’Université de Lausanne (UNIL) a découvert que les variations génétiques sont en mesure d’affecter l’état du génome à de nombreux endroits, apparemment séparés, et de moduler l’activité des gènes un peu comme le ferait un chef d’orchestre coordonnant les instrumentistes pour qu’ils jouent en harmonie.
Au cœur de ce mécanisme subtil et global, la chromatine semble jouer un rôle essentiel. Découverte il y a plus d’un siècle, la chromatine, dont la structure moléculaire fine n’a été comprise qu’en 1997, est un ensemble de protéines et d’ADN qui « empactent » le génome dans une cellule. Comme l’ADN doit être décompacté pour pouvoir s’exprimer, cette chromatine reconfigure l’ADN de telle sorte qu’il puisse être « lu » par un groupe de protéines appelé facteurs de transcription, qui activent ou répriment l’expression des gènes.
La séquence d’ADN varie toutefois d’un individu à l’autre, entraînant ainsi une variation moléculaire entre les états de la chromatine des individus. Cela finit par causer des variations dans la manière dont les humains répondent à l’environnement. Comprendre les processus génétiques et moléculaires régissant la variabilité de la chromatine est l’un des défis les plus importants dans le domaine des sciences de la vie qui permettrait de découvrir comment les variations génétiques prédisposent les individus à certaines maladies comme le cancer, le diabète ou les maladies auto-immunes.
Ces travaux de pointe confirment que le génome est bien davantage qu’un ensemble linéaire d’éléments qui interagissent par paires ; il s’organise de manière complexe et en réseaux. Dans ce système, lorsqu’un élément ne remplit pas correctement sa tâche, c’est l’ensemble du génome qui s’en trouve perturbé. « Nous sommes en train de découvrir des règles biologiques de base sur le fonctionnement du génome et la manière dont les séquences régulatrices agissent ensemble pour impacter l’expression d’un gène, » précise le professeur Alexandre Reymond de l’Université de Lausanne.
Faisant écho à cette découverte, il y a quelques jours, une équipe américaine regroupant plusieurs universités et centres de recherche (Stanford, MIT, Université Rice et Baylor College de Houston), étudiant la structure tridimensionnelle de la chromatine dans le noyau cellulaire, a réussi, pour la première fois, à provoquer des réorganisations de cette structure grâce à la modification d’un très petit nombre de paires de bases d’ADN. En manipulant ces petites séquences d’ADN qui guident la structure spatiale du génome, ces chercheurs ont confirmé le rôle-clé de la chromatine dans le noyau cellulaire (Voir PNAS et phys.org). Ces scientifiques ont en outre développé un modèle mathématique qui permet de prévoir l’organisation et l’évolution du déploiement du génome humain.
Il faut également souligner qu’en septembre dernier, la revue scientifique Nature a publié une exceptionnelle série d’articles relatant les résultats du programme Encode : Encyclopedia of DNA Elements. Cette publication représente une quantité phénoménale d’informations – l’équivalent de 3 000 DVD – sur le génome humain considéré comme un ensemble global et cohérent. Lancé depuis 12 ans, ce programme pharaonique est mis en œuvre grâce à une coopération scientifique internationale qui regroupe plus de 400 scientifiques sous la direction des principales universités américaines.
Encode vise clairement à dépasser le programme historique de séquençage du génome humain qui s’est achevé il y a 15 ans. Jusqu’à la fin du siècle dernier, la plupart des biologistes pensaient, en effet, qu’il suffirait d’analyser de manière exhaustive les séquences de l’ADN  pour déchiffrer cette supposée information génétique. Mais force est de constater que les espoirs de ces scientifiques ont été largement déçus car la simple connaissance de cette information génétique, certes très précieuse, ne suffit pas, loin s’en faut, à comprendre la logique profonde du vivant et à provoquer la révolution thérapeutique que la médecine attendait pour pouvoir enfin traiter les nombreuses maladies génétiques.
Avec la publication récente de cette moisson impressionnante de données génétiques, les scientifiques sont à présent convaincus qu’étudier l’ADN en tant que tel n’a pas de sens. Dans les organismes vivants, l’ADN d’une cellule est toujours en interaction avec une multitude d’autres protéines dans une structure nommée chromatine. Or, il s’avère que ces interactions jouent un rôle absolument capital car elles décident si certaines protéines doivent être fabriquées ou pas.
Le programme Encode vise précisément à étudier avec un niveau de précision extrême ces interactions en nombre phénoménal. Cela suppose l’identification et le classement, à l’échelle du génome entier, de toutes les séquences de l’ADN et de toutes les protéines interagissant ensemble dans une cellule, de manière à activer certains gènes. Avec Encode, c’est bien une nouvelle vision du vivant qui émerge : la cellule peut être comparée à une mélodie harmonieuse et spécifique qui, pour être correctement exécutée, doit mettre en relation au bon endroit et au bon moment une partition correcte – l’ADN – et une multitude d’exécutants, dont le rôle est crucial puisqu’il leur revient d’interpréter et de traduire en musique mélodieuse cette partition génétique initiale.
Certes, les biologistes savaient déjà que nombreuses séquences d’ADN sont transcrites en ARN (acide ribonucléique), mais que ce processus est loin de toujours entraîner la production de protéines par la cellule. Encode montre que ce phénomène, loin d’être exceptionnel est très largement répandu dans la cellule, ce qui conforte sérieusement l’hypothèse selon laquelle les ARN possèdent des fonctions de régulation très importantes dans le fonctionnement du génome.
Ce changement de perspective théorique est considérable et nous oblige à rompre définitivement avec la représentation d’un niveau génétique qui serait « fondamental » et commanderait l’ensemble des mécanismes biologiques. Il semble au contraire que le vivant obéisse à un ensemble de mécanismes subtils, intriqués et circulaires dans lequel sont à l’œuvre d’extraordinaires processus d’action des parties sur le tout mais aussi du tout sur les parties.
L’ensemble de ces découvertes et avancées récentes ouvre un nouveau cadre théorique qui n’est pas sans rappeler celui de la physique quantique. Dans ce cadre conceptuel, processus et phénomènes aléatoires complètent et enrichissent considérablement des mécanismes déterministes, à commencer par le fameux « programme génétique ». La dimension épigénétique portant sur l’ensemble des modifications et changements provoqués par nos expériences personnelles, notre éducation, notre environnement social et culturel, devient centrale. L’un des exemples les plus remarquables de cette dimension épigénétique fondamentale est le processus de méthylation par lequel l’expression de notre ADN peut être profondément et définitivement modifiée par des facteurs environnementaux, une modification de notre mode de vie par exemple.
Cette nouvelle approche du génome conforte une nouvelle conception de l’homme dans laquelle l’individu se construit tout au long de sa vie, dans une myriade d’interactions avec le monde, et n’est jamais achevé, ni jamais réduit à l’une de ses dimensions constitutives, qu’elle soit biologique, psychique, sociale ou culturelle. Cette nouvelle vision de l’homme et du vivant rend caduque et artificielle l’opposition si longtemps érigée en dogme entre gènes et organisme, corps et esprit, inné et acquis.


Source.:  RTflash, cet article est aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.