Rechercher sur ce blogue

jeudi 11 février 2016

Reprogrammer l' ADN ?



Il y a encore quelques années, modifier le génome était un travail long, complexe et coûteux. Mais depuis trois ans, un nouvel outil d’une puissance et d’une précision sans précédent, baptisé CRISPR-CAS9, est en train de révolutionner la génomique. Il utilise un fragment d’ARN capable de guider le gène à insérer vers le site de l’ADN cible, et une enzyme nommée Cas9 coupe ce dernier pour y insérer le nouveau code souhaité.




Mais la rupture fondamentale que représente ce nouvel outil est ailleurs car, non content d’être bien plus rapide et précis que toutes les autres méthodes employées jusqu’alors, CRISPR-CAS9 possède également un champ d’application bien plus vaste qui va permettre aux scientifiques d’intervenir sur le génome de multiples espèces animales ou végétales, y compris l’espèce humaine…
C’est en 1987 que le scientifique japonais Atsuo Nakata (Université d’Osaka), découvre d’étranges séquences d’ADN répétitives dans le génome de bactéries Escherichia coli. Dans certaines parties de ces séquences, les quatre lettres constitutives de l’ADN – adénine (A), guanine (G), cytosine (C) et thymine (T) – forment des suites immédiatement suivies des mêmes suites en sens inverse : elles peuvent donc être lues dans les deux sens, comme dans les palindromes. En 2002, la communauté scientifique baptise ce type de séquences du nom de CRISPR (Clustered Regularly Interspaced Palindromic Repeats).
En 2005, d’autres recherches montrent que les morceaux d’ADN intercalés entre ces palindromes sont souvent des morceaux d’ADN de virus capables d’infecter les bactéries (bactériophages) et en 2007, des chercheurs de l’entreprise agroalimentaire danoise Danisco découvrent que certaines des bactéries qu’ils utilisent pour fabriquer des yaourts et des fromages survivent mieux aux infections virales lorsqu’elles possèdent des séquences CRISPR. Ces travaux montrent que ces bactéries sont capables de mémoriser dans leurs séquences CRISPR, l’ADN des virus les ayant préalablement infectés, ce qui leur permet de reconnaître immédiatement ces virus et de les éliminer quand elles les rencontrent à nouveau.
La suite est plus connue : un tandem constitué de deux chercheuses remarquables, l’Américaine Jennifer Doudna de l’Université californienne Berkeley, et la microbiologiste française Emmanuelle Charpentier qui travaille alors à l’Université suédoise d’Umeå ont réussi à comprendre les mécanismes à l’œuvre chez ces bactéries. Elles ont notamment découvert que les ADN viraux des séquences CRISPR sont dupliqués en plus petites molécules nommées ARN qui s’arriment à une enzyme nommée Cas9.
Ces chercheuses ont également montré que, lorsqu’un ARN bactérien rencontre un virus à l’ADN correspondant, il s’apparie à cet ADN, ce qui permet enfin à l’enzyme CAS9 d’éliminer ce virus en découpant les deux brins de son ADN.
S’appuyant sur ces découvertes fondamentales, ces scientifiques ont montré en 2012 que ce couple CRISPR-CAS9 permettait de couper une séquence spécifique d’ADN afin de la remplacer par une autre. Plus récemment, des modifications de Cas9 ont rendu possible l’inactivation ou l’activation de gènes spécifiques (Voir Science) et ce binôme CRISP-CAS9 a été désigné « découverte de l’année en 2013 par la prestigieuse revue « Sciences ».
Au cours de ces trois dernières années, de multiples recherches à travers le monde ont montré que l’outil CRISP-CAS9 pouvait modifier des gènes d’organismes très variés : bactéries, levures, riz, mouches, nématodes, poissons-zèbres, rongeurs, etc. En outre, cette méthode initiale a encore été améliorée récemment de manière à ce que l’enzyme Cas9 ne coupe pas le gène cible, mais stimule son expression, l’inhibe ou y substitue un autre gène.
En mars 2014, des chercheurs du MIT ont utilisé CRISPR-Cas9 pour corriger une maladie génétique incurable du foie : la « tyrosinémie » causée par une mutation génétique sur un gène nécessaire pour dégrader l’acide aminé nommé tyrosine. Résultat : chez des souris souffrant de cette pathologie, CRISPR-Cas9 a réussi à remplacer le gène déficient par sa forme saine dans environ 0,5 % des cellules du foie (hépatocytes). Au bout d’un mois, ces cellules redevenues saines avaient proliféré : elles représentaient un tiers de tous les hépatocytes… de quoi permettre aux souris de survivre sans le traitement de référence !
À l’été 2014, c’est à une autre maladie génétique incurable que s’attaquent les chercheurs : la « myopathie de Duchenne », une dégénérescence musculaire due à des mutations sur le gène codant pour la protéine indispensable au bon fonctionnement des fibres musculaires. À l’Université du Texas, des chercheurs parviennent à corriger cette mutation dans des embryons de souris, puis les réimplantent dans des mères porteuses. Neuf mois après leur naissance, parmi ceux chez lesquels la correction avait touché au moins 40 % des cellules, les muscles étaient parfaitement normaux !
Mais la puissance de l’outil commence à susciter des inquiétudes. En avril 2015, une équipe chinoise de l’Université Sun-Yat-sen de Canton s’est en effet servie de CRISPR-Cas9 pour tenter de modifier le génome d’un embryon humain. Certes, il s’agissait pour ces chercheurs de prévenir le développement d’une maladie génétique, la beta-thalassémie, en modifiant le génome d’un embryon humain. Reste que cette technique modifie également celui de ses cellules sexuelles et par conséquent, toute sa descendance potentielle.
Enfin, l’application au génome humain pourrait s’avérer plus simple encore que prévu. En effet, une équipe du MIT, dirigée par Feng Zhang a découvert un nouveau système de CRISPR basé non plus sur l’enzyme Cas9, mais sur une autre molécule, le Cpf1, beaucoup plus précis et plus adapté à l’usage sur les mammifères complexes (Voir Nature).
Mais pour s’en tenir uniquement au couple CRISPR-CAS9, il offre déjà un immense champ de recherche et d’action thérapeutique qui couvre tous les domaines de la biologie et de l’agronomie. L’année dernière par exemple, une équipe américaine du MIT à Boston a réussi, en utilisant un vecteur viral qui a transporté le gène de l’enzyme CAS9 et son ARN, à réduire de moitié en une semaine le taux de cholestérol chez des souris. Il y a quelques mois, une autre équipe américaine de l’Université Johns Hopkins à Baltimore, a réussi pour sa part à corriger, dans les cellules souches de sang, la mutation génétique responsable de l’anémie falciforme.
En agronomie, les perspectives d’utilisation de CRISPR-CAS9 sont tout aussi impressionnantes. L’année dernière, une équipe chinoise de l’Académie des sciences de Pékin a ainsi réussi à produire un blé tendre mutant qui résiste à un champignon parasite. Pour parvenir à ce résultat les chercheurs ont inactivé un gène de susceptibilité à ce champignon. Dans ce cas précis, ce résultat été obtenu en couplant CRISPR avec un autre ciseau moléculaire, TALEN. En fait, cette nouvelle panoplie d’outils génétiques ouvre des perspectives presque illimitées de recherche et d’intervention dans l’ensemble des sciences de la vie. Ces nouveaux outils vont notamment révolutionner à moyen terme l’agronomie et l’agriculture car ils permettent de réaliser des modifications génétiques ciblées en ayant uniquement recours à la séquence d’ADN souhaité et sans être obligé d’insérer des gènes étrangers. Les nouvelles plantes ainsi obtenues ne pourront plus être qualifiées de transgéniques puisqu’elles ne seront plus porteuses dans leur génome d’une séquence d’ADN étrangère à leur espèce. Dans le domaine animal, ces outils ouvrent la voie à une correction des maladies génétiques et une modification « à la carte » des cellules, tissus et organismes.
Mais alors que CRISPR-CAS9 se révèle être un nouvel outil extraordinaire dans les domaines de la Recherche et de l’intervention génétique et génomique, plusieurs découvertes fondamentales récentes sont venues bouleverser la conception que les scientifiques se faisaient jusqu’à présent de notre génome.
En août dernier, une équipe de généticiens suisses de l’Université de Genève (UNIGE), de l’École Polytechnique Fédérale de Lausanne (EPFL) et de l’Université de Lausanne (UNIL) a découvert que les variations génétiques sont en mesure d’affecter l’état du génome à de nombreux endroits, apparemment séparés, et de moduler l’activité des gènes un peu comme le ferait un chef d’orchestre coordonnant les instrumentistes pour qu’ils jouent en harmonie.
Au cœur de ce mécanisme subtil et global, la chromatine semble jouer un rôle essentiel. Découverte il y a plus d’un siècle, la chromatine, dont la structure moléculaire fine n’a été comprise qu’en 1997, est un ensemble de protéines et d’ADN qui « empactent » le génome dans une cellule. Comme l’ADN doit être décompacté pour pouvoir s’exprimer, cette chromatine reconfigure l’ADN de telle sorte qu’il puisse être « lu » par un groupe de protéines appelé facteurs de transcription, qui activent ou répriment l’expression des gènes.
La séquence d’ADN varie toutefois d’un individu à l’autre, entraînant ainsi une variation moléculaire entre les états de la chromatine des individus. Cela finit par causer des variations dans la manière dont les humains répondent à l’environnement. Comprendre les processus génétiques et moléculaires régissant la variabilité de la chromatine est l’un des défis les plus importants dans le domaine des sciences de la vie qui permettrait de découvrir comment les variations génétiques prédisposent les individus à certaines maladies comme le cancer, le diabète ou les maladies auto-immunes.
Ces travaux de pointe confirment que le génome est bien davantage qu’un ensemble linéaire d’éléments qui interagissent par paires ; il s’organise de manière complexe et en réseaux. Dans ce système, lorsqu’un élément ne remplit pas correctement sa tâche, c’est l’ensemble du génome qui s’en trouve perturbé. « Nous sommes en train de découvrir des règles biologiques de base sur le fonctionnement du génome et la manière dont les séquences régulatrices agissent ensemble pour impacter l’expression d’un gène, » précise le professeur Alexandre Reymond de l’Université de Lausanne.
Faisant écho à cette découverte, il y a quelques jours, une équipe américaine regroupant plusieurs universités et centres de recherche (Stanford, MIT, Université Rice et Baylor College de Houston), étudiant la structure tridimensionnelle de la chromatine dans le noyau cellulaire, a réussi, pour la première fois, à provoquer des réorganisations de cette structure grâce à la modification d’un très petit nombre de paires de bases d’ADN. En manipulant ces petites séquences d’ADN qui guident la structure spatiale du génome, ces chercheurs ont confirmé le rôle-clé de la chromatine dans le noyau cellulaire (Voir PNAS et phys.org). Ces scientifiques ont en outre développé un modèle mathématique qui permet de prévoir l’organisation et l’évolution du déploiement du génome humain.
Il faut également souligner qu’en septembre dernier, la revue scientifique Nature a publié une exceptionnelle série d’articles relatant les résultats du programme Encode : Encyclopedia of DNA Elements. Cette publication représente une quantité phénoménale d’informations – l’équivalent de 3 000 DVD – sur le génome humain considéré comme un ensemble global et cohérent. Lancé depuis 12 ans, ce programme pharaonique est mis en œuvre grâce à une coopération scientifique internationale qui regroupe plus de 400 scientifiques sous la direction des principales universités américaines.
Encode vise clairement à dépasser le programme historique de séquençage du génome humain qui s’est achevé il y a 15 ans. Jusqu’à la fin du siècle dernier, la plupart des biologistes pensaient, en effet, qu’il suffirait d’analyser de manière exhaustive les séquences de l’ADN  pour déchiffrer cette supposée information génétique. Mais force est de constater que les espoirs de ces scientifiques ont été largement déçus car la simple connaissance de cette information génétique, certes très précieuse, ne suffit pas, loin s’en faut, à comprendre la logique profonde du vivant et à provoquer la révolution thérapeutique que la médecine attendait pour pouvoir enfin traiter les nombreuses maladies génétiques.
Avec la publication récente de cette moisson impressionnante de données génétiques, les scientifiques sont à présent convaincus qu’étudier l’ADN en tant que tel n’a pas de sens. Dans les organismes vivants, l’ADN d’une cellule est toujours en interaction avec une multitude d’autres protéines dans une structure nommée chromatine. Or, il s’avère que ces interactions jouent un rôle absolument capital car elles décident si certaines protéines doivent être fabriquées ou pas.
Le programme Encode vise précisément à étudier avec un niveau de précision extrême ces interactions en nombre phénoménal. Cela suppose l’identification et le classement, à l’échelle du génome entier, de toutes les séquences de l’ADN et de toutes les protéines interagissant ensemble dans une cellule, de manière à activer certains gènes. Avec Encode, c’est bien une nouvelle vision du vivant qui émerge : la cellule peut être comparée à une mélodie harmonieuse et spécifique qui, pour être correctement exécutée, doit mettre en relation au bon endroit et au bon moment une partition correcte – l’ADN – et une multitude d’exécutants, dont le rôle est crucial puisqu’il leur revient d’interpréter et de traduire en musique mélodieuse cette partition génétique initiale.
Certes, les biologistes savaient déjà que nombreuses séquences d’ADN sont transcrites en ARN (acide ribonucléique), mais que ce processus est loin de toujours entraîner la production de protéines par la cellule. Encode montre que ce phénomène, loin d’être exceptionnel est très largement répandu dans la cellule, ce qui conforte sérieusement l’hypothèse selon laquelle les ARN possèdent des fonctions de régulation très importantes dans le fonctionnement du génome.
Ce changement de perspective théorique est considérable et nous oblige à rompre définitivement avec la représentation d’un niveau génétique qui serait « fondamental » et commanderait l’ensemble des mécanismes biologiques. Il semble au contraire que le vivant obéisse à un ensemble de mécanismes subtils, intriqués et circulaires dans lequel sont à l’œuvre d’extraordinaires processus d’action des parties sur le tout mais aussi du tout sur les parties.
L’ensemble de ces découvertes et avancées récentes ouvre un nouveau cadre théorique qui n’est pas sans rappeler celui de la physique quantique. Dans ce cadre conceptuel, processus et phénomènes aléatoires complètent et enrichissent considérablement des mécanismes déterministes, à commencer par le fameux « programme génétique ». La dimension épigénétique portant sur l’ensemble des modifications et changements provoqués par nos expériences personnelles, notre éducation, notre environnement social et culturel, devient centrale. L’un des exemples les plus remarquables de cette dimension épigénétique fondamentale est le processus de méthylation par lequel l’expression de notre ADN peut être profondément et définitivement modifiée par des facteurs environnementaux, une modification de notre mode de vie par exemple.
Cette nouvelle approche du génome conforte une nouvelle conception de l’homme dans laquelle l’individu se construit tout au long de sa vie, dans une myriade d’interactions avec le monde, et n’est jamais achevé, ni jamais réduit à l’une de ses dimensions constitutives, qu’elle soit biologique, psychique, sociale ou culturelle. Cette nouvelle vision de l’homme et du vivant rend caduque et artificielle l’opposition si longtemps érigée en dogme entre gènes et organisme, corps et esprit, inné et acquis.


Source.:  RTflash, cet article est aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.

Un monde prévisible: avec le Big data et l'intelligence artificielle






Encore abstraites, les technologies du Big data et de l'intelligence artificielle pourraient elles aboutir à la disparition du hasard au profit d'un monde où tout puisse être anticipé ? C'est l'interrogation de René Trégouët, dans cette nouvelle chronique
Certaines ruptures technologiques sont particulièrement visibles et frappent les esprits : c’est par exemple le cas pour les tablettes numériques, les voitures électriques ou encore de l’éclairage par LED. Mais certaines révolutions techniques se déroulent sous nos yeux sans que nous en soyons vraiment conscients : tel est le cas des « Données massives » (Big Data). En seulement cinq ans, les données massives et leur traitement intelligent ont déjà profondément bouleversé l’ensemble des secteurs d’activité économique et scientifique… et ce n’est qu’un début !
Dans le domaine capital de la production d’énergie propre par exemple, nous allons être confrontés au cours du prochain quart de siècle à un redoutable défi mondial : assurer au moins la moitié de notre production totale d’énergie à partir de sources d’énergies renouvelables, principalement le vent, le soleil, et les énergies marines. Mais ces sources d’énergie, si elles présentent l’immense avantage d’être à la fois gratuites, inépuisable et très faiblement émettrices de gaz à effet de serre, présentent aussi le redoutable inconvénient d’être diffuses et intermittentes. Dès lors, pour que les réseaux de distribution -et notamment le réseau électrique- soient capables d’absorber une part de plus en plus importante d’énergie issue de ces sources renouvelables, il est absolument capital de pouvoir lisser et gérer les fluctuations considérables de production liées aux brusques changements météorologiques. Les outils de prévision de production d’énergie solaire ont d’ailleurs été désignés comme « technologie de rupture majeure » par le MIT en 2014.
La jeune société Reuniwatt, basée à la Réunion et fondée en 2010, a décidé de relever ce défi en combinant les technologies du Big Data, Intelligence Artificielle, météorologie, traitement d’images-satellites et d’images grand-angle du ciel. En quelques années seulement, Reuniwatt est devenue l’un des leaders mondiaux de la prévision d’énergie solaire grâce à son outil d’aide à la décision Soleka. Ile très ensoleillée, La Réunion souhaitait intégrer dans son mix énergétique une part majoritaire provenant des énergies renouvelables. Mais une telle montée en puissance des énergies propres, et notamment de l’énergie solaire, n’était envisageable qu’à la condition de pouvoir prévoir de manière particulièrement fiable l’évolution de la production d’électricité solaire en fonction des aléas de la météo.
Au terme de cinq années de recherche, Reuniwatt a réussi à mettre au point un remarquable logiciel prédictif, baptisé Soleka. Cet outil, reconnu au niveau mondial pour son excellence, fonctionne à trois horizons temporels (les prévisions allant de la minute à plusieurs jours à l’avance) et pour l’ensemble des acteurs de l’énergie, producteurs, distributeurs et consommateurs. En utilisant de manière intelligente et particulièrement ingénieuse des données massives, Soleka a donc réussi à faire sauter un obstacle très important vers la production prévisible à très grande échelle d’énergie solaire.
Autre domaine dans lequel les données massives sont en train de s’imposer : la biologie et la médecine. A l’institut Pasteur, le professeur Marco Vignuzzi et son équipe ont développé une méthode très innovante pour comprendre les mutations virales des ARN à partir de souches du Chikungunya ayant été isolées avant qu’elles ne mutent. Appliqué au virus du Chikungunya, de l’hépatite C ou de la grippe, cet outil permet de comprendre et de prévoir ce mécanisme de progression infectieuse. « Avant, on était obligé de séquencer un seul génome de virus à la fois ; mais à présent le séquençage à haut débit permet de couvrir la totalité d’une population virale qui existe au sein d’un même échantillon », souligne M. Vignuzzi.
Cette nouvelle approche prédictive devrait non seulement permettre de repérer en amont les mutations virales au potentiel épidémique important, mais devrait également déboucher sur la conception d’une nouvelle génération de vaccins plus efficaces, créés à partir des données observées et des schémas de mutations qui en découlent.
Une autre équipe américaine de l’Université d’Harvard, dirigée par le professeur Kou, a présenté il y a quelques semaines un modèle baptisé ARGO (AutoRegression with GOogle search data), capable de suivre en temps réel différentes épidémies de grippe. Ce modèle statistique de nouvelle génération, qui utilise notamment les données de Google, est présenté comme « flexible, robuste, auto-correctif et évolutif ». Bientôt disponible en « open source », ARGO va constituer un outil particulièrement précieux pour les pouvoirs publics et autorités de santé qui vont pouvoir planifier et gérer de manière beaucoup plus fiable les campagnes de vaccination contre la grippe. Il faut en effet rappeler que cette maladie, parfois présentée à tort comme bénigne, tue environ 500 000 personnes dans le monde chaque année. Il faut également rappeler qu’en France, plus de 18 000 personnes sont mortes de la grippe l’année dernière…
On peut aussi évoquer le lancement cet été par la fédération Unicancer d’un outil d’analyse sémantique appelé ConSoRe (Continum soins-recherche) qui va exploiter l’ensemble des données générées par les 18 centres de lutte contre le cancer (CLCC) afin notamment de simplifier la mise en place de programmes de recherche. Il permet d’effectuer des recherches en texte libre, « à la Google », ou multicritères. Le système fonctionne comme « une moulinette de traitement » qui effectue « une analyse sémantique des dossiers ». Son point fort est qu’il peut lancer des requêtes sur l’ensemble du corpus documentaire du patient. Concrètement, l’outil peut faire le lien entre un critère A présent dans un compte rendu et un critère B présent dans la base pharmaceutique, par exemple.
Cet outil permet de simplifier la mise en place de programmes de recherche par la constitution facilitée de cohortes de patients. Mais à terme, ConSoRe a des objectifs bien plus vastes et ambitieux et permettra, comme le fait déjà Watson, l’ordinateur intelligent d’IBM aux Etats-Unis, de proposer à chaque patient un traitement entièrement « sur mesure », conçu en fonction des spécificités biologiques et génétiques individuelles du malade.
Comme je vous l’ai déjà dit il y a quelques semaines, l’utilisation de ces données massives s’est également imposée dans le domaine de la sécurité et de la lutte contre le crime. L’année dernière par exemple, la ville de Santa Cruz, en Californie, a réussi à faire baisser de 27 % sa criminalité globale grâce à l’utilisation du nouveau logiciel PredPol. Cet outil de prévision criminelle est également utilisé depuis un an par la police du Kent, en Grande-Bretagne. Se présentant sous la forme d’une carte, actualisée en permanence, PredPol existe aussi en version « mobile », pour smartphone ou tablette, et permet aux policiers de mieux prévenir activement la criminalité en concentrant leurs actions sur les zones à risques.
PredPol est dérivé des programmes de prévention des séismes. Il analyse, grâce à des algorithmes spécifiques, une multitude d’informations contenues dans une gigantesque base de données qui recense toutes les infractions passées dans une aire précise (quartier, ville ou région). À présent, de nombreuses grandes villes américaines, comme New York ou Los Angeles, utilisent avec beaucoup de satisfaction PredPol.
En Europe, des chercheurs ont mis au point après cinq ans de travaux, dans le cadre d’un programme européen de recherche, l’outil Indect qui vise à mieux lutter contre les activités criminelles ou terroristes grâce à la détection automatique intelligente d’événements et de situations « à risque ». Ce système permet, notamment, d’effectuer, avec des taux de réussite pouvant dépasser les 90 %, le traçage et le suivi de personnes et d’objets, ainsi que leur identification. Couplé aux caméras de vidéosurveillance, Indect peut aussi repérer des comportements anormaux dans une foule, ce qui peut évidemment s’avérer extrêmement précieux dans le nouveau contexte actuel de lutte mondiale contre le terrorisme.
En France, la gendarmerie expérimente depuis quelques mois un nouveau logiciel prédictif pour anticiper les grandes tendances de la délinquance sur le territoire. L’idée est d’analyser certaines catégories de délits fréquents – les cambriolages, les vols, les trafics de stupéfiants ou encore les agressions sexuelles – s’étant produits au cours des cinq dernières années, pour en extraire les points de comparaison et les singularités et essayer de prévoir où et quand ces types de crimes et délits risquent de se reproduire dans un proche avenir.
Outre-Atlantique, la ville de New York utilise depuis juillet 2013 un nouvel outil logiciel destiné à mieux prévenir les 3 000 incendies majeurs qui se déclenchent chaque année dans cette mégapole. Cet outil prédictif explore et recoupe 60 critères, puis attribue une note de risque à chacun des 330 000 immeubles répertoriés dans sa base de données. Chaque semaine, ce logiciel peut ainsi fournir aux pompiers de la ville la liste des bâtiments à aller inspecter car pouvant être le foyer du prochain incendie (Voir The Wall Street Journal).
Les outils d’analyse prédictive ont également récemment fait leur apparition dans le secteur de l’industrie aéronautique. Depuis quelques mois, l’ensemble des 1,6 giga-octets de données provenant de 24 000 capteurs embarqués et correspondant à chaque vol d’un Airbus A380, sont récupérées par Wi-Fi puis transmises au centre d’ingénierie et de maintenance d’Air France KLM à Toulouse. Ces données sont alors comparées et recoupées, grâce à un moteur d’analyse prédictive, avec des données d’exploitation de toute la flotte des A380 pendant les deux dernières années. Ce nouvel outil a fait la preuve de son efficacité pour prévoir et détecter les pannes sur la pompe de circulation, le composant le plus fragile du circuit qui amène le carburant aux moteurs. A partir de janvier 2016, le système sera étendu à d’autres équipements fragiles des A380 puis à d’autres avions de la compagnie comme les Boeing 777.
Ce système est si fiable et si précis que les techniciens peuvent à présent intervenir rapidement et directement sur la pièce responsable de la panne, sans suivre le manuel technique de l’avion. Le temps d’identification et de localisation de l’origine de la panne passe ainsi de 6 heures à seulement 5 minutes, ce qui permet un gain de temps et d’argent très important pour la compagnie.
À Lyon, la start-up ForCity, fondée en janvier 2014, a développé une plate-forme du même nom qui permet de modéliser une ville miroir numérique. Cette ville miroir est ensuite rendue dynamique par des modèles mathématiques simulant l’évolution du territoire au cours du temps. Cet outil de simulation numérique permet alors aux collectivités et aux entreprises de simuler une multitude de scénarios correspondants à des évolutions de territoire, en faisant varier de nombreux paramètres  (population, transports, énergie, attractivité d’un quartier, etc). Parmi les clients de ForCity, on trouve par exemple Veolia Asia pour qui cette société a développé une maquette numérique de Hong Kong, afin d’étudier les interactions entre le territoire et les métiers de Veolia : valorisation des déchets, cycle de l’eau, distribution de froid dans les bâtiments.
La gestion et la comptabilité des entreprises n’échappent pas non plus à cette révolution des données massives : Cegedim SRH a ainsi développé une solution de pilotage pour gérer la masse salariale et formuler des hypothèses de manière prédictive. Cet outil est entièrement dédié au pilotage de la masse salariale. Il permet aux entreprises d’anticiper les départs à la retraite, d’évaluer les futurs besoins en compétences, ou encore de bâtir un plan prévisionnel de gestion des ressources humaines en tenant compte de l’évolution de la pyramide des âges dans l’entreprise…
Là encore, ce logiciel exploitant le Big Data a permis d’effectuer un saut décisif entre la simulation et la prédiction. Grâce à ce système, lorsqu’une entreprise octroie une augmentation ou une prime à ses collaborateurs, elle peut désormais avoir une vue d’ensemble, sur le long terme, des impacts que sa politique salariale  va avoir sur les charges sociales et patronales, sur les mutations, sur les processus de mobilité interne.
Mais cette analyse d’une masse gigantesque de données peut également permettre aux recruteurs publics ou privés de mieux cerner le profil et les aptitudes d’un candidat pour un poste donné. Il existe déjà des tests, comme le questionnaire de personnalité PAPI, qui consiste à vous faire répondre à une longue série de questions, qui croisées, créent une sorte d’organigramme reflétant votre comportement en entreprise. Mais en combinant les potentialités des données massives et de l’apprentissage automatique, on peut aller encore plus loin. Ainsi, le service Watson Developer Cloud BlueMix d’IBM permet d’analyser votre personnalité, et d’en dresser là aussi une carte.
En outre, les algorithmes peuvent même permettre de prédire le départ d’un salarié. Le Crédit Suisse utilise ainsi ses données pour évaluer les risques qu’un employé quitte l’entreprise, en fonction de ses performances, de son lieu de vie, de ses traits de personnalité, ou encore de ses interactions sociales. L’objectif est bien sûr de repérer les collaborateurs les plus précieux qui risquent de partir, afin de les garder au moyen de primes et d’augmentations de salaires… (Voir The Wall Street Journal).
Les outils prédictifs intelligents sont également en train de révolutionner le secteur de la vente et de l’immobilier. Aux États-Unis, Smartzip propose par exemple à un agent immobilier de scanner une zone, à partir du code postal, ce qui correspond aux Etats-Unis à un quartier. Ce logiciel permet d’analyser l’ensemble des données associées à toutes les adresses répertoriées et le professionnel peut ainsi savoir très rapidement si tel ou tel résident est propriétaire, depuis quand et quel est le montant et la durée de son crédit immobilier. Au final, cet outil permet d’identifier les biens immobiliers qui ont le plus de chances d’être vendus dans l’année qui suit. Signalons au passage qu’en France, l’utilisation de ce type d’outils prédictifs extrêmement puissants n’est pas encore possible car il se heurte à un cadre législatif et réglementaire européen et national plus strict qu’aux États-Unis et qui restreint de manière beaucoup plus drastique l’utilisation à des fins commerciales des données personnelles sans le consentement exprès des consommateurs…
Il faut encore évoquer l’outil prédictif très futuriste mis au point par une jeune chercheuse israélienne, Kira Radinsky, qui a été classée parmi les 35 jeunes les plus innovants au monde, par le magazine MIT Tech Review. L’algorithme imaginé par cette brillante scientifique repose sur un vaste ensemble de faits de toute nature (épidémies, guerres, catastrophes, crises économiques) qui se sont déroulés dans le passé. Selon Kira Radinsky, même si, chaque événement survient dans des circonstances particulières, il obéit tout de même à un modèle déjà observé dans le passé et qui obéit à certaines lois subtiles et utilisables. Ce logiciel de recoupement de données (Link Data), croise des milliards d’informations afin d’en extraire les corrélations et points communs. Il est alors possible, en recourant à des modèles mathématiques de prévisions, de calculer les probabilités d’occurrence de faits semblables. Cet outil serait capable, selon sa conceptrice, de prévoir 90 % des risques épidémiques, une performance hors d’atteinte pour le cerveau humain.
L’exploitation intelligente des données massives est donc devenue très rapidement l’un des nouveaux moteurs de mutation numérique en cours dans nos économies développées. Il suffit d’ailleurs pour s’en convaincre d’observer la progression de ce marché au niveau mondial. Selon une récente étude du cabinet IDC, celui-ci passera globalement de 3,2 milliards de dollars en 2010 à 48 milliards en 2019 ! On le voit, cette révolution des données massives n’en est encore qu’à ses prémices : selon une étude réalisée par Pure Storage, trois entreprises sur quatre déclarent collecter des informations qui ne sont pas exploitées, soit par manque de moyens humains et techniques soit par manque de temps.
Soulignons enfin que les enjeux liés à la généralisation de ces nouveaux outils de prédiction intelligente ne sont pas seulement scientifiques et économiques mais également sociaux et humains. Face à un chômage de masse persistant, l’utilisation intelligente des données massives pourrait en effet permettre une mise en relation beaucoup plus fluide et efficace de l’offre et de la demande de compétences sur le marché du travail. Il faut en effet savoir qu’en France, on estime (selon les données de Pôle Emploi et du Medef) à 570 000 par an le nombre de postes qui ne peuvent être pourvus qu’avec de grandes difficultés et à 400 000 chaque année celui des emplois qui ne trouvent pas preneurs, faute de candidats possédant les compétences requises…
L’utilisation généralisée de ces nouveaux outils extrêmement puissants dans les domaines du travail et de la formation professionnelle devrait donc permettre d’exploiter bien plus efficacement de vastes gisements d’emplois, aujourd’hui inaccessibles mais également d’adapter et d’anticiper de manière active l’évolution des filières de formation professionnelle, ce qui permettrait à chacun de trouver sa place dans notre société, et à notre Pays de tirer pleinement profit les mutations techno économiques en cours au lieu de les subir.
Reste que l’utilisation de plus en plus pertinente et pointue d’une quantité toujours plus grande de données concernant nos activités et nos vies soulèvent de réelles interrogations éthiques et politiques. Comment en effet s’assurer que l’utilisation à des fins scientifiques mais également commerciales, sociales ou politiques de toutes ces données, se fait bien avec le consentement « libre et éclairé », selon la formule juridique consacrée, de tous les acteurs ? Jusqu’où sommes-nous prêts à limiter la protection de nos données personnelles pour vivre dans une société plus efficace, plus performante et plus confortable ? Ces questions essentielles, qui ne peuvent avoir de réponses simples, seront, soyons-en assurés, au cœur du débat démocratique de ces prochaines années.
 

Source.: publié sur RTflash, cet article est reproduit aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.

lundi 8 février 2016

Notre Monde est vide et vaste, c'est juste 5% de la matière

En cosmologie, l'énergie sombre ou énergie noire (dark energy en anglais) est une forme d'énergie hypothétique emplissant uniformément tout l'Univers et dotée d'une pression négative, qui la fait se comporter comme une force gravitationnelle répulsive. L'existence de l'énergie sombre est nécessaire pour expliquer diverses observations astrophysiques, notamment l'accélération de l'expansion de l'Univers détectée au tournant du XXIe siècle.
Malgré une densité très faible (de l'ordre de 10-29 g/cm3), l'énergie sombre est une composante majeure de l'Univers, représentant environ 68 % de la densité d'énergie totale de l'Univers. Sa nature reste aujourd'hui encore inconnue. Il peut s'agir simplement de la constante cosmologique induite par la relativité générale qui aurait une valeur non nulle. Il existe d'autres hypothèses, menant soit à une modélisation différente de la matière (quintessence, k-essence, modèles unifiés de matière et d'énergie sombre), soit à une modélisation différente de la gravitation (gravité f(R), champs scalaires, cosmologie branaire). Le choix entre ces différentes hypothèses dépend essentiellement des contraintes apportées par l'observation, notamment des supernovae de type Ia, de fond diffus cosmologique ou des oscillations acoustiques des baryons.
L'énergie sombre ne doit pas être confondue avec la matière sombre qui, contrairement à l'énergie sombre, ne remplit pas uniformément l'Univers et qui interagit normalement (forces attractives) avec la gravitation.



Tandis que la matière noire ou matière sombre (traduction de l'anglais dark matter), parfois aussi nommée de façon plus réaliste matière transparente1,2, désigne une catégorie de matière hypothétique, invoquée pour rendre compte d'observations astrophysiques, notamment les estimations de masse des galaxies et des amas de galaxies et les propriétés des fluctuations du fond diffus cosmologique.
Différentes hypothèses sont explorées sur la composition de la matière noire : gaz moléculaire, étoiles mortes, naines brunes en grand nombre, trous noirsetc. Cependant, les estimations de la densité de l'Univers et du nombre d'atomes impliquent une nature non baryonique. Des astrophysiciens supposent d'autres particules, peut-être des superpartenaires tels que le neutralino, regroupées sous le nom générique de « WIMP ».
La matière noire aurait pourtant une abondance au moins cinq fois plus importante que la matière baryonique, pour constituer environ 27 %3 de la densité d'énergie totale de l'Univers observable4, selon les modèles de formation et d'évolution des galaxies, ainsi que les modèles cosmologiques.

 Donc notre monde de la matière ici serait d'environ 4.9% .(représentation avec un arbre)La matière noire creuse l'espace-temps dans lequel coule la matière normale et vient nourrire les galaxies.C'est cette énergie noire qui provoquerait l'expention de l'univers.



Sur le plan expérimental ou observationnel, quelles sont les perspectives pour aller au-delà de la relativité générale ?
La détection d'ondes gravitationnelles par les détecteurs Advanced ligo et Advanced Virgo nous offrira des moyens inédits pour tester les processus physiques qui opèrent tout près de l'horizon des trous noirs. Stephen Hawking nous a appris que des phénomènes quantiques y jouent un rôle : c'est le fameux rayonnement de Hawking, qu'il sera difficile d'identifier, mais des surprises restent possibles. Pour obtenir des mesures de précision, il faudra probablement attendre l'observatoire spatial lisa vers 2030. La mission technique lisa Pathfinder qui le prépare a été lancée en décembre 2015 et vient de publier des premiers résultats spectaculaires. Cela est de bon augure pour la future mission. lisa devrait permettre d'étudier avec précision l'horizon de deux trous noirs superlatifs en coalescence, et de tester ainsi avec une précision inégalée la théorie de la gravitation.

Source.:



jeudi 4 février 2016

La molécule de l'esprit: Le DMT (dimethyltryptamine)




The Spirit Molecule(la molécule de l'esprit) une enquête sur le dimethyltryptamine (DMT), un composé psychoactif endogène, qui existe chez l'homme et de nombreuses espèces de plantes et d'animaux. Le documentaire  sanctionnée par le gouvernement,retrace chez l' humaine le DMT .Plusieurs recherche et de nombreuses essais, les tribulations du Dr Rick Strassman et ses réalisations inconcevables. Un examen plus approfondi des effets du DMT à travers le prisme de deux concepts traditionnellement opposés, la science et la spiritualité, la molécule de l'Esprit explore les liens entre la neurosciences, la physique quantique, et la spiritualité humaine. La recherche de Strassman, et les expériences des sujets humains avant, pendant, et après les essais cliniques intenses, soulève de nombreuses questions intéressantes. Une variété d'experts exprime leurs pensées et des expériences uniques avec le DMT dans leurs domaines respectifs. Comme l'histoire de Strassman se déroule, les contributeurs peser sur ses théories remarquables, y compris la synthèse du DMT dans la glande pinéale de notre cerveau, et son lien avec les expériences de mort imminente.
La diméthyltryptamine (N, N-diméthyltryptamine) ou DMT est une substance psychotrope puissante (souvent synthétique mais aussi présente de façon naturelle dans plusieurs plantes dont les psychotria ou Anadenanthera). Elle est considérée comme un stupéfiant dans certains pays. Se présentant pure sous forme cristalline et généralement fumée, elle procure un effet hallucinogène quasi-immédiat et de courte durée ainsi qu'une expérience de mort imminente dans certains cas (en sens inverse, certaines études lient cette expérience de mort imminente à une possible production de diméthyltryptamine par la glande pinéale).
Certaines recherches tendent à montrer que la DMT est produite naturellement en très petites quantités par la glande pinéale, connue également sous le nom d'épiphyse. Habituellement, cette glande produit de la mélatonine, molécule de l'horloge biologique, mais avec un fort stress hormonal, elle stoppe cette synthèse pour produire de la DMT endocrine.


Certains écrivains ont relaté leurs expériences supposées avec la diméthyltryptamine, en particulier Terence McKenna et Jeremy Narby. Le premier auteur décrit la rencontre avec des « elfes mécaniques en mutation » (« self-transforming machine elves ») ; d'autres font état de communication avec des intelligences non humaines.
D'un point de vue plus scientifique, le docteur Rick Strassman (en), psychiatre et pharmacologue américain, a écrit La molécule de l'esprit (The Spirit Molecule).
Bernard Werber, dans son livre L'Ultime Secret, émet l'hypothèse qu'à l'instant précis de la mort, la glande pinéale décharge une plus grande dose de diméthyltryptamine dans le cerveau, rendant le passage de vie à trépas moins pénible. Cette hypothèse expliquerait cette sensation de mort imminente relatée par certains utilisateurs de la DMT.
Dans le film Enter the Void de Gaspar Noé, une très longue séquence tente de reproduire les effets de la DMT sur la conscience. Par ailleurs, Gaspar Noé aurait déjà fumé de la DMT6.
Hunter S. Thompson y fait référence dans Las Vegas Parano, où il déclare être nostalgique de l'époque où la DMT courait les rues de San Francisco.
Sense8, une série TV d'Andy Wachowski, y fait également référence dans son premier épisode.





Le docteur Rick J. Strassman, professeur en psychiatrie à l’école de médecine de l’Université du Nouveau-Mexique, et un des psychiatres américains parmi les plus éminents, a mené la plus grande recherche psychédélique jamais réalisée en expérimentant sur des dizaines de volontaires la mystérieuse "molécule de l'esprit", nommée DMT, ou diméthyltryptamine.
Avec sincérité et une rigueur scientifique exceptionnelle, le docteur Strassman relate de très nombreux récits dont l'intensité, la profondeur et l'étrangeté sont réellement saisissantes, d'autant plus que beaucoup d'entre eux se réfèrent au Bardo, l'état intermédiaire qui va de la mort à la prochaine naissance.
Selon l'article du site en lien ci-dessous : Dès le début de sa carrière, Rick J. Strassman s’était fixé comme but de pratiquer des recherches légales aux États-Unis sur les substances psychédéliques, selon un protocole rigoureux. Dans le cadre de l’Université du Nouveau-Mexique, il s’est interrogé sur le rôle éventuel de la glande pinéale dans les états de conscience extraordinaires.
Les hypothèses avancées qu'il présente en irriteront plus d'un, mais personne ne restera insensible aux incroyables ouvertures qui se dégagent de ces recherches sur le cerveau humain et ses potentialités insoupçonnées. La DMT est-elle cette molécule de l'esprit en connexion avec la fameuse glande pinéale, considérée par les Hindous comme le lieu du septième Chakra et par Descartes comme le siège de l'esprit ? Une remarquable étude aux frontières de la connaissance.
Le Dr. Strassman a poursuivi ses travaux cliniques en cherchant à déterminer la fonction de la mélatonine, l’hormone secrétée par la glande pinéale connue également sous le nom épiphyse. Le groupe de recherches qu’il a animé a réalisé la première étude permettant de connaître le rôle principal de la mélatonine chez l’homme.
Il s’intéressa ensuite à la DMT, l’agent actif de l’Ayahuasca, et il entreprit en 1990 la seule expérimentation approuvée et financée par le gouvernement américain sur les psychédéliques pendant ces vingt dernières années.


L’ayahuasca ou yagé est un breuvage à base de lianes consommé traditionnellement par les chamanes des tribus indiennes d'Amazonie, utilisé pour sa capacité curative associée aux croyances et pratiques locales.
Par extension, ayahuasca est le nom donné aux lianes du genre Banisteriopsis dont l'écorce sert principalement à la composition de cette boisson.


Il a du batailler pendant deux ans avant de recevoir le feu vert de la FDA pour évaluer les effets physiologiques de la DMT, et mettre au point le questionnaire d’évaluation "Hallucinogen Rating Scale", servant à mesurer les effets psychologiques de la DMT et autres substances enthéogènes. Ces recherches sur les psychédéliques étaient approuvées et financées par le National Institute on Drug Abuse.
Le chercheur explique : "En occident, les études sur la conscience se sont multipliées. Un volet particulier de cette recherche étudie les effets des agents psychoactifs sur la conscience. Dans le cadre de la Fondation Cottonwood, nous poursuivons l’exploration des mystères les plus étranges de l’esprit humain. Nous utilisons les composants psychoactifs des plantes pour étudier les divers champs de conscience manifestés chez l’homme, leur processus, et découvrir leurs bases biochimiques et physiologiques.
Nous nous intéressons également aux implications médicales, sociales, et spirituelles de ces différents états, afin de savoir comment les appliquer au mieux pour soigner, développer la créativité et acquérir une certaine sagesse.
Pendant de nombreux siècles, des cultures indigènes ont utilisé des plantes médicinales pour induire avec méthode des états de conscience amplifiés et de type mystique. La science occidentale commence à peine à s’intéresser aux immenses ressources du savoir traditionnel concernant ces plantes et leurs effets. Nous poursuivrons nos buts en confrontant diverses perspectives, scientifique, anthropologique, et spirituelle.
Notre vice-président, le Dr. Steven Barker de l’Université de Louisiane, met au point un nouveau protocole ultra-sensible pour mesurer les émissions naturelles de la DMT et d’agents similaires dans le corps humain. Ceci devrait nous permettre de comparer les quantités habituelles avec celles qu’on relève lors des états de conscience amplifiés."
Le docteur Strassman sait que ses recherches ne feront pas l’unanimité. D’autres chercheurs ne manqueront pas de réfuter l’idée que la DMT peut permettre à nos cerveaux de percevoir la matière sombre ou des Univers parallèles, tels des plans d’existence habités par des entités conscientes...
(ecologie-interieure.com/)
Certaines recherches tendent à montrer que la DMT est une substance psychotrope puissante, mais aussi produite naturellement en très petites quantités par la glande pinéale.
Son usage pour ses propriétés psychotropes remonte à l'antiquité. La DMT est présente à l'état naturel dans de nombreuses plantes dont les Psychotria ou Anadenanthera, et dont certaines entrent dans la composition de préparations hallucinogènes artisanales comme le breuvage Ayahuasca ou la poudre à priser Yopo qui sont utilisés lors de cérémonies rituelles chamaniques.
Tout au long de l'histoire de l'humanité, la plupart des civilisations humaines ont utilisé des substances psychotropes dans des buts spirituels, divinatoires, médicinaux ou encore récréatifs.




Source.:

samedi 12 décembre 2015

Que veut dire la reconnaissance des réfugiés climatiques , selon le COP21 ?



La reconnaissance des réfugiés climatiques(selon le COP21, grande conférence de l'ONU sur le climat)

C'est une nouveauté : la mention dans l'accord des "déplacements de population liés aux effets néfastes des changements climatiques". Non seulement ces "migrants" figurent en préambule, mais la question fait également l'objet d'un article spécifique dans le corps du texte, qui prévoit la création d'une "équipe spéciale" onusienne  ("task force", sorte de "groupe de travail" amélioré) pour faire face aux déplacements de population. Si la charge symbolique est importante, le chercheur en sciences politiques François Gemenne (spécialiste des migrations environnementales) reconnaît que le concept est très flou : "Pour l'instant, c'est difficile de savoir ce que c'est. En fait, ce sera ce qu'on voudra en faire ! Il s'agit d'un signal envoyé à la communauté internationale dont il va falloir qu'elle s'empare."


* Surement a cause des personnes en danger de mourir des effets  néfastes des changements climatiques !

Conséquences humaines du réchauffement climatique:

Face au réchauffement climatique, l'Académie des Sciences américaine note, dans un rapport de 2002223 : « il est important de ne pas adopter d'attitude fataliste en face des menaces posées par le changement de climat. (…) Les sociétés ont dû faire face à des changements du climat graduels ou abrupts durant des millénaires et ont su s'adapter grâce à des réactions diverses, telles que s'abriter, développer l'irrigation ou migrer vers des régions plus hospitalières. Néanmoins, parce que le changement du climat est destiné à continuer dans les prochaines décennies, dénier la possibilité d'événements climatiques abrupts ou minimiser leur impact dans le passé pourrait s'avérer coûteux. ».

Impact sur les régions côtières:

La montée du niveau de la mer est évaluée entre 18 et 59 cm d'ici 2100 par le quatrième rapport du GIECa 7.
Les populations de certaines îles de l'océan Pacifique ou de l'océan Indien, telles que les îles Maldives ou Tuvalu, sont directement menacées, car une partie de leur territoire pourrait se retrouver submergée. Mais l'ensemble des populations vivant dans des régions côtières (soit plus de cinq cent millions de personnes) risquent de voir leur environnement dégradé (érosion du littoral, salinité des aquifères, disparition des zones humides, inondations permanentes)127.
Localement, cette montée s'ajoute à des phénomènes qui ne sont pas liés au climat et qui entraînent un enfoncement du sol : charge des sédiments dans les deltas des fleuves, pompage des eaux souterraines, extraction de gaz et de pétrole, affaissements miniers ...
En France, des études sont menées pour évaluer l'impact de la montée des eaux sur le littoral d'ici 2100 et les aménagements à envisager224.

Source.:

mercredi 18 novembre 2015

Comment reconnaître un false flag




Les opérations sous faux drapeau (false flag) sont des opérations secrètes menées par des gouvernements, des corporations ou d’autres organisations, qui sont conçues pour paraître avoir été commises par d’autres entités. Le nom est dérivé du concept militaire de montrer de fausses couleurs; c’est-à-dire de porter le drapeau d’un autre pays que le sien. Les opérations sous faux drapeau ne se limitent pas à la guerre et aux opérations de contre-insurrection, et ont été employées en temps de paix; par exemple, durant la stratégie italienne de la tension.










Source.:







lundi 16 novembre 2015

La fin de la souveraineté et de l’indépendance nationale Américaine,et le monopole des banques internationales, par le CFR !

Council on Foreign Relations (CFR):


Introduction du CFR, le Conseil des Relations Etrangères:

Logo du CFR
Le Council on Foreign Relations CFR a été fondé en 1921 par Edward Mandell House. Edward House a créé le CFR dans le but de détruire les libertés et l’indépendance des Etats-Unis, afin de conduire son pays et ses alliés dans un seul gouvernement mondial.
Depuis le début de sa création, le CFR a attiré des hommes d’influence et de pouvoir. A la fin des années 20, les financements importants étaient fournis par la Fondation Rockefeller en grande majorité et la Fondation Carnégie.
Le bureau du CFR est basé à  New York à  l’adresse 58 East 68th Street (corner Park Avenue), New York City et a aussi un bureau à  Washington DC. L’organisation est considérée être l’agent de relations étrangères le plus puissant aux USA en dehors du Département d’Etat.
Le CFR aussi produit Foreign Affairs qui est un magazine bimestriel mondialement connu et diffusé à  environ 100 000 exemplaires en 2004. Le magazine parle essentiellement de relations internationales et de terrorisme et comment pourrait évoluer l’économie mondiale dans les années futures.

Quelques mots sur Edward Mandell House

Edward Mandell House et Conseil des Affaires Etrangères
House fonda le CFR et il fut à  l’époque Chief Advisor du président Wilson Woodrow (1913 – 1921). Il était plus qu’une aide proéminente du président, il était référé en tant que l’alter égo de Woodrow: Il dominait Woodrow, et était reconnu comme l’homme le plus puissant des USA durant l’administration Wilson de 1913 à  1921.
100 000 dollars Woodrow
Edward Mandell House était un Marxiste qui voulait socialiser les USA. En 1912 House écrit le livre « Philip Dru: Administrateur », dans lequel il mentionna qu’il travaillait pour « un socialisme rêvé par Karl Marx ». House écrit aussi qu’il est à  la conquête des Etats-Unis et comment il va y parvenir, expliquant comment les partis démocrate et républicain pourraient être manipulés et utilisés comme instruments dans la création d’un gouvernement socialiste. Il a aussi demandé l’établissement de la Réserve Fédérale, qui étaient toutes les deux proposées dans le Manifeste du Parti communiste. C’était seulement en 1913, durant les premières années de l’administration Wilson gouvernée par House, que ces 2 propositions sont devenues des lois. L’acte de la Réserve Fédérale passe, ce qui amena au pouvoir une banque centrale privée pour fournir la monnaie des Etats-Unis, qui auparavant était sous le pouvoir du Congrès des Etats-Unis. Le 16ème amendement de la constitution des USA, afin de favoriser la montée graduelle des taxes proposées par Karl Marx, a aussi été ratifié.

Les Intentions du CFR

Comme expliquer précédemment, la raison même de l’existence du CFR est d’établir un nouvel ordre mondial.
Carroll Quigley, le mentor de Bill Clinton, professeur d’histoire à  l’université de Georgetown, membre du CFR, mentionne dans son livre « Tragedy & Hope »:
« Le CFR est une branche américaine d’une société qui a ses origines en Angleterre et qui croit que les barrières nationales devraient être effacées et qu’un seul gouvernement mondial devrait être établi. »
L’amiral Chester Ward, membre du CFR pendant 16 ans, avertit la population américaine sur les intentions de cette organisation:
 » Ces groupes d’élitistes comme le CFR ont un seul but commun – ils veulent amener la fin de la souveraineté et de l’indépendance nationale Américaine. Ils veulent aussi le monopole des banques internationales.  »
Dan Smoot, membre du FBI à  Washington DC, a résumé ce qu’est le CFR:
 » Le but ultime du CFR est de créer un seul gouvernement mondiale basé sur un système socialiste, dans lequel les USA feront partis.  »
En bref, c’est pas joli joli ce qui se passe dans cette organisation depuis le début de sa création… Mais c’est clair, net et précis que cette organisation du CFR est traitre envers les Américains et la civilisation Occidentale en général.

Le CFR et la Commission Trilatérale

Malheureusement le CFR n’est pas la seule organisation qui propose la fin de la souveraineté Américaine et Européenne. En 1973 une autre organisation nommée la Commission Trilatérale a été fondée (par David Rockefeller, mais c’est pas une surprise…) pour le même but: créer un seul gouvernement socialiste mondial.
Les racines de la Commission Trilatérale proviennent du livre  » Entre 2 Ages (Between 2 Ages, version officielle) « , écrit par Zbigniew Brzezinski en 1970. Dans ce livre, Brzezinski fait l’éloge du Marxisme, et pense que les Etats Unis d’Amérique est obsolète et honore la formation d’un seul gouvernement mondial.
Zbigniew Brzezinski
Ces pensées sont parallèlement identiques à  celles du fondateur du CFR Edward Mandell house.

Entre 2 Ages – Brzezinski & le Marxisme

– Sur la page 72 du livre:  » Le Marxisme est simultanément une victoire de l’externe, de l’homme actif au delà  de l’intérieur, de l’homme passif et une victoire de la raison sur la croyance  »
– Sur la page 83 du livre:  » Le Marxisme s’est propagé au niveau populaire sous la forme de communisme, représentait une avance majeure dans l’habileté de l’homme à  conceptualiser le monde dans lequel il vit  »
– Sur la page 123 du livre:  » Le Marxisme fournissait les meilleurs aperçus disponibles dans la réalité contemporaine  »
Mao et le Communisme
Peut-être que Monsieur Brzezinski oublie de mentionner dans son livre que le communisme a tué des millions de personnes et emprisonné des milliards d’autres seulement dans le 20ème siècle. Sans oublier de mentionner la guerre froide, la guerre du Vietnam, la Corée du Nord…
Le livre de Zbigniew Brzezinski Entre 2 Ages a été publié en 1970. David Rockefeller lit le livre, et en 1973 la Commission Trilatérale est crée, avec le but de faire le lien entre l’Amérique du Nord, l’Europe et le Japon, qui à  l’époque se défendaient, vivaient et travaillaient contre le Communisme.
David Rockefeller a fait Brzezinski directeur de la Commission Trilatérale.

Jimmy Carter Monsieur Coton

Jimmy Carter la cacahuète
Vous pouvez lire l’article sur Jimmy Carter le 9 Juin 2007 pour comprendre ce qui se passe un peu avec la Commission Trilatérale et le CFR et aussi le Groupe Bilderberg

Les Influences du CFR sur les USA et le Monde

En 1944 et 1948, le candidat du parti Républicain, Thomas Dewey, était un membre du CFR. Quelques années plus tard, le républicain Eisenhower et Nixon étaient membres du CFR, tout comme les Démocrates Stevenson, Kennedy, Humphrey et MacGovern. Mais nous pensons que Kennedy est devenu déloyal aux yeux du CFR, ce qui a provoqué à  son assassinat. Le peuple Américain pense qu’il a le choix sur le vote de leur président, mais la vérité est, à  quelques petites exceptions près, que depuis des années, tous les candidats présidentiels étaient membres du CFR.
Dans un des rapports annuels du CFR, publié en 1978, est montré une liste de 1878 membres. A cette période, 11 de ces membres étaient Sénateurs des Etats-Unis, avec encore plus de congressmen appartenant à  cette organisation. 284 de ces membres, inscrits dans le rapport, étaient des fonctionnaires travaillant pour le gouvernement des Etats-Unis.
Pyramide OR
Et le Directeur de cette pyramide de pouvoir, ne pouvait être que David Rockefeller lui-même.

Le Contrôle du CFR

Le CFR n’a pas seulement que des membres dans le Gouvernement Américain, mais s’est aussi étendu dans les secteurs vitaux de la vie Américaine.
Les médias et journaux comme NBC, CBS, le New York Times, le Washington Post, le Des Moines Register et beaucoup d’autres journaux, appartiennent ou appartenaient à  des membres du CFR.
Les leaders du Times, Newsweek, Fortune, Business Week et plein d’autres publications appartienent aux membres du CFR.
Aussi ils contrôlent l’armée, les taxes, les institutions académiques et plein d’autres domaines qui font partis de la vie de tous les jours.

Autres Controverses du CFR

Listes des membres du CFR

Intéressez de savoir plus sur la situation du CFR et qui sont/étaient les membres, regardez cette liste. Voici aussi une liste des membres du CFR en 2001.

Grosses Controverses du CFR de la TC

Logo du CFR
Un des plusieurs logos du CFR en relation avec le signe cornu
Provenant de l’article de wikipédia sur le CFR
Les intérêts défendus par le CFR seraient ceux des principales multinationales. La famille Rockefeller y a par exemple joué un grand rôle. De ce fait, certains considèrent que le pouvoir de cet organe est, d’une part, trop important, et de l’autre, qu’il n’obéit qu’à  une minorité de personnages très riches.
Un courant culturel américain de type conspirationniste a élaboré une véritable mythologie autour du CFR, en avançant que ce dernier est contrôlé par un groupe de personnes issues des sociétés secrètes d’étudiants des universités de Harvard et de Yale : le Skull and Bones et le Scroll and Key. Ces personnes, après leur prétendue intégration dans un groupe d’élite appelé «JASON Society», seraient élues par leurs pairs pour constituer le comité exécutif du CFR.
D’après ces mêmes théories du complot, le CFR contrôle aujourd’hui l’administration américaine au terme d’une infiltration progressive de toute la branche exécutive du gouvernement : le département d’État, le département de la justice, la CIA, et les militaires les plus hauts gradés. Jusqu’à  présent, tous les directeurs de la CIA auraient été membres du CFR, de même que la plupart des présidents depuis Franklin Roosevelt. Toujours selon les théoriciens de la conspiration, le CFR contrôlerait également la grande presse, car la plupart des grands journalistes américains en seraient membres.

Source.: