Rechercher sur ce blogue

samedi 2 avril 2016

La prison : Réhabilitation ou emprisonnement ?

Décès de Sonia Blanchette: le coroner dépose son rapport d'enquête:


La coroner Denyse Langelier vient de rendre public le résultat de son enquête sur le décès de Sonia Blanchette survenu le 16 janvier 2015. La femme était accusée d'avoir tué ses enfants Anaïs, Loîc et Lorelie dans son appartement de Drummondville en décembre 2012.
Selon la coroner, Sonia Blanchette, qui avait 35 ans au moment de son décès, a commis un suicide en jeûnant volontairement sur une période prolongée. Elle a ainsi voulu éviter les longues années de détention auxquelles elle aurait pu être condamnée au terme d'un procès qui n'a jamais eu lieu, estime la coroner.(quand l'espoir disparaît,l'humain aussi se retrouve au même niveau qu'un animal)


Elle a expliqué son choix à ses proches et a aussi écrit une lettre, le 26 novembre 2014, dans laquelle elle demande qu'on respecte son droit à mourir et que sa décision de mettre fin à ses jours est irrévocable. Sonia Blanchette ne veut pas qu'on utilise de technique médicale pour l'alimenter et prolonger ses jours. Elle obtient même des avis juridiques sur son droit à mourir.(quand la chaise électrique se retrouve a coté du suicide assisté,on devient incroyant a la parole de Dieu)

Séquence des événements
Sonia Blanchette était incarcérée à l'établissement de détention Maison Tanguay depuis le 4 janvier 2013, et ce, jusqu'au moment de sa mort. Entre-temps, elle a fait plusieurs séjours à l'Institut Pinel, où elle a vu un psychiatre. Ce dernier pose un diagnostic de trouble d'adaptation avec humeur anxieuse et dépressive avec des traits de personnalité passive agressive et obsessionnelle. Aucune dépression majeure ni trouble psychotique n'est diagnostiqué.
C'est à compter du 16 septembre 2014 que l'accusée a cessé de s'alimenter et de s'hydrater et a refusé les soins médicaux. Le 4 décembre, on la transfère à l'Hôpital Sacré-Coeur, car son état de santé s'est dégradé. Un médecin spécialisé en soins palliatifs l'examine et juge que son état ne requiert pas ce type de soins. Sonia Blanchette retourne donc au centre de détention. ( On aurait même pas fait ça a Guantanamo ?)
Son état a continué de se dégrader, si bien qu'on la retourne à l'Hôpital Sacré-Coeur le 19 décembre, où l'équipe de soins palliatifs la prend en charge et lui offre des soins de confort. Son décès est constaté le 16 janvier 2015 à 1 h 35. Des proches étaient présents à ce moment.


Source.:

mardi 1 mars 2016

La Réalité pour les aspirants Policiers c'est :

La désillusion,du monde réel de notre société dysfonctionnelle.





Des étudiants de l'école nationale de police du québec assistent à la projection de police académie




C'est ce que près de 300 aspirants policiers ont pu voir dans le documentaire Police Académie de la réalisatrice Mélissa Beaudet, à l'École nationale de police du Québec (ENPQ), à Nicolet. Aux étudiants de l'institution se sont greffés quelques curieux du Cégep de Trois-Rivières et du Collège Ellis de Drummondville qui étudient présentement en techniques policières.



Quel type de formation reçoivent les policiers? Comment sont-ils formés pour répondre aux appels de détresse et de violence? Comment font-ils pour gérer leur stress? Ce sont les questions auxquelles Mélissa Beaudet tente de répondre.

Selon une étude menée pendant 7 ans, sur 734 policiers ,l'éthique professionnelle des diplômés de l'école nationale de police du Québec,se détériore considérablement une fois qu'ils sont embauchés.
La principale cause serait la Désillusion !

Le stress,la maladie mentale,la pauvreté,la drogue ,le racisme et la mauvaise presse du corps policier sont directement responsable de cette désillusion.
La police du 21 ième siècle devra être de plus en plus des travailleurs sociaux.
Dans tout les emplois,il faut chercher a devenir plus Humain,car le demon du monde vous rattrapera !
Il est en enfer,............la au fond de ta tête , situé entre 2 neuronnes ,a la limite du chromosome de vos ancêtres .


Il faut aimer l'être humain ,avant de l'aider !
Donc les valeurs de respect,intégrité et de l'engagement du SPVM,font parti du monde a l'envers.
Pour sortir de cette enfer,il faudra être respectable pour être respecté,être intègre c'est de sortir d'abord les pommes pourrites du troupeau canin et l'engagement ça vient de vos Boss,c'est bien mieux "servir" a la place !



REF.:

vendredi 26 février 2016

Centraide: Les bénévoles passe au Ca$h ?

Les bénévoles de cette organisme sont souvent des gens payants leurs nombreuses contraventions.Plusieurs sorte de prison et d'autres en minorité sont des gens ayant besoin d'argent pour payer leurs traitements médicaux,non payés par le gouvernement .

Plusieurs des grandes entreprises du Québec sont partenaires de Centraide dans la réalisation de leur mission dont des institutions bancaires, la Caisse de dépôt et placement du Québec, Desjardins, les sociétés d'état, la fonction publique québécoise et canadienne, les établissements publics et un grand nombre de PME, d'entreprises de production, de commerces et de professionnels.
Et c'est la que ça blesse! Car Centraide est une organisation philanthropique au Canada, reconnue comme une fondation publique, visant à rassembler des ressources humaines et financières en vue de lutter contre la pauvreté, à briser l'exclusion sociale, à diminuer les inégalités et à prévenir des problèmes sociaux.Sauf que les bénévoles engagés en très faible minorité,car souvent malade(lettre médicale d'un médecin traitant,justifiant un travail léger),travail comme mettons ,a faire du déchiquetage de papier de contravention de la ville.
Wow,avec 90 millions qu'ont leur donne ils font travailler leurs bénévoles comme si c'était du travail a la chaîne,ou la vitesse des employés est surveillé(comme au Centre d'action bénévole L'Actuel de l'ouest de Mtl).......Coup dont ,c'est tu des employés syndiqués que tu veut,ou si de temps en temps,les gestionnaires bénévoles,volent aussi l'argent de Centraide ??? On le saura un jour,lorsque le journalisme d'enquête enquêtera ???............................Dégueulasse !
Quant tu voit des Hummers dans le stationnement des cadres,c'est que c'est louche ???............Moisson Mtl ,etc,.....et les autres !
Jeunesse au Soleil, lui a des voitures électriques qui lui sont prêtées,au moins c'est mieux ça !!!


REF.:ostryeKysonkave.com

dimanche 21 février 2016

Gestionnaires véreux ou intimidation administrative ?

Qui en souffre ou a peur ,..........les employés !
L'intimidation déguisé ça existe !

Oui,les CLSC ,tout comme le Ministre Barrette,pratique plus que jamais de l'intimidation administrative, a cause de l'austérité actuelle. Ce que l'on peut comparer a des postes tablettes de la fonction publique du Canada mettons, ou bien a des employés mis sur liste de rappel a des postes temporaires avec peu d'heure de travail,sinon il y a des infirmières qui sont obligées de faire du surtemps.Tout le monde saient, et la ,c'est l'opinion  publique qui le dit ; qu'il y a trop de gestionnaire dans les commissions scolaire,dans le secteur de la santé, au secteur municipal,gouvernementale,mais pas assez d'employé.
Seul,quelque P.M.E. et compagnies familiale ,ou la, règne un système de gestion efficace.

Le monde syndicale n'a jamais empêché ce phénomène ,car il y participe.Tout ce monde ont les mains sales.Il y a des pays que le gouvernement et les forces de l'ordre sont corrumpu même !

-Un symdicat qui mange dans les mains de l'employeur:
C'est connu,aucun syndicat n'est meilleur que l'autre! Donc FTQ, CSN etc ... aucun n'est meilleur.
Sauf le prix de vos cotisations; et la, la FTQ a le meilleur ,car en secteur de la Santé,ça coûte de 15 a 20$ de moins par paye (de 2 semaines) ,pour le même service. Lorsque ça sonne a leur bureau,il ne réponde qu'a des causes relier a la CSST et rien d'autres ! Par contre,s'il y a grève, l'arme du Ministre, est la loi spéciale pour forcer le retour au travail !

Dernièrement,on a déja vu qu'un employé chum avec un cadre (gestionnaire)en secteur Santé,faire engager son agence de P.A.B. sans diplôme a la fonction publique(Cente de réadaptation) a gros salaire,passant de 10$ a 22$/Hr.On devrait appeler ça un conflit d'intérêt,mais le pire c'est qu'un autre gestionnaire est parti avec l'argent de la caisse des employés sans qu'aucun journaliste ne dise mots ! Un juge a simplement fait réengager les 130 employés mis a pied(certains disent 300) de l'agence en question,pendant que l'organisme en question changea de nom,parce qu'il  y avait trop d'histoire d'horreur dans cette affaire(comme des attouchements sexuel,violence envers les usagers etc...) !

On a déja vu un intervenant demandant un info a un plâtrier(de l'équipe d'entretient des résidences)si ça fait longtemps qui travail la ? Il a répondu a la question et rajoute que sa fille travaille comme éducatrice. ??? Éduc.,wow ! ..........C'est tu une entreprise familliale icitte !...... Si on engageait les intervenants syndiqués,comme on engage l'équipe d'entretient,ça serait pas beau a voir !
Déja que les maisons appartiennent a une Fondation,.................ça c'est de l'économie !

Mais qu'entend-t'on par intimidation administrative ?
C'est l'effet des coupures de leurs postes de gestionnaire qui déboule sur les postes d'employé de l'entreprise.Moins de gestionnaire , moins d'employé.On cré des postes occasionnels,on nous dit que les usagers sont en déclin,mais on s'arrange pour éviter de payer des pensions en engageant des employés a temps partiel et en abolissant des postes a temps plein ! Ce que l'agence en soins santé fait,c'est ce que ne veut pas faire comme travail les employés régulier! Mais le partage des heures de travail par ancienneté et par compétence, est crétiquable et pas toujours équitable.Le syndicat fait souvant des enquêtes ,pour manque a gagner ,pour les employés!C'est souvent payer a la fin de l'année financière,.....bizarre ! Si personne chiale,personne n'est payé,personne ne travail !
On a déja vu des postes de gestionnaire abolis,mais que ceux-ci se font migrer dans des services nouvellement créé pour eux.Rien de tel existe pour de simple employé !

Maladie mentale en déclin ? Encore plus d’élèves autistes,leur nombre est passé de 429 à 832 en cinq ans dans les commissions scolaires de Québec.Le terme d’autisme – que l’on appelle maintenant «les troubles du spectre autistique» – des situations cliniques très variées, qui vont du syndrome d’Asperger à d’autres manifestations comme l’apparition de comportements simplement atypiques, sans oublier des formes très graves où l’enfant est totalement clos, se mutilant lourdement. D’où des affirmations qui reviennent souvent : «Il y avait un autiste pour 1 000 naissances en France en 2004, il y en a dix fois plus aujourd’hui.» Un chiffre qui ne veut rien dire, comme si on mélangeait dans une même donnée statistique des angoissés et des psychotiques.«On atteint aujourd’hui un taux de diagnostic génétique de l’ordre de 30% à 35%, essentiellement dans les formes d’autisme associées à une déficience intellectuelle, et considérées par les pédopsychiatres comme atypiques.» Et ce généticien d’ajouter, non sans raison : «L’autisme est un symptôme, ce n’est pas une maladie. Il n’y pas pas un gène de l’autisme mais des dizaines. Et il y a des centaines de mécanismes distincts qui concourent à l’autisme.»C’est à partir de l’âge de 2 a  6 mois (et non dans l'ADN du foetus)que peut commencer à différer le développement des enfants atteints de troubles du spectre autistique (TSA) par rapport à celui des autres enfants, conclut cette étude de la John Hopkins University et de la Harvard Medical School, la plus grande étude prospective, longitudinale jamais menée à ce jour auprès d’enfants avec diagnostic précoce de TSA. Ces résultats, publiés dans la revue Child Development appellent à la détection très précoce de l’autisme.
Tout est une question d'argent;Les trisomiques sont rendu en résidence privée avec des employés a 12$/hr.,car ils sont peu autonomes.
Alors le gouvernement place ces employés(donc ceci baisse sa masse salariale) plutôt avec les Autistes(TSA) qui peuvent eux travailler et payer de l'impôt et être autonome ,avec des employés-intervenant payé par l'état a 25$/hr. !

 
- Conflit d'intérêt: On a vu aussi des gestionnaires être en conflit d'intérêt, en gardant chez-eux ou en résidence des usagers ,venant de leur propre organisme,pour qui ils travaillent !
 Est-ce normal, bien que non syndiqué, ces gestionnaires ont des postes tablettes,ou bien travail dans des services inactif non productif,pour se rendre jusqu'a leur retraite.
Ou bien s'ils pourraient aller dans d'autres services ou dans le secteur privé.
 Non,car c'est l'Austérité du Ministre de la Santé,qui fait que ça ne peut être que ça!
Au fond,parce que le Gouvernement,le système de gestion actuel ne fait que créer des postes occasionnels,comme au privé.
Pourquoi ,parce que personne n'a assez d'argent pour payer des pensions a des travailleurs a temps plein.Par exemple: Dans le milieu de la déficience intellectuelle,on fait accroire qu'ont ferme des maisons(établissements) pour simplement switcher les usagers(c'est toujours le même nombre) de maison spécialisé en des maisons avec des déficients légers ,et dans lesquels il y aura des travailleurs (intervenants) a 12$/hr(au privé) au lieux de 22$/Hr pour ses employés de l'état.Ça,ça crée des employés sur la liste de rappel !

Même la RRQ(régie des rentes du Qc),n'a pas assez d'argent et ça vous le savez !
Sauf,les postes de haut niveau (dans la pyramide)administratifs ,la ou tout est permis.

En politique ,les pensions des gestionnaires sont garanties ,incluant les primes de départ,bonus et j,en passe...... des enveloppes !
 Parce qu'au fond, un gestionnaire c'est un politichien en puissance !


REF.: argentegotrip.com

jeudi 11 février 2016

Informatique : Le contrôle de l’ensemble des objets par une seule et même application




Le MIT nous donne le contrôle sur les objets 
 
Après trois ans de recherche, le MIT vient de mettre au point une application permettant d’interconnecter des objets entre eux et de les rendre « intelligents » par le biais de la réalité augmentée. Baptisée Reality Editor, cette application est capable de permettre à l’utilisateur de connecter et de manipuler les fonctionnalités des objets physiques qui l’entourent.
Concrètement, par l’intermédiaire de l’application qui utilise la réalité augmentée, l’appareil dont les fonctionnalités apparaissent à l’écran après avoir été pointées avec la caméra du smartphone, devient contrôlable. Aussi, il est possible d’interconnecter des objets en dessinant une ligne virtuelle entre deux éléments depuis l’écran du téléphone.
L'objectif de ce projet est à la fois simple et ambitieux : pouvoir "reconstruire" numériquement et customiser son espace de vie en le personnalisant. Le système permet notamment de contrôler l’éclairage et la température d’une pièce mais aussi de reprogrammer les fonctionnalités d’un appareil.
Reality Editor vise à terme le contrôle de l’ensemble des objets qui peuplent notre environnement proche via une seule et même application, créant une expérience unifiée. Et les chercheurs du MIT vont encore plus loin en incitant la collaboration de tous : la totalité de leurs travaux sont en effet partagés sur une plate-forme open source, Open Hybrid, dans le but d’inspirer une communauté à « bâtir une nouvelle génération d’objets hybrides », comme il est expliqué sur le site de Reality Editor.
Article rédigé par Georges Simmonds pour RT Flash


Source.: Reality Editor

Les 5 technologies qui vont changer le destin de l’Humanité




Le Big Data, les objets connectés, l’impression 3D, les énergies renouvelables et les MOOC sont les cinq technologies qui vont changer le destin de l’Humanité dès ces prochaines années. Explications
Nous qui avons la chance d’être nés au XXe ou XXIᵉ siècle dans un pays dit développé, pensions, en 1960, que les progrès apportés depuis deux siècles avec les révolutions industrielles, que ce soit l’électricité, le téléphone, la télévision, la voiture, le moteur et des milliers d’autres, étaient à nuls autre pareils et que jamais l’être humain ne pourrait connaître dans sa seule existence tous les bouleversements connus en huit générations par ses Anciens. Et pourtant si.
L’adolescent né avec le XXIᵉ siècle, qui a aujourd’hui 15 ans, n’aura plus, autour de son lit de mort un seul objet qui sera semblable à ceux qui entouraient son berceau. Et pourquoi cela ? Parce que nous changeons d’ère.
Jusqu’à ce jour, les progrès accomplis par l’Homme respectaient une progression arithmétique comme chaque année nous comptons les uns après les autres les jours des mois qui se succèdent.
Mais depuis plus de 50 ans, l’Humanité a changé de paradigme. Elle ne compte plus les jours de son destin en ajoutant arithmétiquement les nombres les uns après les autres, 1 – 2 – 3 – 4 – 5 … Son potentiel de connaissances évolue dorénavant de manière exponentielle.
Si nous prenons un mois de 31 jours comme échelle de référence de la vie d’un être humain né (dans un pays développé) en 1965 et qui, statistiquement, deviendra centenaire, cet être humain est aujourd’hui, alors qu’il a 50 ans, au 15e jour de son mois de vie.
Si les technologies avaient progressé depuis 50 ans au même rythme que par le passé, leurs évolutions auraient donc, dans notre exemple, été multipliées par 15 dans ce demi-siècle.
Or, en respectant la loi empirique édictée par Gordon Moore, co-créateur d’Intel, en 1965, le progrès des technologies n’a pas été multiplié par 15 en 50 ans mais par 16.384 (2¹⁴) !
Nous n’en avons pas conscience mais cette loi empirique a bien été respectée depuis 50 ans. Les microprocesseurs qui animent notre monde aujourd’hui sont 16.000 fois plus performants que les premiers microprocesseurs d’Intel !
Mais si je vous disais qu’il vous faudrait porter le nombre à 1.073.741.824 (1 milliard 73 millions) (2³⁰) dans la 31e case de la vie de notre centenaire, en 2065, vous seriez incrédule.
Et pourtant, cette affirmation se révèlera, avec le temps comme réaliste. Depuis l’énoncé de la Loi de Moore, en 1965, le premier demi-siècle nous paraîtra rapidement lascif quand nous constaterons que l’indice totalisant l’ensemble des progrès technologiques doublera tous les 3 ans dans les cinquante ans qui arrivent.
Très vite, l’ordinateur quantique qui remplacera l’informatique binaire actuelle se nourrissant de bits permettra de relever ce défi. Cette loi de Moore que nous pensions réservée à l’informatique jusqu’à ce jour va dorénavant s’appliquer à de nombreuses autres technologies.
Le Big Data qui collationne toutes les données émises par l’Homme ou les machines va suivre la même progression exponentielle.
Toutes les activités qui s’appuient sur le Savoir et qui ont pour finalité d’atteindre un coût marginal zéro comme l’affirme magistralement Jérémie Rifkin dans son dernier ouvrage, comme l’a fait l’informatique avec Internet dans ces 50 dernières années, respecteront cette progression exponentielle dans leur développement.
Aujourd’hui, je ne vais aborder, après avoir cité le Big Data, quatre de ces nouvelles technologies qui dès ces prochaines années vont changer le destin de l’Humanité : les objets connectés, les imprimantes 3D, les énergies renouvelables et les MOOC.
Depuis une quinzaine d’années, nous entendions parler des RFID et régulièrement je les citais dans RT Flash. Mais dans ces dernières années, ces puces RFID ont fait un bond extraordinaire en sachant s’alimenter avec l’énergie des terminaux avec lesquels elles communiquent et en voyant leur prix descendre à quelques cents.
Le développement de ces puces RFID que nous appelons maintenant « objets connectés » va être si rapide que chaque être humain devrait être entouré de 5000 à 7000 objets connectés avant 2030.
Ces objets connectés serviront strictement à tout, que ce soit dans notre vie publique ou dans notre vie privée. Comme l’usage du Web aujourd’hui, l’usage de ces objets connectés sera totalement gratuit. Mais mieux encore, comme les données émises par chaque être humain ou par les objets les entourant seront de plus en plus précieuses pour préparer l’Avenir et imaginer les produits du Futur,  les GAFA (Google, Apple, Facebook, Amazon) ou leurs remplaçants se battront pour nous acheter ces données, ce qui apporte de nécessaires revenus à une Humanité qui aura perdu par ailleurs des centaines de millions d’emplois détruits par une robotisation à outrance.
Dans le développement sidéral que va connaître notre civilisation dans ces prochaines années grâce aux objets connectés je ne vais aborder qu’un seul sujet : la santé.
En observant les travaux actuellement réalisés par les laboratoires de Google et en décryptant les prédictions de Raymond C. Kurzweil, l’un de ses directeurs, il n’est pas déraisonnable d’affirmer que les nombreuses morts liées, aujourd’hui, au cancer, aux maladies cardio-vasculaires, ou maladies dégénératives et bien d’autres maladies, devraient avoir presque totalement disparu à l’échéance d’une génération. Pourquoi cela ?
Parce que la médecine curative actuelle (qui traite une maladie seulement lorsque celle-ci s’est déclarée) aura été remplacée grâce aux objets connectés par une médecine prédictive.
Il suffira que quelques cellules dans un organisme soient atteintes par un cancer, alors qu’aujourd’hui il en faut des millions sinon des centaines de millions pour les déceler, pour qu’immédiatement le système automatisé qui surveille la santé de chacun avec des objets connectés vous conseillera (vous obligera ?) d’aller voir immédiatement un spécialiste qui, avec des nanostructures, vous détruira aussi facilement ces cellules cancéreuses qu’on le fait aujourd’hui pour les bacilles avec un antibiotique.
Il en sera de même avec les maladies cardio-vasculaires et bien d’autres maladies évoluant aujourd’hui sans bruit pendant des années et qui, maintenant, grâce à des « objets connectés » qui très tôt détecteront de faibles signaux de souffrance, indétectable avec nos outils actuels de surveillance et d’analyse, permettront de prendre, à temps, toutes les mesures qui élimineront toutes les évolutions fatales. Si ces « objets connectés » avaient existé il y a seulement quelques courtes années, notre ami Jean-Michel Billaut, n’aurait pas eu à souffrir d’une rupture d’anévrisme poplité.
Certes, l’Homme devra continuer à se battre pour découvrir toutes les démarches curatives pour tous ceux qui ayant échappé ou s’étant dérobés à la surveillance des « objets connectés » continueront à souffrir de cancers, de maladies cardio-vasculaires ou de toute autre maladie.
Mais il faut avoir bien conscience que le sort de l’Humanité passe bien à cette médecine prédictive et non par la seule médecine curative telle que la pratiquent aujourd’hui les pays les plus riches car, dans un demi-siècle, avec les 9 milliards de terriens, l’Humanité n’aurait pas la capacité financière de faire face à un tel défi.
Abordons, maintenant, une autre technologie qui elle aussi va changer l’avenir de l’Humanité : l’impression 3D.
Cette impression 3D va devoir très prochainement changer de nom tant elle va de moins en moins ressembler à notre vieille imprimante papier pour, de plus en plus, faire penser à l’image de la création du premier Homme dans la Genèse telle que l’a génialement imaginée Michel Ange dans son immortelle fresque de la Chapelle Sixtine.
L’impression 3D va connaître le même développement exponentiel que celui du « personal computer » (PC) depuis 40 ans.
Comme pour l’informatique, les technologies des imprimantes 3D vont tendre vers un coût marginal zéro. Les « makers » qui se comptent déjà en centaines de milliers à la surface de la Terre (les premières années du développement exponentiel d’une nouvelle technologie sont quasi invisibles pour le commun des mortels !) n’ont pas répété la malheureuse erreur des débuts de l’informatique avec des operating systems (OS) propriétaires. Ils ont choisi, dès l’origine, de partager universellement toutes leurs connaissances au travers de logiciels ouverts.
Les progrès de cette technologie révolutionnaire vont être foudroyants. On a déjà su reconstituer l’exact visage d’une personne horriblement défigurée par un accident et les chercheurs ont déjà su fabriquer des objets complexes faisant appel à de nombreux composants différents. Ces technologies qui permettront à terme de tout faire en partant de rien vont ouvrir des champs encore inconnus à l’imagination de l’Homme.
Pourquoi, ces imprimantes 3D vont-elles prendre une importance si grande ?
Tout d’abord parce que leur mode de production totalement automatisé repose sur une méthode additive et non soustractive.
Ainsi, aujourd’hui, pour fabriquer un meuble il faut abattre un arbre, en couper les branches, enlever l’écorce et le débiter en planches. Il faut ensuite raboter ces planches et les découper pour en faire toutes les pièces du meuble. Quant à la fin de la fabrication le bilan est dressé, nous constatons que seuls 10 % de l’arbre ont été utilisés pour fabriquer le meuble et que quelque 90 % ont été soit jetés, soit sous-utilisés.
Avec une Terre qui n’a pas les capacités naturelles d’accueillir 9 milliards d’êtres humains, avec leurs gaspillages actuels, il est grand temps d’imaginer et fabriquer des produits qui n’utiliseront qu’un strict minimum de ressources naturelles.
De plus, avec la mondialisation intégrale des process de production de ces imprimantes 3D, nous pourrons fabriquer n’importe où dans le Monde n’importe quel objet. Il suffira que vous ayez eu la précaution de prendre la photo 3D (la photo du Futur) de tout objet vous entourant pour qu’immédiatement vous le reproduisiez dans votre Fab-Lab personnel et ce pour un coût très proche de zéro.
Ainsi, même si vous cassez une belle assiette ancienne de belle-maman, vous pourrez en « fabriquer » une nouvelle avant même que votre épouse soit de retour !
Avec ces nouvelles technologies d’impression 3D, il sera devenu absurde de fabriquer à l’autre bout du monde, en Chine par exemple, des objets dont les prix ne feront que décroître alors qu’il vous faudrait des centaines de kilos de CO² pour les faire transporter jusqu’à vous.
Les objets les plus complexes à reproduire se feront dans des Fab-Lab départementaux qui ne seront jamais à plus d’une journée de cheval de votre domicile comme disaient les révolutionnaires en 1790…
Mais dans votre propre unité urbaine, il y aura des Fab-Lab qui pourront fabriquer 90 % des objets vous environnant. Chez vous, si vous le voulez,  vous pourrez même avoir des imprimantes 3D qui pourront reproduire la moitié des objets meublant votre intérieur.
Avez-vous bien conscience, vous qui me lisez en cette année 2015, que des Chinois viennent de fabriquer, en une journée, la première maison entièrement fabriquée par une monumentale imprimante 3D et ce pour moins de 300 € ?
Parlons maintenant d’une autre technologie qui, elle aussi, va changer le destin du Monde.
Après des millénaires et des millénaires d’adoration, l’Homme va enfin utiliser le Soleil pour en capter une partie de l’énergie qu’il envoie à notre Terre depuis des milliards d’années pour se fournir totalement en énergie. Les meilleurs spécialistes ont calculé qu’il suffirait à l’Homme de capter seulement 10 % de l’énergie envoyée par le Soleil pour subvenir à tous ses besoins.
Comme cette énergie reçue du Soleil est gratuite et restera gratuite, ceci signifie qu’à terme, à court terme (20 ans) devrais-je même dire avec la courbe exponentielle que va suivre son utilisation, l’énergie utilisée par l’Homme sera quasi gratuite. Sans bruit, le rendement des panneaux photovoltaïques a respecté la Loi de Moore depuis 20 ans et devrait encore la respecter pendant ces prochaines décennies.
Avec la gestion globale de l’énergie grâce au « smart grid » qui révolutionnera autant le monde qu’Internet et le Web en permettant à chacun, à chaque instant, de distribuer et de recevoir toute l’énergie qu’il aura en surplus ou dont il aura besoin.
Cette énergie à un coût marginal zéro sera un élément fondamental de pacification de l’ensemble de notre Planète.
Avant de conclure, abordons un dernier sujet qui va dorénavant dominer tout ce que je viens de traiter et qui va accélérer de façon exponentielle les mutations de l’humanité : les MOOC (Massive Open Online Course) que l’on peut traduire par « Cours en ligne ouvert et massif ».
Jusqu’à maintenant, seule une partie de l’Humanité a pu accéder au Savoir. Ce qui signifie que tous les autres seraient commandés par les robots de demain et ne pourraient en rien les dominer.
Maintenant, alors que les plus grands cours magistraux pourront être accessibles gratuitement, grâce aux MOOC, à tous les habitants de notre Terre, nous allons assister dès ces prochaines années à une réelle explosion de l’intelligence collective et individuelle de l’Humanité.
Les innovations comme les découvertes fondamentales vont éclore par milliers et nous allons assister, avec la traduction automatique dans toutes les langues, à un foisonnement encore difficilement imaginable aujourd’hui de nouveautés qui vont révolutionner tous les secteurs de l’activité humaine et toutes nos connaissances.
Ainsi, ce changement de paradigme qui voulait depuis des millénaires que l’évolution suive une progression arithmétique, et qui maintenant va se transformer en progression exponentielle, va avoir des conséquences fondamentales encore insoupçonnées. Ainsi l’Homme, lui-même, va plus évoluer dans ce prochain siècle qu’il n’a pu le faire, génération après génération, depuis des millions d’années. Cette mutation sera liée au fait que les mutations génétiques seront, elles-aussi, soumises à cette courbe exponentielle qui soutient mon raisonnement depuis le début de cet édito.
C’est dans cette mutation que réside, sans conteste, le plus grand défi auquel l’Homme va devoir faire face depuis son origine.
Les scientifiques voyant arriver ce bouleversement fondamental commencent à spéculer sur le fonctionnement du cerveau humain. Ils affirment que notre cerveau fonctionne avec des lois respectant la physique quantique, ce qui expliquerait que certains génies soient capables d’imaginer en quelques instants des situations que tous les ordinateurs de ce jour réunis en un seul ensemble ne pourraient même ne pas encore approcher.
Il est nécessaire que cette spéculation devienne une réalité car, sans cela, dans des temps maintenant très courts, l’intelligence humaine pourrait être dépassée par la machine que nous aurions inventée.
Mais il est vrai que l’Imagination et l’Amour sont incommensurables et que ces sentiments, qui n’appartiendront pour des millénaires encore qu’à l’Homme, n’auront rien à craindre de toute progression exponentielle.



Source.: 
RTflash, cet article est aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.

Physique quantique : La prochaine révolution industrielle ?


La mécanique quantique, élaborée entre 1900 (rayonnement des corps noirs par Max Planck) et 1927 (Principe d’incertitude d’Heisenberg) reste, avec la relativité générale d’Einstein, l’une des plus extraordinaires avancées scientifiques et conceptuelles réalisée par l’esprit humain. Défiant le sens commun et les réalités apparentes et perceptibles, cette théorie étrange constitue une rupture radicale avec la représentation que l’homme se faisait du monde depuis Aristote : désormais il nous faut admettre qu’à certains niveaux de « réalité », les principes d’identité et de causalité n’ont plus de sens et changent de nature.
Concrètement, si l’on peut dire, en parlant d’une théorie qui repose sur un formalisme mathématique d’une extrême abstraction, cela signifie notamment qu’une « particule » ne peut plus être appréhendée isolément, comme un objet parfaitement délimité dans l’espace et dans le temps mais doit être considérée plutôt comme une manifestation particulière d’un système physique global et « intriqué » intégrant l’Univers dans son ensemble…
Les conséquences pratiques qu’entraine cette nouvelle conception du monde sont redoutables et déroutantes. En mécanique quantique, on ne peut, par exemple, connaître à la fois avec précision la position et la vitesse d’une particule et l’on doit également admettre qu’une particule interagit avec l’observateur et va se comporter tantôt comme un objet « ponctuel », tantôt comme une onde, en fonction du dispositif expérimental choisi pour l’observer !
Il a fallu plus d’un demi-siècle pour que la communauté scientifique dans son ensemble accepte enfin ce renversement de perspectives de la physique. Plus précisément, c’est en 1982, qu’à l’issue d’une série d’expérimentations remarquables, le physicien français Alain Aspect a montré de manière très convaincante que, contrairement à ce que pensait Einstein – et qu’il avait exprimé en 1935 avec son fameux paradoxe EPR – et conformément aux prévisions de la physique quantique, deux photons issus d’une même source puis envoyés dans des directions opposées restaient à jamais « intriqués », c’est-à-dire liés dans leurs propriétés et leur « comportement ».
Aujourd’hui, plus de trente ans après les expériences historiques réalisées par Alain Aspect à l’Institut d’optique d’Orsay, une équipe de physiciens néerlandais vient de franchir une nouvelle étape décisive dans la confirmation expérimentale de la physique quantique. Dirigés par Ronald Hanson de la Delft University of Technology aux Pays-Bas, ces scientifiques, qui avaient déjà réussi il y a un an à transférer une information d’un bit quantique (qbit) à un autre, situé à 3 mètres de distance, sont cette fois parvenus à mettre en évidence ce phénomène d’intrication quantique à une distance-record de 1,3 km.
Dans cette série d’expériences, d’une extrême complexité, ces chercheurs ont pu effectuer 245 mesures (Voir Hanson Lab et article intitulé « Constatation expérimentale de la violation des inégalités de Bell par la mesure du spin d’électrons distants de 1,4 km » Cornell University Library). Les physiciens ont utilisé deux diamants permettant de produire des photons polarisés intriqués avec des électrons. Ces diamants, qui étaient séparés par une distance de 1,28 kilomètre, émettaient chacun un photon. Ces deux photons s’éloignaient ensuite en direction d’un détecteur situé entre les diamants à plusieurs centaines de mètres de distance. Grâce à ce dispositif expérimental très ingénieux, les physiciens ont pu effectuer des mesures de spins des électrons sur presque toutes les paires de particules intriquées et combler ainsi l’une des dernières failles méthodologiques qui auraient pu biaiser les résultats.
En outre, ces expériences ont permis de garantir qu’aucun signal, même à la vitesse de la lumière, n’avait eu le temps de voyager entre les deux diamants au cours des mesures, pour « informer » ces diamants du résultat de ces dernières. Le résultat de ces expériences est sans appel : les corrélations de mesures de spin constatées sont en parfait accord avec le théorème des inégalités de John Bell (1964) et confirment de manière remarquable la théorie quantique, en excluant de manière encore plus rigoureuse l’hypothèse de « variables cachées » locales qui pourraient expliquer de tels résultats de mesures.
Autrement dit, il existe bien un niveau de réalité physique fondamentalement différent de celui qui prévaut à notre échelle (thermodynamique) ou à l’échelle cosmique (relativité générale), au sein duquel s’exprime de manière non réductible, ce que le regretté Bernard D’Espagnat, qui vient de disparaître, appelait un « réel voilé », organisé selon un principe de non-séparabilité. A ce niveau de réalité insaisissable, matière et énergie, ondes et particules, espace et temps sont enchevêtrés de manière inextricable. Cette dimension quantique du monde ne résulte pas de notre ignorance, ni de l’imprécision de nos instruments de mesure mais constitue bien une dimension fondamentale de la nature…
Mais la physique quantique, après être restée longtemps une curiosité théorique, s’est avérée depuis une vingtaine d’années une extraordinaire source de ruptures et d’innovations technologiques. Il faut par exemple savoir que c’est la physique quantique qui a permis la naissance et l’essor de la spintronique et l’introduction des têtes de lecture à magnétorésistance géante, à l’origine de l’augmentation considérable (par un facteur 100) de la densité de stockage d’information sur disque dur.
Il faut également rappeler que les nombreux outils technologiques qui constituent aujourd’hui notre quotidien, comme le microprocesseur, le laser, le GPS, ou encore l’imagerie par résonance magnétique, n’existeraient pas sans la théorie quantique. Mais, comme le souligne Dominique Sugny, du Laboratoire interdisciplinaire Carnot, à Dijon, « aussi importantes soient-elles, ces applications s’appuient seulement sur une compréhension passive des lois quantiques et désormais, les chercheurs veulent aller plus loin, en contrôlant activement les objets à cette échelle. » C’est là qu’intervient une jeune discipline pleine de promesses, le contrôle quantique, qui vise à organiser et à manipuler atomes et particules variées afin de leur conférer des fonctions spécifiques et de leur faire accomplir des tâches précises.
Pour atteindre cet objectif ambitieux, les scientifiques se sont notamment appuyés sur la théorie du contrôle optimal qui consiste à rechercher une solution sous la forme mathématique d’un problème d’optimisation qu’on peut résoudre numériquement. C’est ce principe qui a permis, il y a presque un demi-siècle, au cours du programme lunaire américain Apollo, de déterminer les trajectoires minimisant le plus possible la consommation de carburant pour atteindre la Lune.
L’augmentation exponentielle de la puissance de calcul informatique a permis récemment au contrôle quantique de réaliser des pas de géant dans plusieurs domaines. Par exemple, il est à présent possible de contrôler certaines réactions chimiques complexes par laser en calculant l’ensemble des paramètres des ondes lumineuses utilisées pour obtenir cette réaction. Il y a quelques mois, des chercheurs ont ainsi réussi à créer, à l’aide du contrôle quantique, une liaison entre deux atomes de magnésium2.
Mais ces outils de contrôle quantique sont également en train de bouleverser un autre domaine hautement stratégique, celui de l’informatique quantique. Actuellement, les ordinateurs reposent sur une logique binaire, issus de l’architecture imaginée par Van Neumann, l’un des pères de l’informatique. Dans cette configuration, la plus petite unité d’information, le bit, ne peut prendre que deux valeurs, 0 ou 1, selon le passage ou non du courant électrique à travers un transistor. Mais, dans un ordinateur quantique, les choses se passent de manière radicalement différente. Le bit quantique (ou qbit), repose sur l’état d’un système quantique et peut de ce fait s’affranchir de cette logique binaire et utiliser les étranges propriétés quantiques d’intrication et de superposition d’états.
Au lieu d’effectuer de manière séquentielle toute une série de calculs pour parvenir à un résultat final, l’ordinateur quantique peut donc, en théorie, avoir accès à la totalité des résultats en une seule étape, ce qui laisse espérer des machines dont la puissance de calcul serait des milliers de fois supérieure à celles de nos superordinateurs d’aujourd’hui…
Mais le chemin technologique qui mène vers l’ordinateur quantique opérationnel est semé d’embûches. L’un des principaux obstacles que doivent par exemple surmonter les chercheurs est lié au nombre de qbits pouvant fonctionner simultanément au sein d’une même machine. En effet, pour être réellement efficace, un ordinateur quantique doit en théorie pouvoir mobiliser en même temps plusieurs milliers de qbits. Mais plus ces qbits sont nombreux et plus les risques d’interaction  avec l’environnement augmentent. Or ces interactions entraînent ce que les physiciens appellent une décohérence, c’est-à-dire un brusque effondrement des propriétés quantiques recherchées.
Mais le contrôle quantique parvient de mieux en mieux à détecter les erreurs dues à la décohérence et à les corriger en temps réel. En 2011, une avancée majeure dans ce domaine a été réalisée par l’équipe de Serge Haroche, Prix Nobel de physique en 2012. Après être parvenu à mesurer des photons sans les détruire, ces chercheurs ont réussi à stabiliser le nombre de photons piégés dans une cavité supraconductrice en générant un signal micro-onde approprié. Cette avancée remarquable confirme qu’il est possible de corriger en temps réel les bits d’un ordinateur quantique, ce qui lève un verrou majeur dans la conception de ces machines.
Le domaine biologique et médical va également connaître une révolution grâce à l’application du contrôle quantique. En imagerie IRM par exemple, en utilisant la théorie du contrôle optimal, des chercheurs sont parvenus à déterminer les profils de champ magnétique à appliquer pour obtenir le meilleur contraste possible d’une image pour des conditions expérimentales données. Les physiciens ont validé ensuite avec succès cette approche par une expérience test in vitro. Quant aux premiers essais sur l’homme, ils pourraient commencer à l’horizon 2020 et, selon le physicien Dominique Sugny, ils devraient permettre d’obtenir des images bien plus précises qu’aujourd’hui, ce qui permettra de nouveaux progrès pour de nombreuses pathologies, en matière de détection et de diagnostic.
Dans le domaine connexe des télécommunications qui doivent absorber et véhiculer des quantités d’informations toujours plus grandes et vont devoir intégrer demain l’Internet des objets et la visiophonie personnelle en 3D, le déploiement des réseaux et des composants optiques permet également d’avoir recours au contrôle quantique pour décupler la rapidité et la fiabilité de ces échanges de données numériques. Au Canada, l’équipe du professeur Roberto Morandotti est récemment parvenue à utiliser la photonique quantique pour produire directement des paires de photons ayant une polarisation croisée (orthogonale), une première en optique quantique intégrée sur puce. Grâce à cette avancée, il devient possible de recourir à la polarisation des photons pour améliorer considérablement le débit et la rapidité des communications optiques d’informations numériques.
Dans le domaine des communications sécurisées, le contrôle quantique est également en train de s’imposer. En début d’année, des chercheurs de l’Université nationale australienne (ANU) et de l’Université d’Otago en Nouvelle-Zélande Dr Jevon Longdell ont créé un prototype de disque dur quantique qui peut modifier fondamentalement le domaine du cryptage de données sécurisé, à longue distance. Utilisant des atomes de l’élément europium de terre rare intégré dans des cristaux d’orthosilicate d’yttrium (YSO), ces scientifiques ont réussi à créer un dispositif de stockage capable de maintenir jusqu’à six heures une information à l’état quantique (Voir Australian National University).
Toujours en matière de cryptage quantique des communications, la firme japonaise Toshiba a annoncé il y a quelques semaines qu’elle avait commencé des tests de transmission sécurisée de données génétiques par cryptographie quantique, une méthode de cryptage en théorie totalement inviolable puisque chaque bit d’information est associé à un photon et que toute tentative d’intrusion entraîne immédiatement la destruction de l’information ainsi véhiculée (Voir Toshiba). Toshiba a précisé que son système de cryptographie quantique devrait être commercialisé dès 2020.
Enfin, il y a quelques jours, Google, la NASA et l’USRA (Universities Space Research Association) ont annoncé qu’ils avaient décidé de s’associer dans le cadre d’un projet de recherche destiné à rendre opérationnel un ordinateur quantique. Pour atteindre cet objectif, les deux partenaires vont s’équiper du D-Wave 2X, la dernière machine quantique du constructeur canadien D-Wave. Cet ordinateur utilisera une puce quantique composée pour la première fois de 1000 qbits, contre 512 pour la génération actuelle. « Avec ce programme de recherche, nous espérons montrer que l’informatique quantique et les algorithmes quantiques pourraient un jour améliorer radicalement notre capacité à résoudre des problèmes d’optimisation complexes pour l’aéronautique, les sciences de la Terre et de l’espace ou encore la conquête spatiale », a déclaré le directeur du centre de recherche Ames de la Nasa, Eugene Tu, dans le communiqué de D-Wave (Voir D-Wave).
On voit donc que, presque 90 ans après sa formalisation très confidentielle par une poignée de physiciens de génie, parmi lesquels il faut rappeler les noms d’Einstein, de Planck, de Bohr, de Schrödinger, d’Heinsenberg, de De Broglie, de Dirac ou encore de Pauli, la théorie quantique, qui ne s’est pas imposée facilement dans le monde scientifique tant elle remettait en cause les fondements mêmes de notre représentation physique du réel, a gagné ses lettres de noblesse en se manifestant de manière de plus en plus concrète, d’abord comme instrument de recherche fondamentale et plus récemment comme outil irremplaçable et extrêmement puissant d’innovation et de rupture technologique et industrielle.
Aujourd’hui, les systèmes et dispositifs quantiques sont déjà présents, sans que nous nous en rendions compte, dans de nombreux objets de notre vie quotidienne et demain ils seront absolument partout et permettront des avancées que nous ne pouvons même pas imaginer dans des domaines aussi variés que l’énergie, les transports, la médecine, l’informatique, les télécommunications, les matériaux ou la robotique…
Cette extraordinaire aventure scientifique que représente la physique quantique apporte un démenti cinglant à ceux qui ne raisonnent qu’à court terme et voudraient enfermer la Recherche dans une finalité exclusivement utilitariste. Comme le disait avec humour, peu de temps avant sa disparition, Jack Kilby, l’inventeur du premier circuit intégré en 1958, « Le transistor qui est la base du microprocesseur et de l’informatique actuelle n’est pas une simple amélioration de l’ampoule électrique ou du tube à vide mais constitue une véritable rupture technologique ». Cet ingénieur hors pair faisait également remarquer qu’il avait fallu 30 ans entre l’invention du transistor et la commercialisation des premiers ordinateurs personnels. Il a fallu le même laps de temps entre la découverte du concept d’images télévisées, au milieu des années 1920 et la commercialisation des premiers téléviseurs, au lendemain de la seconde guerre mondiale.
Dans cette société fébrile, obsédée par le court terme et les effets d’annonces médiatiques et dominée par l’écume des choses, nous devons comprendre qu’il existe un « temps long », qui est de l’ordre du quart du siècle, entre une avancée théorique fondamentale et sa traduction concrète pour le grand public, sous forme de produits, de systèmes ou de services nouveaux. Si l’aventure quantique nous prouve une chose à méditer, c’est qu’il n’existe pas, d’un côté, une Science « pure » et abstraite et de l’autre une Recherche uniquement orientée vers des applications concrètes. Le processus qui va de la découverte théorique à l’invention, l’innovation et la production industrielle de produits et services radicalement nouveaux est un long continuum qu’il faut préparer et alimenter en ayant une vision stratégique et prospective à très long terme de l’évolution scientifique, économique et sociale.
Faisons en sorte que notre Pays, qui a la chance de posséder à la fois une Recherche fondamentale du plus haut niveau en physique et en mathématiques et qui dispose d’un savoir technologique et industriel reconnu au niveau mondial, sache mieux penser, préparer et accompagner les prochaines révolutions scientifiques et techniques qui bouleverseront notre société d’ici 2050.



Source.:  RTflash, cet article est aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.