Rechercher sur ce blogue

Aucun message portant le libellé Big Data. Afficher tous les messages
Aucun message portant le libellé Big Data. Afficher tous les messages

jeudi 10 mars 2022

Propagande, les nouveaux manipulateurs (numériques)

 

Propagande, les nouveaux manipulateurs (numériques)

 

Par Pascal Kotté

Dec 6, 2021


Le Documentaire ARTE

 https://www.youtube.com/watch?v=ByWFrWW_kQk

Propagande, les nouveaux manipulateurs (numériques)


Vers la fin des pensées plurielles,

au profit d’une pensée unique ?

Disponible jusqu’au 11/12/2021

 REF.:  https://medium.com/datagueule/propagande-les-nouveaux-manipulateurs-num%C3%A9riques-9bb8adc5150f?source=topics_v2---------1-84--------------------4e3524d7_d7a2_4b35_9e56_b0b49861c71c-------19---

Propagande, les nouveaux manipulateurs : populisme digital et ingénieurs du chaos



Zoom sur le documentaire réalisé par Alexandra Jousset et Philippe Lagnier : daté de 2020, Propagande, les nouveaux manipulateurs décortique comment les réseaux sociaux sont devenus un outil de manipulation au service des politiques extrêmes. Et cela ne fait pas plaisir à voir.

Diviser pour régner

Une heure trente durant, les documentaristes passent au crible des réseaux sociaux devenus un vaste champ de racolage pour des candidats politiques en quête d’élection. Objectif : toucher toujours plus de partisans en jouant sur des émotions primaires comme la peur et la colère ; se faire élire sur des idées qui relèvent du totalitarisme ; conserver et renforcer le pouvoir en alimentant les rages, les discriminations et les antagonismes. Bref, capitaliser sur la rupture du contrat social, en d’autres termes diviser pour régner.

USA, Italie, Brésil, Inde : à partir de ces quatre cas de figure, le documentaire met en lumière des stratégies aussi vicieuses qu’efficaces, fondées sur l’exploitation des données fournies par des social media où nous exposons nos avis sans aucune pudeur. À la source de ces stratégies mortifères, des ingénieurs du chaos, experts de la communication digitale, data mentalists chevronnés qui jonglent avec nos frustrations étalées à longueur de posts, posts analysés avec une précision de chirurgien par des algorithmes qui extraient nos rancœurs pour mieux les exploiter.

À lire également : Infiltré dans l’ultra-droite – Mon année avec l’alt-right : on ne dira pas qu’on ne savait pas

Une dangereuse réalité en train de croître

Twitter, Facebook, WhatsApp… rien n’arrête ces spin doctors nouvelle génération, et surtout pas la barrière des lois qu’ils transgressent avec une aisance de virtuoses libertariens. Fake news, harcèlement, menaces, discours raciste, phallocrate, homophobe, à partir d’une analyse sémantique poussée de nos propos, les data analysts détectent les brebis un peu plus faibles que le loup populiste pourra gagner à sa cause sous couvert d’innocents groupes d’échange forgés dans le but de fédérer sur des sujets annexes puis de convertir en douceur.

Création de médias en ligne dédiés, passage par des influenceurs extrêmes, tous les moyens sont bons pour déverser théories du complot et post-vérités qui vont rassembler des hordes de prosélytes, capables de passer aux actes IRL sur un seul tweet pour aller bousiller de l’opposant dans les rues … ou prendre le Capitole d’assaut. À ce stade et le documentaire le met remarquablement en évidence, ce n’est plus une menace, mais une dangereuse réalité en train de croître : les quatre exemples étudiés le démontrent d’inquiétante manière.

S’enraciner dans les esprits et au pouvoir

Les idéologies extrêmes ont ainsi trouvé un moyen de s’enraciner dans les esprits et au pouvoir, grâce à une propagande sur-mesure. Quant aux plateformes social media, elles peinent à reconnaître leur rôle et à réformer leur fonctionnement. L’avancée de la data science est aussi à questionner, dans la mesure où elle permet un microciblage d’une précision diabolique, quitte à ce que les dataminers se transforment en pillards capables de tout pour extraire des informations, passant du scraping aux méthodes d’espionnage.

Question : comment stopper ce processus ? Certains utilisent ces armes pour contrer l’avancée du populisme digital, en mode « traitons le mal par le mal ». D’autres veulent renforcer l’encadrement et le contrôle des plateformes. Éduquer le public ? Difficile face à des internautes méfiants face aux discours officiels et enfermés dans leur bulle de vérité. Reste une solution : identifier les sources de colère, la misère, le manque de travail, d’écoles, d’accès au soin, le martellement publicitaire forçant à la consommation, la frustration permanente … Et les éradiquer. D’urgence.

Et plus si affinités

Vous pouvez visionner le documentaire Propagande, les nouveaux manipulateurs sur le site d’ARTE.

lundi 27 novembre 2017

Les « boites noires » de la loi renseignement semblent désormais fonctionnelles




Plus de deux années après leur création dans la loi, les équipements permettant aux services de renseignement d’analyser de grands volumes de données semblent fonctionnels.
Lors d’un colloque organisé par l’université de Grenoble ce mardi 14 novembre, Francis Delon, le président de la Commission nationale de contrôle des techniques de renseignement – ou CNCTR – a déclaré que les « boites noires » étaient à présent opérationnelles, et ce depuis environ un mois.
Ces équipements, surnommés ainsi pendant les débats sur la loi renseignement, doivent permettre aux services de renseignement d’analyser de grands volumes de données afin de détecter toute trace d’une menace terroriste… et c’est tout ce qu’on sait, officiellement.

Le principe et son problème

Pour vous résumer les débats de l’époque, il était question de créer des algorithmes permettant de détecter les terroristes, le tout sans aller lire le contenu des échanges ou des communications, les algorithmes n’utilisant que les métadonnées et pas le contenu direct.
La CNCTR a donné son feu vert à la mise en place desdits algorithmes :
« Nous avons examiné le projet d’algorithme sur le plan juridique. Est-il adapté ? Remplit-il les critères de proportionnalité ? Mais aussi un contrôle technique.
Nous avons des ingénieurs, ce qui permet de le faire. »
A l’époque du projet de loi, en 2015, ces dispositions faisaient débat. Des associations protectrices des libertés individuelles et numériques, comme La Quadrature du Net, dénonçaient la mise en place d’un système de surveillance de masse et une absence de mécanismes de contrôles clairs et adaptés.

Problème n°1 : les métadonnées parlent plus que « la donnée ».

La loi sur le renseignement autorise l’exploitation des métadonnées, c’est-à-dire des informations qui gravitent autour de la donnée sans être de la donnée… exemple : dans un e-mail, l’heure d’envoi, l’expéditeur, le destinataire et tout ce qui n’est pas directement le contenu du mail sont des métadonnées.
Si la loi interdit d’analyser les données, le contenu du mail dans notre exemple, il n’en reste pas moins que ces boites noires posent un vrai problème de confidentialité, les métadonnées étant bien plus parlantes que les données.
En soi, sauf dans des cas de surveillance ciblée, le contenu n’intéresse que très peu les renseignements, ils souhaitent savoir qui communique avec qui, quand, où, comment, à quelle fréquence. Ils souhaitent savoir qui visite quoi, quelle adresse, à quelle heure, combien de fois, etc.
Prenons un exemple très concret, qui ne va utiliser que des métadonnées. Aujourd’hui, un individu a :
  • Consulté un site de vidéos pour adulte pendant 14 minutes
  • Consulté un site d’e-commerce pendant 31 minutes
  • Consulté un site de recherche d’emploi pendant 8 minutes
  • Envoyé 3 mails à doe@example.xyz
  • Envoyé 2 SMS au numéro de téléphone 06xxxxxxxx
  • Envoyé 3 MMS au numéro de téléphone 07xxxxxxxx
  • A effectué deux sorties, d’une durée de 6 minutes pour la première et de 43 minutes pour la seconde
  • Ces trajets, grâce au smartphone de l’individu, sont connus
J’arrête l’exemple ici mais vous l’aurez compris, une journée entière serait bien trop longue. Les métadonnées sont très précises et, par croisement, elles permettent d’identifier une personne assez rapidement.
Ce qui nous amène au…

Problème n°2 : on ne sait pas comment ça fonctionne

Selon M. Delon, pour des « raisons évidentes », les algorithmes des boites sont secrets. On ne sait donc rien d’eux. On peut déjà s’interroger sur les raisons qui font que cet algorithme est secret. Si les critères de l’algorithme peuvent être sensibles, l’algorithme en soi n’a, normalement, rien de cela. Je trouve toujours étonnant que les gouvernements préfèrent la sécurité par l’obscurité à la transparence d’un code, mais passons…
On peut tout de même imaginer que ces derniers ne sont pas en mesure d’intercepter et de casser du trafic chiffré. On peut aussi imaginer que les jeux de données doivent être très larges, afin de permettre aux algorithmes d’avoir assez de matière pour faire le boulot.
On renverse donc un peu plus la logique de surveillance actuelle, en passant d’une surveillance ciblée pour obtenir des informations à l’obtention d’informations sur une population très large pour trouver des individus qui répondent à des critères précis. Autrement dit, on bascule davantage dans la surveillance de masse de tout le monde que dans la surveillance ciblée. Ce qui n’est pas sans poser de nombreux problèmes, comme l’ONU s’en inquiétait à l’époque.
Les algorithmes, ce n’est pas « automagique », des personnes ont travaillé sur ces choses, ont produit du code. Qui ? Comment ? On ne sait pas. On peut donc s’interroger quant à l’impartialité des algorithmes. Sur quels critères ces derniers déclarent que telle ou telle personne a un comportement étrange, voire suspect ? Est-ce que les algorithmes sont assez efficaces pour éviter tout faux positif ? Et même dans ce cas, est-ce que ces techniques ne seraient pas disproportionnées ? Combien de milliers de données passent dans les moulinettes des algorithmes alors qu’elles ne devraient rien y faire ?
La CNCTR déclare que, pour le moment, une seule machine a été déployée, dans un endroit tenu évidemment secret, comme le reste… mais est-ce un test ou une généralisation ?
Vous l’aurez compris, je suis sceptique quant à l’usage et l’efficacité de ces outils, et vous ?
 
 
REF.:

jeudi 11 février 2016

Les 5 technologies qui vont changer le destin de l’Humanité




Le Big Data, les objets connectés, l’impression 3D, les énergies renouvelables et les MOOC sont les cinq technologies qui vont changer le destin de l’Humanité dès ces prochaines années. Explications
Nous qui avons la chance d’être nés au XXe ou XXIᵉ siècle dans un pays dit développé, pensions, en 1960, que les progrès apportés depuis deux siècles avec les révolutions industrielles, que ce soit l’électricité, le téléphone, la télévision, la voiture, le moteur et des milliers d’autres, étaient à nuls autre pareils et que jamais l’être humain ne pourrait connaître dans sa seule existence tous les bouleversements connus en huit générations par ses Anciens. Et pourtant si.
L’adolescent né avec le XXIᵉ siècle, qui a aujourd’hui 15 ans, n’aura plus, autour de son lit de mort un seul objet qui sera semblable à ceux qui entouraient son berceau. Et pourquoi cela ? Parce que nous changeons d’ère.
Jusqu’à ce jour, les progrès accomplis par l’Homme respectaient une progression arithmétique comme chaque année nous comptons les uns après les autres les jours des mois qui se succèdent.
Mais depuis plus de 50 ans, l’Humanité a changé de paradigme. Elle ne compte plus les jours de son destin en ajoutant arithmétiquement les nombres les uns après les autres, 1 – 2 – 3 – 4 – 5 … Son potentiel de connaissances évolue dorénavant de manière exponentielle.
Si nous prenons un mois de 31 jours comme échelle de référence de la vie d’un être humain né (dans un pays développé) en 1965 et qui, statistiquement, deviendra centenaire, cet être humain est aujourd’hui, alors qu’il a 50 ans, au 15e jour de son mois de vie.
Si les technologies avaient progressé depuis 50 ans au même rythme que par le passé, leurs évolutions auraient donc, dans notre exemple, été multipliées par 15 dans ce demi-siècle.
Or, en respectant la loi empirique édictée par Gordon Moore, co-créateur d’Intel, en 1965, le progrès des technologies n’a pas été multiplié par 15 en 50 ans mais par 16.384 (2¹⁴) !
Nous n’en avons pas conscience mais cette loi empirique a bien été respectée depuis 50 ans. Les microprocesseurs qui animent notre monde aujourd’hui sont 16.000 fois plus performants que les premiers microprocesseurs d’Intel !
Mais si je vous disais qu’il vous faudrait porter le nombre à 1.073.741.824 (1 milliard 73 millions) (2³⁰) dans la 31e case de la vie de notre centenaire, en 2065, vous seriez incrédule.
Et pourtant, cette affirmation se révèlera, avec le temps comme réaliste. Depuis l’énoncé de la Loi de Moore, en 1965, le premier demi-siècle nous paraîtra rapidement lascif quand nous constaterons que l’indice totalisant l’ensemble des progrès technologiques doublera tous les 3 ans dans les cinquante ans qui arrivent.
Très vite, l’ordinateur quantique qui remplacera l’informatique binaire actuelle se nourrissant de bits permettra de relever ce défi. Cette loi de Moore que nous pensions réservée à l’informatique jusqu’à ce jour va dorénavant s’appliquer à de nombreuses autres technologies.
Le Big Data qui collationne toutes les données émises par l’Homme ou les machines va suivre la même progression exponentielle.
Toutes les activités qui s’appuient sur le Savoir et qui ont pour finalité d’atteindre un coût marginal zéro comme l’affirme magistralement Jérémie Rifkin dans son dernier ouvrage, comme l’a fait l’informatique avec Internet dans ces 50 dernières années, respecteront cette progression exponentielle dans leur développement.
Aujourd’hui, je ne vais aborder, après avoir cité le Big Data, quatre de ces nouvelles technologies qui dès ces prochaines années vont changer le destin de l’Humanité : les objets connectés, les imprimantes 3D, les énergies renouvelables et les MOOC.
Depuis une quinzaine d’années, nous entendions parler des RFID et régulièrement je les citais dans RT Flash. Mais dans ces dernières années, ces puces RFID ont fait un bond extraordinaire en sachant s’alimenter avec l’énergie des terminaux avec lesquels elles communiquent et en voyant leur prix descendre à quelques cents.
Le développement de ces puces RFID que nous appelons maintenant « objets connectés » va être si rapide que chaque être humain devrait être entouré de 5000 à 7000 objets connectés avant 2030.
Ces objets connectés serviront strictement à tout, que ce soit dans notre vie publique ou dans notre vie privée. Comme l’usage du Web aujourd’hui, l’usage de ces objets connectés sera totalement gratuit. Mais mieux encore, comme les données émises par chaque être humain ou par les objets les entourant seront de plus en plus précieuses pour préparer l’Avenir et imaginer les produits du Futur,  les GAFA (Google, Apple, Facebook, Amazon) ou leurs remplaçants se battront pour nous acheter ces données, ce qui apporte de nécessaires revenus à une Humanité qui aura perdu par ailleurs des centaines de millions d’emplois détruits par une robotisation à outrance.
Dans le développement sidéral que va connaître notre civilisation dans ces prochaines années grâce aux objets connectés je ne vais aborder qu’un seul sujet : la santé.
En observant les travaux actuellement réalisés par les laboratoires de Google et en décryptant les prédictions de Raymond C. Kurzweil, l’un de ses directeurs, il n’est pas déraisonnable d’affirmer que les nombreuses morts liées, aujourd’hui, au cancer, aux maladies cardio-vasculaires, ou maladies dégénératives et bien d’autres maladies, devraient avoir presque totalement disparu à l’échéance d’une génération. Pourquoi cela ?
Parce que la médecine curative actuelle (qui traite une maladie seulement lorsque celle-ci s’est déclarée) aura été remplacée grâce aux objets connectés par une médecine prédictive.
Il suffira que quelques cellules dans un organisme soient atteintes par un cancer, alors qu’aujourd’hui il en faut des millions sinon des centaines de millions pour les déceler, pour qu’immédiatement le système automatisé qui surveille la santé de chacun avec des objets connectés vous conseillera (vous obligera ?) d’aller voir immédiatement un spécialiste qui, avec des nanostructures, vous détruira aussi facilement ces cellules cancéreuses qu’on le fait aujourd’hui pour les bacilles avec un antibiotique.
Il en sera de même avec les maladies cardio-vasculaires et bien d’autres maladies évoluant aujourd’hui sans bruit pendant des années et qui, maintenant, grâce à des « objets connectés » qui très tôt détecteront de faibles signaux de souffrance, indétectable avec nos outils actuels de surveillance et d’analyse, permettront de prendre, à temps, toutes les mesures qui élimineront toutes les évolutions fatales. Si ces « objets connectés » avaient existé il y a seulement quelques courtes années, notre ami Jean-Michel Billaut, n’aurait pas eu à souffrir d’une rupture d’anévrisme poplité.
Certes, l’Homme devra continuer à se battre pour découvrir toutes les démarches curatives pour tous ceux qui ayant échappé ou s’étant dérobés à la surveillance des « objets connectés » continueront à souffrir de cancers, de maladies cardio-vasculaires ou de toute autre maladie.
Mais il faut avoir bien conscience que le sort de l’Humanité passe bien à cette médecine prédictive et non par la seule médecine curative telle que la pratiquent aujourd’hui les pays les plus riches car, dans un demi-siècle, avec les 9 milliards de terriens, l’Humanité n’aurait pas la capacité financière de faire face à un tel défi.
Abordons, maintenant, une autre technologie qui elle aussi va changer l’avenir de l’Humanité : l’impression 3D.
Cette impression 3D va devoir très prochainement changer de nom tant elle va de moins en moins ressembler à notre vieille imprimante papier pour, de plus en plus, faire penser à l’image de la création du premier Homme dans la Genèse telle que l’a génialement imaginée Michel Ange dans son immortelle fresque de la Chapelle Sixtine.
L’impression 3D va connaître le même développement exponentiel que celui du « personal computer » (PC) depuis 40 ans.
Comme pour l’informatique, les technologies des imprimantes 3D vont tendre vers un coût marginal zéro. Les « makers » qui se comptent déjà en centaines de milliers à la surface de la Terre (les premières années du développement exponentiel d’une nouvelle technologie sont quasi invisibles pour le commun des mortels !) n’ont pas répété la malheureuse erreur des débuts de l’informatique avec des operating systems (OS) propriétaires. Ils ont choisi, dès l’origine, de partager universellement toutes leurs connaissances au travers de logiciels ouverts.
Les progrès de cette technologie révolutionnaire vont être foudroyants. On a déjà su reconstituer l’exact visage d’une personne horriblement défigurée par un accident et les chercheurs ont déjà su fabriquer des objets complexes faisant appel à de nombreux composants différents. Ces technologies qui permettront à terme de tout faire en partant de rien vont ouvrir des champs encore inconnus à l’imagination de l’Homme.
Pourquoi, ces imprimantes 3D vont-elles prendre une importance si grande ?
Tout d’abord parce que leur mode de production totalement automatisé repose sur une méthode additive et non soustractive.
Ainsi, aujourd’hui, pour fabriquer un meuble il faut abattre un arbre, en couper les branches, enlever l’écorce et le débiter en planches. Il faut ensuite raboter ces planches et les découper pour en faire toutes les pièces du meuble. Quant à la fin de la fabrication le bilan est dressé, nous constatons que seuls 10 % de l’arbre ont été utilisés pour fabriquer le meuble et que quelque 90 % ont été soit jetés, soit sous-utilisés.
Avec une Terre qui n’a pas les capacités naturelles d’accueillir 9 milliards d’êtres humains, avec leurs gaspillages actuels, il est grand temps d’imaginer et fabriquer des produits qui n’utiliseront qu’un strict minimum de ressources naturelles.
De plus, avec la mondialisation intégrale des process de production de ces imprimantes 3D, nous pourrons fabriquer n’importe où dans le Monde n’importe quel objet. Il suffira que vous ayez eu la précaution de prendre la photo 3D (la photo du Futur) de tout objet vous entourant pour qu’immédiatement vous le reproduisiez dans votre Fab-Lab personnel et ce pour un coût très proche de zéro.
Ainsi, même si vous cassez une belle assiette ancienne de belle-maman, vous pourrez en « fabriquer » une nouvelle avant même que votre épouse soit de retour !
Avec ces nouvelles technologies d’impression 3D, il sera devenu absurde de fabriquer à l’autre bout du monde, en Chine par exemple, des objets dont les prix ne feront que décroître alors qu’il vous faudrait des centaines de kilos de CO² pour les faire transporter jusqu’à vous.
Les objets les plus complexes à reproduire se feront dans des Fab-Lab départementaux qui ne seront jamais à plus d’une journée de cheval de votre domicile comme disaient les révolutionnaires en 1790…
Mais dans votre propre unité urbaine, il y aura des Fab-Lab qui pourront fabriquer 90 % des objets vous environnant. Chez vous, si vous le voulez,  vous pourrez même avoir des imprimantes 3D qui pourront reproduire la moitié des objets meublant votre intérieur.
Avez-vous bien conscience, vous qui me lisez en cette année 2015, que des Chinois viennent de fabriquer, en une journée, la première maison entièrement fabriquée par une monumentale imprimante 3D et ce pour moins de 300 € ?
Parlons maintenant d’une autre technologie qui, elle aussi, va changer le destin du Monde.
Après des millénaires et des millénaires d’adoration, l’Homme va enfin utiliser le Soleil pour en capter une partie de l’énergie qu’il envoie à notre Terre depuis des milliards d’années pour se fournir totalement en énergie. Les meilleurs spécialistes ont calculé qu’il suffirait à l’Homme de capter seulement 10 % de l’énergie envoyée par le Soleil pour subvenir à tous ses besoins.
Comme cette énergie reçue du Soleil est gratuite et restera gratuite, ceci signifie qu’à terme, à court terme (20 ans) devrais-je même dire avec la courbe exponentielle que va suivre son utilisation, l’énergie utilisée par l’Homme sera quasi gratuite. Sans bruit, le rendement des panneaux photovoltaïques a respecté la Loi de Moore depuis 20 ans et devrait encore la respecter pendant ces prochaines décennies.
Avec la gestion globale de l’énergie grâce au « smart grid » qui révolutionnera autant le monde qu’Internet et le Web en permettant à chacun, à chaque instant, de distribuer et de recevoir toute l’énergie qu’il aura en surplus ou dont il aura besoin.
Cette énergie à un coût marginal zéro sera un élément fondamental de pacification de l’ensemble de notre Planète.
Avant de conclure, abordons un dernier sujet qui va dorénavant dominer tout ce que je viens de traiter et qui va accélérer de façon exponentielle les mutations de l’humanité : les MOOC (Massive Open Online Course) que l’on peut traduire par « Cours en ligne ouvert et massif ».
Jusqu’à maintenant, seule une partie de l’Humanité a pu accéder au Savoir. Ce qui signifie que tous les autres seraient commandés par les robots de demain et ne pourraient en rien les dominer.
Maintenant, alors que les plus grands cours magistraux pourront être accessibles gratuitement, grâce aux MOOC, à tous les habitants de notre Terre, nous allons assister dès ces prochaines années à une réelle explosion de l’intelligence collective et individuelle de l’Humanité.
Les innovations comme les découvertes fondamentales vont éclore par milliers et nous allons assister, avec la traduction automatique dans toutes les langues, à un foisonnement encore difficilement imaginable aujourd’hui de nouveautés qui vont révolutionner tous les secteurs de l’activité humaine et toutes nos connaissances.
Ainsi, ce changement de paradigme qui voulait depuis des millénaires que l’évolution suive une progression arithmétique, et qui maintenant va se transformer en progression exponentielle, va avoir des conséquences fondamentales encore insoupçonnées. Ainsi l’Homme, lui-même, va plus évoluer dans ce prochain siècle qu’il n’a pu le faire, génération après génération, depuis des millions d’années. Cette mutation sera liée au fait que les mutations génétiques seront, elles-aussi, soumises à cette courbe exponentielle qui soutient mon raisonnement depuis le début de cet édito.
C’est dans cette mutation que réside, sans conteste, le plus grand défi auquel l’Homme va devoir faire face depuis son origine.
Les scientifiques voyant arriver ce bouleversement fondamental commencent à spéculer sur le fonctionnement du cerveau humain. Ils affirment que notre cerveau fonctionne avec des lois respectant la physique quantique, ce qui expliquerait que certains génies soient capables d’imaginer en quelques instants des situations que tous les ordinateurs de ce jour réunis en un seul ensemble ne pourraient même ne pas encore approcher.
Il est nécessaire que cette spéculation devienne une réalité car, sans cela, dans des temps maintenant très courts, l’intelligence humaine pourrait être dépassée par la machine que nous aurions inventée.
Mais il est vrai que l’Imagination et l’Amour sont incommensurables et que ces sentiments, qui n’appartiendront pour des millénaires encore qu’à l’Homme, n’auront rien à craindre de toute progression exponentielle.



Source.: 
RTflash, cet article est aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.

Un monde prévisible: avec le Big data et l'intelligence artificielle






Encore abstraites, les technologies du Big data et de l'intelligence artificielle pourraient elles aboutir à la disparition du hasard au profit d'un monde où tout puisse être anticipé ? C'est l'interrogation de René Trégouët, dans cette nouvelle chronique
Certaines ruptures technologiques sont particulièrement visibles et frappent les esprits : c’est par exemple le cas pour les tablettes numériques, les voitures électriques ou encore de l’éclairage par LED. Mais certaines révolutions techniques se déroulent sous nos yeux sans que nous en soyons vraiment conscients : tel est le cas des « Données massives » (Big Data). En seulement cinq ans, les données massives et leur traitement intelligent ont déjà profondément bouleversé l’ensemble des secteurs d’activité économique et scientifique… et ce n’est qu’un début !
Dans le domaine capital de la production d’énergie propre par exemple, nous allons être confrontés au cours du prochain quart de siècle à un redoutable défi mondial : assurer au moins la moitié de notre production totale d’énergie à partir de sources d’énergies renouvelables, principalement le vent, le soleil, et les énergies marines. Mais ces sources d’énergie, si elles présentent l’immense avantage d’être à la fois gratuites, inépuisable et très faiblement émettrices de gaz à effet de serre, présentent aussi le redoutable inconvénient d’être diffuses et intermittentes. Dès lors, pour que les réseaux de distribution -et notamment le réseau électrique- soient capables d’absorber une part de plus en plus importante d’énergie issue de ces sources renouvelables, il est absolument capital de pouvoir lisser et gérer les fluctuations considérables de production liées aux brusques changements météorologiques. Les outils de prévision de production d’énergie solaire ont d’ailleurs été désignés comme « technologie de rupture majeure » par le MIT en 2014.
La jeune société Reuniwatt, basée à la Réunion et fondée en 2010, a décidé de relever ce défi en combinant les technologies du Big Data, Intelligence Artificielle, météorologie, traitement d’images-satellites et d’images grand-angle du ciel. En quelques années seulement, Reuniwatt est devenue l’un des leaders mondiaux de la prévision d’énergie solaire grâce à son outil d’aide à la décision Soleka. Ile très ensoleillée, La Réunion souhaitait intégrer dans son mix énergétique une part majoritaire provenant des énergies renouvelables. Mais une telle montée en puissance des énergies propres, et notamment de l’énergie solaire, n’était envisageable qu’à la condition de pouvoir prévoir de manière particulièrement fiable l’évolution de la production d’électricité solaire en fonction des aléas de la météo.
Au terme de cinq années de recherche, Reuniwatt a réussi à mettre au point un remarquable logiciel prédictif, baptisé Soleka. Cet outil, reconnu au niveau mondial pour son excellence, fonctionne à trois horizons temporels (les prévisions allant de la minute à plusieurs jours à l’avance) et pour l’ensemble des acteurs de l’énergie, producteurs, distributeurs et consommateurs. En utilisant de manière intelligente et particulièrement ingénieuse des données massives, Soleka a donc réussi à faire sauter un obstacle très important vers la production prévisible à très grande échelle d’énergie solaire.
Autre domaine dans lequel les données massives sont en train de s’imposer : la biologie et la médecine. A l’institut Pasteur, le professeur Marco Vignuzzi et son équipe ont développé une méthode très innovante pour comprendre les mutations virales des ARN à partir de souches du Chikungunya ayant été isolées avant qu’elles ne mutent. Appliqué au virus du Chikungunya, de l’hépatite C ou de la grippe, cet outil permet de comprendre et de prévoir ce mécanisme de progression infectieuse. « Avant, on était obligé de séquencer un seul génome de virus à la fois ; mais à présent le séquençage à haut débit permet de couvrir la totalité d’une population virale qui existe au sein d’un même échantillon », souligne M. Vignuzzi.
Cette nouvelle approche prédictive devrait non seulement permettre de repérer en amont les mutations virales au potentiel épidémique important, mais devrait également déboucher sur la conception d’une nouvelle génération de vaccins plus efficaces, créés à partir des données observées et des schémas de mutations qui en découlent.
Une autre équipe américaine de l’Université d’Harvard, dirigée par le professeur Kou, a présenté il y a quelques semaines un modèle baptisé ARGO (AutoRegression with GOogle search data), capable de suivre en temps réel différentes épidémies de grippe. Ce modèle statistique de nouvelle génération, qui utilise notamment les données de Google, est présenté comme « flexible, robuste, auto-correctif et évolutif ». Bientôt disponible en « open source », ARGO va constituer un outil particulièrement précieux pour les pouvoirs publics et autorités de santé qui vont pouvoir planifier et gérer de manière beaucoup plus fiable les campagnes de vaccination contre la grippe. Il faut en effet rappeler que cette maladie, parfois présentée à tort comme bénigne, tue environ 500 000 personnes dans le monde chaque année. Il faut également rappeler qu’en France, plus de 18 000 personnes sont mortes de la grippe l’année dernière…
On peut aussi évoquer le lancement cet été par la fédération Unicancer d’un outil d’analyse sémantique appelé ConSoRe (Continum soins-recherche) qui va exploiter l’ensemble des données générées par les 18 centres de lutte contre le cancer (CLCC) afin notamment de simplifier la mise en place de programmes de recherche. Il permet d’effectuer des recherches en texte libre, « à la Google », ou multicritères. Le système fonctionne comme « une moulinette de traitement » qui effectue « une analyse sémantique des dossiers ». Son point fort est qu’il peut lancer des requêtes sur l’ensemble du corpus documentaire du patient. Concrètement, l’outil peut faire le lien entre un critère A présent dans un compte rendu et un critère B présent dans la base pharmaceutique, par exemple.
Cet outil permet de simplifier la mise en place de programmes de recherche par la constitution facilitée de cohortes de patients. Mais à terme, ConSoRe a des objectifs bien plus vastes et ambitieux et permettra, comme le fait déjà Watson, l’ordinateur intelligent d’IBM aux Etats-Unis, de proposer à chaque patient un traitement entièrement « sur mesure », conçu en fonction des spécificités biologiques et génétiques individuelles du malade.
Comme je vous l’ai déjà dit il y a quelques semaines, l’utilisation de ces données massives s’est également imposée dans le domaine de la sécurité et de la lutte contre le crime. L’année dernière par exemple, la ville de Santa Cruz, en Californie, a réussi à faire baisser de 27 % sa criminalité globale grâce à l’utilisation du nouveau logiciel PredPol. Cet outil de prévision criminelle est également utilisé depuis un an par la police du Kent, en Grande-Bretagne. Se présentant sous la forme d’une carte, actualisée en permanence, PredPol existe aussi en version « mobile », pour smartphone ou tablette, et permet aux policiers de mieux prévenir activement la criminalité en concentrant leurs actions sur les zones à risques.
PredPol est dérivé des programmes de prévention des séismes. Il analyse, grâce à des algorithmes spécifiques, une multitude d’informations contenues dans une gigantesque base de données qui recense toutes les infractions passées dans une aire précise (quartier, ville ou région). À présent, de nombreuses grandes villes américaines, comme New York ou Los Angeles, utilisent avec beaucoup de satisfaction PredPol.
En Europe, des chercheurs ont mis au point après cinq ans de travaux, dans le cadre d’un programme européen de recherche, l’outil Indect qui vise à mieux lutter contre les activités criminelles ou terroristes grâce à la détection automatique intelligente d’événements et de situations « à risque ». Ce système permet, notamment, d’effectuer, avec des taux de réussite pouvant dépasser les 90 %, le traçage et le suivi de personnes et d’objets, ainsi que leur identification. Couplé aux caméras de vidéosurveillance, Indect peut aussi repérer des comportements anormaux dans une foule, ce qui peut évidemment s’avérer extrêmement précieux dans le nouveau contexte actuel de lutte mondiale contre le terrorisme.
En France, la gendarmerie expérimente depuis quelques mois un nouveau logiciel prédictif pour anticiper les grandes tendances de la délinquance sur le territoire. L’idée est d’analyser certaines catégories de délits fréquents – les cambriolages, les vols, les trafics de stupéfiants ou encore les agressions sexuelles – s’étant produits au cours des cinq dernières années, pour en extraire les points de comparaison et les singularités et essayer de prévoir où et quand ces types de crimes et délits risquent de se reproduire dans un proche avenir.
Outre-Atlantique, la ville de New York utilise depuis juillet 2013 un nouvel outil logiciel destiné à mieux prévenir les 3 000 incendies majeurs qui se déclenchent chaque année dans cette mégapole. Cet outil prédictif explore et recoupe 60 critères, puis attribue une note de risque à chacun des 330 000 immeubles répertoriés dans sa base de données. Chaque semaine, ce logiciel peut ainsi fournir aux pompiers de la ville la liste des bâtiments à aller inspecter car pouvant être le foyer du prochain incendie (Voir The Wall Street Journal).
Les outils d’analyse prédictive ont également récemment fait leur apparition dans le secteur de l’industrie aéronautique. Depuis quelques mois, l’ensemble des 1,6 giga-octets de données provenant de 24 000 capteurs embarqués et correspondant à chaque vol d’un Airbus A380, sont récupérées par Wi-Fi puis transmises au centre d’ingénierie et de maintenance d’Air France KLM à Toulouse. Ces données sont alors comparées et recoupées, grâce à un moteur d’analyse prédictive, avec des données d’exploitation de toute la flotte des A380 pendant les deux dernières années. Ce nouvel outil a fait la preuve de son efficacité pour prévoir et détecter les pannes sur la pompe de circulation, le composant le plus fragile du circuit qui amène le carburant aux moteurs. A partir de janvier 2016, le système sera étendu à d’autres équipements fragiles des A380 puis à d’autres avions de la compagnie comme les Boeing 777.
Ce système est si fiable et si précis que les techniciens peuvent à présent intervenir rapidement et directement sur la pièce responsable de la panne, sans suivre le manuel technique de l’avion. Le temps d’identification et de localisation de l’origine de la panne passe ainsi de 6 heures à seulement 5 minutes, ce qui permet un gain de temps et d’argent très important pour la compagnie.
À Lyon, la start-up ForCity, fondée en janvier 2014, a développé une plate-forme du même nom qui permet de modéliser une ville miroir numérique. Cette ville miroir est ensuite rendue dynamique par des modèles mathématiques simulant l’évolution du territoire au cours du temps. Cet outil de simulation numérique permet alors aux collectivités et aux entreprises de simuler une multitude de scénarios correspondants à des évolutions de territoire, en faisant varier de nombreux paramètres  (population, transports, énergie, attractivité d’un quartier, etc). Parmi les clients de ForCity, on trouve par exemple Veolia Asia pour qui cette société a développé une maquette numérique de Hong Kong, afin d’étudier les interactions entre le territoire et les métiers de Veolia : valorisation des déchets, cycle de l’eau, distribution de froid dans les bâtiments.
La gestion et la comptabilité des entreprises n’échappent pas non plus à cette révolution des données massives : Cegedim SRH a ainsi développé une solution de pilotage pour gérer la masse salariale et formuler des hypothèses de manière prédictive. Cet outil est entièrement dédié au pilotage de la masse salariale. Il permet aux entreprises d’anticiper les départs à la retraite, d’évaluer les futurs besoins en compétences, ou encore de bâtir un plan prévisionnel de gestion des ressources humaines en tenant compte de l’évolution de la pyramide des âges dans l’entreprise…
Là encore, ce logiciel exploitant le Big Data a permis d’effectuer un saut décisif entre la simulation et la prédiction. Grâce à ce système, lorsqu’une entreprise octroie une augmentation ou une prime à ses collaborateurs, elle peut désormais avoir une vue d’ensemble, sur le long terme, des impacts que sa politique salariale  va avoir sur les charges sociales et patronales, sur les mutations, sur les processus de mobilité interne.
Mais cette analyse d’une masse gigantesque de données peut également permettre aux recruteurs publics ou privés de mieux cerner le profil et les aptitudes d’un candidat pour un poste donné. Il existe déjà des tests, comme le questionnaire de personnalité PAPI, qui consiste à vous faire répondre à une longue série de questions, qui croisées, créent une sorte d’organigramme reflétant votre comportement en entreprise. Mais en combinant les potentialités des données massives et de l’apprentissage automatique, on peut aller encore plus loin. Ainsi, le service Watson Developer Cloud BlueMix d’IBM permet d’analyser votre personnalité, et d’en dresser là aussi une carte.
En outre, les algorithmes peuvent même permettre de prédire le départ d’un salarié. Le Crédit Suisse utilise ainsi ses données pour évaluer les risques qu’un employé quitte l’entreprise, en fonction de ses performances, de son lieu de vie, de ses traits de personnalité, ou encore de ses interactions sociales. L’objectif est bien sûr de repérer les collaborateurs les plus précieux qui risquent de partir, afin de les garder au moyen de primes et d’augmentations de salaires… (Voir The Wall Street Journal).
Les outils prédictifs intelligents sont également en train de révolutionner le secteur de la vente et de l’immobilier. Aux États-Unis, Smartzip propose par exemple à un agent immobilier de scanner une zone, à partir du code postal, ce qui correspond aux Etats-Unis à un quartier. Ce logiciel permet d’analyser l’ensemble des données associées à toutes les adresses répertoriées et le professionnel peut ainsi savoir très rapidement si tel ou tel résident est propriétaire, depuis quand et quel est le montant et la durée de son crédit immobilier. Au final, cet outil permet d’identifier les biens immobiliers qui ont le plus de chances d’être vendus dans l’année qui suit. Signalons au passage qu’en France, l’utilisation de ce type d’outils prédictifs extrêmement puissants n’est pas encore possible car il se heurte à un cadre législatif et réglementaire européen et national plus strict qu’aux États-Unis et qui restreint de manière beaucoup plus drastique l’utilisation à des fins commerciales des données personnelles sans le consentement exprès des consommateurs…
Il faut encore évoquer l’outil prédictif très futuriste mis au point par une jeune chercheuse israélienne, Kira Radinsky, qui a été classée parmi les 35 jeunes les plus innovants au monde, par le magazine MIT Tech Review. L’algorithme imaginé par cette brillante scientifique repose sur un vaste ensemble de faits de toute nature (épidémies, guerres, catastrophes, crises économiques) qui se sont déroulés dans le passé. Selon Kira Radinsky, même si, chaque événement survient dans des circonstances particulières, il obéit tout de même à un modèle déjà observé dans le passé et qui obéit à certaines lois subtiles et utilisables. Ce logiciel de recoupement de données (Link Data), croise des milliards d’informations afin d’en extraire les corrélations et points communs. Il est alors possible, en recourant à des modèles mathématiques de prévisions, de calculer les probabilités d’occurrence de faits semblables. Cet outil serait capable, selon sa conceptrice, de prévoir 90 % des risques épidémiques, une performance hors d’atteinte pour le cerveau humain.
L’exploitation intelligente des données massives est donc devenue très rapidement l’un des nouveaux moteurs de mutation numérique en cours dans nos économies développées. Il suffit d’ailleurs pour s’en convaincre d’observer la progression de ce marché au niveau mondial. Selon une récente étude du cabinet IDC, celui-ci passera globalement de 3,2 milliards de dollars en 2010 à 48 milliards en 2019 ! On le voit, cette révolution des données massives n’en est encore qu’à ses prémices : selon une étude réalisée par Pure Storage, trois entreprises sur quatre déclarent collecter des informations qui ne sont pas exploitées, soit par manque de moyens humains et techniques soit par manque de temps.
Soulignons enfin que les enjeux liés à la généralisation de ces nouveaux outils de prédiction intelligente ne sont pas seulement scientifiques et économiques mais également sociaux et humains. Face à un chômage de masse persistant, l’utilisation intelligente des données massives pourrait en effet permettre une mise en relation beaucoup plus fluide et efficace de l’offre et de la demande de compétences sur le marché du travail. Il faut en effet savoir qu’en France, on estime (selon les données de Pôle Emploi et du Medef) à 570 000 par an le nombre de postes qui ne peuvent être pourvus qu’avec de grandes difficultés et à 400 000 chaque année celui des emplois qui ne trouvent pas preneurs, faute de candidats possédant les compétences requises…
L’utilisation généralisée de ces nouveaux outils extrêmement puissants dans les domaines du travail et de la formation professionnelle devrait donc permettre d’exploiter bien plus efficacement de vastes gisements d’emplois, aujourd’hui inaccessibles mais également d’adapter et d’anticiper de manière active l’évolution des filières de formation professionnelle, ce qui permettrait à chacun de trouver sa place dans notre société, et à notre Pays de tirer pleinement profit les mutations techno économiques en cours au lieu de les subir.
Reste que l’utilisation de plus en plus pertinente et pointue d’une quantité toujours plus grande de données concernant nos activités et nos vies soulèvent de réelles interrogations éthiques et politiques. Comment en effet s’assurer que l’utilisation à des fins scientifiques mais également commerciales, sociales ou politiques de toutes ces données, se fait bien avec le consentement « libre et éclairé », selon la formule juridique consacrée, de tous les acteurs ? Jusqu’où sommes-nous prêts à limiter la protection de nos données personnelles pour vivre dans une société plus efficace, plus performante et plus confortable ? Ces questions essentielles, qui ne peuvent avoir de réponses simples, seront, soyons-en assurés, au cœur du débat démocratique de ces prochaines années.
 

Source.: publié sur RTflash, cet article est reproduit aussi sur Übergizmo France avec l’aimable autorisation de René TRÉGOUËT, Sénateur Honoraire et fondateur du Groupe de Prospective du Sénat de la République Française.