Rechercher sur ce blogue

Aucun message portant le libellé reconnaissance faciale. Afficher tous les messages
Aucun message portant le libellé reconnaissance faciale. Afficher tous les messages

jeudi 12 mars 2020

Les entreprises pourraient devenir des enquêteurs,avec la technologie de reconnaissance façiale



Les entreprises pourraient devenir des enquêteurs,avec la technologie de reconnaissance façiale ,indirectement par la vente du système de Bell





reconnaissance faciale, hackers, vol d'identité, anonymat, vol,


Bell veut vous faire suivre en continu

Alors que les autorités enquêtent sur des systèmes de reconnaissance faciale, La Presse a appris que Bell voulait vendre cette technologie aux entreprises. Si le géant des télécommunications va de l’avant, ses clients d’affaires pourraient utiliser son outil haute performance pour identifier et surveiller des milliers de visages à la minute – dans des hôtels, épiceries, boutiques, banques, stades ou lieux de travail.
Marie-Claude Malboeuf Marie-Claude Malboeuf
La Presse

Un outil pour « surveiller les individus »

Malgré la controverse croissante entourant cette technologie, Bell veut vendre aux entreprises un système de reconnaissance faciale capable de vérifier « instantanément » l’identité des gens, de détecter leurs comportements et de les « suivre en continu ».
La Presse a appris que le géant des télécommunications avait suggéré à ses clients d’affaires de l’utiliser pour surveiller et cibler les personnes qui entrent dans leurs hôtels, épiceries, boutiques, banques, stades ou lieux de travail.
Sa technologie « haute performance » capte les visages à l’aide de caméras et les compare à « une large banque de données archivées », peut-on lire sur une page du site web de Bell. Cette page en anglais semble non indexée et ne nous a pas été accessible à partir d’un moteur de recherche.
Bell a refusé de nous accorder une entrevue, mais a répondu par courriel qu’elle « ne propose pas de services de reconnaissance faciale en ce moment ». Sa page web a été construite à des fins promotionnelles, pour « déterminer le niveau d’intérêt potentiel de ce service et s’il pourrait être un produit viable », a écrit la porte-parole Caroline Audet.
Bell est présente en télécommunications, en télévision, en radio et en affichage, et a encaissé 3,25 milliards de profits sur des revenus de 24 milliards en 2018. Si les nombreuses entreprises qu’elle dessert achetaient massivement son système de reconnaissance faciale, des milliers de Canadiens pourraient bientôt être surveillés et reconnus dans toutes sortes de lieux – sans forcément s’en rendre compte ni en avoir réellement le choix.
« Même avec un éclairage de bas niveau et avec des données vidéo de faible qualité, l’analyse vidéo de Bell est capable de compter et de suivre en continu les personnes et les objets », précise son site. Le système d’intelligence artificielle envoie des « alertes instantanées » aux responsables de la sécurité et permet de « prendre des décisions plus rapides et intelligentes ».

Repérer les clients riches

La semaine dernière, les commissaires à la protection de la vie privée du Canada ont fait état de leurs « préoccupations croissantes quant à l’utilisation de la reconnaissance faciale » et déclenché une enquête nationale sur l’une de ces technologies, Clearview AI, utilisée par des centaines de corps policiers, dont certains canadiens.
D’après une note en petits caractères, masquée par le signe « + » au pied de sa page web, Bell cherche de son côté à revendre l’outil d’une immense société japonaise, NEC, qui a entre autres mis au point un système appelé NeoFace, dès 2002. Il sera employé aux Jeux olympiques de Tokyo l’été prochain, et permet d’analyser des milliers de visages par minute pour faire de la surveillance ou du marketing, selon le site web de NEC.
Sur son propre site, Bell suggère par exemple aux banques d’utiliser la reconnaissance faciale pour détecter aussi la présence de « déposants fortunés » et de « clients VIP » afin de leur offrir des avantages. La même chose est possible dans les hôtels et les boutiques.
À l’autre extrême, toujours selon son site, l’outil promu par Bell « détecte les comportements suspects », « surveille les individus », repère les gens inscrits sur une liste noire et envoie des « alertes instantanées » aux responsables de la sécurité. Les indésirables peuvent ainsi se voir bloquer l’accès à un commerce ou à un guichet automatique « pour éviter les vols et les pertes ».
Autres possibilités : « garde[r] en mémoire le nombre, le mouvement et le comportement des personnes sur plusieurs sites », automatiser l’accès aux stades (sans billets), mieux répartir le personnel selon l’achalandage et les files d’attente, etc.
1/6
Sur son site, NEC vante le fait que la reconnaissance faciale puisse se faire « sans interagir avec l’individu en train d’être identifié ».
Ce sont deux Torontois férus de technologie, Sydney Eatz et Richard Trus, qui ont déniché la page web de Bell et l’ont transmise à La Presse. Ils se surnomment « la police de l’internet », parce qu’ils ont dénoncé plusieurs dérives à des médias torontois depuis deux ans. Sydney Eatz a aussi déposé un mémoire sur Google devant un comité de la Chambre des communes.
« Facebook a dû payer 550 millions de dollars US pour régler hors cours un recours collectif, après avoir utilisé la reconnaissance faciale aux dépens de la vie privée, a-t-elle dit à La Presse en entrevue. Ça démontre que faire de la reconnaissance faciale sans obtenir le consentement des gens a un coût. »

Pire que la police

Le projet de Bell inquiète les défenseurs et les experts de la vie privée joints par La Presse.
« Jusqu’à récemment, l’identification biométrique était limitée à la police dans le cadre d’enquêtes criminelles, mais maintenant, c’est en train d’être généralisé un peu partout », dit Dominique Peschard, porte-parole de la Ligue des droits et libertés.
En plus de jumeler les visages, le système promu par Bell suggère des décisions aux employés des entreprises qui en feraient usage. « Mais ces algorithmes sont secrets et on ne sait pas comment ils fonctionnent, souligne M. Peschard. La personne ne sait donc pas selon quel critère elle a été jugée, pourquoi telle décision a été prise. »
Les commissaires à la vie privée du Canada commencent enfin à se rendre compte des dangers de ces technologies et à lancer des consultations, dit-il.
En attendant, c’est le “free for all”, les entreprises profitent du vide. Ça prend un moratoire jusqu’à ce qu’on ait adapté nos lois pour se protéger contre les abus potentiels.
Dominique Peschard, porte-parole de la Ligue de protection des droits et libertés
Pour Dominic Martin, spécialiste de l’éthique de l’intelligence artificielle et de la gestion de l’éthique en entreprise, « il faut fixer les conditions d’utilisation et instaurer des moyens de contrôle, parce que la reconnaissance faciale a le potentiel de mener à des écarts éthiques importants ». Il faut résoudre plusieurs questions de toute urgence, précise le professeur de l’Université du Québec à Montréal. Jusqu’où va-t-on aller dans l’enregistrement des moindres faits et gestes d’un individu ? Avec quoi va-t-on recouper ces images ? Et à qui on va vendre le tout ?
Autre écueil : lors de tests, des outils de reconnaissance faciale ont fait plus d’erreurs lorsqu’ils analysaient les images de personnes à la peau foncée. Ce qui augmente le risque de les confondre avec un suspect fiché – comme un voleur à l’étalage –, avec la discrimination et les ennuis que cela suppose (1).
L’outil proposé par Bell s’est classé parmi les plus performants lors de tests organisés par l’industrie. Mais à Londres, où la police l’utilise depuis 2016 pour filmer les rues et repérer les gens inscrits sur une liste noire, seulement 19 % des 42 personnes signalées par l’algorithme correspondaient vraiment à leur « sosie » fiché, selon une étude de l’Université d’Essex, commandée par le gouvernement britannique et publiée en 2019.

Plus libres que la police

« Si on ne fixe pas de limites, les entreprises pourraient devenir des enquêteurs automatiques, se faire justice à elles-mêmes ou faire d’immenses parties de pêche. Elles auront les coudées plus franches que la police, prévient Pierre Trudel, professeur de droit de l’information et du cyberespace à l’Université de Montréal. Au Canada, la police ne peut filmer vos allées et venues sans avoir demandé une autorisation judiciaire ni filmer tout le monde au cas où elle trouverait quelque chose. »
Le potentiel d’intrusion est considérable. Le législateur doit courir pour faire du rattrapage, car il y a un défaut affligeant d’encadrement.
Pierre Trudel, professeur de droit de l’information et du cyberespace à l’Université de Montréal
La Commission d’accès à l’information du Québec (CAI) dit prendre le déploiement de la reconnaissance faciale « très au sérieux ». « On suit la situation de très près et ça fait des années qu’on suggère d’actualiser la loi pour que la biométrie soit plus balisée », a dit en entrevue la porte-parole de l’organisme, Isabelle Gosselin.
Quiconque achèterait la technologie proposée par Bell devrait obligatoirement s’inscrire au Registre des déclarations des banques de mesures biométriques de la CAI, précise-t-elle, car la Loi sur les technologies de l’information l’exige.
Les fournisseurs doivent pour leur part respecter les lois sur la protection des renseignements personnels – en obtenant par exemple le consentement des cibles et en agissant « par nécessité ». « Et on ose tenir pour acquis qu’ils le font », avance Mme Gosselin.
(1) Les personnes d’origine afro-américaine ou asiatique ont entre 10 et 100 fois plus de risques d’être reconnues erronément par les algorithmes de reconnaissance faciale que les Caucasiens, selon un rapport d’évaluation du National Institute of Standards and Technology, basé sur des tests réalisés sur 189 logiciels. Le taux d’erreur est encore plus élevé lorsqu’il s’agit d’Afro-Américaines.

De l’inconnu et des craintes

Comment se déploie de manière très concrète la reconnaissance faciale dans les entreprises canadiennes ? Le point en six questions.

Les entreprises doivent-elles obtenir notre consentement pour nous identifier avec des caméras ?

Oui, répond Isabelle Gosselin, porte-parole de la Commission québécoise d’accès à l’information.
Mais la possibilité de refuser son consentement est souvent « ténue ou pratiquement inexistante », nuance Dominic Martin, spécialiste de l’éthique de l’intelligence artificielle et de la gestion de l’éthique en entreprise.
« Quand il y a des caméras dans l’environnement, on ne peut pas les éteindre. Il faudrait carrément cesser de fréquenter certains lieux ou quitter son emploi pour ne pas faire l’objet d’une surveillance accrue », souligne le professeur qui enseigne à l’Université du Québec à Montréal.

Combien d'entreprises utilisent la reconnaissance faciale au pays ?

Dans les autres provinces, on l’ignore. Environ 16 % des magasins Canadian Tire qui y sont établis s’en servent déjà pour lutter contre le vol à l’étalage, selon un reportage publié en février 2019 par CTV News. Et une chaîne d’alimentation présente en Ontario et en Colombie-Britannique a déclaré en novembre qu’elle ferait payer ses clients avec leur visage pour accélérer leur passage à la caisse.
Au Québec, la loi oblige à déclarer toute banque de données biométriques à la Commission d’accès à l’information, et neuf entreprises ont indiqué faire de la reconnaissance faciale, révèle l’organisme. La plus connue, Master Card, dit employer cette technologie pour identifier la clientèle. Les autres entreprises l’utilisent pour gérer les accès aux bureaux, les présences ou le traitement de la paie.

Qu'arrive-t-il des données biométriques obtenues ?

Mystère, puisque ni Québec ni Ottawa n’ont encore adopté de loi sur le sujet, malgré les pressions croissantes, indique Pierre Trudel, professeur de droit à l’Université de Montréal.
« Proposera-t-on ces images à quelqu’un souhaitant nous traquer pour d’autres raisons ? Les raisons possibles sont infinies, et c’est ça qui devient un gros enjeu », dit le chercheur, qui s’intéresse entre autres à la loi sur les télécommunications et aux objets connectés.
« On ne veut pas qu’un système comme celui-là finisse par servir à des fins d’assurances. On ne veut pas entendre : “Non, on ne vous assurera pas, parce que d’après nos données, on vous voit aller dans les bars tous les soirs et rentrer tard…” »

Comment se défendre en cas d'abus ?

Pour l’instant, il faudrait invoquer le Code civil du Québec et la Charte québécoise des droits et libertés, qui interdisent de violer la vie privée sans motif sérieux, explique le professeur Trudel. Mais les tribunaux n’ont pas encore établi comment ils s’appliquent aux systèmes de reconnaissance faciale.
« S’ils servent à assurer la sécurité dans un évènement public, on pourrait peut-être argumenter que le motif est raisonnable. Mais si c’est pour savoir si vous êtes un bon client à l’hôtel, on est plutôt dans le marketing… »
Il est souvent possible de filmer pour éviter les vols, à condition que la surveillance soit annoncée. Mais les caméras n’étaient traditionnellement pas branchées à un système de reconnaissance faciale – capable d’entraîner l’exclusion d’un délinquant de toute une chaîne de magasins, sans pardon possible.
« La question qui se pose, c’est : est-ce un mécanisme disproportionné compte tenu de la finalité ? demande M. Trudel. Il va falloir que l’État intervienne. Le marché joue à l’encontre des droits fondamentaux. »

Que sait-on au sujet de l'outil japonais que Bell a vanté à ses clients ?

Il n’a pas fait la manchette, mais le système NeoFace, conçu par l’entreprise japonaise NEC, est partout. Le réseau Star Alliance, auquel appartient Air Canada, vient de signer un contrat pour le faire installer et la police de Calgary a indiqué qu’elle l’utilisait déjà, tout comme des navires de croisière de Disney ou des hôtels en Asie.
Aux États-Unis, des gouvernements, des universités et des entreprises l’emploient. Et il permettra d’assurer la sécurité aux Jeux olympiques de Tokyo.

Est-ce rassurant quant à son déploiement possible au pays ?

Pas forcément. « Bell doit bien saisir que si elle vend cette solution-là à des clients, ils vont pouvoir l’utiliser de toutes sortes de façons après », prévient le professeur d’éthique des affaires Dominic Martin.
Le géant des télécommunications s’associe à des tiers pour offrir des services spécialisés, parce que son « objectif premier est la connectivité réseau », selon un courriel que sa porte-parole Caroline Audet a envoyé à La Presse.
Le professeur Martin s’interroge néanmoins : « À la place de Bell, je me demanderais jusqu’à quel point ça cadre dans mon modèle d’affaires, sachant que de gros joueurs comme Google et Facebook ont officiellement mis la pédale de frein à cause des possibles débordements éthiques de cette technologie-là. »



REF.:

lundi 27 janvier 2020

Comment une entreprise aspire illégalement des millions de photos au service des forces de l’ordre

Clearview AI : comment une entreprise aspire illégalement des millions de photos au service des forces de l’ordre





CyberVols, image, reconnaissance faciale, vol d'identité, vol de donnés,



Le New York Times s'est intéressé au cas inquiétant de Clearview AI, une startup qui a créé un 
outil de reconnaissance faciale... à partir de millions d'images trouvées sur le web. L'application, sortie 
des pires scénarios de science-fiction, convainc les utilisateurs, mais s'affranchit de plusieurs barrières légales. Peut-elle s'installer dans les usages, alors qu'elle se confronte aux lois américaines et au règlement européen sur les données en Europe ?
La fin justifie-t-elle les moyens ? Pour plus de 600 autorités publiques, des petites polices locales jusqu’au FBI, la réponse est oui. Elles sont états-uniennes, canadiennes ou encore indiennes et utilisent l’application de reconnaissance faciale de Clearview AI, sur laquelle le New York Times a enquêté. Créée en 2016, cette entreprise a constitué une base de données de milliards d’images, en aspirant les données de Facebook, Twitter ou encore YouTube. Sans aucune considération pour la
 loi.
Grâce à une technologie développée en interne, elle relie ensuite les images similaires entre elles
pour former des albums photos de personnes aléatoires. Chaque image est reliée à sa source (Facebook, par exemple). Un utilisateur de l’application peut donc retrouver l’identité d’une personne, voire son adresse, s’il dispose d’une seule photo qu’il a lui-même prise. Clearview
dispose ainsi d’une sorte de Google Image surpuissant, qu’elle a nommé Smartcheckr. Elle le commercialise uniquement aux « forces de l’ordre » pour l’instant, mais n’exclut pas de le rendre accessible au public.
Pour l’instant, la technologie de Clearview n’est accessible qu’aux forces de l’ordre.
 // Source : Capture d’écran du site de Clearview

La meilleure technologie pour retrouver un criminel ?

Clearview dispose d’un avantage concurrentiel exceptionnel : son application peut, en théorie, identifier une personne même si elle porte un chapeau ou des lunettes, quel que soit l’angle de la
 prise de vue. À l’heure actuelle, les logiciels autorisés aux États-Unis, en Inde ou au Canada ne contiennent que des photos officielles, c’est-à-dire des photos au format portrait, de face, prises
pour créer des papiers d’identité ou de lors d’arrestations. Comme tout service par abonnement, Clearview propose une offre d’essai de 30 jours, pour convaincre ses utilisateurs de la supériorité
de sa technologie.
« La technologie pour résoudre les crimes les plus compliqués », lit-on sur le site de Clearview AI. 
La startup, qui compile aussi des images de personnes sans casier judiciaire, permet de retrouver des criminels en tout genre : du voleur de magasin filmé par un passant à un meurtrier filmé par une caméra de surveillance, en passant par un fraudeur bancaire trop peu prudent. Le Times relaie de nombreux témoignages d’utilisateurs plus que satisfaits de l’efficacité de la technologie, dont l’utilisation a commencé sans consultation du public.
Pourtant, le débat autour de la reconnaissance faciale émerge aux États-Unis comme en France, et laisse déjà entrevoir de fortes oppositions. Il en est de même dans de nombreux pays, à part quelques exceptions, comme la Chine, où le gouvernement se sert de la technologie pour imposer une surveillance d’État.
Pour éviter de se retrouver au centre de l’attention, Clearview a donc opéré sous le radar : son site, très pauvre en information, n’a été réellement lancé que début 2020, alors que son business était
déjà bien installé.

L’aspiration illégale de données au centre de la technologie

L’entreprise construit ses bases de données à partir d’une technique bien connue, et très facile à mettre en œuvre : le web-scraping. Le principe est simple : un logiciel aspire de façon automatique
 le contenu des pages web. Dans le cas de Smartcheckr, toutes les images accessibles librement y passent. Profils et photos publics sur Facebook, Instagram, LinkedIn, les sites de vos clubs de sport ou encore de votre employeur sont autant de sources d’images pour l’application. Même si ces sites écrivent de façon explicite dans leurs conditions générales d’utilisation (CGU) qu’ils interdisent
cette pratique. Résultat, alimenter constamment la base de donnée ne coûte presque rien à Clearview, puisqu’elle se sert librement. Ces économies lui permettent de proposer un prix d’abonnement
annuel à son service compris entre 2 000 et 10 000 dollars par an, une bouchée de pain pour sa cible de clientèle.
Pour construire son outil, Clearview AI n’a pas hésité à piétiner le droit existant. « En Europe 
comme aux États-Unis, rien n’interdit le web scraping en soi. Mais assez rapidement, il se heurte
 à certaines règles », nous explique Sabine Marcellin, avocate spécialisée en droit du numérique
 chez Aurore Légal.
5 an de prison, 500 000 euros d’amende
La juriste énumère l’immense arsenal légal français et européen qui pourrait, sous condition d’apports de preuves, qualifier les pratiques de Clearview   : concurrence déloyale et parasitisme, extraction non-autorisée, fraude informatique, vol d’information, violation du contrat (ici, des CGU)… Selon les qualifications, les sanctions vont des simples dommages et intérêts jusqu’à 5 ans de prison, accompagné de 500 000 euros d’amende. « En théorie, les procédures sont cumulables, mais dans le cas de contentieux complexes comme celui-ci, le choix des voies judiciaires peut être subtil », précise-t-elle. De l’autre côté de l’Atlantique, l’arsenal légal est assez similaire, et LinkedIn a par le passé déjà obtenu réparation pour « rupture de contrat » sur ses CGU, après qu’une entreprise a scrapé plus de 1 000 profils sur sa base de données.
Malgré tout, David Scalzo, un des investisseurs de Clearview cité par le New York Times, ne semble pas se soucier de cette épée de Damoclès : « Je suis arrivé à la conclusion que puisque le volume d’informations augmente constamment, il n’y aura jamais de respect de la vie privée. Les lois 
doivent déterminer ce qui est légal, mais ne peuvent bannir la technologie. Bien sûr, ça pourrait pourrait mener à un futur dystopique ou quelque chose du genre, mais vous ne pouvez pas le bannir.  »

Le RGPD protège l’Europe contre l’utilisation de Clearview

Si les sites sont déjà lourdement armés pour se protéger contre Clearview devant les tribunaux aux États-Unis, les utilisateurs disposent d’armes supplémentaires en Europe. « Puisque dans le cas de ces images, il s’agit de données personnelles, le règlement général européen sur la protection des données offre tout un arsenal supplémentaire. Or, si le traitement des données est fait en Europe ou concerne des personne situées sur le territoire européen, alors le RGPD s’applique  », rappelle Sabine Marcellin. Voici probablement une des raisons pour lesquelles Clearview a des clients en
Inde, aux États-Unis et au Canada, mais pas en Europe.
En France, la Cnil contrôle les usages de la reconnaissance faciale
En cas de non-respect du RGPD, les entreprises s’exposent à une amende du plus haut montant entre de 20 millions d’euros et 4 % du chiffre d’affaires annuel mondial de l’entreprise. « On oublie souvent que le RGPD permet aussi des sanctions administratives qui peuvent aller jusqu’à l’interdiction de l’utilisation des données concernées », rajoute la juriste. De quoi anéantir pour de bon un logiciel comme celui de Clearview, en cas de condamnation.
Aujourd’hui, la reconnaissance faciale n’est pas encore inscrite dans les textes en France, mais
 la Cnil et ses homologues européennes veulent déjà encadrer son usage. Après le débat autour de l’application d’identification Alicem, l’autorité française a renouvelé, dans un guide sur le sujet, la nécessité d’obtenir sa validation pour lancer une expérimentation. Si les forces de l’ordre françaises veulent utiliser une technologie similaire à celle de Clearview, elles devront donc passer par la Cnil. « C’est sûrement la plus grande différence entre les systèmes européens et américains », estime l’avocate.

Porte ouverte aux abus

En mettant son application sur le marché, Clearview AI a franchit une barrière jusque-là respectée. Facebook, Amazon ou Google, avec leurs compétences et leurs grands volumes de données auraient pu créer un tel outil bien avant la startup. Mais même ces géants de la tech ont mis l’usage de la reconnaissance faciale à des fins sécuritaires de côté. Ils se sont contentés de créer des technologies voisines de reconnaissance d’image, qui permettent par exemple le tag automatique sur les publications, ou de classer les albums photos par personne. Clearview ouvre donc la boîte de
Pandore et laisse entrevoir un futur dystopique imaginé par la science-fiction.
Mais si l’application Smartcheckr est aussi problématique, c’est surtout parce qu’elle n’a pas été contrôlée par une autorité tierce indépendante. En conséquence, rien ne garantit son efficacité, ni sa sécurité. Pourtant, les technologies de reconnaissance faciale sont régulièrement épinglées pour
leurs biais discriminatoires. Par exemple, les risques de faux positifs pourraient être plus élevées
pour les personnes noires, déjà discriminés dans le système judiciaire actuel.
Clearview convainc les investisseurs
Ensuite, les autorités qui utilisent la technologie peuvent télécharger dans la base de données de Clearview des preuves essentielles à des enquêtes confidentielles … parfois sans en avoir
conscience. Pire, si des acteurs malveillants découvraient une fuite ou exploitaient une faille dans
 les serveurs de Clearview, ils disposeraient de tout un éventail d’outil : harcèlement, chantage, traque, extraction de preuves… Sans contrôle extérieur, l’entreprise pourrait enfin tout à fait manipuler les résultats qu’elle présente à la police.
Jusqu’où ira-t-elle avant d’être épinglée par le système judiciaire ? Vu la décontraction dans les propos des dirigeants, ils ne semblent guère s’inquiéter. Pas d’inquiétude non plus du côté des investisseurs : la startup a levé 9 millions de dollars en juin 2019, un montant relativement conséquent pour un premier tour.


REF.:

samedi 11 mai 2019

Reconnaissance faciale: les consommateurs épiés à leur insu dans les commerces



Reconnaissance faciale: les consommateurs épiés à leur insu dans les commerces

Les consommateurs sont épiés dans les centres commerciaux sans le savoir

 

 La reconnaissance faciale gagne du terrain au Québec. Les consommateurs qui entrent dans les centres commerciaux et les commerces sont de plus en plus épiés à leur insu par des caméras.

 
 « C’est un phénomène en pleine croissance et on se demande qui va pouvoir le freiner », signale le spécialiste informatique en sécurité de l’information, Steve Waterhouse.
 Sans le dire ouvertement, de nombreux propriétaires de centres commerciaux et de commerces surveillent les moindres faits et gestes de leurs clientèles ainsi que leur humeur du jour.
 Le groupe immobilier Oxford Properties, qui détient de nombreux centres commerciaux au Québec (dont le Quartier DIX30, les Galeries de la Capitale et les Promenades Gatineau) confirme avoir recours à des caméras qui utilisent la reconnaissance faciale. Bien dissimulées, les caméras sont localisées dans les babillards électroniques permettant de trouver l’emplacement des détaillants.
Aux Galeries de la Capitale, au Quartier DIX30 et aux Promenades Gatineau, des babillards électroniques ont des caméras dissimulées qui mesurent votre humeur, notamment.
Photo courtoisie
Aux Galeries de la Capitale, au Quartier DIX30 et aux Promenades Gatineau, des babillards électroniques ont des caméras dissimulées qui mesurent votre humeur, notamment.
 Analyse de vidéo anonyme
 Oxford Properties évite de parler de reconnaissance faciale, mais évoque plutôt une analyse de vidéo anonyme (AVA). « Oxford utilise cette technologie dite AVA dans tous ses centres commerciaux canadiens », a indiqué au Journal une porte-parole du groupe immobilier, Kathleen Michaud.
 D’après Oxford Properties, aucune image n’est sauvegardée ni conservée. Cette technologie est simplement utilisée pour comprendre quel public cible fréquente ses centres commerciaux (genre et groupe d’âge approximatif), assure-t-on.
 Chez Cadillac Fairview aussi, on filme les clients sans le leur dire. Le groupe immobilier, qui possède de nombreux centres commerciaux au Québec (Carrefour Laval, Promenades Saint-Bruno, Fairview Pointe-Claire et Galeries d’Anjou) utilise également des caméras.
 « Nos centres commerciaux disposent actuellement de caméras de vidéosurveillance que nous utilisons pour assurer la sécurité du public », a fait valoir une porte-parole de Cadillac Fairview, Anna Ng.
 Comme des hamsters
 Plusieurs associations de consommateurs disent suivre avec intérêt le dossier de la reconnaissance faciale au Québec. « C’est extrêmement envahissant et inquiétant. Ils doivent nous informer lorsqu’ils nous filment et ils ne le font pas. Et que font-ils avec les données recueillies ? Ils les revendent ? » se questionne le président de la Coalition des associations de consommateurs du Québec (CACQ), Jacques St-Amand.
 Selon ce dernier, « le consommateur actuel se retrouve comme un hamster dans une cage et il ne le sait pas », déplore-t-il.

 La reconnaissance faciale permet de :  

  •  Connaître l’âge, le sexe et l’humeur des consommateurs 
  •  Repérer les téléphones intelligents 
  •  Cerner les comportements 
  •  Permet de mesurer l’achalandage 
  •  Permet d’ajuster les promotions 
  •  Permet de justifier les prix des loyers 


Enquête de la Commission de l’accès à l’information


Au centre commercial Place Sainte-Foy, à Québec, un projet pilote de reconnaissance faciale mené au cours des derniers mois fait l’objet d’une enquête de la Commission de l’accès à l’information (CAI).
La direction de l’organisme n’a pas voulu commenter le dossier hier, mais a confirmé enquêter sur la portée de la technologie utilisée par le propriétaire du centre commercial.
Comme Le Journal l’a rapporté en janvier dernier, Ivanhoé Cambridge avait installé une dizaine de caméras à Place Sainte-Foy, qui collectaient des données sur les clients de trois détaillants, soit La Vie en Rose, Tristan et la lunetterie BonLook.
Les caméras ont servi à capter les visages des consommateurs pour déterminer leur âge, leur sexe et leur humeur. Les données obtenues ont également permis aux détaillants d’améliorer leurs offres commerciales.
Plaintes
Malgré des affiches qui prévenaient les clients de Place Sainte-Foy que des caméras les filmaient, plusieurs plaintes ont été déposées à la Commission de l’accès à l’information.
Ivanhoé Cambridge dit avoir mis fin à son projet pilote, mais songe toujours à implanter dans ses autres centres commerciaux cette technologie de reconnaissance faciale par caméra.
« Nous avons utilisé l’analyse de vidéos anonymes qui ne permettent pas de reconnaître l’identité des consommateurs. Les images captées ont servi à obtenir approximativement l’âge, le sexe et les réactions des consommateurs », a tenu à préciser une porte-parole d’Ivanhoé, Karine Groleau.
Droits
Pour l’heure, la Loi sur la protection de la vie privée permet la captation d’images par des caméras de surveillance pour des questions de sécurité. « Les commerçants disent que les caméras sont là pour la sécurité, mais personne ne vérifie ce qu’ils font véritablement avec les données », rappelle le spécialiste informatique en sécurité de l’information, Steve Waterhouse.
Pour l’avocat spécialisé en vie privée chez Fasken Martineau Antoine Aylwin, les clients des centres commerciaux ont des droits légitimes qui se doivent d’être respectés tout en reconnaissant se trouver dans un lieu public. « Le fait qu’on me fiche et qu’on garde un historique de toutes mes venues au centre d’achat, c’est exagéré. Et chaque fois que l’on va vers une identification, cela devient discutable », fait-il remarquer.


REF.: