Rechercher sur ce blogue

dimanche 22 octobre 2017

Les 10 pires marques selon Consumer Reports



Après avoir présenté le palmarès des 10 marques les plus fiables, nous partageons la liste des 10 marques les moins fiables dressée par Consumer Reports. Plusieurs surprises s’y retrouvent! 


10. Chevrolet
KFZ Werkstatt
Chevrolet
Après avoir monté de trois places par rapport à l’année dernière, Chevrolet se trouve maintenant dans ce palmarès de la honte. Alors que la Camaro cause du tort à l’image de la marque en raison de sa mauvaise fiabilité, la Bolt est présentée comme le modèle étant le plus fiable de ce constructeur américain. 
 
9. Acura
KFZ Werkstatt
Acura
Alors que Honda figure dans le palmarès des dix marques les plus fiables, il est étonnant de constater que sa division de luxe, Acura, se trouve dans ce palmarès bien moins prestigieux. Comparativement à l’année dernière, Acura a grimpé de sept positions. L’ILX est le modèle le plus problématique de la marque alors que le RDX s’avère le plus fiable. 
 
8. Jeep
KFZ Werkstatt
Jeep
Du côté de Jeep, on note une certaine amélioration. En effet, le constructeur réputé pour la capacité hors-route de ses véhicules a perdu trois positions. Sans grande surprise, le Cherokee présente la meilleure cote de fiabilité du manufacturier, alors que c’est tout le contraire pour le Renegade. 
 
7. Tesla
KFZ Werkstatt
Tesla
Soupir de soulagement chez Tesla. Le constructeur de voitures entièrement électriques a baissé de quatre positions. D’après Consumer Reports, le Model X connaît davantage de soucis que la Model S qui est présentée comme le véhicule le plus fiable de la marque. 
 
6. Lincoln
KFZ Werkstatt
Lincoln
Chez Lincoln, il n’y a pas de quoi se réjouir, car on vient de monter de deux positions dans ce classement. Le MKX continue de faire des siennes alors que le MKZ est présenté comme étant le moins problématique de la marque. 
 
5. Volvo
KFZ Werkstatt
Volvo
Du côté de Volvo, les choses ne s’améliorent pas. En effet, le constructeur détenu par Geely se trouve désormais en cinquième position, comparativement à la neuvième position l’année dernière. La V60 s’avère le véhicule le plus fiable chez Volvo, alors que XC90 est celui qui en arrache le plus. 
 
4. Dodge
KFZ Werkstatt
Dodge
Chez Dodge, on constate une progression par rapport à l’année dernière. Rappelons que le constructeur se trouvait au deuxième rang du classement. Le Journey continuer de poser problème et la Grand Caravan peut se vanter d’être le véhicule le plus fiable de la marque. 
 
3. Ram
KFZ Werkstatt
Ram
C’est sans surprise qu’on retrouve une des marques du groupe FCA sur le podium. On note tout de même une amélioration. Le 3500 est le moins fiable de manufacturier et le 1500, le plus fiable. 
 
2. GMC
KFZ Werkstatt
GMC
GMC, qui a monté de deux places, se trouve maintenant au deuxième rang, une position très peu enviable. L’Acadia cause du tort au constructeur alors que Sierra 2500HD est le véhicule le plus fiable de cette division de General Motors. 
 
1. Cadillac
KFZ Werkstatt
Cadillac
Cadillac a gagné six places par rapport à l’année dernière et occupe la place qu’aucun constructeur ne veut occuper. La CTS est présentée comme le véhicule le plus fiable de la marque alors que l’Escalade connaît d’importantes lacunes. Avant d’acheter une Cadillac, méfiez-vous sérieusement. 
 
Veuillez noter qu’Alfa Romeo, Fiat, Genesis, Jaguar, Land Rover, Maserati, Mini, Mitsubishi et Smart ne font pas partie du palmarès étant donné que ces constructeurs n’ont pas fourni suffisamment de données à Consumer Reports.  
 
 

Microsoft tacle Google sur sa gestion d’une faille


Microsoft et Google ne cessent de se lancer des piques : les deux géants de la Silicon Valley ont des équipes spécialisées dans la recherche de failles dans leurs programmes ainsi que dans ceux de leurs concurrents ce qui permet de rendre, petit à petit, Internet un peu plus sûr face aux hackers. Sauf que les deux géants ont des visions très différentes de la meilleure façon de réagir face à la découverte d'une de ces failles.

Google, notamment, a pour habitude de publier les détails d'une faille qu'il a découverte une semaine après en avoir informé les intéressés. Une manière de leur mettre la pression à laquelle Microsoft a déjà dû faire face.


Microsoft découvre une faille dans Chrome


Dans le cadre de la recherche de failles, l'équipe Microsoft Offensive Security Research a identifié une faille critique permettant l'exécution de code à distance dans le navigateur de Google, Chrome. Microsoft a signalé la faille à Google le 14 septembre 2017, avec toute une série d'autres failles mineures, ce qui a permis à l'équipe de Microsoft de gagner très exactement 15.837 dollars dans le cadre du programme de Google.

Naturellement, Microsoft n'a pas touché l'argent : l'entreprise a désigné le centre pour l'éducation Denise Louie de Seattle comme bénéficiaire et Google lui a versé 30.000 dollars. Surtout, comme le signale Microsoft sur son blog le 18 octobre 2017, Google a créé un correctif en un temps record : 4 jours. La version téléchargeable du navigateur, elle, a été mise à jour en moins d'une semaine.



L'histoire de Google : comment une petite startup a fait trembler Microsoft

Une mise à jour publiée sur Github avant le déploiement d'un patch


Que reproche Microsoft à Google sachant que ce dernier a résolu le problème en moins d'une semaine, soit le temps que Google donne à ses concurrents ? La publication, sur Github, du code source du patch pour la faille en question. Une publication qui n'aurait pas posé problème si elle n'avait pas été faite, précise Google, en amont du déploiement du correctif.

En fait, si Google a bien corrigé le build, le fichier téléchargeable de Chrome, les utilisateurs du navigateur n'ont pas eu de correctif pendant près d'un mois alors que le code source du correctif était publique. Ce n'est qu'un mois après qu'une mise à jour a été déployée. Pour Microsoft, Google a laissé aux hackers un mois pour identifier la faille et l'exploiter avant de corriger le problème chez ses utilisateurs.

Entre Google et Microsoft, c'est certain, la hache de guerre n'est pas prête d'être enterrée.


mardi 17 octobre 2017

Connaître l’adresse IP de quelqu’un, caché derrière un VPN ?





Daniel Roesler, un chercheur en sécurité informatique travaillant à Oakland, a publié hier une démo surprenante (31 janvier 2015). Si vous utilisez un VPN (hors CISCO) sur Windows et que vous surfez avec Chrome ou Firefox, votre IP réelle peut être découverte par n’importe quel site web sans même que vous ne le sachiez.
EDIT : la faille pourrait fonctionner sur les OS GNU/Linux. A confirmer, je n’ai pas encore pu essayer personnellement.
A l’heure où j’écris ces lignes, la faille est toujours opérationnelle. Si elle ne l’est plus au moment où vous lisez cet article, les explications que j’y donne reste valables et vous intéresseront si vous avez envie de comprendre un peu mieux le fonctionnement d’Internet.
Avant de détailler la faille, il est important de comprendre le principe du protocole STUN (RFC 5389). C’est assez simple vous allez voir.

A quoi sert un routeur ?

Vous utilisez sûrement une box Internet chez vous, pour vous connecter à Internet (une bbox, une livebox, etc…). Dans le jargon informatique, une box s’appelle un routeur. Pour faire simple, on peut dire qu’un routeur sert à connecter un réseau informatique à un autre réseau informatique.
Dans votre cas, votre box vous sert à connecter votre petit réseau local (c’est à dire tous les appareils de votre maison : téléphone, ordi, tablette, …) à un gros réseau qui s’appelle… Internet !
Venons en au fait ! Votre box, comme tout routeur qui se doit, a une mission importante : offrir à votre réseau local une adresse IP pour être identifiable sur Internet. C’est entre autre pour cela que vous payez votre fournisseur d’accès tous les mois une trentaine d’euros.
Réseau local et Internet
Votre maison ne peut pas être branchée à Internet si elle ne dispose pas d’une adresse IP publique. Ça serait comme rouler sur l’autoroute sans plaque d’immatriculation en quelques sortes.
Pour résumer en 2 mots : un routeur (votre box) sert à connecter votre maison à Internet. Cette box a une mission bien particulière : rendre votre petit réseau local visible sur le grand Internet, en lui attribuant une adresse IP.

A quoi sert le protocole STUN ?

Maintenant, passons à la faille à proprement dite.
Sans rentrer dans le fonctionnement d’un réseau informatique, vous devez savoir qu’un ordinateur à l’intérieur de votre maison n’est pas censé connaître l’IP publique qui l’identifiera sur Internet. Il n’en a pas besoin en fait…. enfin, presque pas besoin.
Je dis “presque”, parce que certaines applications comme la “voix sur IP (voIP)”, c’est à dire téléphoner en utilisant Internet, obligent votre ordinateur à connaître son adresse IP Internet. Le pauvre, il ne la connait pas et n’a aucun moyen de la connaître (même si ça peut paraître bizarre).
Pour palier à ce problème, les informaticiens ont inventé le serveur STUN. Il s’agit d’un système qui permet à un ordinateur de connaître sa propre adresse IP Internet (et pas mal d’autres trucs sympas) simplement en allant la demander à un serveur situé à l’autre bout de la planète. C’est le job des serveurs STUN. Ouf, heureusement qu’ils sont là.

La faille STUN / Web-RTC

Vous commencez à voir le lien avec l’histoire des VPN ? La majorité des navigateurs Internet utilisent cette technologie des serveurs STUN lorsqu’ils en ont besoin (encore une fois, dans des situations assez particulières).
Cependant, les versions Windows de Firefox et Chrome ont un gros problème : elles permettent à n’importe quel site web de récupérer l’adresse IP réelles des internautes, par l’intermédiaire d’une technologie que l’on appelle WebRTC, couplée au protocole STUN dont je vous ai parlé.
Pour vous le prouver, il suffit d’aller sur cette page que j’ai hébergée ici. Si vous utilisez un VPN en visitant cette page ET que vous utilisez Chrome/Firefox sur Windows, vous verrez l’adresse IP que vous tentez de cacher. Si vous la voyez, cela veut dire je peux aussi l’enregistrer de mon côté pour vous identifier… pas top !

Comment vous protéger de la faille ?

Pour être tranquille, vous devez bloquer l’API WebRTC sur votre navigateur. Il s’agit du module de développement qui sert à interroger le serveur STUN qui communique votre IP réelle. Bloquer WebRTC peut rendre indisponible certaines applications qui l’utilisent.
  • Pour vous protéger sur Chrome / Chromium / Opera, il suffit d’installer l’extension suivante qui désactive WebRTC : WebRTC Block.
  • Pour vous protéger sur Firefox, tapez about:config dans votre barre d’adresse du navigateur. Cherchez le paramètre “media.peerconnection.enabled”, faîtes un clic droit dessus puis “inverser” (pour le passer à false).
  • Pour vous protéger sur Internet Explorer et Safari : ces deux navigateurs n’utilisent pas WebRTC à l’origine de la faille. Vous n’avez donc rien à faire.
  • Pour vous protéger sur TOR Browser : par défaut, TOR Browser désactive WebRTC. Là encore, aucun problème à signaler.

Pour en savoir plus

Si les notions de réseau que j’ai vulgarisées vous intéressent, voici quelques articles intéressants pour en savoir plus :
REF.:

3 attaques de social-engineering auxquelles vous n’auriez jamais pensé



Le social-engineering (en français “ingénieurerie sociale”) consiste à obtenir des informations par un moyen déloyale, notamment grâce à la manipulation mentale. Le terme prend tout son sens dans le contexte du piratage informatique : au lieu d’exploiter des failles techniques (logiciel non mis à jour, crack d’un mot de passe), le pirate va piéger et manipuler une cible précise pour arriver à son but.

La souris piégée

La société Netragard est spécialisée dans l’audit de sécurité informatique. En d’autres termes, elle est payée par ses clients pour tenter de les pirater par n’importe quel moyen. Le but : vérifier les failles d’une entreprise.
Lorsque le patron de Netragard s’est fait embaucher par son client cette fois-ci, il savait qu’il allait devoir ruser comme jamais. L’entreprise cliente était très attentive à sa sécurité depuis des années.
Son idée : bricoler une souris d’ordinateur pour y intégrer un logiciel espion capable de prendre le contrôle de l’ordinateur sur lequel le périphérique est branché…. à l’insu de l’utilisateur évidemment. Je vous passe les détails techniques (plus d’informations ici).
Souris trafiquée pour social-engineering
D’un point de vue informatique, l’attaque est extrêmement sophistiquée. Mais sa particularité et son génie repose surtout sur son aspect social engineering.
Pour faire utiliser la souris truquée au sein de l’entreprise cliente, les hackers de Netragard ont du faire des recherches poussées sur chaque employé de la boite. Profils Facebook et compagnie : tout a été passé au crible. Finalement, le patron de Netragard s’est décidé à envoyer la souris à un employé en particulier, qui lui semblait plus apte à tomber dans le panneau.
Quand je vous dis qu’il ne faut pas raconter votre vie sur les réseaux sociaux…
Il a fait envoyer la souris directement dans le bureau de l’employé en question en se faisant passer pour un fournisseur qui organisait un évènement promotionnel. Quelques jours plus tard, la souris a été branché et le virus a fonctionné sans aucun problème.

Le patron trop sûr de lui

Comme d’habitude lorsque l’on a vent de ce genre d’histoire, le nom de l’entreprise “testée” n’est jamais connue. Encore une fois, cette histoire fait cas d’une société d’audit de sécurité qui a monté un plan génial pour pirater l’entreprise qui l’a embauchée. Le PDG avec prévenu : “il sera impossible de me pirater”, il en était sûr et certain.
Hadnagy, le hacker en charge de tester la sécurité de la boite, déclara à la presse : “Le patron imaginait que quelqu’un allait lui téléphoner pour lui demander son mot de passe ou quelque chose comme ça… il se préparait à quelque chose dans le genre.”
Pour débuter, Hadnagy se mit à chercher la location des serveurs de l’entreprise, les adresses IP des serveurs, les e-mails des employés, les numéros de téléphone, le nom des employés et leurs titres, et bien plus. Mais le gros-lot était ailleurs : le hacker découvrit qu’un membre de la famille du PDG s’était battu contre le cancer, et avait survécu.
Fondation contre le cancer
De par le fait, le patron s’était rapproché d’une fondation participant à la recherche contre le cancer. Parallèlement, le hacker découvrit aussi le restaurant préféré et l’équipe de foot préférée du PDG.
Grâce à toutes ces informations, il était prêt à frapper. Il a appelé le patron en se faisant passer pour la fondation à laquelle il s’était intéressé par le passé. Il l’informa que la fondation organisait une loterie en échange de donation et que l’un des prix était une place pour un match de foot auquel participait son équipe préférée… Il y avait d’autres lots hypothétiques, comme… une soirée offerte dans divers restaurants, dont son préféré !
Le patron semblait très intéressé. Hadnagy lui demanda son adresse e-mail pour lui envoyer un PDF d’inscription. Tout se passait sans problème. Le hacker pu même demander au PDG la version d’Adobe Reader qu’il utilisait “pour être sûr qu’il voyait bien le document correctement”.
Où est le piège ? Le PDF d’inscription à la loterie était évidemment piégé. Adobe Reader est une véritable passoire (en témoignent les millions de mises à jour quasi-quotidiennes que nous impose Adobe sur Windows). L’affaire était dans le sac : le hacker avait le contrôle du PC du patron.

Le journaliste dont la vie entière a été piratée

Cette histoire date de mi-2012 et a fait pas mal de bruit en France.
Un journaliste américain s’est vu pirater “de A à Z” tous ses appareils Apple, son compte mail, ses comptes de stockage de données et son compte Amazon. Le piratage à l’origine de l’attaque n’a utilisé aucun moyen “technique” pour parvenir à cela. Comment a-t-il fait ?
Première étape : appeler le service client Amazon en se faisant passer pour Mat Honan, le journaliste victime de l’attaque. La stratégie du pirate est ingénieuse au possible. Lors de son premier appel à Amazon, il demande à rajouter une carte de crédit à son compte. C’est une procédure classique qu’Amazon accepte d’honorer par téléphone. Il suffit de donner son nom, son adresse et le code de sa carte bancaire.
Deuxième étape : le hacker rappelle Amazon mais cette fois, il explique qu’il a perdu l’accès à son compte. Devinez ce que demande Amazon pour vérifier l’identité de l’appelant ? Les 4 derniers chiffres d’une carte bancaire associée au compte…. le hacker a simplement donné les 4 derniers chiffres de la carte qu’il venait d’ajouter. A ce moment précis, le pirate obtenait un accès total au compte Amazon du journaliste.
Troisième étape : obtenir un accès au compte iCloud de la victime. L’accès à ce compte donne immédiatement accès à son iPhone, son MacBookAir, son compte Twitter et son compte Gmail (qui est le compte de secours). Pour cela, rien de plus simple.
Lors de la réinitialisation des identifiants d’un compte iCloud, Apple ne demande que 3 informations : l’e-mail du compte, une adresse de facturation, et les quatre derniers chiffres de la carte bancaire associée au compte. Rappelez-vous : le pirate venait d’obtenir un accès entier au compte Amazon de sa victime. Il avait donc accès aux 4 derniers chiffres de sa véritable carte bancaire par la même occasion.
Quatrième étape : piratage en règle avec suppression de toutes les données. Le journaliste victime de l’attaque la raconte entièrement sur son blog (en anglais). C’est très intéressant.

Conclusion

Ces 3 attaques sont toutes les 3 très différentes. Et pour cause, c’est là toute la puissance du social engineering. Le pirate s’adapte à sa cible, au contexte de l’attaque et aux possibilités qui s’offrent à lui.
N’oubliez jamais une chose : en informatique, rien n’est jamais sûr. Rien. Jamais.

Les méthodes de Google ,Facebook et des autres, pour vous pister sans jamais utiliser de cookies




Facebook, Google, AddThis, KissMetrics, whitehouse.gov… certains de ces sites vous parlent, d’autres non. Quoi qu’il en soit, ils font tous partis des 100.000 sites les plus populaires au monde.  Et ils utilisent tous ces nouvelles méthodes de tracking (suivi) contre lesquelles nos petits bloqueurs de pub — Adblock, Ghostery — auront du mal à rivaliser.

À quoi sert le tracking sur Internet ?

Le tracking sur Internet a surtout deux intérêts :
  • Dans un cadre étatique, cela sert à vous identifier et à vous surveiller. On espère que dans nos démocraties occidentales ce genre de pratique reste marginale, mais l’actualité autour de la NSA laisse malheureusement penser le contraire.
  • Dans un cadre publicitaire et commerciale, le tracking est utilisé pour vous servir les bonnes publicités au bon moment et vous inciter à acheter.
Pour Google, la publicité compte pour presque 90% de son chiffre d’affaire. Je pense que c’est pareil pour Facebook, Twitter et les autres. Le tracking est donc absolument primordial pour les Géants.

Pourquoi de nouvelles méthodes de tracking ?

Les méthodes actuelles se basent quasi exclusivement sur l’utilisation de cookies. Il s’agit de petit fichier que les sites Internet peuvent enregistrer sur votre ordinateur pour vous suivre pendant plusieurs mois.
De plus en plus d’internautes bloquent leurs cookies, soit par choix (Adblock, Ghostery, etc…), soit parce que certains navigateurs comme Firefox ou Safari décident de bloquer les cookies par défaut.
Vive les cookies
Google et tous les autres acteurs du web qui vivent grâce au tracking ont donc été obligé d’évoluer rapidement. Voila comment ils s’y sont pris.

1. La méthode Google : mystérieuse et gênante

Google, qui ne communique pas des masses sur son nouveau procédé de suivi, semble créer une “empreinte digitale” (fingerprint)  de la machine utilisée par chaque internaute.
Cette empreinte est une sorte de bouillie créée en mixant :
  1. Des caractéristiques de votre navigateur ;
  2. Des caractéristiques sur votre ordinateur ;
  3. Probablement des cookies, des sessions, votre IP ;
Pour le premier point c’est facile : il suffit de récupérer l’user-agent. Pour le second point, c’est de plus en plus facile pour Google puisque le navigateur Google Chrome passe en tête dans tous les classements de navigateurs web. En installant Chrome, vous donnez à Google toutes les clefs dont il a besoin pour accéder à votre machine. Enfin pour le dernier point, c’est du grand classique.
somme de contrôle
J’imagine que Google crée une checksum (somme de contrôle) avec toutes ces info pour nous identifier. Nous verrons comme nous protéger des 3 techniques de cet article dans la dernière partie.

2. La méthode du ETAG : bien cachée, et difficile à contrer

Cette méthode a été parfaitement décrite par lucb1en sur son blog (en anglais). Voici ce qu’il faut retenir.
Lorsque vous surfez sur Internet, votre navigateur web discute sans cesse avec des serveurs web. C’est grâce à ces discussions entre votre navigateur et les serveurs web (le protocole HTTP) que vous pouvez accéder à tous les sites web de la planète.
Pour gagner du temps et éviter des “discussions” inutiles, votre navigateur et les serveurs web utilisent ce qu’on appelle un système de cache. Chacun de leur côté, ils gardent des choses en mémoire (des pages que vous visitez souvent, des images, …) pour vous les ressortir très vite si vous leur demandez.
Par exemple : vous arrivez sur mon blog ce matin à 10h. Si vous y retournez à 10h02, il y a de fortes chances pour que rien n’ai changé. Du coup, votre navigateur va mettre en cache les pages de mon blog que vous visitez la première fois pour vous les ressortir très rapidement les prochaines fois (sans aller discuter avec mon serveur web). S’il y a eu des changements entre temps, alors rassurez-vous : le navigateur sera forcé de mettre à jour les pages qu’il a sauvegardé. Vous aurez toujours la dernière version de mon blog sous les yeux.
En vert, le temps de chargement des pages "cachées", en bleu les pages "non cachées"
En vert, le temps de chargement des pages “cachées”, en bleu les pages “non cachées”
Et justement : pour savoir s’il y a eu du changement entre deux de vos visites sur un site, le serveur et votre navigateur s’échange un ETAG. Ce ETAG permet de savoir, pour faire simple, si des choses ont changé entre la version mise en cache par votre navigateur et le site lui-même.
Ce ETAG est une suite de lettres et de chiffres (du genre 2b987efiej7fe987f). Partant d’un principe assez noble (améliorer les délais d’attente sur le web), ce ETAG a été détourné pour pister les internautes. En affectant à chaque visiteur un ETAG différent, un site web est capable d’utiliser le cache navigateur – et non les cookies – pour vous pister.
Qui pense à vider son cache ? Pratiquement personne. Qui bloque la mise en cache de son navigateur ? Presque personne non plus, parce que bloquer le cache c’est ralentir fortement votre vitesse de navigation.
Pour info, KissMetrics (un outil qui vous track sur de nombreux sites) et Hulu (une sorte de Netflix aux USA) ont utilisé ce procédé.

3. La méthode du Canvas Fingerprinting : un dessin malicieux

Cette dernière méthode est utilisée par les grands sites dont je vous parlais au début de l’article. Elle consiste à faire dessiner par votre navigateur une image (invisible) et à la numériser, c’est à dire la transformer en une série de chiffres qui vous identifie, comme un code-barre en quelques sortes.
Cette image sera dessinée en prenant en compte les propriétés de votre matériel : votre carte graphique, votre navigateur, votre système d’exploitation. Cela étant dit, une empreinte générée par cette méthode n’est pas forcément unique d’un internaute à l’autre. Il existe une marge d’erreur qu’il est facile de faire disparaître en combinant ce tracking avec les  autres méthodes détaillées précédemment.
Canvas fingerprinting
C’est justement à cause de son manque d’entropie, c’est à dire le manque de certitude avec laquelle on peut identifier de manière unique un internaute, que cette méthode du canvas ne semble pas utilisée à grande échelle.
Voici un document de recherche très complet qui explique la mise en place de cette technique : https://cseweb.ucsd.edu/~hovav/dist/canvas.pdf
Pour connaître votre “empreinte canvas”, vous pouvez cliquer ici et chercher la ligne “Your browser fingerprint”. Votre identifiant (presque) unique se trouve juste en dessous.

Conclusion et méthodes de protection

Ces 3 méthodes sont les prémisses du nouveau web, un web où les cookies disparaîtront petit à petit au profit d’autres technologies beaucoup plus intrusives.
Voici des pistes pour vous protéger des 3 techniques ci-dessus et pour vous protéger des méthodes à l’ancienne  :
  • Pour vous protéger de la technique 1 : il me paraît sain de ne pas utiliser Google Chrome et/ou pourquoi pas d’utiliser une extension de navigateur type Random Agent Spoofer ou équivalent. Cette extension change régulièrement votre user-agent pour éviter d’être clairement identifiable. Changer son adresse IP (avec un proxy ou un VPN) me semble aussi une bonne idée.
  • Pour vous protéger de la technique 2 : c’est assez difficile. Soit vous désactivez le cache de votre navigateur, mais vous perdez vraiment en performance, soit vous videz le cache régulièrement (à la fermeture par exemple, Firefox le permet nativement). Dernière idée : utiliser le plugin “Secret Agent” pour Firefox et dérivés, qui s’amuse avec les ETAGS pour vous éviter d’être pisté. Je n’ai pas testé cette solution.
  • Pour vous protéger de la technique 3 : il n’existe pas de solutions miracles, si ce n’est utiliser un bloqueur de pub type Adblock ou Ghostery. Ces bloqueurs vont bloquer les scripts type AddThis qui, eux-mêmes, utilisent le canvas fingerprinting.
  • Pour vous protéger en général, je vous recommande d’utiliser un bloqueur de pubs/scripts type Adblocks/Ghostery. Bien que les techniques de tracking évoluent, ils sont toujours bien utiles.
Bon courage, dans la jungle du tracking !

REF.:

jeudi 12 octobre 2017

Fin du monde ça n'existe pas ?



La fin du monde dans 4 milliards d'années ?

 Avec la naissance de la nouvelle galaxie elliptique, « Milkomeda »ou Lactomède !

La Voie lactée n'a plus que 4 milliards d'années à vivre, mais notre Soleil survivra,car tout se transforme depuis 13,9 milliards d'années !Enfin, des objets de la taille de notre système solaire se forment. Notre soleil est une étoile de génération tardive, qui incorpore des débris de nombreuses générations antérieures d’étoiles, et il s’est formé il y a approximativement 5 milliards d’années soit approximativement 8 à 9 milliards d’années après le Big Bang.Cependant, cela ne veut pas dire que la vie n'existera pas ailleurs (vie autochtone ou colonisation), de même qu'elle peut et pourra exister dans d'autres systèmes planétaires, lesquels pourraient eux subir les éventuelles conséquences d'un tel évènement.

L'univers commença par:
1- Big Bang.
2- Ère de l'inflation.
3- Découplage de l'interaction forte et faible et formation des particules.
4- Formation des étoiles et galaxies.
5-puis tout recommence ? Aura t'ont un cycle de 17,9 Milliards d'années,ou l'homo sapien aura vécu  ?
Si l'énergie sombre ( 68,3%)et la matière noire (26,8%)continue de dominer la balance énergétique de l'Univers, l'expansion observée de l'espace va continuer à accélérer. Les structures qui ne sont pas liées gravitationnellement finiront par s'éloigner les unes des autres à des vitesses apparentes supérieures à celle de la lumière. Ainsi, cette accélération nous empêchera finalement d'observer des portions importantes de l'Univers qui sont aujourd'hui visibles ; notre horizon cosmologique, plutôt que de reculer, finira par se rapprocher de nous.C'est dire que la matière physique que l'ont voit ici,représente a elle seul 4,9% de l'univers !L'homo sapien aura vécu seulement 315,000 ans ? Ou,les premiers représentants du genre Homo seraient apparus il y a environ 2,8 millions d'années30 seulement ? Sinon ont est des bactéries humaines,ou bien l'ombre d'un Boson éternel de l'Univers !



Destin de l'univers:

De même que pour les interprétations des tout débuts de l’Univers, des avancées en physique fondamentale sont impératives pour qu’il soit possible de connaître le destin de l’Univers avec un minimum de certitude. Voici quelques-unes des principales possibilités.

Le Big Freeze : 1014 d'années et au-delà.

Ce scénario est généralement considéré comme le plus probable, puisqu’il se produit si l’Univers continue son expansion comme jusqu’ici. Sur une échelle de temps de l’ordre de 1014 années ou moins, les étoiles existantes auront brûlé, la création des nouvelles étoiles aura cessé, et l’Univers s’assombrira14.

Le Big Crunch : 100+ milliards d'années.

Si la densité de l’énergie sombre était négative, ou si l’Univers était fermé, alors, il serait possible que l’expansion s’inverse et que l’Univers se contracte jusqu’à un état « final » dense et chaud. C’est souvent proposé comme une partie d’un scénario d’univers oscillant comme le modèle cyclique. Les observations actuelles suggèrent qu’il est peu probable que ce modèle d’univers soit correct, et que l’expansion continuera, ou même accélérera.

 

Le Big Rip : 20+ milliards d'années à partir d’aujourd’hui.

 Ce scénario n’est possible que si la densité d’énergie de la matière sombre augmente réellement de façon illimitée avec le temps. Une telle énergie est appelée énergie fantôme et ne ressemble à aucune forme d’énergie connue. Dans ce cas, le taux d’expansion de l’Univers augmentera de façon illimitée.

Dans le cas où notre Univers se situerait dans un faux vide d’extrêmement longue durée, il est possible qu'à certains endroits, par effet tunnel, il y ait une transition du vide vers un état d’énergie inférieure. Comme il est dit d'être arrivé dans les phases initiales du Big Bang, avec les transitions du vide lors du découplage des différents champs de force.
Il est précisé dans certaines publications, que si ceci se produisait, toutes les structures seraient détruites instantanément, sans aucun signe précurseur. En effet, le front de transition progresserait à la vitesse de la lumière et aucun signal précurseur ne pourrait avertir de sa venue.

 




Dans quatre milliards d’années, notre galaxie, la Voie lactée, entrera en collision avec notre grande spirale voisine, Andromède.
Les galaxies telles que nous les connaissons n’y survivront pas.
Notre système solaire vivra plus longtemps que notre galaxie. Quand la fusion se produira, le soleil ne sera pas encore une boule rouge géante, mais il aura grossi suffisamment pour griller la surface de la Terre. Les formes de vie qui y vivront encore auront le droit à un spectacle cosmique particulièrement remarquable.
De nos jours, Andromède se trouve à environ 2,5 millions d’années lumières de la Voie lactée. Attirées par la gravité, les deux galaxies se foncent dessus à une vitesse de 402 000 km/h. Même à une telle vitesse, il faudra 4 milliards d’années pour qu’elles se rencontrent. Elles entreront en collision frontale avant de se traverser mutuellement en laissant derrière elles des traînées de gaz et d’étoiles. Elles vont continuer à se rapprocher puis à s’éloigner à nouveau pendant des millions d’années, mélangeant les étoiles et redessinant les constellations au passage. Enfin, au bout d’environ un milliard d’années, les deux galaxies fusionneront.
À ce moment-là, le système solaire aura un nouveau domicile cosmique : une galaxie ovale géante, formée par la collision puis la fusion de la Voie lactée et d’Andromède.
Ce n’est pas de la science-fiction ; c’est une véritable prédiction scientifique. Halley a prédit le retour de la comète éponyme, et les astronomes de notre époque, la fin de la Voie lactée. Ce don de prévoyance n’est en fait qu’une compréhension mathématique des lois physiques qui régissent le mouvement des corps célestes.
« Avec la seule aide des lois de la gravitation de Newton, nous autres astronomes pouvons prédire avec certitude que dans quelques milliards d’années, notre galaxie, la Voie lactée, fusionnera avec notre galaxie voisine, Andromède », affirme le présentateur de COSMOS, Neil DeGrasse Tyson. « Les étoiles sont si éloignées les unes des autres, par rapport à leur taille, que très peu d’entre elles, pour ne pas dire aucune, rentreront en collision. Les formes de vie potentielles sur les astres de ce futur très lointain ne devraient pas être en danger, mais auront la chance d’assister à un incroyable spectacle de lumières long de plusieurs milliards d’années. »

Selon la NASA, le scénario est inévitable : dans 4 milliards d’années aura lieu une collision entre notre galaxie, la Voie Lactée, et celle d’Andromède, mettant fin au monde tel que nous le connaissons.La galaxie d'andromede fonce sur nous a vitesse de 430 000 km/h .il y aura une premiere collision dans 1.8 milliard d annees et apres plusieurs collisions vont fusionner dans 4.5 milliard d annees ce qui va totalement chambouler le ciel que l on connait; la probabilité que le soleil soit expulser dans la banlieue de la galaxie est de 68%.mais la terre restera attaché au soleil meme si lui est expulser ainsi que les autres planetes. mais il n y aura plus rien sur terre car dans seulement 1.6 milliard d annee la terre sera trop chaude pour n importe quel vie.(100°moyenne).


En 2007, l’astrophysicien Avi Loeb, de l’université de Harvard, a décidé de se pencher à nouveau sur la question de l’arrivée imminente d’Andromède. « La plupart des théoriciens veulent reproduire les systèmes de notre passé qui sont observables aujourd’hui ; ils sont réticents quant à l’idée de faire des prédictions qui ne seront testées que dans des milliards d’années », commente Loeb. « Je ne comprenais pas cette logique. Je suis tout autant curieux de connaître le futur que le passé. »


Accompagné de T.J. Cox, alors étudiant post-doctorat, Loeb a simulé la collision et la fusion d’Andromède et de la Voie lactée en utilisant les estimations du mouvement propre d’Andromède. Les résultats montrèrent une honnête chance de collision frontale des deux galaxies, avec la bonne possibilité que le système solaire se fasse propulser vers l’extrémité de la nouvelle galaxie elliptique, baptisée « Milkomeda » par Loeb.
En 2012, une équipe d’astronomes basée au Space Telescope Science Institute a refait les calculs de la collision en utilisant cette fois-ci des mesures directes du mouvement propre d’Andromède. Après toutes ces années, l’équipe a pu récupérer ces mesures grâce au télescope spatial Hubble et a une mission d’observation rassemblant des années de données, dont les premières images capturées en 2002.
« Nous avons comparé les images prises à des moments différents par le télescope spatial Hubble, et nous avons mesuré le déplacement des étoiles d’Andromède par rapport aux galaxies floues dans le lointain arrière-plan », explique l’astronome Sangmo Tony Sohn. « Cela nous donne une idée de la vitesse des étoiles d’Andromède dans le ciel. »
L’équipe a conclu que le mouvement propre d’Andromède était petit, et qu’une collision frontale était à peu près inévitable. Cela peut sembler catastrophique, mais la fusion de deux galaxies n’est pas un phénomène inhabituel. Le télescope spatial Hubble a capturé de splendides images de fusions et de collisions lointaines, et l’astronome Halton Arp fit figurer un certain nombre d’interactions galactiques dans son « Atlas of Peculiar Galaxies » publié en 1966. Elles sont toutes très belles.
La bonne nouvelle, comme le dit Tyson, c’est que les étoiles sont si éloignées les unes des autres que même si les galaxies entrent en collision, la probabilité de collision entre plusieurs étoiles reste faible. Le Soleil et ses planètes pourront probablement survivre à la naissance de Milkomeda, même si la Terre aura perdu sa place dans la Voie lactée. Nous ne vivrons plus dans une galaxie en spirale. Milkomeda aura une forme elliptique, et arborera certainement une couleur rouge, comme on peut le voir vers la fin de l’animation réalisée en 2012 par l’équipe, ainsi que dans l’animation ci-dessus.
Ce qui ne fait aucun doute, c’est que cette fusion sera spectaculaire. Et il y a de fortes chances pour que la petite galaxie du Triangle, située dans les environs, se fasse aspirer par l’événement. Pour ma part, je regrette de ne pas pouvoir assister à ce grand spectacle de lumières cosmiques.

REF.:

dimanche 8 octobre 2017

Pourquoi notre QI a baissé




Les pouvoirs du cerveau:

La conscience humaine, unique dans le monde vivant, est restée un mystère d'origine divine pendant des millénaires. Aujourd'hui, les récents et spectaculaires progrès scientifiques (de l'imagerie médicale à la physique quantique), le révèlent pour la première fois. Je pense donc je suis. Mais qui pense en nous? Qui sommes-nous?
Voyage au-delà de notre cerveau. Comme la conscience, l'intelligence humaine a propulsé l'homme au sommet de l'évolution, en lui offrant de dominer le monde. Mais aujourd'hui, l'intelligence serait en panne. Le QI moyen baisse. A travers une enquête sur la nature de ou des intelligence(s), nous découvrons les raisons de cette panne, et comment  «re-doper» notre intelligence grâce aux progrès scientifiques, dont des greffes de cellules cérébrales.

Un cerveau intelligent n'est pas un cerveau qui fonctionne plus ,mais au contraire ,un cerveau qui fonctionne moins.C'est ce qu'on appel la neuro-efficacité.Ëtre intelligent c'est résoudre un problême ,en faisant le minimum d'effort.
L'inhibition c'est d'apprendre a contrôler nous-même les interférences qui viennent perturber notre intelligence .
Ce sont les bugs de l'intelligence! C'est avec le test de stroop(test: faut nommer la couleur sans le lire),que l'ont voit ça.

La myéline ,enveloppe les axones des neuronnes(appelé la matière grise) ,se forme après notre naissance et surtout par notre environnement . C'est la myéline qui permet a l'information de voyager rapidement et efficacement dans notre cerveau
 Aujourd'hui,la formation de la myéline est perturbée ,selon l'endocrinologue Barbara Demeneix.Notre intelligence est menacée par un fléau majeur du 21 ième siècle ,la pollution.On est exposé a des centaines de produits chimiques qui vont interférer avec l'hormone thyroidienne.La thyroide est située a la base du cou,est nécessaire au développement du cerveau depuis les premieres étapes du développement du foetus jusqu'a un âge plus avancé ,pour assurer la myélisation. Selon l'EFSA (European food safety authority)a analysé 297 pesticides ,dont une centaine,comme le byphénol A, BCP,les retardateurs de flame qui perturbe le fonctionnement de l'hormone thyroidienne.

Selon les neurobiologistes , 15% des cellules du cerveau qui sont des neuronnes ,les reste soit 85% ne communique pas grâce a l'électricité . On l'appel la glie.
Les cellules gliales communique entre-elles et avec les neuronnes. Les cellules gliales sont bien plus nombreuses que les neuronnes et qui forment leurs environnement . Certaines fabriquent la myéline ,d'autres nourissent les neurones et les protègent.On les appelent les astrocytes . On a découvert que les astrocytes jouaient un rôle dans l'intelligence . Tout a commencer avec un génie . On a découvert dans le cerveau d'Einstein ,que son cerveau avait plus d'astrocytes. Les astrocytes,ou cellules gliales identifiées ,il y a plus d'un siècle sont complexes . Ils controlent les synapses ,le flux sanguin dans le cerveau,nourissent les neurones ,ils réagissent aux blessures . Ces tâches ménagère font que l'astrocyte contrôle les neurones.

Ce qui est a l'origine de nos capacités se trouve en partie dans nos gènes . Selon Robert Plomim ,généticien comportementaliste ,les gènes nous donne un potentiel et l'environnement nous permet de l'exprimer. Le Docteur Plomin,a fait des tests avec des clônes(des jumeaux)qui sont identiques et leurs test d'intelligence fait que leurs résultats sont plus près que d'un frère ou d'une soeur .
On a identifié plus de 300 gènes qui influent sur l'intelligence . Et seulement 1 % a été identifié .


On ne parle plus de zone du cerveau,car la plupart des gènes qui agissent sur le cerveau affectent beaucoup de régions différentes.

Selon Rex Jung,neuropsychologue, nous utilisons différentes manières de raisonner.La créativité est un autre mode de fonctionnement du cerveau. Est-t'elle différente de l'intelligence ? La créativité est en fait un processus de raisonnement fondamentalement différent . Un musicien peut-être a la fois intelligent et créatif.
Sa théorie ,est que le réseau de l'intelligence se situe a la surface du cerveau. Avec la créativité ,les choses sont différentes,elle dépende principalement du réseau du mode par défaut.C'est un réseau qui se trouve plutôt au milieu , a l'intérieur du cerveau. Et ces deux réseaux échange en permanence les informations pour nous permettre de résoudre les problêmes posés par le monde qui nous entoure .
Ceux qui sont créatifs ,c'est ceux qui ont importés les idées de d'autres domaine(comme un dentiste,qui a déja étudier astronomie).


REF.: