L'April se joint à 43 associations pour signer une lettre ouverte rédigée à l'initiative de La Quadrature du Net, afin d'interpeller le président de la République et lui demander de renoncer à son projet de règlement européen de censure sécuritaire, dont il est le principal promoteur.
Les gouvernements européens se réuniront le jeudi 6 décembre 2018 pour décider de leur position sur ce texte. Ce règlement instrumentalise la crainte terroriste pour museler tout Internet, mais ne servira à rien d’autre qu’à renforcer Google et Facebook notamment et à remettre en cause la confidentialité de nos communications.
Un texte qui aura un écho particulier pour toute personne qui suit la liberticide directive droit d'auteur. L'objet du texte est différent, mais la solution affichée est très similaire : imposer aux acteurs de l'Internet, hébergeurs en tête, une surveillance des informations et contenus des personnes qui utilisent leurs services et les en rendre responsables.
Vous pourrez retrouver la liste des signataires sur le site de La Quadrature du Net, ainsi que leurs textes d'analyse sur ce dossier.
Opposition au projet de règlement européen de censure antiterroriste
Monsieur le Président,
Au nom de la lutte contre la radicalisation terroriste en ligne, vous défendez un projet de règlement >européen imposant de nouvelles obligations à l’ensemble des acteurs de l’Internet : hébergeurs de site, de blog >et de vidéo, forum et réseaux sociaux, sites de presse, fournisseurs de mail et de messagerie, etc.
Alors que la Commission européenne et votre gouvernement ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.
Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.
Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.
Quant aux acteurs associatifs et collaboratifs à buts non lucratifs, ils n’auront d’autres choix que de cesser leurs activités.
Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie.
Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information, parfaitement contraires au projet humaniste que vous entendez porter au niveau européen.
Nous, acteurs de cet écosystème et défenseurs des libertés fondamentales, vous demandons de renoncer à ce projet.
Alors que la Commission européenne et votre gouvernement ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.
Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.
Quant aux acteurs associatifs et collaboratifs à buts non lucratifs, ils n’auront d’autres choix que de cesser leurs activités.
Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie.
Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information, parfaitement contraires au projet humaniste que vous entendez porter au niveau européen.
Nous, acteurs de cet écosystème et défenseurs des libertés fondamentales, vous demandons de renoncer à ce projet.
La justice a commencé lundi 3 décembre à aborder le volet civil de ce dossier exceptionnel à Villeurbanne, près de Lyon.
"C'est un dossier exceptionnel car il regroupe 4.113 personnes et c'est un dossier exceptionnel par les questions posées", a lancé au début de sa plaidoirie l'avocat des plaignants, Me Christophe Lèguevaques, du barreau de Toulouse.
Cette action collective, lancée le 24 octobre 2017, vise à faire reconnaître un "défaut d'information" de la part du fabricant allemand du traitement Merck, dont le siège français est à Lyon. Et aussi un "préjudice d'angoisse" des plaignants, qui réclament chacun une indemnité de 10.000 euros.
"J'accuse Merck de savoir que le changement de formule allait avoir des conséquences néfastes, de faire peu de cas des malades et de privilégier les intérêts financiers de ses actionnaires sur les malades", a plaidé Me Lèguevaques.
"Exception d'incompétence"
L'audience, organisée dans un centre de congrès à Villeurbanne (Rhône) en raison du très grand nombre de requérants, a commencé par une "exception d'incompétence" soulevée par un des avocats de Merck, Me Jacques-Antoine Robert.
Celui-ci a estimé que l'affaire devait être renvoyée devant le tribunal de grande instance, seul habilité à se prononcer sur les préjudices corporels, réfutant le "préjudice moral pur", plaidé par la partie adverse devant le tribunal d'instance.
"Depuis le début, nous disons que le sujet ce n'est pas le médicament mais l'information autour du médicament", a rétorqué Me Lèguevaques.
L'affaire fait par ailleurs l'objet, au pénal, d'une information judiciaire contre X instruite par le pôle santé du TGI de Marseille.
plan de communication "extrêmement large"
Mise sur le marché au printemps 2017, une nouvelle formule du Levothyrox, prescrit contre l'hypothyroïdie et fabriqué par le laboratoire Merck Serono, filiale du groupe allemand, a été incriminée par quelque 31.000 patients victimes d'effets secondaires (fatigue, maux de tête, insomnies, vertiges, etc.).
Le laboratoire, qui plaide lundi après-midi et compte réclamer des expertises médicales, affirme qu'un plan de communication "extrêmement large" consistant en l'envoi de "300.000 communications par courrier, fax et mail, auprès de 100.000 professionnels de santé" avait été engagé au moment du lancement en France de la nouvelle formule.
"On ne peut pas globaliser l'approche", a assuré à la presse le directeur juridique de Merck, Florent Bensadoun, ajoutant que ce dossier comportait "beaucoup d'émotion".
"Je ne veux plus entendre parler de Merck"
Dans la salle, quelque 200 plaignants, en majorité des femmes, assistent à l'audience.
"Tout allait bien entre 1991 et 2017" pour Véronique Caute, 48 ans, patiente venue du Lot-et-Garonne, qui a ressenti avec le Levothyrox nouvelle formule des "maux de tête constants, des crampes, de la forte fatigue", ainsi qu'une rapide prise de poids.
"J'ai besoin qu'on nous reconnaisse comme victimes", a estimé cette conseillère en insertion professionnelle, qui souhaite "aller jusqu'au bout de la procédure".
Le récit de Corinne Lefranc, comptable de 52 ans, est quasi similaire: "une grosse fatigue et de la déprime" subitement au printemps 2017.
Après s'être procuré dans un premier temps l'ancienne formule à l'étranger, Mme Lefranc a changé de médicament, Merck n'étant désormais plus en situation de monopole en France. "Je ne veux plus entendre parler de Merck", a-t-elle dit.
Au total, trois millions de patients prennent ce médicament en France (premier marché mondial) et 2,5 millions de malades utilisent la nouvelle formule, selon Merck.
44 associations de défense des libertés, professionnels, hébergeurs et FAI associatifs demandent à Emmanuel Macron de renoncer à son projet de règlement européen de censure sécuritaire, dont il est le principal promoteur.
Les gouvernements européens se réuniront le 6 décembre pour décider de leur position sur ce texte. Ce règlement instrumentalise la crainte terroriste pour museler tout Internet, mais ne servira à rien d’autre qu’à renforcer Google et Facebook (relire notre analyse) et à remettre en cause la confidentialité de nos communications (relire notre analyse).
La lettre en PDF ou ci-dessous :
Monsieur le Président,
Au nom de la lutte contre la radicalisation terroriste en ligne, vous défendez un projet de règlement européen imposant de nouvelles obligations à l’ensemble des acteurs de l’Internet : hébergeurs de site, de blog et de vidéo, forum et réseaux sociaux, sites de presse, fournisseurs de mail et de messagerie, etc.
Alors que la Commission européenne et votre gouvernement ne démontrent de façon étayée ni l’efficacité ni la nécessité de ces obligations pour lutter contre le terrorisme, vous souhaitez imposer aux acteurs d’Internet d’agir sur des contenus dont la dangerosité n’aura été évaluée par aucun juge et ce dans des délais extrêmement courts.
Ces obligations sont porteuses de graves dangers pour l’ensemble de l’écosystème numérique européen. En effet, les moyens économiques, humains et techniques requis pour exécuter les obligations envisagées sont tout simplement hors de portée de la quasi-totalité des acteurs : très peu sont ceux qui seront en mesure de répondre 24h/24h, 7j/7 et en moins d’une heure aux demandes de retrait de contenu provenant de n’importe quelle autorité d’un État membre de l’Union. De la même manière, les mesures de surveillance et de censure automatisées que les autorités nationales pourraient imposer en vertu du texte seront totalement impraticables.
Ainsi, pour se plier à ces nouvelles contraintes, les acteurs économiques de petites et moyennes tailles ne pourront que sous-traiter l’exécution des demandes de retrait et la censure automatisée aux quelques grandes entreprises qui, en raison de leur puissance financière, seront capables de les prendre en charge, Google et Facebook en tête, cette sous-traitance étant porteuse d’une dépendance économique et technique gravement préjudiciable à l’économie numérique européenne.
Quant aux acteurs associatifs et collaboratifs à buts non lucratifs, ils n’auront d’autres choix que de cesser leurs activités.
Ce règlement appauvrira donc radicalement la diversité numérique européenne et soumettra ce qu’il en reste à une poignée d’entreprises qui sont déjà en situation de quasi-monopole et dont il faudrait au contraire remettre en cause l’hégémonie.
Enfin, ce règlement conduirait à une surveillance généralisée de nos échanges en ligne et une censure privée et automatisée de l’information, parfaitement contraires au projet humaniste que vous entendez porter au niveau européen.
Nous, acteurs de cet écosystème et défenseurs des libertés fondamentales, vous demandons de renoncer à ce projet.
Signataires :
Alsace Réseau Neutre
April
Aquilenet
Bee Home
Le CECIL
Devloprog
Digital Courage
FAImaison
FDN
FFDN
Framasoft
Franciliens
Globenet
Hadoly
Hoga
Human Rights Watch
Illyse
Iloth
IndieHosters
La mère Zaclys
Labomedia
Lautrenet
Marsnet
Mediapart
Nebulae
Observatoire des Libertés et du Numérique
Open Rights Group
Outils libres
Ouvaton
Panoptykon
Paquerettes
Parinux
Picasoft
ProtonMail
Rézine
Statewatch
Syndicat de la magistrature
Syndicat national des journalistes
Creis – Terminal
Toile-Libre
Vhost
Wikimedia France
Witness
XnetLes salles du Palais de Justice de Lyon sont littéralement trop petites pour accueillir la première audience du procès du Levothyrox ce lundi 3 décembre. 4113 plaignants accusent le laboratoire allemand Merk d'un "défaut d'information" sur la nouvelle formule du médicament, qui a selon eux causé de nombreux effets indésirables.
Face au nombre important de plaignants, la salle "Double Mixte" située à Villeurbanne a été réquisitionnée. Elle accueille d'ordinaire des événements festifs comme des concerts, des festivals ou encore des congrès ou des concours.
Le 24 octobre, le groupe allemand avait été assigné dans le cadre d'une action collective pour "défaut d'information" et "préjudice d'angoisse". En cause, une vague de critiques qui ont émergé au mois d'août 2017, à propos des effets secondaires indésirables de la nouvelle formule du médicament prescrit à 3 millions de Français souffrant d'hypothyroïdie.
"Quand je me couche, j'ai des tremblements, la nuit, des insomnies, la journée, des douleurs osseuses et articulaires. J'ai l'impression de devenir dépressive malgré moi, je ne sors même plus de chez moi pour aller à la boîte aux lettres", avait confié une des patientes sous Levothyrox au HuffPost.
Outre cette action civile à Lyon, l'affaire fait l'objet de plusieurs procédures, dont une information judiciaire contre X instruite par le pôle santé du TGI de Marseille.
Me Christophe Lèguevaques, l'avocat toulousain qui a assigné le laboratoire, réclame une indemnité forfaitaire de 10.000 euros pour chacun des plaignants.
Mi-juin l'Association française des malades de la thyroïde (AFMT) avait estimé, sur la base d'analyses qu'elle avait commanditées, que cette nouvelle formule comportait des anomalies dans sa composition, pouvant expliquer ces effets secondaires. Mais début juillet, l'Agence du Médicament (ANSM), sur la foi de nouvelles analyses, a "confirmé la bonne qualité de la nouvelle formule" du Levothyrox.
Merck a annoncé cet été qu'il prévoyait de lancer la nouvelle formule dans 21 pays de l'UE à partir de 2019.
Si vous possédez une adresse de courrier électronique @hotmail.fr, @hotmail.com, @outlook.com, etc. sachez que certains internautes ne peuvent pas vous envoyer de mails. Pourquoi ? Parce que Microsoft, l’entreprise qui gère votre boite mail, refuse les mails provenant de « petits » réseaux par peur du spam. […]
Internet a été conçu pour être un réseau décentralisé. C’est une de ses forces et une des raisons de la diversité de ses contenus. Les « règles de circulation » sur Internet sont donc pensées pour permettre cette diversité d’acteurs. Malheureusement, aujourd’hui quelques grosses multinationales (les GAFAM notamment) gèrent une partie significative des services en ligne, il y a donc un risque pour que ces grosses entreprises tentent d’imposer leurs propres règles au détriment des petits. Le cas de Microsoft qui refuse les mails provenant de petits réseaux en est une illustration parfaite : en durcissant ses règles de tri du spam depuis une position de pouvoir (nombreuses boites mail gérées), Microsoft tente de faire passer en force des règles qui ne font pas consensus.
L’idée que beaucoup d’hommes élèveraient à leur insu des enfants qui ne sont pas génétiquement les leurs a tout d’une légende urbaine, et ce, depuis un bon paquet de temps.
C’est un motif récurrent des séries et des talk-shows: le brave père de famille qui, après un test génétique, apprend que le ou les enfants qu’il élève depuis des années ne sont en réalité pas les siens. En général, la nouvelle relève de la colossale catastrophe et d’un ressort tragique tout aussi gigantesque.
De fait, le phénomène est très présent dans l’imaginaire collectif, et pour cause: d’un point de vue masculin, biologiquement parlant, c’est passablement affreux d’investir du temps, de l’énergie et des ressources pour s’assurer la survie de gènes qui ne sont pas les vôtres. Et le pire, c’est que ce risque semble tout à fait avéré. Chez des espèces monogames autres que la nôtre –des oiseaux, par exemple–, un enfant sur dix a été engendré lors d’une «copulation extérieure au couple». Une stratégie reproductive qui, théoriquement parlant, serait particulièrement bénéfique aux femelles. Quand on y ajoute la prévalence de l’adultère féminin au sein de notre espèce –entre 5 et 27% des individus âgés de moins de 30 ans– l’angoisse d’avoir été fait cocu au point d’élever les rejetons du facteur n’a visiblement rien d’exagérée.
Sauf que sans doute que si, selon une synthèse de trois spécialistes de la question parue le 11 avril dans la revue Trends in Ecology & Evolution. En effet, s’il est courant d’estimer la proportion des paternités mal attribuées entre 10 et 30% des familles –un chiffre que les associations masculinistes ne manquent pas, évidemment, de véhiculer–, Maarten H.D. Larmuseau, Koen Matthijs et Tom Wenseleers, de l’Université catholique néerlandophone de Louvain, arguent que la fourchette se situerait bien plus probablement autour des 1 à 2%. On passerait donc, en gros, d’un père «floué» sur dix à un sur cinquante. Une paille.
Généalogie du chromosome Y
Qui plus est, la proportion resterait relativement stable même en remontant le cours de notre histoire, soit avant la massification de l’usage de la contraception scientifiquement élaborée. Une affirmation rendue possible par les progrès de la génétique des populations, qui passe notamment au crible la généalogie du chromosome Y.
Responsable de l’androgénisation du fœtus, ce bout d’information génétique ne se transmet que du père au fils et demeure quasiment identique lors de la formation des gamètes des deux sexes. Au travers des générations, il est donc (scientifiquement parlant) facile de remonter sa trace et d’étudier les éventuelles «incartades» dont il a pu être victime. C’est, par exemple, de cette manière qu’après la découverte du squelette de Richard III les scientifiques avaient été capables de dévoiler une infidélité royale survenue quelque part sur la grande route génétique reliant le tyran boiteux et bossu à l’actuelle reine d’Angleterre.
Mais, à l’échelle de l’humanité, et ce, depuis au moins un demi-millénaire, l’infidélité féminine (féconde) serait un phénomène pour le moins exceptionnel:
«La faiblesse des taux de cocuage observés dans les populations humaines passées et contemporaines contestent clairement l’idée, bien connue, voulant que les femmes aient l’habitude de “faire leur marché” de bons gènes, résume Larmuseau, et s’engagent dans des copulations extérieures au couple afin d’obtenir des bénéfices génétiques pour leurs enfants.»
En d’autres termes, pour les femmes, les avantages potentiels de l’infidélité seraient surpassés par ses coûts –violence conjugale, divorce, moindre investissement de la part du conjoint «social» et/ou de son cercle familial. Ce qui expliquerait pourquoi, sur des centaines de générations et des millions d’individus, le phénomène demeure, en réalité, bien plus rare qu’on pourrait le penser.
Petit résumé des thématiques abordées dans les épisodes précédents dans le texte mais aussi dans les commentaires :
épisode 1 : la pub biaisée des sociétés de généalogie génétique.
épisode 2 : les dérives de racisme et de fichage sous prétexte d'étude sociologique et de santé.
épisode 3 : les universités américaines travaillent sur un outil probabilistique de répartition géographique et des résultats sur la longévité, la fertilité, les schémas de migration et, dans certains cas, des caractéristiques faciales.
épisode 4 : le mythe des enfants adultérins démonté.
épisode 5 : le cas particulier de Hans Jonathan, antillais en Islande en 1802, le portrait robot ADN (couleur de peau, présence/absence de taches de rousseur, présence d'alopécie), les dérives racistes.
épisode 6 : les résolutions de cold cases à partir des fichiers d'ADN récréatif, les dérives de fichage, les dérives des assurances.
épisode 7 : comparaison des séquençage complet, emprunte FNAEG et test récréatif. Dérives de revente des données à des fins médicales, incident de cybersécurité, le fichage d'état en Estonie.
épisode 8 : le sondage Geneanet et sa faible représentativité, biais et paradoxes des comparaisons (avec nos contemporains uniquement, avec des échantillons non représentatifs ou en sous nombre...) La fiabilité déplorable des interprétations, le problème des naissances sous X, l'amélioration génétique, l'eugénisme.
épisode 9 : la non toute puissance de prédiction médicale, la désinformation médicale des tests, la cybersécurité, la porosité entre les bases et les enquêtes de police, le fichage d'état en Angleterre.
épisode 10 : Geneanet se lance dans la bataille, résumé des dérives médecine, assurances, employeurs, police, racisme. Cybesécurité. Récréation avec Spotify, Taille du marché de l'ADN.
épisode 11 : le problème des naissances sous X, anciens vs nouveaux (tout en ligne) généalogistes, la perte d'information forte au delà de la 6e génération, le fichage généralisé, les dérives racistes dénoncées par les universitaires, les problématiques vues par les universitaires, l'impossibilité de renouvellement des données en cas de compromission.
Dans ce nouvel opus, revenons pour cet épisode au marché de l'ADN pour particuliers, comme dit dans les commentaires de l'épisode 10, C'est un marché en expansion qui faisait 117M$ en 2017 et devrait atteindre 611M$ en 2026. Dans le même temps les couts de séquençage fondent comme neige au soleil : en 2007 il fallait 1M$ par séquençage, en 2014, il fallait 1000 $, et le PDG d'Illumina (un fabriquant de séquenceurs) pense que dans quelques années ce sera 100$, comme nous le rapporte Les Echos
Dans ce nouvel opus, revenons pour cet épisode au marché de l'ADN pour particuliers, comme dit dans les commentaires de l'épisode 10, C'est un marché en expansion qui faisait 117M$ en 2017 et devrait atteindre 611M$ en 2026. Dans le même temps les couts de séquençage fondent comme neige au soleil : en 2007 il fallait 1M$ par séquençage, en 2014, il fallait 1000 $, et le PDG d'Illumina (un fabriquant de séquenceurs) pense que dans quelques années ce sera 100$, comme nous le rapporte Les Echos
Commençons par les entreprises de "généalogie génétique"
Jusqu'à présent, la plupart des opérateurs proposaient une fois l'ADN numérisé de pouvoir procéder gratuitement à un transfert des données brutes chez un concurrent (où il fallait payer un petit supplément pour réanalyser les données et obtenir une interprétation différente !). Depuis ce 1er décembre l'un des principaux acteurs (MyHeritage) a décidé de faire payer ce transfert, ce n'est sans doute que le début d'une monétisation exacerbée. Au passage vous remarquerez que ces données brutes qui vous définissent ne sont, pour ces sociétés, pas votre propriété ! Vous trouverez une analyse complète des transferts sur le blog Genealogie-Génétique. On voit également que ces résultats sont exprimés en probabilités et sont variables dans le temps comme le montre Libération
L'autre tendance de ces entreprises est de proposer à leurs clients une réanalyse, là aussi si par le passé c'était gratuit, ça change et comme le montre ce tweet de Juloz AncestryDNA propose des options payantes pour vous "montrer" quelles caractéristiques physiques (monosourcil, taches de rousseur, calvitie) vous avez hérité de vos ancêtres... Puisque l'ADN de votre ancêtre n'est pas analysé, c'est déjà très douteux puisque ça nie la recombinaison de l'ADN, ensuite ça ne dit pas de quel ancêtre ça vient et enfin, ça ne prend pas en compte le fait ce n'est pas parce que vous avez un gène qu'il s'exprime, comme le montre Joël de Rosnay dans son intervention sur l'épigénétique !
L'article des Echos précité, nous apprend également qu'Ancestry a passé un partenariat avec GoAhead Tours pour créer des voyages sur mesure fonction des résultats ADN et que National Geographics fait de même. L'ADN semble être un vecteur commercial sans fin.
De nouvelles entreprises se lancent également à l'assaut de ce marché, et vous proposent de nouveaux "services"
La compagnie Life Epigenetics, une start-up filiale du géant de l'assurance GWG prétend avoir mis au point un test permettant de prédire la mortalité et la probabilité de contracter des maladies à partir de l'expression des gènes comme nous le présente Futura-sciences. Cependant c'est biaisé, car comme le montre cet article en anglais de Science Daily, qui relate une étude de la Genetics Society of America a partir de données d'Ancestry sur 400 millions d'individus, notre longévité est liée à notre capacité à nous lier à une personne présentant certains traits identiques. D'autre part la probabilité de contracter des maladies est utilisée aux USA par des médecins peu scrupuleux pour vendre des chirurgies préventives. A cela deux biais. Ce n'est pas parce que 100% des personnes ayant un cancer partagent le même marqueur ADN, que l'ensemble des personnes ayant ce marqueur ont un cancer, et d'autre part comme dit dans l'épisode 9 il y a confusion entre probabilité et certitude (si un test de probabilité de cancer a un résultat de 14% c'est en fait un risque relatif : s’il y a 1 chance sur 1000 de l’avoir, alors ça veut juste dire que le résultat réel est de 1,14 / 1000). Je vous invite également à voir le reportage de Complément d'Enquête intitulé "ADN pour tous : miracle ou cauchemar ? ADN : la foire aux tests", c'est édifiant ! Les taux de faux-positifs atteignent 40% d'après une étude d'Ambry Genetics. Le fait que ce soient des sociétés d'assurance qui cherchent à connaître notre longévité supposée est également une tentative de biaiser le rapport de mutualisation des risques pour augmenter les profits.
Les compagnies Nebula Genomics et Encrypgen comme le montre Dick Eastman dans deux notes de blog (1, 2), vous proposent de monétiser votre ADN en vous mettant en rapport avec des entreprises de recherche prêtes à l'acheter. En gros, elles proposent d'individualiser ce que les grosses entreprises type 23andMe font dans votre dos. Rien que pour 23andMe, leur base a été revendue à au moins trois labos Roche, Pfizer et GSK (GlaxoSmithKline) pour un montant total supérieur à 400 M$.Laissez parler les p'tis papiers.. Pour qu’ils puissent parler, ils doivent être bien conservés. Nous sommes souvent perdus face à nos archives familiales. Comment les préserver ? Comment les exploiter ? Micro-Archives a peut-être une solution pour vous.
Dans cette ferme québécoise, la traite des vaches s'effectue de façon automatique, sans intervention humaine.
Catherine Delorme
AGRICULTURE - À Saint-Alexis au Québec, les vaches du producteur laitier Pascal Thuot vagabondent en toute liberté dans un immense espace intérieur. Fini, le temps des enclos restreints dans sa ferme de la région de Lanaudière. La traite s'effectue de façon automatique, sans intervention humaine.
Quand les vaches ont besoin de vider leurs pis, elles font la queue devant l'un des robots de traite de l'éleveur. Lorsqu'un animal entre dans la petite stalle, l'ordinateur la reconnaît grâce à la puce sur son collier et sait à quel moment remonte la dernière traite.
Pour vous connecter à l’Internet, vous avez besoin d’un FAI (Fournisseur d’Accès à l’Internet), une entreprise ou une association dont le métier est de relier des individus ou des organisations aux autres FAI. En effet, l’Internet est une coalition de réseaux, chaque FAI a le sien, et ce qui constitue l’Internet global, c’est la connexion de tous ces FAI entre eux. À part devenir soi-même FAI, la seule façon de se connecter à l’Internet est donc de passer par un de ces FAI. La question de la confiance est donc cruciale : qu’est-ce que mon FAI fait sans me le dire ?
Les nouvelles générations seraient capables d’utiliser de façon intuitive les outils du Web. Ce mythe menace les plus défavorisés.
«Chaque génération possède un million de visages et autant de voix» : ainsi débute un article du Time, publié en novembre 1951, qui se pose la question de savoir s’il est possible de dépeindre le portrait d’une génération entière. S’ensuit une enquête hasardeuse mais captivante durant laquelle des correspondants, partout à travers les Etats-Unis, sondent les jeunes, leurs parents et leurs professeurs, avec une bien audacieuse ambition : au million de visages et de voix, trouver des traits communs et des tonalités semblables. Cette enquête, plus lyrique que scientifique, donne naissance à un terme qui traverse les âges pour décrire la jeunesse américaine des années 50 : la génération silencieuse. Celle qui ne veut pas aller à la guerre mais montre peu d’enthousiasme pour la paix.
Le terme est forcément essentialisant, mais on ne pourra pas enlever aux journalistes du Time d’être allés à la rencontre de la jeunesse d’alors, dans sa diversité, pour l’observer et la questionner sur elle-même. Le concepteur américain de jeux vidéo Marc Prensky a-t-il fourni les mêmes efforts en 2001, avant de parler de «digital natives» pour décrire les enfants de notre siècle ? Les médias et autres think thanks ont-ils bien tendu l’oreille à toutes les jeunesses françaises avant d’acter que l’adolescent d’aujourd’hui est un «enfant du numérique» ? Lorsque j’emmène mes élèves de sections d’enseignement général et professionnel adapté (Segpa) en salle informatique et que je vois la plupart d’entre eux être déconcertés par des consignes aussi simples qu’ouvrir un navigateur, j’ai de sérieux doutes sur le fait que le maniement des outils numériques soit, chez eux, une compétence innée.
Mes doutes sont confirmés par des études. L’une d’entre elles, publiée en juin 2017 dans la revue Teaching and Teacher Education, montre qu’on ne naît pas avec des prédispositions qui renforcent la maîtrise des outils numériques, on les acquiert. Et cette acquisition ne se fait pas à la faveur d’un simple accès illimité à Internet : mes élèves, quoique pour la plupart issus de milieux défavorisés, possèdent tous des tablettes à la maison et des smartphones. Ils savent jouer à Fortnite et publier des statuts sur Facebook ou des stories sur Snapchat. Ils sont aussi capables de trouver les clips de leurs artistes préférés sur YouTube et de suivre les carrières de telle ou telle star de télé-réalité sur Instagram. C’est quand il s’agit de faire un usage éducatif de l’outil numérique qu’ils redeviennent ces êtres chétifs et impuissants qu’ils sont devant un livre ou un cahier.
La vision idéalisée
C’est ce qui mène certains sociologues à rappeler la nécessité de faire la différence entre l’accès et l’usage. La fracture numérique telle qu’on l’entendait au début des années 2000 est derrière nous : 98 % des 12 à 17 ans ont aujourd’hui un ordinateur chez eux. Demeurent pourtant de fortes inégalités liées à leur utilisation qui poussent le sociologue Fabien Granjon à parler de «fractures numériques de second degré», définies comme étant des inégalités sociales qui résultent d’un usage différent des mêmes outils numériques. Il faut se pencher sur ce phénomène pour en finir avec la vision idéalisée d’une génération de digital natives toute convertie aux nouveaux écrans et naturellement habile avec les appareils électroniques. Les données révèlent en effet des écarts de pratiques considérables entre les plus jeunes.
Les Américaines Ellen Seiter en 2008 (1), Eszter Hargittai en 2009 (2) et Jen Schradie (3) cette année : toutes ces sociologues sont arrivées à la conclusion selon laquelle la classe sociale façonne la compétence et l’usage en matière d’outils numériques. Et derrière ce constat se cache l’ombre de Bourdieu, c’est en lui que les chercheurs anglo-saxons ont trouvé une approche à même de raconter combien les relations de pouvoir et les reproductions des inégalités sociales sont au cœur même des outils numériques. En utilisant sa théorie du capital comme étant un ensemble de richesses matérielles mais aussi culturelles et sociales, ils ont montré que la position sociale construit une manière d’être («habitus» dans la terminologie de Bourdieu) vis-à-vis de l’utilisation d’Internet et des nouveaux médias. Dans son article «Les classes sociales sont-elles solubles dans Internet ?», le chercheur en sociologie de la communication Eric George donne un chiffre frappant : 72 % des utilisateurs d’Internet en milieu ouvrier ont un objectif de divertissement, contre 36 % seulement chez les cadres supérieurs.
En effet, au début des années 90, le journaliste Howard Rheingold défendait l’idée que ce réseau allait devenir un espace public tel que l’imaginait Habermas : un lieu capable de revitaliser la démocratie, gouverné par la raison, affranchi des «gatekeepers» et permettant aux citoyens de se rassembler pour discuter des questions d’intérêt commun. C’est raté, Internet n’est pas devenu ce lieu magique où s’évapore la stratification sociale : «La classe sociale est l’élément démographique le plus déterminant dans la production de contenu en ligne», explique Jen Schradie.
«Et alors ?» répondront ceux pour qui la déconnexion est un choix assumé, qui sont encore convaincus qu’on peut vivre et exercer sa citoyenneté à l’écart des écrans et des intelligences artificielles. Chaque changement social qui prend source sur les terres numériques et se répand dans la vie réelle leur rappelle la triste défaite de leur pensée. Aujourd’hui, ne pas participer à la production de contenu sur Internet, c’est se mettre un peu à l’écart de la marche du monde.
On peut en avoir l’illustration en regardant le récent documentaire Mission vérité diffusé sur Arte, qui explore les coulisses du New York Times et où on peut voir une rédaction évaluer la qualité de ses sujets en ne prenant en compte que les réactions sur Twitter. Contactée par mail, Jen Schradie déplore cette démarche de plus en plus répandue : «Quand les journalistes et les décideurs politiques s’appuient sur les réseaux sociaux, c’est une forme d’exclusion sociale. Ils favorisent les gens qui ont le temps, les ressources et les compétences pour être en ligne fréquemment et ceux qui comprennent le fonctionnement des algorithmes.»
Les voix absentes
Pire encore, comme en témoigne ce terme englobant de digital natives, on continue de faire comme si la voix d’une jeunesse tout entière n’était pas sous-représentée sur Internet. Et pendant qu’on façonne un monde de plus en plus connecté dans lequel l’exclusion numérique vous laisse au bord du chemin, vous bâillonne et vous condamne à un rôle d’observateur invisible et inaudible, c’est toute une cohorte d’adolescents fragiles, des milieux populaires ou ruraux, qu’on condamne à rester des «digital immigrants.»
L’«illectronisme», cet illettrisme du numérique, ne se contente pas d’être un obstacle empêchant la participation à la vie démocratique. A l’heure où le gouvernement envisage des services publics totalement dématérialisés en 2022, il est la promesse d’une exclusion sociale pure et simple. La comparaison avec l’illettrisme a de quoi interpeller, mais est-elle si absurde ? En 1957, Marguerite Duras s’était entretenue avec Germaine Roussel, une ouvrière de Romainville qui avait grandi chez des fermiers de la Somme et qui ne savait ni lire ni écrire. Au cours d’un entretien qui marque pour toute une vie, cette femme a tout déballé : sa sensation d’être comme une aveugle, sa honte, et sa façon de reconnaître le nom de sa rue : «Le mot "Lilas", il est haut presque comme il est large, il est joli.» Ce sentiment d’être à l’écart, cette honte et ce contournement de l’obstacle par l’intelligence ou la débrouille, c’est ce que je ressens quand je vois des parents échouer à demander une bourse pour leurs enfants par Internet.
Fabien Granjon l’a d’ailleurs théorisé dans son article portant sur les inégalités numériques : «L’échec dans les manipulations ou, sans doute plus violent encore, le fait de ne pas savoir quels types d’utilisation faire du dispositif technique, se transforment en une variété de moments négatifs, allant de la perte de confiance au sentiment de relégation», démontre-t-il. Et Philippe Marchal, qui a récemment conduit une étude sur ces Français déconnectés, met en avant ce qu’il appelle des «abandonnistes». Ce sont des personnes qui, par manque de maîtrise, renoncent à faire une démarche administrative sur Internet, à envoyer un mail important ou à faire un achat. L’abandon est encore plus ou moins permis aujourd’hui, il ne le sera plus avec la dématérialisation rampante.
Ils sont d’ailleurs 21 % de soi-disant digital natives à être des abandonnistes, selon cette même étude. Preuve, s’il en fallait encore, que des spécificités telles qu’un effet de génération ne sauraient supplanter d’autres déterminants sociologiques aussi puissants que l’appartenance sociale. «Chaque génération possède un million de visages et autant de voix», disait l’article du Time. C’est toujours aussi vrai, et l’oublier revient à fermer les yeux sur un fléau qui promet, aux jeunes les plus fragiles, l’extension du domaine de leur exclusion sociale.
(1) «Practicing at Home : Computers, Pianos, and Cultural Capital», d’Ellen Seiter, 2008.
(2) «Digital Na(t)ives ? Variation in Internet Skills and Uses Among Members of the "Net Generation"», d’Eszter Hargittai, 2009.
(3) «The Digital Activism Gap : How Class and Costs Shape Online Collective Action», de Jen Schradie, 2018.
Rachid Zerrouki professeur en Segpa à Marseille et journaliste
suite à une question par mail sur la mise en page des mots-clefs sur mon site ci-dessous, quelques explications rapides qui peuvent profiter à tout le monde.
Extrait du mail reçu :
J'aime beaucoup votre système de rangement des mots-clés sur votre site. Cela pourrait m'intéresser pour mon >site pour une meilleure visibilité. Je voudrais savoir quelle est la procédure à suivre pour avoir ce rendu. Merci >d'avance pour votre réponse. Cordialement Sylvain
Sur mon site les tags sont classés et groupés par leur 1ère caractère et un code de couleurs est appliqué avec le plugin Colored Tags afin de faciliter la lecture (et ajouter un peu de couleurs)

Tout d'abord, pour présenter les tags il y a diverses possibilités paramétrables dans le fichier de configuration locale, à mettre à jour avec Local Files Editor. Ci-dessous le code pour personnaliser l'affichage des tags. Il faut "dé-commenter" ce qui vous intéresse.
Chez moi la présentation est sur 3 colonnes groupées par lettre et ce sont les 2 lignes suivantes qui permettent cela :
(letter) ou affiche un nuage de tag (cloud). 'letters' ou 'cloud' ou 'cumulus'.
$conf['tags_default_display_mode'] = 'letters';
tag_letters_column_number : nombre de colonne a afficher dans la page
$conf['tag_letters_column_number'] = 3;
full_tag_cloud_items_number : Nombre de tags à faire apparaître dans le nuage. Uniquement les tags les plus >fréquents sont alors affichés.
$conf['full_tag_cloud_items_number'] = 25;
menubar_tag_cloud_items_number : Nombre de tags pour ceux affichés dans
la barre de menu... (ceux qui représentent le plus d'images).
$conf['menubar_tag_cloud_items_number'] = 10;
content_tag_cloud_items_number : Même chose mais dans la partie contenu
(à droite), à l'exception du résultat de tags.php
lequel se gère par 'full_tag_cloud_items_number'
les tags ne sont pas toujours présents en 1.7 sur les contenus de miniatures
$conf['content_tag_cloud_items_number'] = 50;
tags_levels : nombre de niveaux à utiliser pour l'affichage. A chaque niveau correspond une class CSS tagLevelX >(tagLevel1, tagLevel2, etc.).
$conf['tags_levels'] = 8;
tags_default_display_mode : par défaut, groupe les tags par lettres
(letter) ou affiche un nuage de tag (cloud). 'letters' ou 'cloud' ou 'cumulus'.
$conf['tags_default_display_mode'] = 'letters';
tag_letters_column_number : nombre de colonne a afficher dans la page
tag par lettres
$conf['tag_letters_column_number'] = 3;
Ensuite j'utilise le plugin Colored Tags pour encore regrouper certains tags et mettre un peu de couleur.

Chapril est la contribution de l'April au Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires (CHATONS). Le projet vise à rassembler des acteurs proposant des services en ligne libres, éthiques, décentralisés et solidaires afin de permettre aux utilisateurs de trouver - rapidement - des alternatives aux produits de Google (entre autres) mais respectueux de leurs données et de leur vie privée.
Notre chaton(s) a fini sa gestation. Les conditions générales d'utilisation (CGU) ont été finalisées et des premiers services sont disponibles, notamment pour des tests en conditions réelles d'usage, sur le site Chapril :
pour planifier un rendez-vous ou prendre des décisions rapidement et simplement
pour échanger des messages, appelés « pouets » (ou toots dans d'autres langues dont l'anglais), via le réseau social décentralisé Mastodon
pour rédiger collaborativement du texte en ligne
pour partager des textes de manière confidentielle et sécurisée.La directive européenne sur les liens hypertextes pourrait amener le géant à arrêter Google Actualités.
(CCM) — L'arrêt de Google Actualités en Europe est un scénario actuellement à l'étude chez Google. C'est en tout cas ce qu'affirme un vice-président du géant californien dans un entretien au Guardian. Si la taxe sur les liens hypertextes est votée dans le cadre de la directive européenne sur le droit d'auteur, ce pourrait être la fin de Google Actualités.
L'article qui pose problème dans la directive sur le droit d'auteur est l'article 11, qui prévoit de taxer les liens sortants vers les médias et sites de presse. Depuis le début des discussions, le projet est controversé. D'un côté, les associations de défense des libertés numériques lui reprochent de saper la base de ce qui fait le web : les liens. De l'autre, les géants américains ne veulent pas entendre parler d'une obligation de rémunérer les producteurs des contenus publiés sur Internet alors que leurs services sont gratuits.
D'après le vice-président de Google rattaché aux médias, Google Actualités n'utilise pas directement le contenu créé par les médias en ligne. L'application mobile et le site web du service ne sont que des intermédiaires entre les internautes et les sites de presse. Google Actualités ne fait que rediriger l'audience, et il le fait gratuitement, pour les éditeurs comme pour les internautes.
Reste que la Commission Européenne a bien l'intention de réformer les pratiques du droit d'auteur pour les adapter aux usages numériques du XXIe siècle. La monétisation des liens hypertextes est défendue par les autorités européennes, mais également par les agences de presse. Celles-ci y voient la possibilité de rémunérer la production de leurs fils d'actualités. Jusqu'à maintenant, la plupart des services d'agrégation de contenus comme Google Actualités référencent leurs articles sans contrepartie. En 2016, une étude de la Commission Européenne montrait que 47 % des internautes s'informent sans cliquer sur un seul lien.
En 2014, l'Espagne avait adopté une loi similaire prévoyant de taxer les clics sur les liens hypertexte. Immédiatement, le service Google Actualités avait fermé en Espagne. C'est ce scénario que Google étudie, mais à l'échelle européenne cette fois. Pour l'écosystème des éditeurs de sites d'informations, ce serait une véritable révolution.
La collecte de données de Google
Un premier aperçu
1.
Google est la plus grosse agence de publicité numérique du monde 1. Elle fournit aussi le leader des navigateurs web 2, la première plateforme mobile 3 ainsi que le moteur de recherche le plus utilisé au monde 4. La plateforme vidéo de Google, ses services de mail et de cartographie comptent 1 milliard d’utilisateurs mensuels actifs chacun 5. Google utilise l’immense popularité de ses produits pour collecter des données détaillées sur le comportement des utilisateurs en ligne comme dans la vie réelle, données qu’il utilisera ensuite pour cibler ses utilisateurs avec de la publicité payante. Les revenus de Google augmentent significativement en fonction de la finesse des technologies de ciblage des données.
2.
Google collecte les données utilisateurs de diverses manières. Les plus évidentes sont « actives », celles dans lesquelles l’utilisateur donne
directement et consciemment des informations à Google, par exemple en s’inscrivant à des applications très populaires telles que YouTube, Gmail, ou le moteur de recherche. Les voies dites « passives » utilisées par Google pour collecter des données sont plus discrètes, quand une application devient pendant son utilisation l’instrument de la collecte des données, sans que l’utilisateur en soit conscient. On trouve ces méthodes de collecte dans les plateformes (Android, Chrome), les applications (le moteur de recherche, YouTube, Maps), des outils de publication (Google Analytics, AdSense) et de publicité (AdMob, AdWords). L’étendue et l’ampleur de la collecte passive de données de Google ont été en grande partie négligées par les études antérieures sur le sujet 6.
3.
Pour comprendre les données que Google collecte, cette étude s’appuie sur quatre sources clefs :
a. Les outils Google « Mon activité » (My Activity) 7 et « Téléchargez vos données » (Takeout) 8, qui décrivent aux utilisateurs l’information collectée lors de l’usage des outils Google.
b. Les données interceptées lors de l’envoi aux serveurs de Google pendant l’utilisation des produits Google ou d’autres sociétés associées.
c. Les règles concernant la vie privée (des produits Google spécifiquement ou en général).
d. Des recherches tierces qui ont analysé les collectes de données opérées par Google.
4.
Au travers de la combinaison des sources ci-dessus, cette étude montre une vue globale et exhaustive de l’approche de Google concernant la collecte des données et aborde en profondeur certains types d’informations collectées auprès des utilisateurs et utilisatrices.
Cette étude met en avant les éléments clés suivants :
a. Dans une journée d’utilisation typique, Google en apprend énormément sur les intérêts personnels de ses utilisateurs. Dans ce scénario d’une journée « classique », où un utilisateur réel avec un compte Google et un téléphone Android (avec une nouvelle carte SIM) suit sa routine quotidienne, Google collecte des données tout au long des différentes activités, comme la localisation, les trajets empruntés, les articles achetés et la musique écoutée. De manière assez surprenante, Google collecte ou infère plus de deux tiers des informations via des techniques passives. Au bout du compte, Google a identifié les intérêts des utilisateurs avec une précision remarquable.
b. Android joue un rôle majeur dans la collecte des données pour Google, avec plus de 2 milliards d’utilisateurs actifs mensuels dans le monde 9. Alors que le système d’exploitation Android est utilisé par des fabricants d’équipement d’origine (FEO) partout dans le monde, il est étroitement connecté à l’écosystème Google via le service Google Play. Android aide Google à récolter des informations personnelles sur les utilisateurs (nom, numéro de téléphone, date de naissance, code postal et dans beaucoup de cas le numéro de carte bancaire), les activités réalisées sur le téléphone (applications utilisées, sites web consultés) et les coordonnées de géolocalisation. En coulisses, Android envoie fréquemment la localisation de l’utilisateur ainsi que des informations sur l’appareil lui-même, comme sur l’utilisation des applications, les rapports de bugs, la configuration de l’appareil, les sauvegardes et différents identifiants relatifs à l’appareil.
c. Le navigateur Chrome aide Google à collecter des données utilisateurs depuis à la fois le téléphone et l’ordinateur de bureau, grâce à quelque 2 milliards d’installations dans le monde 10. Le navigateur Chrome collecte des informations personnelles (comme lorsqu’un utilisateur remplit un formulaire en ligne) et les envoie à Google via le processus de synchronisation. Il liste aussi les pages visitées et envoie les données de géolocalisation à Google.
d. Android comme Chrome envoient des données à Google même en l’absence de toute interaction de l’utilisateur. Nos expériences montrent qu’un téléphone Android dormant et stationnaire (avec Chrome actif en arrière-plan) a communiqué des informations de localisation à Google 340 fois pendant une période de 24 heures, soit en moyenne 14 communications de données par heure. En fait, les informations de localisation représentent 35 % de l’échantillon complet de données envoyés à Google. À l’opposé, une expérience similaire a montré que sur un appareil iOS d’Apple avec Safari (où ni Android ni Chrome n’étaient utilisés), Google ne pouvait pas collecter de données notables (localisation ou autres) en absence d’interaction de l’utilisateur avec l’appareil.
e. Une fois qu’un utilisateur ou une utilisatrice commence à interagir avec un téléphone Android (par exemple, se déplace, visite des pages web, utilise des applications), les communications passives vers les domaines de serveurs Google augmentent considérablement, même dans les cas où l’on n’a pas utilisé d’applications Google majeures (c.-à-d. ni recherche Google, ni YouTube, pas de Gmail ni Google Maps). Cette augmentation s’explique en grande partie par l’activité sur les données de l’éditeur et de l’annonceur de Google (Google Analytics, DoubleClick, AdWords) 11. Ces données représentaient 46 % de l’ensemble des requêtes aux serveurs Google depuis le téléphone Android. Google a collecté la localisation à un taux 1,4 fois supérieur par rapport à l’expérience du téléphone fixe sans interaction avec l’utilisateur. En termes d’amplitude, les serveurs de Google ont communiqué 11,6 Mo de données par jour (ou 0,35 Go / mois) avec l’appareil Android. Cette expérience suggère que même si un utilisateur n’interagit avec aucune application phare de Google, Google est toujours en mesure de recueillir beaucoup d’informations par l’entremise de ses produits d’annonce et d’éditeur.
f. Si un utilisateur d’appareil sous iOS décide de renoncer à l’usage de tout produit Google (c’est-à-dire sans Android, ni Chrome, ni applications Google) et visite exclusivement des pages web non-Google, le nombre de fois où les données sont communiquées aux serveurs de Google demeure encore étonnamment élevé. Cette communication est menée exclusivement par des services de l’annonceur/éditeur. Le nombre d’appels de ces services Google à partir d’un appareil iOS est similaire à ceux passés par un appareil Android. Dans notre expérience, la quantité totale de données communiquées aux serveurs Google à partir d’un appareil iOS est environ la moitié de ce qui est envoyé à partir d’un appareil Android.
g. Les identificateurs publicitaires (qui sont censés être « anonymisés » et collectent des données sur l’activité des applications et les visites des pages web tierces) peuvent être associés à l’identité d’un utilisateur ou utilisatrice de Google. Cela se produit par le transfert des informations d’identification depuis l’appareil Android vers les serveurs de Google. De même, le cookie ID DoubleClick (qui piste les activités des utilisateurs et utilisatrices sur les pages web d’un tiers) constitue un autre identificateur censé être anonymisé que Google peut associer à celui d’un compte personnel Google, si l’utilisateur accède à une application Google avec le navigateur déjà utilisé pour aller sur la page web externe. En définitive, nos conclusions sont que Google a la possibilité de connecter les données anonymes collectées par des moyens passifs avec les données personnelles de l’utilisateur.
À défaut de nous faire retrouver par hasard une lignée prestigieuse « sortie de la cuisse de Jupiter », une illustre parenté ou un de ces fameux oncles d’Amérique richissimes, nos recherches et arbres généalogiques nous font découvrir le plus souvent des femmes et des hommes qui ont chacun à leurs époques rempli tout bonnement et sans guère de publicité leurs métiers de femmes ou d’hommes, vivant des destins ordinaires et l’ordinaire de tous les destins ; et puis ils sont morts chacun à leur tour, souvent sans commentaires, à des dates marquées seulement d’un petit + sur nos arbres généalogiques, leurs vies se résumant alors par un simple tiret tracé entre deux dates côtes à côtes. Nous sommes leurs survivants provisoires.
En revanche il peut arriver que nos recherches nous fassent découvrir des relations familiales qu’on ignorait, qu’on ne cherchait pas, voire que l’on aurait préféré laisser dissimulées ou même que l’on craint de voir ainsi révélées. Les risques dans ce domaine vont de l’éventuelle surprise amusante à la révélation de secrets de famille générateurs d’attitudes ou de comportements répétitifs, individuels ou familiaux, souvent inexplicables comme l’ont révélé des études de psycho-généalogie et de psychanalyse trans-générationnelle.
Au pire des révélations peuvent entrainer des graves conflits familiaux, des vengeances personnelles ou même des incitations au crime comme dans certains contextes historiques ou sociologiques particuliers ; citons par exemples les vendettas façon Corse, Sicile ou Sardaigne, les intrigues meurtrières et masquées à la Vénitienne ou encore les substitutions d’identités et les assassinats politiques comme dans toutes les dynasties et lignées de pouvoir.
Les nombreux blogs généalogiques et tout spécialement notre Gazette Histoire Généalogie sont riches d’enseignements sur les problèmes rencontrés ou révélés lors de nos recherches individuelles. On se bornera donc ici à n’évoquer que des généralités, laissant à chaque lecteur le soin d’explorer seul et discrètement les zones et personnages romanesques ou tragiques de son arbre généalogique.
On abordera successivement :
1) Les risques sociaux : dissimulations, manipulations et assassinats liés aux métiers de la politique et aux sphères du pouvoir, ou aux mentalités et mœurs régionales
2) Les risques familiaux : les secrets de famille, jeux de rôles et romans familiaux
3)Les impacts psychologiques du secret : psycho-généalogie et psychanalyse trans-générationnelle.
4)La généalogie génétique : au secours nos ADN !
Un psychologue et un statisticien ont construit une formule qui exprime le risque de perdre des chaussettes lors des lessives. Plus les lessives sont volumineuses, les types de lavages compliqués et la négligence grande, plus le risque de chaussettes dépareillées augmente..
Marre des chaussettes orphelines ? Pour vous aider à comprendre ce phénomène, un psychologue, Simon Moore, et un statisticien, Geoff Ellis, ont créé une formule pour prédire le risque de perdre des chaussettes : c'est l'« index de perte de chaussette ».
La formule est la suivante : (L + C) - (P x A). L représente la taille des lessives (le produit entre le nombre de personnes dans la maison et la fréquence des lavages dans la semaine). C exprime la complexité des lessives ; sa formule est : t x s, où t est la somme des différents types de lavages (blanc et couleur) dans la semaine et s le nombre de chaussettes lavées dans la semaine. P est une mesure sur une échelle de 1 à 5 qui représente la motivation des personnes qui font la lessive : 1 signifie que la personne déteste faire la lessive et 5 qu'elle aime beaucoup faire la lessive. A est le degré d'attention, qui tient compte du fait que la personne qui fait la lessive vérifie les poches, met les vêtements dans le bon sens pour le lavage ou déroule les chaussettes avant de les laver.
En définitive, plus le volume des lessives est important dans la maisonnée, plus la probabilité d'avoir des chaussettes dépareillées augmente.
Le risque de perdre des chaussettes est lié au nombre de personnes du foyer, au nombre de lavages différents et à l’attention qui est prêtée aux lessives. © Iamnao, Shutterstock
Le risque de perdre des chaussettes est lié au nombre de personnes du foyer, au nombre de lavages différents et à l’attention qui est prêtée aux lessives. © Iamnao, Shutterstock
Chacun perdrait un millier de chaussettes au cours de sa vie
Mais en plus de mettre en équation le mystère de la chaussette orpheline, les deux hommes ont mené une enquête auprès de 2.000 personnes sur leurs habitudes en termes de lessives. L'étude a estimé que les britanniques perdent en moyenne 1,3 chaussette par mois soit plus de 15 par an. Au cours d'une vie, cela représenterait une perte de 1.264 chaussettes soit un coût évalué à 3.200 € ! Chaque mois quelque 84 millions de chaussettes seraient ainsi perdues au Royaume-Uni (et donc probablement à peu près l'équivalent en France...).
L'étude a aussi montré que les chaussettes colorées représentent la majorité des chaussettes perdues (55 %). Les personnes vivant dans les Midlands sont celles qui perdent le plus leurs chaussettes (1,64 par mois, soit 20 par an). En moyenne, un foyer ferait 2,45 lessives par semaine soit 127,4 lessives par an. Les hommes affirment faire deux lessives par semaine et les femmes trois.
Les chercheurs donnent aussi différentes raisons expliquant la disparition des chaussettes : la chute derrière un radiateur lors du séchage, le fait d'égarer les chaussettes dans un meuble de rangement, l'utilisation du mauvais type de lavage (une chaussette blanche lavée avec le linge de couleur risque d'être séparée définitivement de sa moitié), les chaussettes qui s'envolent des étendages ou qui sont mal appareillées après séchage.
Ce travail a été sponsorisé par la marque Samsung dans le cadre de la commercialisation d'une machine à laver avec un hublot spécial pour y mettre ses chaussettes. Pour Melanie Rolfe, directrice marketing chez Samsung, « Nous croyons que cette nouvelle étude a finalement résolu le mystère ancien des chaussettes manquantes. »
La sophistication des logiciels de retouche d’images est telle qu’il est parfois difficile de déceler les tentatives de falsification des photos.
Les trucages sont la plupart du temps grossiers, mais ce n’est pas toujours le cas.
Pour démêler le vrai du faux et percer à jour les prises de vue truquées, faites appel à Forensically, un outil en ligne gratuit et performant.
L’application Forensically est accessible depuis n’importe quel navigateur Web.
Cliquez sur Open File, sélectionnez votre image et importez-la en cliquant sur le bouton Ouvrir. Elle s’affiche dans la fenêtre centrale.
Pour vérifier si des parties du cliché n’ont pas été clonées, choisissez l’intitulé Clone Detection.
Après un scan, des traits roses apparaissent indiquant les éléments susceptibles d’avoir été manipulés. Augmentez les valeurs des curseurs Minimal Similarily, Minimal Cluster Size et Block Size afin d’affiner l’analyse.
Pour déceler les éventuelles traces de trucage ou de montage, sélectionnez l’onglet Magnifier. Positionnez alors le curseur de zoom sur 8. Déroulez le menu Enhancement, puis cliquez sur l’option Auto Contrast by Channel.
Passez ensuite le curseur de votre souris sur les parties de l’image signalées par l’outil Clone Detection ainsi que sur celles qui vous semblent présenter des défauts de perspective ou des aberrations colorimétriques. Le zoom accentue les imperfections nées d’un montage imparfait.
Cliquez sur la commande Error Level Analysis afin de repérer les artefacts, autrement dit les éléments ajoutés à l’image originale. L’écran devient noir.
Positionnez le curseur JPG Quality sur 100, puis minorez cette valeur cran par cran au moyen de la flèche gauche du clavier.
Si des tâches apparaissent, cela signifie très probablement que le cliché a été trafiqué par endroits, la qualité de la compression JPEG n’étant pas identique en tout point de la photo. Affinez la détection en continuant de baisser le niveau de qualité.
Détaillez les propriétés de la prise de vue
Un autre moyen de savoir si l’image a été modifiée consiste à cliquer sur Meta Data afin d’accéder à ses propriétés.
Comparez les dates indiquées sur les lignes DateTimeOriginal et ModifyDate. Si elles sont dissemblables, il y a fort à parier que la photo a été retouchée.
Le nom du logiciel ayant servi aux manipulations est parfois mentionné dans la section Software.
Il se peut aussi que le cliché ait été géolocalisé. Dans ce cas, le menu Geo Tags est disponible et affiche une carte de l’endroit où la photo a été prise.
Une tasse de thé contient jusqu'à 70 mg de caféine, un excitant qui va à l'encontre de ses vertus antistress. Des chercheurs viennent de découvrir une nouvelle variété naturellement dépourvue de caféine et qui possède en plus de nouveaux composés bénéfiques pour la santé. Un futur succès commercial, estiment ses découvreurs.
Après l'eau, le thé est la deuxième boisson la plus bue dans le monde : 5,5 millions de tonnes de thé sont consommées chaque année dans le monde, d'après la FAO, un marché qui croît de 4,5 % par an. Grâce à ses nombreux bénéfices santé présumés, le thé connaît en effet un succès grandissant. Le thé noir est, par exemple, réputé diminuer le risque de maladie cardiovasculaire et le thé vert est associé à la prévention du cancer et à un moindre stockage de graisses. Pourtant, cette boisson censée rendre zen renferme aussi de la théine, qui est en fait la même molécule que la caféine et qui empêche de dormir. Les feuilles de thé contiennent ainsi 1 % à 6 % de théine. Même si dans une tasse (170 ml), la quantité est généralement moindre que pour le café (entre 20 et 70 mg de caféine, contre 50 à 115 mg pour le café), l'effet excitant se fait tout de même sentir chez certains consommateurs.
À l'instar du café, les fabricants commercialisent donc du thé décaféiné ; cela représente par exemple 18 % des ventes aux États-unis. Le problème, c'est que les procédés chimiques utilisés pour la décaféination (solvants chimiques ou CO2 supercritique), outre le fait qu'ils sont coûteux, détruisent en même temps une bonne partie des polyphénols et du goût. C'est dire si la découverte des chercheurs chinois va intéresser les industriels. Liang Chen et ses collègues de l'Académie chinoise des sciences agricoles (CAAS) viennent de découvrir une rare espèce de thé dans la province du Fujian, située sur la côte de la mer de Chine méridionale. Cultivé uniquement dans une zone de montagne restreinte entre 700 mètres et 1.000 mètres d'altitude, ce thé baptisé hongyacha (HYC) était en réalité déjà connu des populations locales, mais comme il est très rare, il n'avait pas encore été étudié par les scientifiques.
Le thé hongyacha est naturellement dépourvu de caféine et n’a donc pas d’effet excitant comme le café ou le >thé classique.
En analysant sa composition chimique, les chercheurs n'y ont détecté ni caféine ni cis-catéchine, les deux alcaloïdes et catéchines dominants dans les variétés de thé habituelles. Cette étrangeté proviendrait de la mutation d'un gène codant pour une enzyme synthétisant la caféine, qui est donc désactivée dans le hongyacha. À l'inverse, ce thé contient de la théobromine, de la gallocatéchine et de la gallocatéchine gallate, des flavonoïdes absents des variétés classiques cultivées mais aux propriétés santé potentiellement très intéressantes. La théobromine est par exemple une substance que l'on trouve dans le chocolat et le guarana, réputée pour ses effets antidéprime. « Ce thé pourrait rapidement devenir une boisson très populaire du fait de ses bénéfices santé », se réjouit Liang Chen.
En attendant, vous pouvez toujours utiliser cette astuce pour « décaféiner » votre thé habituel : faites infuser pendant 20 secondes, jetez l'eau chaude, puis réinfusez ensuite. L'essentiel de la caféine est en effet libéré au début, contrairement aux tanins qui sont eux libérés plus lentement. Ou tournez-vous vers la tisane, les infusions et le rooibos.
Avec la directive sur droits d’auteur, les eurodéputés et les lobbys de la presse semblent s’être lancés dans une surenchère réglementaire qui, si elle n’était pas mortifère, en serait comique.
A l’origine, l’objectif était de contraindre les plateformes et sites internet relayant l’information produite par les éditeurs de presse à négocier avec ces-derniers afin de rémunérer l’utilisation de leur contenu. Si, en apparence, l’idée est parfaitement défendable, son application relève d’importants effets pervers.
Tout d’abord, la directive précise que les plateformes et sites auront l’obligation de vérifier les droits d’auteur de tout ce qui sera diffusé et partagé sur leurs utilisateurs, ce qui les rendre de facto responsable de toute violation des droits d’auteur des éditeurs de presse. Voilà comment la directive propose de forcer la main aux plateformes. Etant responsables de tout ce qui circule sur leurs sites, les plateformes auront intérêt à négocier une rente, à l’avance, avec les éditeurs de presse pour éviter toute poursuite.
Un tel arrangement n’est pas une victoire pour les éditeurs mais la promesse d’être définitivement lié aux plateformes et aux sites de partage de contenu. En effet, leur rémunération dépendant du nombre de partages sur les plateformes, les éditeurs auront tout intérêt à publier directement dessus et à multiplier les titres accrocheurs pour attirer les clics ! Bref, les éditeurs seront devenus les pigistes des plateformes.
Mais l’erreur réglementaire va plus loin. A présent, non contents de consacrer la dépendance des éditeurs de presse aux plateformes, il semblerait que nos eurodéputés, sous les conseils mal avisés du lobby de la presse, soient favorables à l’extension de ce droit voisin aux agences de presse. Normal me direz-vous ! Editeurs de presse, agences de presse, quelle différence ! Eh bien, la différence est de taille. Dans le cas français, les éditeurs de presse signent des accords commerciaux avec l’Agence France Presse, qui leur permettent d’utiliser les informations qu’elle diffuse. Dès lors, lorsque l’utilisateur d’une plateforme diffuse une information AFP reprise sur le site d’un éditeur de presse, c’est l’AFP qui doit être rémunérée par la plateforme et non l’éditeur de presse. De même, si un moteur de recherche indexe des dépêches AFP reproduites par les éditeurs de presse, ces derniers ne seront pas payés puisqu’en dernier ressort, c’est l’AFP qui a produit le contenu. Ce que les éditeurs de presse devaient gagner d’un côté, ils le perdront de l’autre, et cela, même s’ils paient déjà un abonnement à l’AFP. Or, devant une telle injustice, il y a fort à parier que les éditeurs de presse devront négocier avec l’AFP, comme les plateformes le feront avec les éditeurs de presse.
Mais pourquoi la logique s’arrêterait-elle là ? Pour chaque information partagé par un utilisateur sur une plateforme, il faudra alors retracer l’itinéraire du contenu en question jusqu’à son origine. Inévitablement se pose alors la question de la rémunération des différents intermédiaires. Si l’utilisateur d’une plateforme y partage un article d’un quotidien citant une information exclusive dévoilée par un second quotidien et celle-ci faisant écho à des révélations de l’AFP, qui devra être payé par la plateforme ? Faudra-t-il définir un arrangement pour chaque cas particulier ? Quelle que soit la réponse, il faudra des algorithmes capables de retracer l’origine de l’information, de distinguer entre une information AFP « brute » et une information « raffinée » par un éditeur de presse. Autant dire que tous les médias partageant des informations AFP vont voir leurs coûts d’investissement informatique augmenter dramatiquement au risque de se trouver hors la loi. Voilà comment, en élargissant le droit voisin à l’AFP, la directive va créer une véritable usine à gaz dont les éditeurs de presse sortiront forcément perdants.