Expérimenté depuis le mois d’août 2021 dans trois départements de Métropole, le service Mon Espace Santé (qui prend la suite du Dossier Médical Partagé) a été généralisé à l’ensemble de la population depuis février 2022. Plusieurs associations (comme XY media, Acceptess-T ou le collectif POS) ont très tôt alerté sur les dangers liés à ce nouvel outil. Nous avons passé en revue les fonctionnalités de Mon Espace Santé et force est de constater qu’elles présentent des insuffisances alarmantes en matière de respect du consentement et de gestion des données de santé. De par l’audience large à laquelle il s’adresse et de part la sensibilité des données qu’il manipule, un tel outil du service public se devrait pourtant d’être irréprochable en la matière. À défaut, nous ne pouvons que vous rediriger vers des guides vous permettant de vous opposer à ces traitements de données.
Pour commencer, faisons un petit tour plutôt descriptif de ce qui est annoncé en terme de fonctionnalités. Mon Espace Santé (aussi appelé Espace numérique de santé dans la loi et le décret qui le créent) se compose principalement de quatre éléments :
Dans l’absolu, cet espace de partage des informations pourrait être une solution pour faciliter le droit d’accès à son dossier médical. Mais ceci impliquerait une mise en œuvre solide et de confiance qui n’est, à notre avis, pas atteinte avec Mon Espace Santé (voir plus bas la suite de notre analyse).
Une messagerie sécurisée pour échanger avec des professionnel·les de santé. À la création de Mon Espace Santé, une adresse de messagerie MSSanté (Messagerie Sécurisée de Santé) est automatiquement attribuée à la personne usagère et rattachée à Mon Espace Santé. Cette adresse est constituée à partir du matricule INS de l’usagère et du nom de domaine de l’Opérateur de Mon Espace Santé (selon le Référentiel Socle MSSanté). Les messages échangés sont stockés pendant une durée de dix ans, sauf lorsqu’ils sont supprimés directement par l’utilisateur·ice. Ces adresses existaient déjà pour les professionnel·les de santé.
Un agenda pour suivre ses rendez-vous médicaux et recevoir des rappels.
Enfin, pour accéder à ces différents services, outre un site web, une application mobile sera également disponible. Le développement technique est réalisé par les entreprises privées Atos, Octo, Accenture et Maincare. La société Worldline traite les données du Dossier Médical Partagé au travers de sa filiale Santeos. Les autres données (messagerie, agenda…) sont traitées par la société Atos.
Un recueil accessoire du consentement des personnes
Pour chaque personne, la création de Mon Espace Santé se fait automatiquement selon un calendrier régionalisé prévu par l’État. Chaque personne est notifiée par courrier postal ou par courriel de la création prochaine de son espace. Elle dispose alors d’un délai de six semaines pour empêcher la création de l’espace en se connectant sur le site. L’espace est donc créé sans le recueil du consentement préalable et explicite de la personne usagère. L’opposition, elle, doit être explicite.
Dans les premières annonces d’ évaluation de la phase pilote, qui a eu lieu à partir d’octobre 2021 dans trois départements, la Sécurité sociale annonçait que « moins de 0.7% des usagers se sont opposés à [la] création [de leur espace santé]. » Mais plus loin on apprenait que seuls 4.8% des personnes ayant un espace santé l’avaient utilisé. Comment savoir donc si les presque 90% restants ont réellement souhaité en avoir un, ou même s’ils ont reçu le courrier ou mail prévenant de sa création (et des possibilités de s’y opposer) ?
Avant même de se poser la question de l’utilité ou non de Mon Espace Santé, on peut dire que les modalités de sa création sont loin d’être respectueuses des personnes auxquelles il est censé simplifier la vie. Passer outre le consentement des personnes au prétexte de « les aider » est la définition du paternalisme et, selon nous, s’oppose aux véritables pratiques de soin fondées sur l’écoute et la considération.
Certes, il est toujours possible de supprimer son compte. Mais, là encore, la personne usagère devra être attentive et suffisamment informée si elle souhaite demander la fermeture de son compte en cochant la bonne case (ses données seront supprimées 3 mois plus tard, à moins d’être supprimées individuellement au sein du profil médical, des mesures santé ou de la messagerie, auquel cas elles seront effacées immédiatement). Nous avons trop souvent dénoncé ce tour de passe-passe lorsqu’il était réalisé par les GAFAM : la possibilité théorique d’effacement ultérieur ne produit aucun effet significatif concret qui pourrait justifier l’absence de consentement préalable. Ce qui est inadmissible pour les GAFAM l’est encore davantage pour un service public traitant des données extrêmement sensibles soi-disant « pour notre bien ».
Une fois créé, l’espace santé a pour but de partager les informations avec le personnel de santé : la personne usagère devra donc autoriser les soignant·es à accéder à tout ou partie de ses informations. Mais, là encore, le recueil du consentement est problématique, pour ne pas dire quasiment factice : une simple case à cocher par le ou la soignante servira de « preuve » que l’on a donné son accord pour qu’il ou elle y accède. Au niveau du service informatique, il n’y a donc aucune procédure pour vérifier qu’il s’agit bien de la personne patiente qui donne son accord, à qui, et quand.
On peut ainsi imaginer qu’une personne mal-intentionnée ait accès au service en tant que personnel soignant et consulte le dossier de n’importe quelle personne dans la base de données. Il lui suffirait de cocher cette case de manière arbitraire et d’accéder à des informations privées. Ce cas est certes déjà possible actuellement sans Mon Espace Santé, à partir des divers bases de données médicales existantes, mais de manière bien plus cloisonnée. Avec un système aussi centralisé que Mon Espace Santé, la possibilité que ce type de scénarios se produise est accrue. On peut aussi aisément imaginer que nombre de personnes soignantes vont considérer que le fait d’avoir pris rendez-vous équivaut à consentir à ce qu’ils ou elles accèdent au dossier du ou de la patient·e : le respect du consentement est encore malheureusement une question épineuse dans le milieu médical où les maltraitances médicales peuvent être nombreuses.
Enfin, une fois l’espace créé, seuls des « motifs légitimes » peuvent être invoqués pour refuser qu’un·e professionnel·le verse des documents en ligne. C’est ce qu’indique en l’article R. 1111-47 du code de la santé publique et rappelé dans la politique de protection des données personnelles : « Une fois votre profil Mon Espace Santé créé, vous ne pourrez pas, sauf à invoquer un motif légitime, refuser qu’un professionnel autorisé ou que les personnes exerçant sous sa responsabilité déposent dans votre dossier médical partagé les informations qui sont utiles à la prévention, la continuité et la coordination de vos soins (article R. 1111-47 du code de la santé publique) ».
Nous avons passé en revue la configuration des paramètres à la création du compte « Mon Espace Santé », et déjà, nous pouvons noter quelques actions effectuées sans l’accord explicite de la personne usagère :
L’attestation de vaccination Covid-19 est automatiquement versée dans le dossier par l’Assurance maladie. Le document est visible par défaut à l’ensemble des professionnel·les de santé. Il est possible de le masquer, mais pas de le supprimer car il a été ajouté par un·e professionnel·le de santé. Il n’est pas possible de s’opposer au versement de ce document, alors que l’Assurance maladie n’a pas été techniquement autorisée à déposer des documents sur ce compte.
En ce qui concerne la configuration des accès aux professionnel·les en cas d’urgence, l’option est activée par défaut à la création du compte. Pour s’en rendre compte, la personne usagère doit se rendre dans la section « Confidentialité » des paramètres de configuration, puis « Accès en cas d’urgence ». Le personnel du SAMU ainsi que « tout autre professionnel de santé » sont autorisés par défaut à accéder aux documents et aux rubriques « Vaccinations », « Historique de soins », « Entourage et volontés » du profil médical. Mais quels contrôles techniques permettent de définir ce qui est une situation d’urgence et débloque l’accès des documents aux professionnel·les ? Et s’agit-il des professionnel·les qui ont d’ordinaire déjà accès à notre espace ? Les informations que nous avons pu recueillir ne nous permettent pas de répondre actuellement à cette question.
Le décret s’appliquant à Mon Espace Santé prévoit une matrice d’accès différencié aux informations de la personne usagère selon le type d’activité du ou de la soignante. En pratique, le partage par défaut est très large : votre dentiste aura accès à vos résultats de prélèvements sanguins, votre kiné à votre historique de vaccination, votre sage-femme aux données de remboursement, et ainsi de suite.
Le ou la médecine traitante a, quant à elle, accès à l’ensemble des informations contenues dans l’espace santé de ses patient·es.
S’il est possible de bloquer l’accès à un·e professionnel·le de santé depuis les paramètres de l’espace, que se passe-t-il dans le cas où l’on souhaite changer de médecin·e traitant·e ? Ou que l’on souhaite choisir quelles informations partager ? En effet, certains parcours de santé nécessitent la consultation de divers spécialistes aux opinions divergentes pour obtenir un diagnostic. L’accès à certaines informations sur des opérations ne faisant pas consensus parmi le corps médical peut également générer des biais négatifs chez les professionnel·les de santé (par exemple, le recours à une IVG). Enfin, l’accès est partagé pour le service d’un hôpital : impossible dans de ce cas de savoir qui y a vraiment accès (prêt de carte d’accès au système informatique par exemple).
Cependant, il est important de noter que la personne usagère ou qu’un·e professionnel·le peuvent choisir de masquer un document pour le rendre inaccessible aux autres professionnel·les de santé, à l’exception du ou de la médecine traitante, de la personne ayant mise en ligne le document et du personnel intervenant en cas d’urgence. Si ce n’est pour ces larges exceptions, ceci représente un bon moyen de protéger la confidentialité des données au cas par cas. En revanche, il n’est pas possible de supprimer un document déjà versé par un·e professionnel·le de santé.
Il est possible pour les personnes de vérifier qui a eu accès à leurs données : des journaux d’activité enregistrent qui accède à quel document à une date et une heure donnée. La personne usagère peut recevoir des notifications chaque fois qu’un nouvel accès est détecté. Ces journaux permettent donc de détecter un potentiel mésusage de l’accès aux données. Cependant, cette fonctionnalité ne peut aider à protéger les accès qu’après coup : si on se rend compte qu’une personne soignante a eu accès à un document et que cela ne nous convient pas, on ne pourra que limiter ses accès futurs.
Le système de droit d’accès de Mon Espace Santé n’a pas été pensé pour permettre aux utilisateur·ices de gérer simplement et de manière éclairée l’accès à leurs données. On pourrait par exemple imaginer un système où par défaut seule la personne usagère et la liste de soignant·es qu’elle a désignées auraient accès aux documents la concernant, l’usagère pouvant ensuite choisir de démasquer certains documents à d’autres professionnel·les de santé (en bénéficiant par exemple de conseils de la part des soignant·es pour faire ce choix de manière éclairée). Dans ce cas, c’est la personne usagère qui aurait véritablement la main sur ses données, et non pas les professionnel·les de santé comme c’est le cas avec la conception actuelle de Mon Espace Santé.
Dans le cas des enfants et des adolescent·es, les ouvrants droits (c’est-à-dire les assuré·e·s) auront accès aux espace de santé des personnes qui leur sont rattachées. C’est-à-dire que, concrètement, toutes les informations de santé de leurs enfants et adolescent·es, ainsi que les rendez-vous et les courriels passant par la messagerie sécurisée leur seront accessibles.
En théorie, certaines infos peuvent ne pas être versées dans le dossier. Par exemple, dans le cas d’une IVG, le ou la soignant·e est en charge d’expliquer et de proposer à la personne mineure de ne pas ajouter les infos de l’IVG dans le dossier. La personne peut répondre qu’elle ne veut pas que ce soit versé. Aucune donnée de remboursement relatif à cet acte ne sera remontée. Cet exemple fait partie des motifs légitimes que peut invoquer une usagère pour refuser qu’un·e professionel·le verse un document sur l’espace santé.
Ceci implique que les soignant·es pensent à demander, et respectent, le souhait des personnes. Or, avec Mon Espace Santé, la quantité des données versées est multipliée et surtout normalisée : par fatigue ou par oubli à force de répétition, il est probable que le consentement pour verser une information dans Mon Espace Santé ne soit pas récolté à chaque fois. De plus, comme le recueil du consentement est oral et informel (il ne laisse donc aucune trace), la décision pourra difficilement être contestée.
Cet outil multiplie donc malheureusement les chances de mettre en danger le secret médical de ces personnes, et potentiellement la sécurité des personnes au sein de leur foyer ou de leur famille : que se passe-t-il si une enfant/ado ne souhaite pas parler d’un sujet (contraception, dépistage de MSTs, grossesse, avortement, transition) avec la personne à laquelle son compte est rattaché (que cela soit par pudeur ou par crainte de violences en représailles) ?
Le dossier Informatique et Libertés fourni par la Délégation du numérique en santé précise par ailleurs que l’opposition à la création du compte Mon Espace Santé appartient aux représentants légaux. Une personne mineure ne peut donc supprimer ou s’opposer à la création de son espace santé.
En revanche, lorsque la personne devient ayant droit autonome, les accès des représentants légaux sont clôturés par le service. La personne peut gérer son compte, le fermer ou le créer s’il n’existait pas avant si elle le souhaite. Notons qu’une personne peut demander, à partir de 16 ans, de devenir ayant droit autonome auprès de la CPAM de son domicile. On peut imaginer que le scénario de clôture des accès des anciens représentants légaux s’applique également dans ce cas.
Par ailleurs, la notion d’ayant droit existe toujours dans certains régimes tels que la Mutualité sociale agricole (MSA) ou le régime local d’Alsace-Moselle (personnes mariées, pacsées, concubines et enfants jusqu’à 24 ans sans activités). La documentation à laquelle nous avons eu accès ne permet pas de dire si les ouvrants droits auront accès aux espaces santé des ayants-droits majeurs. Nous attirons l’attention sur le fait que si tel était le cas, cela représenterait un danger pour les personnes qui vivent des violences ou des conflits dans leur vie familiale (personnes en instance de divorce par exemple).
Enfin, au delà des soignant·es et des utilisateur·ices, des personnes tierces peuvent avoir accès aux données de santé pour des fonctions de support. Les niveaux 2 et 3 de ce support pourront avoir accès aux données de santé. Ceci implique notamment des agent·es de la CPAM et le personnel de prestataires (Atos/Wordline) et de l’hébergement. L’accès aux informations doit en théorie recueillir le consentement de la personne usagère dans le cadre du support, mais là encore impossible d’assurer que ce consentement sera bien demandé et non forcé techniquement. Concrètement, des personnes qui ne sont pas professionnelles de santé peuvent accéder aux informations médicales personnelles des usagères. Mais cela est-il vraiment nécessaire pour une fonction support ? Ceci pose la question également de savoir si les documents sont stockées de manière chiffrée et lisibles uniquement par les personnes habilitées, ou pas. Difficile de répondre à cette question en l’état de nos connaissances.
La description du catalogue de services numériques de santé à venir implique la possibilité d’ajouter des applications d’entreprises privées au sein de l’espace santé. Ceci pose un grand nombre de questions concernant le partage des données d’activités et des contenus stockés dans l’espace santé. Pour l’instant, nous n’avons pas les réponses à ces questions, et nous soulignons notre inquiétude sur ce sujet : comment l’usagère pourra-t-elle déterminer à quelles données l’application accède, et si cela est légitime ? Pourra-t-on limiter les données auxquelles chaque application a accès (comme sur un smartphone) ? Lors des mises à jour des applications, les changements de permissions ou de fonctionnement seront-ils notifiés et comment ? Et enfin, quels usages de nos données feront les « startups » d’objets connectés et autres grandes entreprises et plateformes de prise de rendez-vous (monétisation, profilage) ? Au-delà de ces problèmes d’implémentation, il faut dénoncer la direction générale animée par cette évolution : le remplacement du soin par la technique industrielle.
Mon Espace Santé s’inscrit dans une tradition de numérisation et de centralisation en ligne des données : ceci fait du service une cible idéale pour les piratages de données. Le stockage est géré par une entreprise privée. Le code du service n’est ni public ni accessible, ce qui pose la question de la transparence pour un outil du service public.
Nous nous interrogeons, aujourd’hui comme dans un futur plus ou moins proche, sur l’accès à la santé des personnes ne pouvant ou ne voulant pas utiliser ce service de santé. Et si d’aventure nous nous retrouvions dans une situation où il nous est impossible d’avoir rendez-vous sans passer par cet espace ? Ou que nos remboursements sont rendus difficiles sans l’utilisation de cet espace ?
La fiabilité et la sécurité informatique de ce service doivent aussi être considérées : si la plateforme se retrouve la cible d’un défaut de fonctionnement ou d’un piratage, que deviennent alors nos données ? Souvenons-nous du piratage des services de l’AP-HP en 2021 dans le contexte du Covid-19, suite auquel la réponse apportée par les autorités de santé a été insuffisante, voire nulle. Plus récemment encore, les données d’au moins 510 000 personnes ont été volées à l’Assurance maladie via Amelipro. À vouloir faciliter l’accès à la santé en imposant un outil numérique, n’y a-t-il pas erreur sur la façon de procéder ? Autant de questions auxquelles cet outil numérique ne répond pas tout en persistant dans la même direction.
Mon Espace Santé est un service manipulant des données sensibles qui est déployé à l’ensemble de la population française. Or, sa conception et son déploiement ne sont clairement pas au niveau des services les plus respectueux en matière de protection de la vie privée.
Selon le Ségur du numérique en santé, son ambition est de « généraliser le partage fluide et sécurisé de données de santé entre professionnels et usagers pour mieux soigner et accompagner. »
Mais pour cela, les besoins en terme de consentement et de gestion des données des usagères devraient être au cœur d’une expérience utilisatrice respectueuse, fiable et réaliste, ce qui à notre sens n’est pas le cas avec Mon Espace Santé. Sans oublier que ce service s’inscrit dans un processus de numérisation des services publics qui, trop souvent, ne tient pas compte des difficultés d’accès et d’utilisation d’Internet par de nombreuses personnes.
Pour ces raisons, nous ne pouvons que remercier les nombreuses associations qui ont déjà alerté sur ce sujet et, comme elles, vous proposer des guides pour demander la suppression de votre espace santé.
Les applications « Messages » et « Téléphone » de Google, installées sur plus d'un milliard de smartphones, enregistrent l'activité de l'utilisateur et envoient ces données sur les serveurs de la firme. Les utilisateurs ne sont pas informés de cette collecte, qui ne respecterait pas le RGPD, et n'ont aucun moyen de s'y opposer.
Les utilisateurs d'Android sont habitués aux alertes concernant de fausses applications qui collectent leurs données. Cependant, cette fois ce sont deux applications légitimes préinstallées sur les versions récentes d'Android qui envoient des informations personnelles à Google...
Le problème a été découvert par Douglas Leith, professeur d'informatique au Trinity College de Dublin. Ce sont deux applications de Google qui sont mises en cause, à savoir Messages (com.google.android.apps.messaging) et Téléphone (com.google.android.dialer). À chaque SMS envoyé ou reçu, Messages envoie à Google un rapport qui inclut l'heure et une empreinte numérique du message. Ces données sont transmises à travers le service d'enregistrement Clearcut de Google Play ainsi que le service Firebase Analytics.
L'appli utilise la fonction de hachage SHA-256 pour créer une empreinte tronquée, ce qui est censé éviter de dévoiler le contenu du message. Toutefois, cela suffirait à Google pour faire le lien entre l'expéditeur et le destinataire. L'application Téléphone envoie des rapports similaires, avec l'heure et la durée des appels reçus ou émis. De plus, quand la protection contre les appels indésirables est activée, ce qui est le cas par défaut, l'appareil transmet également le numéro appelant aux serveurs de Google.
Graphique sur le lien entre les données collectées et l’identité réelle, via un identifiant Android, lié aux identifiants de l’appareil et de la carte SIM, ainsi qu’au compte Google, lui-même lié au numéro de téléphone et cartes bancaires. © Douglas Leith
Graphique sur le lien entre les données collectées et l’identité réelle, via un identifiant Android, lié aux identifiants de l’appareil et de la carte SIM, ainsi qu’au compte Google, lui-même lié au numéro de téléphone et cartes bancaires. © Douglas Leith
Les deux applis envoient également des informations détaillées sur leur utilisation, par exemple lorsque l'utilisateur affiche un message ou effectue une recherche dans ses conversations. Google n'informe à aucun moment l'utilisateur de la collecte de données et n'offre aucun moyen de s’y opposer. Le professeur met également en doute la conformité des applications avec le règlement général sur la protection des données (RGPD). Cette collecte ne respecterait pas les trois principes de base concernant l'anonymat, le consentement et un intérêt légitime.
Après avoir signalé à Google ces problèmes, la firme a répondu en indiquant effectuer quelques changements. Les utilisateurs seront notifiés qu'ils utilisent une application Google avec un lien vers la politique de confidentialité. Messages ne collectera plus le numéro d'expéditeur, le code ICCID de la carte SIM, ainsi que l'empreinte des SMS. Les deux applications n'enregistreront plus les évènements liés aux appels dans Firebase Analytics. La collecte de données utilisera un identifiant temporaire plutôt que l'identifiant Android permanent. Enfin, Google informera plus explicitement les utilisateurs lorsque la fonction de protection contre les appels indésirables sera activée, et cherche actuellement comment utiliser moins d'informations ou des données plus anonymes.
Le professeur a également indiqué que Google compte ajouter à Messages une option pour refuser la collecte d’informations. Toutefois, celle-ci ne couvrirait pas ce que la firme considère comme données « essentielles ». Il s'agit d'une des premières études sur les données personnelles transmises par les services Google Play, qui restent largement opaques et pourraient cacher bien d'autres surprises...
Le sujet est presque devenu un marronnier depuis le début de la crise sanitaire: les Français quitteraient la ville pour se mettre au vert. La réalité est tout autre.
Des cadres parisiens en télétravail, heureux de profiter d'une pièce supplémentaire, d'un jardin et d'un rythme moins effréné. Des agents immobiliers de zones rurales qui annoncent n'avoir «plus rien à vendre», et des villes qui se vident. Si ce tableau vous paraît familier, c'est qu'il est régulièrement brossé médiatiquement depuis la pandémie de Covid-19 en France.
Dès le premier confinement du printemps 2020, c'est d'abord avec les données de téléphonie mobile qu'on pense voir une fuite générale (mais temporaire) vers les campagnes. Une fois les restrictions levées, place aux achats de maison avec jardin, loin des centre-ville. Le sujet devient alors presque un marronnier, qu'il soit évoqué positivement comme un moyen de revitaliser les campagnes, ou moqué à travers la description de néo-ruraux découvrant la rosée matinale et les désagréments de la vie rurale. L'affaire paraît entendue: un bouleversement a eu lieu. La ville n'attire plus, et la campagne se gentrifie. «Comment l'exode urbain remodèle la France», titrait ainsi L'Obs en une.
Derrière cette expression générale «d'exode urbain» se cache pourtant un malentendu, pointe une étude pluridisciplinaire intitulée «Exode urbain? Petits flux, grands effets. Les mobilités résidentielles à l'ère (post-)Covid» et dont les premiers résultats viennent de paraître. «Dans l'imaginaire, l'expression renvoie à l'exode rural. Mais il n'y pas de caractère massif dans ces mobilités, note Hélène Milet, coordinatrice de l'étude. Il n'y a pas de big-bang territorial.»
Afin de traquer ces mouvements de population, les chercheurs ont étudié des données issues de plateformes en ligne: Leboncoin, Meilleursagents, Seloger, pour analyser les recherches immobilières où se projettent les Français. Pour compléter cette approche, les prises de contact et les ventes effectuées sur Seloger ont également été étudiées, tout comme les déménagements effectifs auprès de la Poste. Enfin, d'autres chercheurs ont de leur côté mené des enquêtes de terrain dans six zones rurales et péri-urbaines: Cévennes, Vosges, Pyrénées audoises, etc.
Les Français restent en majorité attirés par les grands pôles urbains, par le littoral, et par les zones périurbaines.
Un premier constat se dessine: les grandes tendances géographiques françaises n'ont pas été modifiées par la pandémie de Covid-19. Les Français restent en majorité attirés par les grands pôles urbains, par le littoral, et par les zones périurbaines. L'attrait pour la campagne, si présent dans nos représentations, n'est pas la principale caractéristique de la France à l'ère (post-)Covid. «Ce sont les principaux pôles urbains et leurs relations entre eux qui captent l'écrasante majorité des flux de recherche immobilière», cadre l'étude.
La principale raison est que ces pôles urbains restent des bassins d'emplois, le télétravail ne concernant qu'une faible partie des actifs. Idem pour les services: plutôt que la campagne, un couple de cadre va d'abord se diriger vers Marseille, Lyon ou Toulouse.
Dans le détail, les données de déménagement postaux montrent bien un départ des centres de grandes villes, particulièrement de Paris. Ce qui fait écho à d'autres données, comme la baisse du nombre d'enfants scolarisés dans la capitale, mais ne signifie pas que tout le monde est parti se mettre définitivement au vert. «Beaucoup des arrivées se font vers des petites villes, ou des villes de couronne», relève Hélène Milet. Là aussi, ce phénomène, appelé desserrement urbain, préexistait au Covid, prouvent les données de déménagement. La pandémie n'a fait que l'accentuer, parfois en poussant les ménages à s'installer un peu plus loin, comme à Tarare, à plus d'une quarantaine de kilomètres de Lyon.
Max Rousseau, chargé de recherches au Centre de coopération internationale en recherche agronomique pour le développement et qui a participé à l'étude, voit dans ces achats «une extension de la métropolisation», voire une «méga périurbanisation», bien loin d'une transition rurale avec un changement de mode de vie.
Même si ces «petits flux» ne constituent pas la majorité des déplacements, les travaux des chercheurs convergent cependant pour montrer des départs accrus vers la campagne. Mais attention à la généralisation, prévient Hélène Milet. «Il y a beaucoup de diversité dans les zones rurales. Celles qui attirent sont accessibles, à la mer ou proches d'une ville», explique la coordinatrice de l'étude. Dans les Pyrénées audoises, terrain qu'a couvert Aurélie Delage pour l'étude, peu de chances de voir débarquer des cadres en télétravail, vu la difficulté de faire une navette vers une grande ville. «On y retrouve trois profils: des retraités, dont ceux qui reviennent au pays, des ménages en transition professionnelle, et des personnes en recherche de marginalité, d'une vie alternative», témoigne la maîtresse de conférences en aménagement et urbanisme à l'université de Perpignan.
Si les interviews de maires se félicitant de voir tous les biens de leur commune vendus ont été légion, «investissement ne signifie pas toujours installation», rappelle Hélène Milet. Les retours de terrain montrent qu'une partie des achats sont en réalité des stratégies d'investissement. Ils consistent à acquérir un nouveau bien, pour des personnes déjà propriétaires, et à ne l'occuper que de manière temporaire ou saisonnière, parfois avec de la location de courte durée. Un constat qui ne devrait pas étonner en France, où la propriété reste très concentrée, rappelait l'Insee dans une étude parue en novembre dernier.
Ce phénomène d'achat refuge a été renforcé par la crise du Covid et la crainte d'un nouveau confinement, mais aussi par une prise de conscience grandissant des risques écologiques. La Bretagne devient ainsi un nouveau lieu d'investissement en vue de l'évolution climatique, plutôt que la Côte d'Azur. Le jardin n'est pas qu'un moyen de s'aérer, mais permet d'avoir un verger, un poulailler, voire une source d'eau, afin de développer une autonomie. Auparavant l'apanage des personnes avec un capital culturel élevé, cette conscience écologique se diffuse y compris dans la classe moyenne, assurent Aurélie Delage et Max Rousseau.
Loin de revitaliser toutes les campagnes françaises, ces flux risquent donc d'accentuer la «surchauffe» dans des territoires déjà attractifs, prévient l'étude. «Dans les zones rurales, le marché de l'immobilier peut se retrouver rapidement sous tension», explique Aurélie Delage, en raison du faible nombre de biens disponibles et du décalage de ces biens avec les besoins des acheteurs: vétusté, manque de terrain... Les nouveaux acheteurs introduisent des pratiques nouvelles dans ces régions, que l'étude résume par la formule de «parisianisation des marchés locaux»: achats comptants sans négociation, «parfois même sans visite», témoigne Hélène Milet.
Le marché locatif traditionnel se retrouve donc asséché. «C'est ce qui arrive sur le littoral nord de la Bretagne, autrefois épargné», précise Max Rousseau. «Il y a un phénomène d'éviction. Les studios sont rachetés, ce qui met les étudiants en difficulté.» Les populations moins favorisées se retrouvent à habiter de plus en plus loin des centres, ou à se tourner vers de l'habitat précaire. On voit alors émerger localement des questions très politiques: faut-il créer un statut de résident au Pays basque? Le parc social est-il dimensionné pour faire face à la hausse de l'immobilier? Autant de problématiques jusqu'ici absentes des débats de l'élection présidentielle.
COMMUNIQUÉ
Le Haut Conseil international de la langue française et de la francophonie* (HCILF) transmet le message suivant :
Le peuple français et les peuples des pays et communautés de langue française de Belgique, Canada, Québec, Suisse, et d’ailleurs, ACCUSENT :
une oligarchie mondialiste de viser une hégémonie universelle en épandant et imposant partout un anglais de commerce déculturant ;
trois institutions de l’Union européenne (Commission, Parquet, Cour des Comptes) de s’en faire les instruments en imposant – post-Brexit ! – l’anglais langue de travail unique en leur sein, décisions violant les textes fondateurs de l’UE : Traité de Rome, Charte des Droits, Règlement des langues ; nos associations attendent que le président de la République obtienne du Conseil de l’UE sous la présidence française le rétablissement d’un vrai pluralisme des langues : promesse écrite reçue de M. C. Beaune, secrétaire d’État aux Affaires européennes ;
la Cour de justice de l’Union européenne de déni de justice pour s’être déclarée incompétente sur le fond, déboutant notre association agréée qui la priait – preuves requises à l’appui – de sanctionner l’illégalité des trois décisions ; déni aggravé par le passage de fait du droit romain au droit coutumier anglo-saxon : le fait accompli illégal dure, fait jurisprudence, puis devient loi (« common law »), le remplacement de langue et celui de droit allant de pair, impérialement ;
les gouvernements français, belge, wallon, canadien, québécois, suisse, de ne pas faire appliquer leurs législations linguistiques : Constitution française (art. 2 et 87), lois Toubon (1994) et Fioraso (2013 pour l’enseignement supérieur trop en anglais) ; loi 101 au Québec... et de laisser pervertir administrations, écoles et universités par une idéologie et une novlangue américaines « déconstructrices » de l’histoire et de la langue de leur pays ;
des tribunaux administratifs français de complaisance coupable, pour avoir débouté nos associations qui attaquaient des décisions illégales de ministères et d’universités, et s’être ainsi rendus complices du remplacement du droit français par une « common law » de fait ;
Le Haut Conseil international de la langue française et de la francophonie (HCILFF) invite donc les gouvernements cités à entendre le message de leur peuple et à appliquer la loi.
Il invite les Français et toutes personnes de langue française présentes à Paris le 20 mars, et voulant – pacifiquement mais clairement – rejeter l’arrachage de leur langue, et affirmer leur attachement à leur civilisation, à confluer dès 14 h vers la Montagne Sainte-Geneviève et le Panthéon pour un rassemblement-forum au-delà de toutes les opinions politiques, à y entendre nos appels, puis à suivre notre cortège dans le Quartier latin, haut lieu de l’humanisme et de l’universalisme européens, pour appeler ensemble à un urgent sursaut civilisationnel.
Au nom du Haut Conseil : son secrétaire général Albert Salon, ancien ambassadeur. Contact : Avenir de la langue française (ALF), 34 bis, rue de Picpus, 75012, Paris, albert.salon0638@orange.fr tél 0768 87 16 01.
La CNIL[1] a mis en demeure un éditeur pour avoir collecté des données à caractère personnel sur les visiteurs de son site Internet à l’aide du module Google Analytics.
En intégrant ce module Google Analytics à son site Internet, l’éditeur donnait la consigne aux navigateurs de ses visiteurs d’envoyer des informations à Google. Ces informations contenaient notamment l’adresse de la page visitée, l’éventuel page précédemment visitée (« Referer »), l’heure de la visite, l’adresse IP du visiteur et des informations sur son appareil. Ces informations pouvaient aussi contenir l’identifiant unique qui était attribué par Google à l’internaute et stocké dans un cookie et/ou l’identifiant interne que l’éditeur du site avait attribué à l’internaute, si ce dernier était connecté à son espace personnel. Le numéro de commande était aussi présent si la personne avait passé commande sur le site.
Toutes ces informations permettaient à l’éditeur de mesurer l’audience de son site Internet avec précision, mais aussi de détecter d’éventuelles erreurs et de mesurer ou d’optimiser l’efficacité ses campagnes publicitaires.
En premier lieu, la CNIL a considéré que les données collectées par ce module Google Analytics étaient des données à caractère personnel, car elles étaient associées à un identifiant unique et/ou composées de données qui pouvaient permettre d’identifier les visiteurs ou de les différencier de façon significative. La Commission a donc estimé que les exigences du RGPD[2] devaient être respectées.
Ensuite, la CNIL a rappelé que les transferts de données vers un pays n’appartenant pas à l’Union européenne étaient autorisés uniquement si « le niveau de protection des personnes physiques garanti par le [RGPD] n[’est] pas compromis »[3]. Un tel niveau de protection peut être obtenu :
Les données issues de Google Analytics sont transférées vers les États-Unis. Ce pays ne bénéficie plus d’une décision d’adéquation depuis l’arrêt[5] « Shrems II » du 16 juillet 2020 de la Cour de justice de l’Union européenne (CJUE) en raison de la surveillance de masse réalisée par les services gouvernementaux américains. Ces programmes de surveillance obligent notamment la société Google à fournir au gouvernement américain les données à caractère personnelle qu’elle possède ou les clés de chiffrement qu’elle utilise.
En l’absence d’une décision d’adéquation, l’éditeur du site et la société Google avaient recourru à des « clauses contractuelles types », c’est-à-dire un rapport détaillé justifiant un niveau de protection suffisant. La CNIL a cependant considéré, comme l’avait déjà fait la CJUE dans son arrêt cité précédemment, qu’un tel document ne permettait pas, à lui seul, d’apporter une protection contre les programmes de surveillance américain, car la société Google ne pouvait pas aller à l’encontre des lois de son pays. Des mesures additionnelles devaient donc être prises par l’éditeur et/ou Google.
Des mesures organisationnelles ont été prises par Google, comme la publication d’un rapport de transparence et la publication d’une politique de gestion des demandes d’accès gouvernementales, mais la Commission a estimé que ces mesures ne permettent pas « concrètement d’empêcher ou de réduire l’accès des services de renseignement américains ».
Des mesures techniques ont aussi été prises par Google, comme la pseudo « anonymisation »[6] des adresses IPs, mais la CNIL a estimé qu’elles « ne sont pas efficaces », car « aucune d’entre elles n’empêche les services de renseignement américain d’accéder aux données en cause ne ne rendent cet accès ineffectif ».
En l’absence d’une protection des données adéquate, la CNIL a, par conséquent, estimé que les transferts effectué par l’éditeur vers les serveurs de Google situés aux États-Unis étaient illégaux.
La CNIL a mis en demeure le site de mettre en conformité les traitements de données associés à Google Analytrics ou, si ce n’est pas possible, de retirer le module Google Analytics.
Concernant le nom de l’éditeur mis en cause, la CNIL a décidé de ne pas rendre public son nom pour des raisons que j’ignore. Il est cependant fort probable que la société soit Decathlon, Auchan ou Sephora étant donné que cette décision est la conséquence de plaintes[7] déposées par l’association militante NOYB[8].
Concernant la décision elle même, même si c’est la première fois que la CNIL prend publiquement position sur Google Analytics, ce n’est ni une surprise, ni une révolution. Depuis l’invalidation de l’accord avec les États-Unis en juillet 2020, tous les acteurs s’intéressant de près à la protection des données savent que les transferts de données vers les USA étaient, au mieux, très douteux. De plus, la CNIL n’est pas la première autorité de protection des données européenne à avoir statué dans ce sens. L’autorité autrichienne avait fait de même[9] trois mois plus tôt.
Cette décision a le mérite de mettre les choses au clair. Les organismes ne peuvent désormais plus prétendre un éventuel flou juridique. Google Analytics doit être retiré.
Notes et références
CNIL : Commission Nationale de l’Informatique et des Libertés (cnil.fr).
RGPD : Règlement Général sur la Protection des Données (Règlement (UE) 2016/679).
Le RGPD autorise des transferts de données vers des pays tiers si « le niveau de protection des personnes physiques garanti par le [RGPD] n[’est] pas compromis » (source : RGPD, article 44).
Un transfert de données à caractère vers un pays tiers peut être réalisé si une décision d’adéquation existe pour ce pays (source : RGPD, article 45). Une telle décision existe, par exemple, pour le Royaume-Uni.
La Cour de justice de l’Union européenne (CJUE) invalide le « bouclier de protection des données UE-États-Unis » dans un arrêt du 16 juillet 2020 (source : CJUE, C-311/18, 16 juillet 2020, Shrems II).
La solution Google Analytics propose une option permettant d’« anonymiser » les adresses IP des internautes. Cette opération est toutefois réalisée par Google après que le transfert de données vers les États-Unis ait lieu.
L’association NOYB a déposé des plaintes contre de nombreux organismes suite à des transferts de données personnelles vers les États-Unis jugés illicites. Six entreprises francaises sont concernées. Trois d’entre elles concernent Google Analytics : Decathlon, Auchan et Sephora (source : noyb.eu).
NOYB - European Center for Digital Rights : (noyb.eu).
L’autorité autrichienne a décidé, décembre 2021, que les transferts de données réalisés par Google Analytics étaient illicites (source : noyb.eu, en allemand) (source 2 : gdprhub.eu, en anglais).
Été 2020, monoculture d’épicéas morts en Argonne, région naturelle chevauchant les départements de la Marne, des Ardennes et de la Meuse (sept. 2020). Sylvain Gaudin, CC BY-NC-ND
Car la forêt française est aujourd’hui en crise : depuis deux décennies, on assiste en effet à une mortalité croissante des peuplements forestiers et à une baisse globale de leur productivité. Si la surface boisée en France métropolitaine ne cesse de croître depuis le milieu du XIXe siècle, c’est en raison du boisement – spontané ou artificiel – de terres agricoles, car la superficie occupée par des forêts anciennes, elle, ne cesse de diminuer.
Ce « dépérissement », est généralement attribué aux modifications climatiques. Les sécheresses estivales récurrentes fragilisent les arbres et la douceur hivernale favorise les pullulations de bioagresseurs, en particulier les scolytes et les hannetons.
Le changement climatique en est sans aucun doute une cause essentielle, mais il est aussi le révélateur d’écosystèmes forestiers fragilisés par des décennies de pratiques sylvicoles focalisées sur la production de bois. Non seulement la forêt française fixe moins de carbone par unité de surface, mais l’exploitation des peuplements dépérissants induit des émissions supplémentaires de CO₂ aggravant l’effet de serre et les changements climatiques associés.
Dans un tel contexte, adapter la forêt française est plus qu’une nécessité, c’est une urgence.
Les forêts ne sont pas des champs d’arbres, mais des écosystèmes avec de multiples interactions entre les différentes composantes.
Le promeneur a tôt fait de constater que les descentes de cimes et les mortalités de masse concernent surtout des plantations monospécifiques, constituées d’arbres de même âge, correspondant souvent à des essences introduites hors de leur territoire d’indigénat.
C’est le cas de nombreuses plantations d’épicéa en plaine, tandis que les pessières naturelles d’altitude résistent plutôt bien. Les premières constituent des peuplements simplifiés sensibles aux aléas climatiques (tempêtes, sécheresses, incendies) et aux attaques de bioagresseurs (insectes, champignons…), tandis que les secondes, beaucoup plus hétérogènes et diversifiées, sont plus résilientes.
Même s’il existe une sensibilité propre à chaque essence et à chaque situation stationnelle, les impacts directs et indirects du dérèglement climatique sont modulés par l’intégrité fonctionnelle de l’écosystème forestier, qui est elle-même largement influencée par la sylviculture.
Adapter la forêt, c’est agir sur la santé de l’écosystème et non simplement remplacer des arbres mourants par d’autres. C’est un traitement de fond des causes du dépérissement qu’il faut entreprendre et non un simple traitement des symptômes. La forêt ne peut plus être réduite à ses arbres et à sa fonction de production : seule une vision écosystémique peut être salvatrice.
Le principal levier permettant d’adapter la forêt française repose sur la promotion de pratiques sylvicoles prenant davantage en compte le fonctionnement des écosystèmes forestiers dans leur ensemble ; cela pour améliorer durablement leur état de santé, leur résilience, et accroître leur capacité à séquestrer et à stocker du CO2.
D’abord, il faut réserver chaque essence à des stations présentant des conditions optimales pour elle, actuellement et en prenant en compte l’évolution modélisée du climat sur des pas de temps cohérents avec le cycle sylvicultural. Il faut aussi privilégier les peuplements mélangés (plusieurs essences) et structurellement hétérogènes (plusieurs hauteurs et formes de houppiers), de manière à renforcer la résistance aux aléas météorologiques et aux attaques de bioagresseurs.
Forêt mélangée des Vosges du Nord - sept. 2021. Evrard de Turckheim, CC BY-NC-ND
Privilégier la régénération naturelle permet d’accroître la diversité génétique soumise à la sélection naturelle et les capacités d’adaptation locale, contrairement aux plantations. Cela implique une meilleure gestion de l’équilibre sylvo-cynégétique, notamment en favorisant la végétation accompagnatrice qui protège les plants sensibles et fournit une ressource alimentaire alternative.
Il existe déjà des modes de sylviculture mettant en œuvre ces principes, comme la futaie irrégulière ou jardinée. Ce type de sylviculture n’est pas nouveau, il a été adopté depuis 2017 par l’Office national des forêts pour toutes les forêts publiques franciliennes afin d’éviter les « coupes à blanc ».
Coupe à blanc d’une parcelle de Douglas dans une forêt de l’Oise. Guillaume Decocq, CC BY-NC-ND
Face aux sécheresses récurrentes, il faut adapter la densité des peuplements au bilan hydrique de la station et préserver l’alimentation en eau des sols, y compris en limitant leur tassement.
Plus généralement, accroître la résilience des forêts nécessite de favoriser la biodiversité au sein de tous les compartiments de l’écosystème. Celle-ci est encore trop souvent perçue comme une contrainte pour le forestier, comme un obstacle à la gestion, alors même que c’est son assurance sur le long terme pour maintenir la fertilité des sols, la résistance aux bioagresseurs et, in fine, la capacité de production de bois.
Plusieurs documents de planification, comme les Plans régionaux Forêt-Bois (PRFB) considèrent un peu hâtivement que les essences indigènes ne sont plus adaptées au « nouveau » climat. Cette vision fixiste du monde vivant oublie que les essences forestières européennes ont déjà connu bien des changements climatiques (notamment un Petit Âge glaciaire et un Optimum médiéval). Pire, elle ignore nombre de travaux scientifiques récents qui mettent en lumière des capacités d’adaptation insoupçonnées des arbres.
Au moins trois ensembles de mécanismes permettent l’adaptation spontanée des arbres en environnement changeant : les mécanismes génétiques, via la sélection naturelle qui agit sur le long terme, ce qui nécessite une certaine diversité génétique ; les mécanismes épigénétiques, qui prédisposent des individus à des conditions environnementales que leurs parents ont vécues, via des marques induites capables de moduler l’expression des gènes et d’induire des mutations ; les mécanismes holobiontiques, via les symbioses issues de la co-évolution entre l’arbre et son microbiote, ce dernier contribuant à de nombreuses fonctions vitales.
Forêt mélangée dans le Sud amiénois où les épicéas sont épargnés par les attaques de scolytes - oct. 2021. Guillaume Decocq, CC BY-NC-ND
L’efficacité de ces différents mécanismes face à des changements climatiques rapides est encore mal connue, d’où l’intérêt de pouvoir observer la réponse des essences autochtones dans un contexte « naturel », c’est-à-dire hors forêt soumise à la sylviculture.
À cet égard, il est important d’augmenter les superficies d’aires forestières protégées et leur représentativité des différents contextes climatiques et des types de sols, comme souligné dans la contribution du Conseil national de la protection de la nature aux Assises de la forêt et du bois.
Ces espaces à naturalité élevée constituent non seulement des réservoirs de biodiversité préservée, mais aussi des laboratoires grandeur nature pour la compréhension de la biologie des espèces et des dynamiques forestières spontanées, indispensables à l’acquisition de références pour concevoir les itinéraires sylviculturaux de demain.
La prétendue « inadaptation » des essences autochtones justifie le recours à des essences exotiques, venant souvent d’autres continents, dont l’intérêt et l’innocuité sont plus que douteux… L’idée de privilégier les essences naturellement résistantes au stress hydrique serait séduisante, si elle ne faisait pas preuve d’une certaine amnésie (en plus de faire l’impasse sur des millions d’années d’histoire évolutive).
Car l’introduction d’essences exotiques en forêt n’est pas nouvelle. Beaucoup se sont soldées soit par des échecs d’acclimatation, soit par de graves crises écologiques : introductions accidentelles de bioagresseurs exotiques (l’actuelle épidémie de chalarose du frêne en est un exemple parmi des dizaines d’autres), invasions biologiques (le cerisier tardif, jadis vanté pour ses mérites en foresterie est devenu aujourd’hui l’ennemi du forestier), érosion de la biodiversité autochtone (les sous-bois fantomatiques de nombreuses plantations de conifères en plaine en sont un exemple criant) ; ou encore, aggravation des conséquences de certains aléas (les méga-feux que connaît la Péninsule ibérique sont étroitement liés aux plantations d’eucalyptus, très inflammables, et pourtant promues en région méditerranéenne française).
En forêt de Compiègne, invasion par le cerisier tardif - juin 200). Guillaume Decocq, CC BY-NC-ND
Une analyse détaillée de ces risques est présentée dans un livre blanc sur l’introduction d’essences exotiques en forêt, récemment publié par la Société botanique de France.
Les risques associés aux essences exotiques, difficilement prévisibles, mais réels et coûteux pour la société, justifient que les nouvelles plantations soient davantage réglementées. Celles-ci devraient faire l’objet d’une étude d’impact préalable avec analyse de risque.
Plus généralement, il est urgent d’évaluer le rapport bénéfice/risque à moyen et à long terme de ces plantations, et, dans l’attente d’une telle évaluation, de soumettre à un moratoire les mesures politiques et financières incitant leur introduction en forêt.
Cet effort indispensable pour adapter la gestion des forêts aux changements climatiques ne doit pas se limiter aux actions d’ingénierie, mais reposer sur une approche scientifique interdisciplinaire, fondée sur l’ensemble des apports récents des sciences et techniques de la conservation.
La recherche scientifique en écologie forestière en particulier est très mobilisée sur la question des impacts des changements climatiques sur la forêt et des capacités adaptatives des espèces.
Les nombreux résultats de la recherche permettraient d’appuyer les stratégies de gestion et de planification forestières sur des bases scientifiques robustes. Pourtant ces résultats sont jusqu’ici peu ou pas pris en compte par les décideurs.
La gestion durable des forêts ne peut pourtant reposer sur la seule ingénierie, tout comme elle ne peut se réduire aux seuls arbres. Agir en environnement changeant et en univers incertain suppose d’intégrer nos connaissances scientifiques dans tous les domaines, de prendre en compte l’évolution des attentes sociétales et d’actualiser les outils des ingénieurs.
“Napoléon exploite les moutons, c’est incroyable”, s’exclame Jordan Daughtry, 14 ans, son exemplaire du livre de George Orwell La Ferme des animaux à la main. Elle parle du cochon dictateur qui prend le contrôle d’une ferme anglaise avant de soumettre à sa volonté les autres animaux.
Dans cet ouvrage qui critique le régime stalinien, les moutons, qui représentent les masses facilement manipulables, sont des “idiots incultes”, ajoute-t-elle.
Sa sœur Kiara, 16 ans, poursuit : >“Ça m’a un peu rappelé toute cette histoire après l’élection de Joe Biden”, explique-t-elle en évoquant l’insurrection du 6 janvier, quand les partisans de Trump, enhardis par les mensonges du président sortant, ont assiégé le capitole. “Et toutes les bêtises qu’on a entendues.”
Les Daughtry discutent dans l’arrière-boutique de la librairie Firefly, un paradis de livres neufs et d’occasion de la petite ville de Kutztown, en Pennsylvanie. Les membres de ce club de lecture des livres interdits se retrouvent deux fois par mois pour lire et débattre d’ouvrages que les conservateurs de tout le pays cherchent à faire disparaître des bibliothèques scolaires.
Les membres du club, âgés de 13 à 16 ans, sont inquiets. L’année dernière, ce mouvement de censure a réussi à interdire des ouvrages sur les questions raciales et LGBTQ dans des bibliothèques au Texas, en Utah, en Virginie, dans le Wyoming et en Pennsylvanie.
Comme de nombreux jeunes aux États-Unis, les membres du club trouvent que la censure se fait plus pesante. En décembre, le district scolaire de Pennridge, à une quarantaine de kilomètres de chez eux, a fait retirer des bibliothèques des écoles élémentaires le livre Heather à deux mamans, un album jeunesse sur un couple lesbien.
L’année dernière, la commission scolaire du district de Central York, en Pennsylvanie, a publié une longue liste de livres interdits, en grande majorité des ouvrages dont les personnages ou les auteurs étaient des gens de couleur. Cette interdiction a été levée en septembre après des manifestations d’élèves.
“J’adore lire, alors c’est vraiment énervant de voir que des livres sont interdits, d’autant plus que ce sont des adultes qui décident et que personne de nous demande à nous, les ados, ce qu’on en pense”, lance Joselyn Diffenbaugh, 14 ans,
la fondatrice de ce club destiné à contrecarrer cette vague d’intolérance :
“C’est flippant de savoir que ceux qui pourraient avoir besoin de ces livres, pour mieux se comprendre par exemple, en sont privés.”
Fin janvier, le phénomène a pris des proportions inédites, avec l’interdiction de Maus, le roman graphique sur l’Holocauste d’Art Spiegelman, par la commission scolaire du comté de McMinn, dans le Tennessee.
À lire aussi Censure. Un district scolaire du Tennessee bannit le livre “Maus”, d’Art Spiegelman, sur l’Holocauste
Selon cette commission, ce récit, qui met en images ce qu’ont vécu les parents de l’auteur dans les camps de concentration nazis ainsi que le suicide de sa mère, contenait des propos “durs et grossiers”. Maus est désormais numéro un des ventes sur Amazon.
À la librairie Firefly, le club de lecture discute de La Ferme des animaux quand je les rejoins. Ce roman n’est pas visé par la récente vague de censure, mais il était interdit en URSS avant la chute de l’Union soviétique, et au Royaume-Uni pendant la Seconde Guerre mondiale – le gouvernement britannique ne voulant pas froisser son allié soviétique. Il a ensuite été interdit en Floride car jugé “procommuniste”.
Leur prochain livre sera La haine qu’on donne, un roman pour ados sur le meurtre d’un jeune Noir désarmé par un policier blanc, qui a été retiré des rayonnages de nombreuses bibliothèques scolaires. Pour l’instant, les jeunes lecteurs se demandent pourquoi aucun animal n’a choisi de quitter la ferme de George Orwell.
Bridget Johnson, 13 ans, la plus jeune du groupe, n’a pas sa langue dans sa poche : >“Je constate souvent cela dans la vraie vie. Les gens ne se rendent pas compte, ils ne veulent pas prendre de risques, ils préfèrent ne rien changer.”
La manipulation, les mensonges et, comme le dit un membre du club, la “volonté d’enfumage” se retrouvent dans ce mouvement pour expurger les bibliothèques américaines. Un mouvement lancé par des groupes issus de la société civile, soi-disant des parents, qui envoient des pétitions aux établissements et aux élus pour interdire certains livres. En réalité, ces groupes sont liés et soutenus par des donateurs conservateurs influents.
La plupart des livres visés parlent de l’égalité raciale ou sexuelle, alors que certains républicains ont lancé une grande offensive contre l’enseignement de la théorie critique de la race à l’école, une discipline qui examine la façon dont le racisme ronge les institutions et la société américaine.
Le roman Gender Queer, de Maia Kobabe, qui évoque les difficultés de faire son coming out et de découvrir son identité sexuelle, est l’un des livres les plus proscrits. Depuis sa publication en 2019, il a été banni des rayonnages d’au moins 11 États, dont le Texas, la Floride et la Pennsylvanie. Même chose pour Out of Darkness, l’histoire d’amour entre une Mexicaine-Américaine et un jeune garçon noir dans les années 1930 au Texas.
L’Œil le plus bleu, de Toni Morrison, un roman sur l’oppression raciale et sexuelle, a dû être retiré des bibliothèques scolaires en Floride et dans le Missouri.
Après une heure et demie de débats animés, la séance du club de Kutztown touche à sa fin. À la sortie de la librairie, Jesse Hastings, une grande jeune fille avec des grosses lunettes, tient dans la main un exemplaire de La haine qu’on donne. Tous les livres dont les jeunes débattent au club sont achetés et financés grâce à des dons.
Jesse se dit choquée par l’ampleur de la censure et “surtout par le ridicule des raisons invoquées pour interdire ces livres. Beaucoup ont été interdits simplement parce qu’ils avaient pour personnages des Noirs ou des LGBTQ”, explique-t-elle :
“Pour les jeunes homosexuels ou les jeunes de couleur, il est vraiment important d’être représenté dans les livres, et si vous n’y avez pas accès, cela peut être grave.”
Outre l’impact sur les personnes qui auraient pu se trouver des affinités avec les auteurs interdits et sur la représentation de la diversité dans les livres, Jesse trouve qu’il y a un autre aspect encore plus grave : “C’est un énorme problème, car il y a déjà un grand manque de représentation des minorités dans les romans. Ils veulent interdire des livres qui parlent de politique et d’autres choses importantes”.
Et la jeune fille de conclure :
”Pour moi, le risque, c’est que de plus en plus de jeunes manquent d’ouverture d’esprit.”
Adam Gabbatt
Par Claire Tervé
Gwenn ha Du -Photo Christophe Coat - EyeEm via Getty Images
BRETAGNE - Un drapeau, mais bien plus. Ce dimanche 20 février à Nantes, une association nommée À la Bretonne! compte déployer un drapeau breton géant sur l’esplanade du miroir d’eau. Une action parmi d’autres pour imposer le dossier de la réunification bretonne dans l’agenda des candidats à l’élection présidentielle.
“Nous vous demandons de vous engager à enclencher, en tant que président de la République, le processus législatif qui permettra aux électeurs de Loire-Atlantique de voter en 2024 sur leur souhait, ou non, de rejoindre la Région Bretagne”, ont écrit vendredi 18 février dans une lettre ouverte plus de 200 élus de tous bords politiques, des centaines d’associations, plusieurs fédérations culturelles, ainsi que le réseau Produit en Bretagne (475 entreprises, 110 000 salariés). Emblème de cette Bretagne qu’ils espèrent, le drapeau Breton est devenu tout un symbole. À tel point que les internautes bretons se battent pour qu’il ait son propre emoji depuis plusieurs années.
Flottant fièrement au vent partout en France, lors d’événements, de manifestations ou de jours de fête, le drapeau breton est connu de tous, mais savez-vous vraiment ce qu’il représente? On vous en dit plus ici sur ce monument qui fait la fierté des Bretons, au même titre que le Kouign-amann.
Le drapeau breton a un nom: Gwenn ha du, qui signifie littéralement en breton “blanc et noir”, les couleurs historiques de la Bretagne. Il peut s’écrire avec ou sans tirets “Gwenn-ha-du”.
Le Gwenn ha du est un symbole récent: c’est Morvan Marchal, un architecte français actif dans le mouvement breton, soucieux de préserver et de développer la spécificité de la Bretagne, qui lui a donné vie en 1925. Il aurait eu plusieurs inspirations, qui varient selon les sources. D’après Bretagne.com, un site du Télégramme, ce sont les armoiries de la ville de Rennes qui comportent des bandes blanches et noires verticales accompagnées d’un semis d’hermines. Il aurait alors imaginé sur cette base un emblème moderne pour la Bretagne.
Pour d’autres encore, sa disposition s’inspire fortement de la bannière étoilée des États-Unis d’Amérique ou bien même du drapeau grec, comme le note 20 Minutes. L’idée étant de symboliser le besoin d’indépendance et de liberté.
Il aura fallu plus de 50 ans pour que ce drapeau s’impose définitivement et soit débarrassé de toute connotation politique et séparatiste, même si aujourd’hui, le Gwenn ha du n’a aucun statut officiel en Bretagne et en France.
Vous en avez forcément déjà vu un, mais avez-vous bien observé ce drapeau? Il est composé de neuf bandes horizontales noires et blanches d’égales largeurs, disposées alternativement et de mouchetures d’hermines noires sur fond blanc au canton (carré à l’angle d’un blason) supérieur gauche.
Les quatre bandes blanches représentent les quatre pays de la Basse-Bretagne : Bro-Leon (Léon), Bro-Gernev (Cornouaille), Bro-Wened (Vannetais) et Bro-Dreger (Trégor). Le territoire de la Basse-Bretagne occupe la partie sud et occidentale de la région bretonne, explique Geobreizh.bzh, le portail géographique et cartographique de Bretagne.
Les cinq bandes noires représentent quant à elle les cinq pays de Haute-Bretagne: Bro-Sant-Brieg (Saint-Brieuc), Bro-Zol (Dol), Bro-Sant-Maloù (Saint-Malo), Bro-Roazhon (Rennes) et Bro-Naoned (Nantes). Le territoire de la Haute-Bretagne s’étend à l’est de la région.
Sur le canton blanc, les mouchetures d’hermine sont au nombre de 11, disposées en trois rangs, de haut en bas, quatre, trois, puis quatre. Pourquoi 11? Selon Geobreizh.bzh, il n’y a pas d’explication concrète à cela. Elles sont toutefois censées représenter le duché de Bretagne.
En revanche, le choix du symbole de l’hermine en lui-même n’a rien d’anodin. Ces sortes de pattes de mouches noires représentent en réalité la queue de l’hermine, le petit animal carnivore. Et l’hiver venu, sa queue est la seule partie de sa fourrure qui reste entièrement noire, explique le traducteur et spécialiste de la langue bretonne, Divi Kervella, dans son ouvrage Emblèmes et symboles des Bretons et des Celtes (éditions Coop Breizh, 2009).
L’hermine est un motif que l’on retrouve sur le drapeau du duché de Bretagne dès 1318. Elle symbolise la pureté et était autrefois exclusive au clergé.
Elle est également au centre d’une légende mettant en scène Anne de Bretagne, rappelle France 3 Régions. Cette dernière participait à une partie de chasse et fut subjuguée par le comportement d’une hermine qui préféra se laisser tuer par les chiens plutôt que de traverser une flaque de boue. Elle gracia l’hermine et en fit son emblème. La devise de la Bretagne provient également de cette légende: “Kentoc’h mervel eget bezan saotret” (“Plutôt la mort que la souillure”).
Vous pourrez y penser la prochaine fois que vous verrez le drapeau breton flotter au gré du vent.
La basilique Notre-Dame-de-la-Garde, le 24 octobre 2018, à Marseille. PHOTO / AFP / GERARD JULIEN
Nostalgique de la France qu’il avait découverte en Erasmus il y a vingt ans, ce journaliste anglais de la BBC, établi en Asie, décide de découvrir la seconde ville du pays, attiré par “son caractère branché et les trois cents jours d’ensoleillement annuel”. Il connaît la réputation de la cité phocéenne, “un cas à part en France”.
C’est une métropole qui cultive sa différence par rapport au reste du pays, sa population étant composée de vagues de migrants arrivés sur plus de deux millénaires et demi d’histoire, ce qui en fait non seulement la plus vieille ville de France, mais aussi la plus multiculturelle.”
Il connaît aussi son histoire. Port stratégique pour les Grecs, qui y introduisent les olives, si chères à la cuisine provençale, elle subit les invasions wisigothes et arabes puis devient l’une des portes de l’empire colonial français. Autant d’étapes qui ont considérablement enrichi la ville. “Tout est arrivé depuis la mer à Marseille : les peuples, les produits, la culture et la contrebande.”
Le journaliste perçoit cet héritage hétéroclite en traversant les rues. Sur le cours Belsunce, “des senteurs de cuisines arabe et turque flottent dans l’air”, tandis que “les vendeurs à la sauvette proposent des gravures sur bois africaines, des foulards de couleurs vives et des maillots de l’Olympique de Marseille”.
“J’ai commencé à comprendre pourquoi on appelle Marseille ‘la ville aux 100 quartiers’”, poursuit-il. Si la marque maghrébine s’y ressent particulièrement, l’auteur retrouve aussi des influences chinoises, maliennes, ivoiriennes, vietnamiennes, corses et arméniennes qui imprègnent la musique, les vêtements ou encore la cuisine. Le tout sous la protection de la basilique Notre-Dame-de-la-Garde, “le point le plus élevé de la ville, qui resplendit comme un phare sacré en pleine mer”.
Aujourd’hui, poursuit la BBC, Marseille est concurrencée par Lyon et Aix-en-Provence, qui correspondent plus à une vision “parisienne” de la France. Son image est flétrie par ses détracteurs qui y voient “une cité du vice” – idée véhiculée par les nombreux films sur sa violence et sa mafia, très souvent fantasmées. La nomination de Marseille comme capitale européenne de la culture, en 2013, a permis d’atténuer cette vision, en promouvant la culture méditerranéenne et en incitant la mairie à rendre le quartier du Vieux-Port plus attrayant.
Conquis par l’“esprit bon enfant” (en français dans le texte) de la ville de la Bonne Mère, le journaliste se réjouit de sa vraie “francité”. Et de surenchérir :
Cette ville prouve à quel point la France est un pays plus divers et d’une plus grande complexité culturelle que les Français eux-mêmes ne sont souvent prêts à l’admettre.”
Peut-être vous-êtes-vous déjà demandés si l’utilisation d’une police web personnalisée ou une Google Font, avait une incidence négative comme positive votre visibilité organique. Pour lever le voile sur ce sujet, nous avons décidé de nous replonger dans les déclarations passées de notre ami John Mueller, Webmaster Trends Analyst chez Google.
En d’autres mots, il s’agit de savoir si Google prenait en compte le choix de la police web pour juger de la qualité de votre contenu, par exemple si une police personnalisée conduisait Google à considérer le contenu comme moins pertinent que des qu’un même contenu utilisant d’autres types de web fonts.
Cette question avait été posée à John Mueller en 2017 lors de la vidéo Webmaster Office Hours ci-dessous.
Le cadre de chez Google affirme que le choix de la police d’écriture n’a pas d’impact sur votre référencement. Du moment que Google peut explorer la page et voir le contenu, l’analyse fonctionnera normalement.
La seule situation où John indique que cela pourrait être un peu délicat est si vous utilisez des images au lieu de texte sur une page. Ok, Google fait de l’OCR (Optical Character Recognition : processus de convertir une image en texte) sur les images, mais cela reste un procédé nouveau qui n’est pas pleinement sollicité pour l’indexation des pages web (cela exige beaucoup trop de ressources).
Le même sujet a été abordé sur Twitter en 2020. Toujours auprès de John Mueller. Cette fois-ci, la question initiale était de savoir si le choix de sa police avait un impact sur les performances de vitesse du site, puis de savoir s’il y avait des polices recommandées par Google.
1 - Tous les éléments qui composent une page web, comme la police, ont un impact sur la vitesse de chargement.
2 - Le choix de la police n’a pas d’importance pour le SEO.
Ces deux réponses sont contradictoires puisque le temps de chargement est considéré comme un facteur de ranking SEO. Ainsi, si votre police web impacte le temps de chargement, elle influence indirectement votre SEO.
Bon ok, ce n’est pas nouveau que la police impacte le temps de chargement, c’était d’ailleurs un point majeur soulevé dans notre article sur l’optimisation de votre vitesse de site sous WordPress.
Par conséquent, si vous utilisez une police personnalisée parce que vous voulez mettre en avant votre branding, faites attention à ce que cette dernière n’impacte pas trop vos performances. Surtout avec l’introduction des Core Web Vitals en tant que facteurs de positionnement SEO.
Évidemment, si vous optez pour des polices web personnalisées totalement illisibles, cela aura un réel impact sur la compréhension qu’auront les visiteurs du contenu de votre site. Veuillez donc à ne pas trop en faire et à trouver l’équilibre entre branding et expérience de navigation.
Mais améliorer l’expérience utilisateur signifie aussi que chaque milliseconde compte. De ce fait, il existe de nombreuses façons d’améliorer la vitesse, comme l’optimisation des images et des polices de caractères web.
Commençons par une note positive : il est facile d’adopter une belle typographie gratuitement pour votre site comme vous pouvez en trouver dans les magazines papier. Des sociétés comme Fontawesome, Google et Adobe proposent énormément de polices gratuites qui vous permettront de construire votre site selon votre image. Cependant, un grand nombre auront impact drastique sur la vitesse de vos pages… pouvant vous faire perdre de précieuses secondes et chuter votre score sur PageSpeed Insights.
Voyons donc ensemble comment ces satanés polices web peuvent autant impacter votre temps de chargement en se focalisant sur les polices Google.
Les Google Fonts peuvent représenter plusieurs problèmes pour vos performances de site. Mais pas que…
Lorsque votre site est en train de charger sur un navigateur, vous avez peut-être remarqué des messages dans la barre d’état tels que « connecting to fonts.gstatic.com » ou « waiting for fonts.googleapis.com ». Il s’agit du navigateur qui télécharge la police sur laquelle votre site repose à partir de serveurs qui hébergent ces polices.
Pour analyser ce processus de plus près, il suffit de se rendre sur des sites de mesure de vitesse de page tels que GTmetrix ou Pingdom et de tester votre URL. Il y a de fortes chances que vous soyez surpris par le nombre de requêtes que votre site nécessite pour télécharger des fichiers de polices. Mais… attendez deux p’tites secondes… ces polices ne sont-elles pas transférées à partir d’un Google Cloud super méga rapide ?!!
Oui, les polices web sont fournies par le CDN de Google. Google a optimisé et continue d’optimiser ces fichiers pour un transfert plus rapide. Néanmoins, il s’agit de demandes supplémentaires de données supplémentaires dont la plupart des sites et blogs peuvent se passer. Les néo webmasters commencent souvent avec un hébergement mutualisé chez OVH, et souvent avec un ensemble de plugins redondants qui alourdissent les performances globales de leur site. Dans la plupart des cas, les fichiers de polices web ne font que s’ajouter à la masse.
La taille typique d’un fichier de police est de 35-50ko. Cependant, selon la façon dont votre site est développé, il peut nécessiter plusieurs fichiers de polices ou parfois, même un seul fichier de police peut atteindre un poids de quelques mégaoctets. Cela s’explique par le fait qu’un site peut utiliser plus d’une langue, nécessiter plusieurs formats de fichiers ou devoir être disponible en mode hors ligne. Parfois, les thèmes et les plugins qui utilisent les Google Web Fonts font plusieurs demandes pour la même ressource. Pire encore, votre site peut obliger un visiteur à télécharger des éléments qui ne sont jamais utilisés. La plupart du temps, les visiteurs de votre site peuvent se passer de tout cela.
Du coup, une question légitime que l’on pourrait se poser serait de savoir si la mise en cache avait un impact ? Un navigateur ne va-t-il pas stocker ces polices pour une utilisation ultérieure ? La réponse courte : pas tout.
La mise en cache du navigateur ne permet d’accélérer que les visites répétées, et non les premières visites. Pour les visiteurs réguliers, le webmaster du site a le pouvoir de définir la durée pendant laquelle le navigateur doit mettre en cache une ressource localement. Vous pouvez fixer une date d’expiration lointaine (d’un mois ou plus) pour les ressources statiques telles que les images, etc… mais pas pour tout ! En effet, pour les ressources fournies par des tiers, comme Facebook ou Google, le propriétaire du site n’a aucun contrôle. Leur date d’expiration est fixée par les sites qui les fournissent.
Alors que les fichiers de polices de base peuvent avoir une date d’expiration lointaine, les ressources de style liées aux polices ont une date d’expiration de seulement 24h00 en général. Ainsi, lorsqu’un fichier de police a été modifié et qu’un abonné email clique sur le lien d’une newsletter pour lire votre dernier article, ce visiteur fidèle devra télécharger à nouveau toute la police web requise. Inutile de dire que si votre abonné dispose d’une connexion internet pourrie, vous ne l’aidez pas.
Alors, pourquoi ne pas simplement fournir les polices à partir de votre site et de contrôler l’expiration du cache du navigateur ?
Les polices web étant OpenSource, vous pouvez les héberger localement sur votre site, réduire le nombre de requêtes HTTP et contrôler l’expiration du cache. Il existe des plugins gratuits pour vous aider à y parvenir. Toutefois, Google déconseille cette pratique. Cela m’amène à poser la question suivante : pourquoi Google adopterait-il une pratique aussi gourmande en termes de ressources, puis déconseillerait dans le même temps une solution permettant de consommer moins et d’optimiser les performances ?
La raison officielle invoquée par la firme de Mountain View est qu’il héberge et fournit les polices afin que vous ayez les plus récentes et les plus optimisées à disposition pour votre site web. Cependant, la vérité se cache peut-être ailleurs…
Quelques pays, comme la Chine, bloquent l’accès à aux serveurs Google, ce qui signifie que les sites utilisant les Google Fonts n’auront pas la même apparence partout dans le monde. De nombreuses autres personnes ont fait part de leurs inquiétudes quant à la confidentialité des données liées aux polices Google, en particulier dans le sillage de la mise en œuvre de la politique européenne RGPD. En effet, en fournissant la police de votre site, Google a un accès direct à ses entrailles. Pour vous faire une idée, jetez un œil à la quantité gargantuesque de données collectées par Google à travers ses polices en consultant les statistiques du site Google Font Analytics.
Les polices web représentent un pilier essentiel pour le secteur des éditeurs. La capture à grande échelle des données d’utilisation de ses polices peut potentiellement aider Google à créer un modèle freemium classant les polices gratuites et premium afin de convaincre les navigateurs (tels que Firefox, Safari ou Internet Explorer) d’inclure certaines de ces polices en tant qu’option native dans leurs futures versions. Autre possibilité, l’API Google Fonts pourrait suivre le chemin de l’API de Google Maps, qui exige désormais des propriétaires de sites qu’ils fournissent des informations de carte bancaire pour pouvoir l’utiliser.
Seulement ils sont bien malin : le code CSS prêt-à-utiliser que vous devez mettre dans votre code contient le lien du fichier de la police d’écriture qui se trouve sur leur serveur. Voilà la marche à suivre pour récupérer manuellement le fichier et le placer en local, chez vous.
Je vais faire l’exemple avec une police d’écriture au hasard.
Rendez-vous sur google.com/fonts. Choisissez la police que vous voulez, puis cliquez sur « quick-use » :
Descendez un peu en bas dans la page et récupérez le lien vers le fichier CSS :
Ouvrez ce lien dans votre navigateur.
Vous pouvez déjà copier tout le code dans votre CSS. Il suffit juste de récupérer le lien vers le fichier de la police (fichier .woff).
Téléchargez le fichier .woff et enregistrez le dans votre projet.
Il ne reste alors plus qu’à changer le lien de la police dans le code CSS, pour qu’il utilise le fichier .woff local et pas via le site de Google.
Voilà, c’est tout.
L’avantage d’avoir le fichier de la police chez soi :
Pas de traçage possible par Google
Votre site reste indépendant : si Google ferme son service (il le fera un jour) votre CSS fonctionnera quand même.Désavantages :
Le fichier de la police sera téléchargé depuis votre site, donc consommera votre bande passante.
Si un autre site web quelque part utilise la même police, le navigateur le téléchargera deux fois, alors qu’il ne le fait qu’une seule fois si les deux utilisent le service de Google.
Cette astuce s’inscrit dans ma politique d’un site 100% indépendant sur le plan technique. Il n’y a aucun fichier (image, script…) utilisé dans mes pages qui soit hébergé ailleurs que chez moi.
Le premier Clary connu est Jacques Clary, fils d'Antoine Clary et de Marguerite Canolle, qui épousa le 24 novembre 1690, en la paroisse Saint-Martin de Marseille, Catherine Barosse, fille d'Angelin Barosse, jardinier, et de Jeanne Pelissière. Un fils de Jacques, Joseph Clary (1693-1748) épousa à Marseille le 21 novembre 1724 Françoise-Agnès Amaurric, fille d'un chapelier, qui lui apporta une dot de 15 000 livres, dont 1 500 en robes et meubles et 13 500 en louis d'or. De ce mariage, naquit à Marseille, paroisse Saint-Ferréol, le 24 janvier 1725, François Clary. Historiens, journalistes et cinéastes ont contribué à répandre à son sujet les légendes les plus absurdes, faisant de lui un marchand de soieries, de savon. En réalité, après des débuts fort modestes dans la boutique de son père, il devint armateur, assureur maritime, puis négociant. Il envoyait aux "échelles" du Levant, du blé, des tissus et en ramenait du café-moka, des épices et des matières colorantes. Par un travail acharné, il put doter chacune de ses filles de 50 000 livres et sa fortune fut évaluée à sa mort à un million de livres, mais c'était en 1794 et une partie de ses créances fut réglée en assignats dépréciés.
François Clary avait épousé, en secondes noces, le 24 juin 1759, en la paroisse Saint-Ferréol Françoise Rose Somis, fille d'un ingénieur en chef du port de Marseille soeur du général et baron d'Empire Justinien-Victor Somis. François et Rose eurent plusieurs enfants. A la Révolution, compromis dans le mouvement fédéraliste de 1793, François vit son fils Etienne et son gendre Antoine d'Anthoine, époux de sa fille Marie-Rose et futur maire de Marseille, jetés en prison. Un autre de ses fils se suicida pour ne pas être arrêté. Lui-même, très abattu, mourut sans connaître la destinée royale qui sera réservée à ses deux filles, Marie Julie et Eugénie Désirée.
Marie Julie née à Marseille le 26 décembre 1771, devint reine de Naples de 1806 à 1808 puis d'Espagne de 1808 à 1813, après avoir épousé Joseph Bonaparte, frère de Napoléon à Cuges (les-Pins) le 1er août 1794. Femme forte de la famille, elle refusa de suivre son mari aux Etats-Unis, elle parcourut l'Europe avant de mourir à Florence le 7 avril 1845. Elle y est enterrée.
Cependant, c'est incontestablement le destin de Désirée, qui a marqué les imaginations. Bernardine Eugénie Désirée Clary est née à Marseille le 8 novembre 1777. Elle est d'abord courtisée par Joseph Bonaparte en 1794, qui reporte finalement son dévolu sur Marie Julie, la soeur de Désirée. Pendant ce temps, Désirée s'est fiancée officiellement avec le frère de Joseph, Napoléon Bonaparte, le 21 avril 1795. Mais le général Bonaparte est rappelé à Paris. Après avoir rencontré Joséphine de Beauharnais, le 15 octobre 1795, par le biais de son ami Paul Barras, Bonaparte renonce à ce projet de mariage.
Désirée épouse le 17 août 1798 à Sceaux le général Jean-Baptiste Bernadotte. Lorsque son époux est placé par Napoléon sur le trône de Suède le 21 août 1810, Désirée s'installe à Stockholm avec son fils Oscar né le 4 juillet 1799 (16 messidor an VII) à Paris. Au bout d'un mois, elle retourne s'installer seule à Paris. Elle ne revient en Suède que pour assister le 19 juin 1823 au mariage d'Oscar avec la princesse Joséphine de Leuchtenberg, fille d'Eugène de Beauharnais, Duc de Leuchtenberg, et petite-fille de l'Impératrice Joséphine de Beauharnais, première épouse de Napoléon.
Désirée fut par la suite, couronnée reine de Suède et de Norvège. Son mari, Jean-Baptiste, l'était depuis la mort du roi Charles XIII le 5 février 1818, sous le nom de Charles XIV Jean (Carl XIV Johan). Désirée devint reine sous le nom de Desideria. Elle ne quittera plus son royaume désormais, mais se tenant toutefois, à l'écart des obligations des souverains et en entretenant une correspondance abondante avec sa famille.
A la mort de son époux le 8 mars 1844, son fils accède au trône sous le nom d'Oscar Ier. Désirée (Desideria) meurt le 17 décembre 1860 à Stockholm à l'âge de 83 ans. Elle est inhumée dans la crypte située sous la chapelle Bernadotte de l'église de Riddarholmen à Stockholm.
Sa mère, Françoise Rose Somis, peut prétendre, au même titre que la reine Victoria, au surnom de Grand-mère de l'Europe. En effet, ses descendants se trouvent aujourd'hui sur les trônes de Suède, de Norvège, du Danemark, de Belgique et du Luxembourg.
Sources : L'almanach de la Provence - Collection Jacques Marseille - Pays et Terres de France, Wikipédia - l'encyclopédie libre et le site d'Histoire de la Fondation Napoléon.
Habiter dans un endroit où « il fait bon vivre » n'est-il pas la douce espérance de chacun ? Et donc une info « concernante » dans le langage des communicants. Ainsi, des « études » et « classements » des communes « où il fait bon vivre », se diffusent régulièrement dans la presse. Et certains en ont fait profession.
On peut s'intéresser au tout dernier publié, le 11 avril dans le Journal du Dimanche. Celui-ci est un « palmarès établi par l'association Villes et villages où il fait bon vivre » indique le média. Quelle est cette association loi 1901, c'est-à-dire une structure dont l'objet doit être à un but non lucratif ?
Son site internet n'est pas très disert sur sa vie associative et son nombre d'adhérents, mais indique que l'association est « présidée par Thierry Saussez, créateur du Printemps de l’optimisme ». Les mentions légales précisent que le siège social de l'association est situé au 7, rue Laurin à Rueil-Malmaison et que le directeur de la publication du site est Alexandre Saussez. Soit le fils de Thierry Saussez (lien vers son autobiographie). Thierry Saussez est un spécialiste de la communication politique, surnommé par le milieu professionnel « le Jacques Séguéla de droite », et l'ancien responsable du système d'information du gouvernement (SIG) sous la présidence de Nicolas Sarkozy.
Ces présentations faites, comment est établi le « classement des Villes et villages où il fait bon vivre » ?
Un bon point sur la transparence d'abord, tous les éléments pour analyser la situation sont contenus dans les documents mis à disposition sur le google drive de l'association.
L'association explique qu'il est « construit sur les priorités des Français, de nouveau consultés par un sondage exclusif OpinionWay ». Ce « Sondage OpinionWay pour Le Printemps de l’Optimisme » (mention légale) est un sondage auto-administré en ligne, c'est-à-dire rempli de façon autonome par les personnes interrogées, sans assistance d'un enquêteur. Il mentionne l'interrogation « d’un échantillon de 1.010 personnes représentatif de la population française âgée de 18 ans et plus » Les répondants étaient payés (incentives légalement parlant) ou « pouvaient faire don à une association ».
La société OpinionWay crédite son sondage de « marges d'incertitude de 1,5 à 3 points au plus ».
Ce sondage classe les 8 critères qui étaient proposés (plusieurs réponses possibles en même temps, mais dans cette liste limitée) dans cet ordre d'importante : la qualité de vie ; la sécurité ; le commerce ; les transports ; la santé ; l'éducation ; la solidarité ; les sports et loisirs.
S'il est indiqué que ces huit critères majeurs et leur classement « pondèrent » les notes ensuite basées sur 183 types de données venues de l'Insee et d'organismes publics, la formule de calcul précise de cette « pondération » n'est pas explicitée.
En revanche, la prime aux plus faibles kilométrages est très explicite. Pour tous les critères d'accès à des infrastructures, services ou loisirs, la note de chaque commune dépend directement d'une tranche de distance : 100 points, soit le maximum, si l'équipement est dans la ville ; 0 s'il se situe à plus de 15 km, 30 km ou 60 km (équipements plus rares, comme les aéroports).
Joli biais de raisonnement donc de résultats ? On peut le penser en observant que le « classement » distingue 45 villages de Moselle et aucun en Creuse. Ou encore que toutes les zones montagneuses de France semblent – à l'exception des belles d'en bas comme Annecy – ne pas être des lieux « où il fait bon vivre ».
On notera d'ailleurs que les associations d'élus ruraux, lorsqu'elles se penchent sur les questions de leurs équipements, raisonnent non en kilomètres, mais en temps de parcours pour les habitants.
Ces incohérences pourraient simplement faire sourire et sont, c'est vrai, l'apanage de toute tentative de classement de milliers de communes sur N facteurs. Mais d'autres éléments dans la démarche sont curieux.
L'association – jusqu'ici on parle encore d'elle – promet aux mieux notés d'intégrer « un cercle fermé de territoires distingués sur les 34.837 communes de France métropolitaine, qui, grâce à leur excellence dans les thématiques importantes aux Français, sont éligibles pour exploiter le label des villes et villages où il fait bon vivre. » Rien que ça ! Et comment « exploiter » un tel honneur ? Très simplement en payant une cotisation, via le mandat et le RIB fourni. À l'association « Villes et villages où il fait bon vivre » ? Non. À la société Taléus, « spécialiste » des systèmes d'informations, des bureaux informatiques virtuels et propriété d'Alexandre Saussez. Ceci dit, le chèque du petit village ne sera pas perdu, l'adresse de ladite société privée étant le 7, rue Laurin à Rueil-Malmaison.
Pour en savoir plus sur le Printemps de l'optimisme et ses actions, il est aussi possible de parcourir son site internet, dont la communication a été confiée à une autre société « experte ». L'agence AS-Tek, domiciliée au 7, rue Laurin à Rueil-Malmaison, et qui appartient à... Alexandre Saussez.
Simple citoyen, entrepreneurs, collectivités, vous souhaitez utiliser les statistiques pour analyser votre territoire, ses forces et faiblesses, et vous comparez à d'autres territoires comparables ? En vertu des lois sur la transparence, tous les organismes de l'État et, une foule d'autres acteurs publics, donnent librement et gratuitement accès à leurs données. Parmi les plus faciles à utiliser, le comparateur de territoire des statistiques locales de l'Insee et la plateforme de ressources data.gouv.fr.
Julien Bigay
Nous avons généralement appris à l’école que l’Amérique avait reçu son nom à la Renaissance, en hommage au navigateur florentin Amerigo Vespucci. Il est ainsi communément admis qu’un groupe d’érudits de Saint-Dié-des-Vosges, gravitant dans l’entourage du duc René II de Lorraine, aurait décidé en 1507 de forger le mot « America ». Ces savants humanistes, guidés par le chanoine Vautrin Lud, seraient partis du postulat que Vespucci avait été le premier à prendre conscience que les terres ouvertes à la connaissance des Européens à la fin du XVe siècle n’étaient pas une partie inconnue de l’Asie, mais un « Nouveau Monde ». Il convenait dès lors de nommer ces terres nouvelles.
Allégorie du voyage d'Amerigo Vespucci vers les Amériques, Estampe, 1589. Musée du Nouveau Monde, La Rochelle
Cette explication fait généralement consensus (tout en suscitant de nombreuses indignations) depuis la mort de Vespucci lui-même, alors que ce dernier n’a sans doute jamais eu conscience que son prénom avait été donné à une partie des terres nouvelles qu’il avait explorées à plusieurs reprises au tournant du XVIᵉ siècle.
Pourtant, depuis le dernier tiers du XIXe siècle, certains auteurs ont cherché à prouver que la filiation supposée entre le prénom de Vespucci et la dénomination du Nouveau Monde n’était qu’une grossière confusion. Usant d’arguments très variés, et surtout de motivations diverses, ils ont redoublé d’efforts pour faire admettre à la communauté historienne internationale, mais aussi au grand public que le nom de l’Amérique avait une tout autre provenance que celle qui était le plus communément admise.
C’est en particulier au début des années 1890, dans le contexte particulier du quatrième centenaire du premier voyage de Christophe Colomb (1892-93) et de l’approche de l’Exposition universelle de Chicago (ou World Columbian Exposition), que la polémique autour de l’origine du nom de l’Amérique connaît un certain essor.
On note une effervescence intellectuelle autour du mot « Amérique ». Certaines théories sont échafaudées pour tenter de prouver que ce mot n’est pas d’origine européenne, mais qu’il aurait au contraire une provenance indigène. C’est en particulier Jules Marcou, un Jurassien résidant à Cambridge (Massachusetts), qui se fait pendant deux décennies le héraut de cette théorie, à travers ses ouvrages et ses articles.
Brillant géologue, ami intime de Louis Pasteur avec qui il a partagé les bancs du lycée, il est parti aux États-Unis en 1848, s’est marié avec la fille d’un riche américain en 1850, le mettant ainsi à l’abri des contingences matérielles et lui permettant de se consacrer exclusivement à ses recherches. Il est connu pour s’être fait beaucoup d’ennemis et avoir émis des théories très controversées dans de nombreux domaines.
Carte géologique des États-Unis et des possessions britanniques de l’Amérique du Nord, d’après Jules Marcou. Gallica-BnF
Sur la question spécifique du nom de l’Amérique, il cherche à prouver que ce nom proviendrait d’une chaîne de montagnes appelée Amerrique ou Amerriques, située entre le lac Nicaragua et la mer des Antilles. La région serait habitée par une tribu d’Indiens nommée Amerriques. En langue Maya, ce nom signifierait « le pays du vent », « le pays où le vent souffle toujours ». Ayant entendu ce nom lors de l’une de ses explorations, Vespucci (qui se serait prénommé en réalité Alberico), aurait alors choisi de modifier son prénom en hommage à ces contrées sauvages.
Ces remises en cause ont été fort discutées lors de la huitième session du Congrès des Américanistes en octobre 1890 à Paris. Les conclusions en furent sans appel, réfutant totalement les conclusions de Marcou et d’autres chercheurs. Ainsi, le géographe Lucien Gallois, spécialiste de la cartographie de la Renaissance et disciple de Paul Vidal de la Blache, considère que la théorie de Jules Marcou manque de solidité et ne peut être acceptée en l’état.
Il faut dire que, pour les savants et politiques de l’ancien et du nouveau monde, l’enjeu est alors de taille. Il s’agit de savoir si l’Amérique a un nom de baptême d’origine européenne ou indigène. Si les théories de Marcou ont été réfutées assez facilement en raison de leur manque de solidité et du manque de preuves pour les étayer, cette polémique a montré qu’il existait alors un enjeu identitaire fort autour de la captation de ce nom. En effet, dans les années 1890, les États-Unis ont achevé de panser les plaies de la guerre de Sécession et sont en passe de devenir une grande puissance.
Déjà devenus la première puissance industrielle du monde, ils sont au seuil de devenir également un empire. La doctrine Monroe, élaborée en 1823, connaît alors une nouvelle lecture nationaliste, que l’on résume parfois par l’expression « l’Amérique aux Américains ». Les États-Unis ont, depuis leur indépendance, progressivement capté à leur profit le nom qui devrait normalement échoir au continent dans son ensemble, America.
Or, la question de savoir si ce nom est un toponyme originaire du Nouveau Monde ou bien s’il est un avatar dérivé du nom d’un obscur Florentin, considéré qui plus est comme un imposteur par des générations d’auteurs, est tout à fait centrale dans la construction de l’identité nationale états-unienne.
C’est pourquoi des médias américains et européens se font régulièrement l’écho, tout au long du XXe siècle, de nouvelles théories essayant de renouveler l’approche du sujet. Ainsi, en 1908, l’antiquaire de Bristol Alfred Hudd publie un article dans lequel il affirme que le nom de l’Amérique proviendrait en fait de Richard Ap Meyrick, sheriff de cette ville du sud-ouest de l’Angleterre au début du XVIe siècle et qui avait contribué financièrement aux voyages de Jean et Sébastien Cabot. Pour le remercier, ces derniers auraient décidé de donner son patronyme à l’étendue continentale sur laquelle ils avaient accosté. Cette théorie, qu’aucune étude historique sérieuse n’est venue valider, a pourtant été largement relayée depuis lors, en particulier au Royaume-Uni où l’idée que le nom de l’Amérique ait pu être originaire de Bristol s’avère séduisante.
En octobre 2019, c’est le Guardian qui publie dans son courrier des lecteurs une autre explication. Selon Colin Moffat, c’est bien Colomb qui est à l’origine du nom America. Au cours de son voyage en Islande en 1477-1478, il aurait entendu parler d’une terre nommée « Markland ». Pour convaincre les Rois Catholiques de financer son expédition, il leur aurait parlé de cette terre pleine de promesses en hispanisant son nom : ajoutant le préfixe A, puis remplaçant « land » par « -ia », « Markland » serait devenu « Amarkia », puis « America ». Peu de temps après cette explication aussi alternative qu’iconoclaste, le Guardian n’a pas tardé à publier un nouvel article contestant les propos de M. Moffat et redonnant à Vespucci la place qui est la sienne dans le panthéon des figures de l’ère des découvertes européennes.
Une telle polémique, qui pourrait prêter à sourire, montre que la question des origines du nom de l’Amérique demeure une histoire vivante et discutée, même si les arguments avancés par ceux qui rejettent la version la plus couramment admise sont rarement étayés par des preuves convaincantes. Depuis les travaux de Jules Marcou à la fin du XIXe siècle, et quelles que soient les motivations qui sous-tendent ces contestations, personne n’a jamais pu apporter la preuve irréfutable que Saint-Dié-des-Vosges ne pouvait pas réellement prétendre au statut de « marraine de l’Amérique », pour avoir abrité les travaux ayant abouti au « baptême » du Nouveau Monde en 1507.
Saisi en urgence par un particulier, le Conseil d’État précise que les préfets ne peuvent imposer le port du masque en extérieur qu’à certaines conditions : il doit être limité aux lieux et aux heures de forte circulation de population quand la distanciation physique n’est pas possible, et uniquement si la situation épidémiologique locale le justifie. Mais le préfet peut délimiter des zones suffisamment larges pour que la règle soit compréhensible et son application cohérente.
Un particulier a saisi le juge des référés du Conseil d’État pour qu’il ordonne la suspension de la décision par laquelle le Premier ministre a donné instruction aux préfets de mettre en œuvre l’obligation de port du masque en extérieur. Le juge des référés du Conseil d’État, statuant en formation collégiale, relève d’abord que la possibilité de mettre en œuvre cette obligation est prévue par le décret du 1er juin 2021.
Le juge des référés du Conseil d’État précise toutefois dans quelles conditions le masque peut être légalement imposé en extérieur. Tout d’abord, il faut que la situation épidémiologique locale le justifie. Ensuite, le port du masque doit être limité aux lieux et aux heures de forte circulation de population ne permettant pas d’assurer la distanciation physique, ainsi qu’aux lieux où les personnes sont amenées à se regrouper (tels que les marchés, les rassemblements sur la voie publique ou les centres-villes commerçants). Les périodes horaires doivent aussi être appropriées aux risques identifiés. En effet, bien que le risque de contamination au covid-19 soit plus faible en plein air, il n’est pas manifestement exclu par les recommandations scientifiques qu’une contamination se produise en extérieur lorsqu’il existe une forte concentration de personnes.
Cependant le préfet peut délimiter des zones d’obligation de port du masque suffisamment larges pour que sa mise en œuvre soit compréhensible et cohérente.
Le juge des référés du Conseil d’État rappelle que le Premier ministre devra tenir compte des éventuelles évolutions des connaissances scientifiques pour adapter si besoin ses instructions aux préfets, voire de mettre fin à cette obligation si l’utilité du port du masque n’était plus établie.
Compte tenu de ces éléments, le juge des référés du Conseil d’État rejette la demande de suspension de la décision du Premier ministre.
[Décision de justice]
Saisi en urgence par un particulier, le Conseil d’État précise que les préfets ne peuvent imposer le port du masque en extérieur qu’à certaines conditions : il doit être limité aux lieux et aux heures de forte circulation de population quand la distanciation physique n’est pas possible, et uniquement si la situation épidémiologique locale le justifie. Mais le préfet peut délimiter des zones suffisamment larges pour que la règle soit compréhensible et son application cohérente.
Un particulier a saisi le juge des référés du Conseil d’État pour qu’il ordonne la suspension de la décision par laquelle le Premier ministre a donné instruction aux préfets de mettre en œuvre l’obligation de port du masque en extérieur. Le juge des référés du Conseil d’État, statuant en formation collégiale, relève d’abord que la possibilité de mettre en œuvre cette obligation est prévue par le décret du 1er juin 2021.
Le juge des référés du Conseil d’État précise toutefois dans quelles conditions le masque peut être légalement imposé en extérieur. Tout d’abord, il faut que la situation épidémiologique locale le justifie. Ensuite, le port du masque doit être limité aux lieux et aux heures de forte circulation de population ne permettant pas d’assurer la distanciation physique, ainsi qu’aux lieux où les personnes sont amenées à se regrouper (tels que les marchés, les rassemblements sur la voie publique ou les centres-villes commerçants). Les périodes horaires doivent aussi être appropriées aux risques identifiés. En effet, bien que le risque de contamination au covid-19 soit plus faible en plein air, il n’est pas manifestement exclu par les recommandations scientifiques qu’une contamination se produise en extérieur lorsqu’il existe une forte concentration de personnes.
Cependant le préfet peut délimiter des zones d’obligation de port du masque suffisamment larges pour que sa mise en œuvre soit compréhensible et cohérente.
Le juge des référés du Conseil d’État rappelle que le Premier ministre devra tenir compte des éventuelles évolutions des connaissances scientifiques pour adapter si besoin ses instructions aux préfets, voire de mettre fin à cette obligation si l’utilité du port du masque n’était plus établie.
Compte tenu de ces éléments, le juge des référés du Conseil d’État rejette la demande de suspension de la décision du Premier ministre.
Décision n° 460002 du 11 janvier 2022
Aujourd’hui, les enseignants – mais aussi les AED, les AVS, les AESH, les CPE, dont on ne parle pas assez – font grève pour dénoncer la manière dont leur ministre, Jean-Michel Blanquer, les traite depuis presque cinq ans. La gestion catastrophique du COVID n’est que l’apogée dans une destruction planifiée de l’école publique, qui, à coups de mensonges et de mépris, épuise les personnels et accroît les inégalités entre élèves. Pour l’occasion, on republie cet article écrit en juin 2019, à l’occasion d’une autre grève (contre le même ministre).
Nous sommes en 1229, à Paris. Dans cette ville, alors la plus peuplée d’Occident, une nouvelle institution tente de trouver sa place : l’université. Apparue au milieu du XIIe siècle, elle a été officiellement reconnue par le roi en 1200 et par le pape en 1215. Spécialisée dans la théologie, discipline reine du cursus scolaire à l’époque, elle attire tellement d’étudiants, venus de tous les coins de la chrétienté occidentale, que le quartier qui l’entoure finira par être appelé le quartier latin. Ces étudiants sont souvent très turbulents, d’où de nombreux heurts, parfois très violents, avec la police.
En mars 1229, suite à une soirée trop arrosée, plusieurs étudiants saccagent une taverne. En répression, les gardes de Paris tuent plusieurs étudiants. Or, ceux-ci sont des clercs, car l’université est une institution religieuse, et traditionnellement les clercs ne peuvent être jugés et punis que par l’Eglise (c’est ce qu’on appelle le privilège du for ecclésiastique).
Les maîtres de l’université de Paris prennent très au sérieux cette agression : permettre aux gens d’armes laïcs de s’en prendre aux étudiants clercs, c’est menacer la place et l’autonomie de l’université. Comme le note le chroniqueur anglais Matthieu Paris, il s’agit d’un « énorme abus d’autorité ». Aussi les maîtres décident-ils de recourir à une pratique nouvelle : la grève.
Le lendemain de l’exécution de plusieurs étudiants, les professeurs arrêtent de faire cours. Tous. D’un seul coup. Une délégation de maîtres va trouver la reine et régente Blanche de Castille et demande justice : mais elle refuse. Vingt-et-un maîtres, élus par leurs pairs, signent alors une déclaration : ils expliquent qu’ils vont arrêter les cours et quitter la ville pendant les six prochaines années, en punition.
Surtout, ils rappellent qu’ils feront en sorte d’interdire que d’autres enseignent à Paris pendant ce temps-là, « ni en privé ni en public ». Le but n’est pas d’être remplacé mais bien de paralyser l’activité de l’université parisienne. Face à ce beau coup de force, on ignore par contre si Blanche de Castille a parlé de « prise d’otages »…
Finalement, la grève ne dure que deux ans. Le pape Grégoire IX, lui-même passé par l’université de Paris, s’emploie à réconcilier les maîtres et le pouvoir royal. En 1231, dans la bulle Parens Scientiarum, il confirme l’autonomie de l’université et, surtout, reconnaît que la grève est une pratique légale. Les maîtres ont le droit de suspendre leurs cours et de « disperser » leurs élèves dès qu’ils sont confrontés à un ensemble de menaces que la bulle détaille avec soin. Pendant plusieurs siècles, la grève reste une arme puissante, capable de faire céder le pouvoir royal et de le forcer à respecter les privilèges universitaires.
Il faut dire que la grève a un énorme impact. Elle envoie d’abord un message symbolique, car le pouvoir royal s’enorgueillit du prestige de l’université parisienne. Matthieu Paris écrit que « Paris demeura privée des clercs qui faisaient sa gloire ». Et c’est d’autant plus terrible que cela profite à des rivaux de la royauté française : le roi d’Angleterre ou le comte de Toulouse se frottent les mains et font tout pour attirer les étudiants et les professeurs dans leurs universités à eux.
En outre, les conséquences économiques sont évidentes. Des milliers d’étudiants quittent la ville, pour retourner chez eux ou pour rejoindre une autre université : Reims, Toulouse, ou la toute nouvelle Oxford. Or ces étudiants jouent un rôle essentiel dans l’économie urbaine : ils consomment, se logent, font tourner tavernes, libraires et bordels. Il s’agit donc d’une perte sèche pour la ville. Et on peut imaginer que pendant deux ans, la reine a dû recevoir des demandes de la part des artisans urbains réclamant le retour de ces si profitables clients…
Comme aujourd’hui, la grève pose un défi de communication. Aujourd’hui, les profs en grève, à défaut d’être présentés sur les médias installés, investissent les réseaux sociaux pour alerter sur la façon dont le bac a été corrigé autour du hashtag #ChaosBlanquer. A l’époque, on trouve d’autres formats pour expliquer les raisons de la grève. Eudes de Châteauroux, maître en théologie, s’adresse ainsi à la population parisienne dans un sermon extrêmement violent. Selon lui, le pouvoir royal a trahi l’université en massacrant des étudiants : bien plus, il s’en prend à l’Église elle-même. Il s’agit d’arguments puissants, à même d’attiser les émotions populaires pour que la foule soutienne la cause des grévistes. On ne sait pas vraiment cependant si cela a fonctionné ou non : comme souvent, on ignore la réaction des auditeurs face à ce beau discours, chef d’œuvre de la rhétorique prédicatoire de l’époque. Aujourd’hui, les profs tentent également de mobiliser la population, en employant des mots aussi forts que « justice », « égalité de traitement », « consignes illégales » : l’absence quasi-totale de réaction des principaux médias est, par contraste, assez inquiétante.
Évidemment, cette grève médiévale n’a guère à voir avec la grève des profs d’aujourd’hui. Les profs du secondaire ne sont pas les maîtres de l’université médiévale : ils sont à la fois beaucoup plus nombreux et beaucoup plus divers (sociologiquement, politiquement, etc.), comme le sont les élèves contemporains par rapport aux étudiants du XIIIe siècle. La grève contemporaine n’est même pas réellement l’héritière de la grève médiévale des universitaires, plutôt de celles des ouvriers du XIXe siècle. Cependant, même si les enjeux comme les modalités sont bien différents, on relève un certain nombre de points communs. Dans les deux cas, il s’agit bien de s’opposer au pouvoir politique, au nom d’une certaine vision de l’institution éducative : l’université autonome, d’un côté ; l’école publique visant la réussite de tous, de l’autre. Dans les deux cas, l’enjeu est également le rapport à l’Etat : la grève est une façon de refuser la soumission aveugle, pour rappeler que l’avis des professeurs, premiers spécialistes de l’éducation, doit être pris en compte.
La grève de 1229 réussit, après un long bras de fer. Celle de 2019 échoue, face à la violence du pouvoir, tant réelle que symbolique. Les maîtres médiévaux pouvaient, en dernier recours, quitter la ville. Faudra-t-il un exil généralisé de tous les profs de France pour que l’on réalise l’état dans lequel se trouve actuellement l’éducation nationale… ?
Pour en savoir plus
Les nouveaux programmes scolaires, censés entrer en vigueur en 2016, font la part belle à un jargon «pédagogiste» ravivé. Un paradoxe alors qu'ils sont présentés par le Conseil supérieur des programmes comme «plus simples et plus lisibles».
Se déplacer (…) dans un milieu aquatique profond standardisé. (Page 22, cycle 4)
Le «milieu aquatique profond» est tout simplement… une piscine. Ce type de jargon foisonne dans les programmes d'éducation physique et sportive (EPS), une des disciplines scolaires les plus récentes (1981). Pourquoi faire simple quand on peut faire compliqué?
«Créer de la vitesse» et «traverser l'eau en équilibre horizontal par immersion prolongée de la tête». (Page 22, cycle 4)
Toujours en EPS, discipline friande de termes pédants, «créer de la vitesse» signifie «courir», tandis que «traverser l'eau en équilibre horizontal» signifie nager. Et comment appelle-t-on un plongeon?
«Produire des messages à l'oral et à l'écrit» en histoire-géographie. (Page 5 du cycle 4)
Le collégien à la sauce 2016 n'aura plus besoin de rédiger un devoir ou de répondre verbalement à une question de son professeur. Il se contentera de «produire des messages» écrits ou oraux. En «montrant un raisonnementconstruit».Tout de même…
«Aller de soi et de l'ici vers l'autre et l'ailleurs». (Page 17, cycle 4)
La «visée générale» des programmes de «langues étrangères et régionales» est d'«aller de soi et de l'ici vers l'autre et l'ailleurs». Cette visée se veut poétique mais semble un rien prétentieuse. Il est possible que beaucoup se perdent en chemin.
L'éducation aux médias est mise en œuvre, et organisée de façon spiralaire. (Page 53, cycle 4)
Selon Sylvie Queval, philosophe de l'éducation, la notion de pédagogie «spiralaire», inventée en 1960, a «vite rencontré un large écho chez les pédagogues, qui trouvent dans la métaphore de la spirale une façon juste d'exprimer qu'apprendre est un processus continu qui suppose une reprise constante de ce qui est déjà acquis». À en perdre l'équilibre.
C’est une question classique, que je n’avais pas encore traitée ici. C’est en faisant un autre article sur un autre sujet que je m’en suis rendu compte, et c’est donc l’occasion de l’écrire.
Ciel bleu image de Artem Pechenkin
Déjà, non, le ciel n’est pas bleu à cause d’un pigment. L’univers et le ciel nocturne, sont essentiellement noirs à cause de l’absence de lumière. Là où il n’y a pas d’étoiles pour émettre de la lumière, il n’y a pas de lumière (visible en tout cas) et c’est donc noir.
Le bleu n’est pas non plus la couleur intrinsèque de l’air : l’air, et le dioxygène gazeux, sont transparents.
Le dioxygène liquide est en revanche légèrement bleuté, et l’ozone — ou trioxygène — liquide est lui d’un bleu foncé intense, mais leurs versions gazeuses ne sont pas colorées.
L’origine de la couleur bleue du ciel n’est donc pas pigmentaire (l’atmosphère n’est pas bleue « par nature »), mais d’origine entièrement physique.
À l’instar des plumes de paon, des bijoux à cristaux liquides, ou encore la couleur de l’or, la couleur bleutée du ciel est d’origine physique.
Dans ces exemples, les différentes longueurs d’ondes, ou couleurs, de la lumière du soleil ne sont pas absorbées et filtrées comme c’est le cas avec un pigment coloré. Elles sont annulées ou amplifiées par interférence, déviées ou partiellement réfléchies.
Dans le cas du ciel, les couleurs formant la lumière blanche sont déviées. On dit aussi diffusées. En l’occurrence, il s’agit de la diffusion de Rayleigh.
Cette diffusion se fait quand l’atome se trouve sur la trajectoire d’un rayon lumineux. L’onde, qui n’est autre qu’une oscillation périodique du champ électrique et magnétique local, provoque une oscillation des nuages d’électrons des atomes qu’elle rencontre.
En somme : les atomes sur la trajectoire de l’onde sont mis en vibration. Les atomes, pour se désexciter, vont rayonner une onde dans toutes les directions :
Principe de la diffusion de Rayleigh
Avec la diffusion de Rayleigh, l’onde émise a la même longueur d’onde que l’onde incidente (la diffusion est élastique). La couleur ne change donc pas, seule la direction de l’onde est modifiée ; et comme elle va d’une seule direction à plusieurs, on dit qu’elle est diffusée.
Toutes les longueurs d’onde sont diffusées, mais pour la diffusion de Rayleigh, l’effet est d’autant plus prononcé que la longueur d’onde est courte.
Il s’agit d’une action de la matière sur la lumière, et c’est ceci qui permet d’agir sur des couleurs précises même sans qu’il n’y ait des pigments en jeu.
La diffusion de Rayleigh a lieu dans le ciel et ce phénomène dépend de la longueur d’onde. Si la lumière incidente est blanche, et donc composée de toutes les longueurs d’onde, les courtes longueurs d’onde (violet, bleu…) vont être nettement plus diffusées que les grandes longueurs d’onde (rouge, jaune…).
Depuis le sol, ce qu’on observe est donc :
de la lumière rouge, jaune, orange qui provient directement de la source lumineuse (le soleil)
de la lumière bleue, violette, qui provient de partout, vu que l’atmosphère la diffuse un peu partout.
La diffusion de Rayleigh diffuse les courtes longueurs d’onde beaucoup plus que les grandes longueurs d’onde
Si vous voulez une petite analogie, considérez une forêt avec des arbres, des arbustes et des brindilles. Ce sont les atomes. Considérez également des boulets de canon, des ballons de football et des balles de ping-pong.
Si vous envoyez un boulet de canon dans la forêt, ce dernier ira essentiellement tout droit : traversant les brindilles, les arbustes et même les arbres. Ils ne sont pas déviés, pas diffusés.
Les ballons de football, quant à eux, sont déviés par les arbres mais arrivent à repousser les petits arbustes et les brindilles sans changer de direction. Au final, ils ne sont que peu déviés.
Les balles de ping-pong, en revanche, sont tellement légères qu’elles sont déviées par les moindres brindilles et rebondissent dessus et finissent envoyées partout en rebondissant dans toutes les directions.
En supposant que la forêt soit en pente, quelqu’un situé en bas pourra voir précisément d’où viennent les boulets de canon en regardant leur trajectoire. Les boulets n’étant pas déviés, leur trajectoire rectiligne prend obligatoirement naissance à leur source, le canon.
Les balles de ping-pong proviennent, vues d’en bas, de tous les côtés. Il sera très difficile de remonter à leur source simplement en regardant où elles tombent !
Dans le cas du ciel, c’est un peu pareil : le bleu est diffusé partout dans le ciel et chaque molécule de l’air nous en envoie un peu : le ciel nous apparaît donc clairement bleu.
Les couleurs de longueur d’onde plus grandes, moins déviées, ne proviennent-elles que de la source : c’est pour ça que le soleil nous apparaît jaune orangé.
De ce qui précède, quelques questions peuvent être posées.
Si la diffusion de Rayleigh diffuse d’autant plus que les longueurs d’onde sont petites, le violet devrait être encore plus diffusé que le bleu. Pourquoi le ciel n’est donc pas violet ?
Dans les faits, le violet est dévié, et bien plus encore que le bleu. L’astuce ici c’est que, bien que le violet fasse effectivement partie du spectre solaire, notre étoile émet nettement moins de violet que de bleu.
Ces très courtes longueurs d’onde ne sont pas très présentes dans la lumière Soleil. D’ailleurs, le pic dans le spectre, c’est-à-dire la longueur d’onde la plus émise dans le spectre solaire, est le vert. Il y a donc plus de vert que de bleu, que de violet, et même de rouge ou d’orange. On ne le voit cependant pas, car le mélange que l’on perçoit est globalement blanc, ou jaune, au niveau du sol.
Si le soleil était beaucoup plus chaud au point d’émettre davantage de violet que de bleu, le ciel serait bleu violacé.
D’ailleurs, les ultraviolets, dont la longueur d’onde est encore plus courte, sont tellement diffusés que les images des caméras UV sont naturellement floues à cause de ça, même pour un paysage pas trop éloigné.
La lumière que le Soleil émet est blanche. On le voit très bien sur les photos prises depuis l’espace, sans les effets filtrants de l’atmosphère.
Vu du sol, le bleu est diffusé et ce qui nous provient directement du Soleil est donc du blanc, moins le bleu, donc globalement du rouge, du jaune, et du vert, ce qui fait bien du jaune.
Quand le Soleil est couchant (ou levant), il se situe proche de l’horizon. La couche d’air que la lumière traverse est alors bien plus épaisse que si le soleil est à son point de culmination dans le ciel.
Dans ces conditions, même la faible déviation des longueurs d’onde que sont le vert, le jaune, le rouge finit par se voir. Le vert et le jaune sont également diffusés partout (le ciel semble plus turquoise) et seul le rouge et l’orange proviennent encore directement du Soleil dans le ciel : le Soleil couchant est alors rouge.
Sous certaines conditions, quand le ciel est particulièrement pollué (pollen, poussière, pollution, eau…), ou si l’horizon est très dégagé et loin, le rouge commence également à être diffusé de façon notable. Le ciel est dès lors entièrement rougeoyant.
Le coucher du Soleil peut par ailleurs être sujet au phénomène du rayon vert, lié à la diffusion de Rayleigh et à la diffraction, voyez mon article dédié.
Pour conclure, le ciel est bleu, car l’atmosphère diffuse le bleu de la lumière solaire nettement plus que les autres couleurs. Le bleu est donc comme étalé dans tout le ciel, alors que le vert, le jaune ou le rouge ne le sont pas (ou alors beaucoup moins).
Vu du sol, la lumière bleue nous arrive de partout, de tout le ciel, et le jaune/rouge nous provient seulement de l’endroit où apparaît le Soleil. Le ciel nous apparaît donc bleu et le Soleil davantage jaune que blanc.
Cette forme de diffusion, appelée diffusée de Rayleigh provient de l’interaction des rayons lumineux avec les molécules de l’air, qui absorbent la lumière, vibrent, puis la renvoient dans tous les sens.
Le ciel n’est pas le seul endroit où l’on rencontre cette forme de diffusion. L’aérogel, une mousse solide très légère, ou certaines pierres fines comme les opales présentent également une couleur bleutée caractéristique à cause de cela.
L’utilisation de Google Analytics viole le droit européen, juge l’autorité autrichienne de protection des données. L’autorité autrichienne de protection des données a décidé que l’utilisation de Google Analytics violait le règlement général sur la protection des données (RGPD). D’autres États membres de l’UE pourraient lui emboîter le pas, car les régulateurs coopèrent étroitement au sein d’une cellule spéciale du Comité européen de la protection des données.
La décision est fondée sur un certain nombre de plaintes déposées par l’ONG autrichienne noyb à la suite de l’arrêt « Schrems II » de la Cour de justice de l’Union européenne. La CJUE a jugé que l’accord de transfert de données entre les États-Unis et l’Union européenne, le « Privacy Shield », n’était pas conforme à la législation européenne sur la protection des données et a annulé l’accord en 2020, ce qui a rendu illégaux la plupart des transferts de données vers les États-Unis.
Toutefois, Google a partiellement ignoré cette décision. Au cours de la procédure, le géant de la technologie a admis que « toutes les données collectées par Google Analytics […] sont hébergées (c’est-à-dire stockées et traitées ultérieurement) aux États-Unis », ce qui inclut les utilisateurs européens.
Comme de nombreuses entreprises de l’UE utilisent Google Analytics, beaucoup ont transmis leurs données à Google, permettant ainsi que leurs données soient traitées aux États-Unis.
L’autorité autrichienne de protection des données vient de décider que ce comportement constitue une violation de la législation européenne.
« Au lieu d’adapter les services pour qu’ils soient conformes au RGPD, les entreprises américaines ont essayé d’ajouter simplement un texte à leurs politiques de confidentialité et d’ignorer la Cour de justice. De nombreuses entreprises de l’UE ont suivi le mouvement au lieu de se tourner vers des options légales », a déclaré Max Schrems, président honoraire de noyb, dans un communiqué.
« Cela fait maintenant un an et demi que la Cour de justice l’a confirmé une deuxième fois, il est donc plus que temps que la loi soit également appliquée », a ajouté M. Schrems.
La décision des autorités autrichiennes n’est que la première des 101 plaintes que noyb a déposées dans presque tous les pays de l’UE. L’ONG s’attend à ce que « des décisions similaires tombent progressivement dans la plupart des États membres de l’UE », a déclaré M. Schrems.
Mardi, le contrôleur européen de la protection des données a déjà rendu une décision similaire, soulignant que l’utilisation de Google Analytics par le Parlement européen violait le RGPD.
(Oliver Noyan | EURACTIV Allemagne)
A partir de mai 2022, les voitures neuves devront être équipées d'une boîte noire enregistrant les paramètres de conduite. Les données collectées seront anonymes mais pourront servir à la police en cas d'accident.
"Big Brother is watching your car !" Non, il ne s'agit pas de la suite automobile de 1984 de Georges Orwell mais bien d'une nouvelle loi européenne visant à rendre obligatoire de nombreux équipements sur les voitures neuves dès mai 2022 (mai 2024 pour les véhicules neufs homologués avant juillet 2022.). Parmi eux, la tant décriée boîte noire, autrement dit un enregistreur de données capable de récolter les paramètres de conduite.
Voté en 2019 par les élus européens et le Conseil européen des ministres, ce règlement précise que le boîtier enregistrera par tranches de cinq secondes, avant et après un accident, de nombreuses données telles que la vitesse, l'accélération, le freinage, l'angle du volant, le port de la ceinture, la force de la collision ou encore les coordonnées GPS de l'accident. En revanche, contrairement aux boîtes noires installées dans les avions, les conversations dans l'habitacle ne seront pas enregistrées et les données resteront anonymes.
Un éthylomètre antidémarrage
Pour éviter le piratage, l'enregistreur sera positionné à un endroit inaccessible pour le propriétaire et il sera impossible de le désactiver. D'autres équipements seront également rendus obligatoires comme un détecteur de somnolence ou un limiteur de vitesse intelligent capable de lire les panneaux.
Enfin, les voitures devront pouvoir faciliter l'installation d'un éthylomètre antidémarrage ainsi qu'un système de surveillance de la pression des pneumatiques. Bref, autant de nouvelles technologies qui risquent de faire grimper encore plus la facture.