I’m experiencing anomalous layout behavior in LibreOffice Writer. I’ll do my best to summarize the issue.
LibreOffice version: 6.4.7.2.
System Specs (in case it’s a memory issue) -
Processor: i5 3.2ghz quad core
Memory: 8gb DDR4 RAM
OS: Ubuntu 20.04.4 LTS
Gnome version: 3.36.8
My document is a book I’m writing. The raw manuscript is ~1600 pages which will likely be 3,000 pages once I correct all the missing formatting.
I used an official WordPress utility to export 12 years of WP articles as .DOCX documents. I imported those into a master document .ODM file in LIbreOffice. Once I had them in the right order, I saved the project as an .ODT file and removed all the document links so that I could edit the book layout freely.
Due to a bug in the initial conversion, nearly all paragraph breaks were lost so all 3,000 pages of text are sentences butted up against each other. And similarly, the article images were jumbled and scattered at random throughout the document. I submitted a help request and a member of this community was amazing at helping me use the PicTool extension to batch-scale all 1300+ images and to dynamically assign their scale to the paragraph area. This way, if my publisher asks me to modify the margin measurements closer to publication, all images will snap to the new area. I was so grateful for that help!
The remaining task has been to go through the 1600+ page document, pull up each original WP article one at a time on the web, and correct all the missing paragraph breaks and to reposition all the images where they’re supposed to appear throughout each article. It’s a lot of work, but I blocked out several hours each weekend and created a spreadsheet to track which articles I’ve cleaned up. I’m tackling them in the order they appear so that I can move linearly through the document without compromising earlier pages as I work. I’ve been incrementally saving versions of the document as I go in case I suddenly discover that I’ve damaged something earlier in the file.
The document has an unnumbered title page, preface, and dynamically generated TOC. Numbering begins at the first article following the TOC. Periodically I know I need to right-click and Update Index so that the TOC reflects the adjusted pages as I clean them up.
This brings me to the anomalous behavior. I noticed that when I launch the document and scroll to the very end, the final numbered page showed as 1685. I closed and reopened the file and the final page number jumped to 1597. I clicked on Update Index for the TOC and then scrolled to the end and the final page number then showed as 1593. Worried that I was losing content, I tried opening the next-to-most-recent version of the doc alongside the other to compare them. LibreOffice crashed and force-exited, most-likely due to it running out of memory loading two 1600+ page documents. I relaunched them, recovered the lost files when prompted at launch, and updated the index for each file’s TOC. Now the final page number for both versions showed as 1593.
They crashed and force-quit again, and after recovering them one document showed 1594 pages instead of 1593. Then it crashed and exited again. The next time I opened it it showed 1589 pages. Updating the TOC changed it to 1594. I closed and reopened the earlier version and then it showed 1592 numbered pages. I closed and reopened them without attempting recovery and it showed 1658 pages before I updated the TOC. After updating it showed 1591 pages. I should note that I’d made no changes to the layout of any numbered pages during any of this so there is no reason the total number of pages should be changing at all.
Then I scrolled through the document reviewing the articles I’d recently tidied up and found that a few had stray images hanging off the page where I had previously worked incredibly hard to place them correctly. This is so disheartening as it takes me hours of painstaking work to correct the layout of each article. Checking the next-to-most recent version, one of the misplaced images was correct but the other had similarly shifted.
There’s no way for me to audit the thousands of pages of content after I’ve already proofed them and saved incrementally without re-reading my book hundreds of times, so I need a better solution to preserve the changes once I make them. And I need to determine why the page count is changing so wildly without any changes being made to the numbered pages of the document.
I really hope there is a solution so I can eventually publish my book. I sincerely appreciate any insight the community can offer.
Only guesses because updating a TOC should not change the finale page number (since you start page numbering after the TOC and TOC collecting does not change contents).
Only image shift can cause contents layout changes. This depends on anchor and wrap properties. The only way to get predictable, deterministic and reproducible positioning of image is through use of frame styles, despite their difficulty of set up and weird behaviour. Unfortunately, I understand you tuned everything manually.
Another possibility for page number change is a wrong specification with the page number field. A common error is to request a page offset instead of a page restart through a specific manual page break. But this will not move images.
A ~1600-page document bumps certainly into performance issues. A way to address them and partially solve them is to systematically style the document, avoiding direct formatting. This means using all possibilities; paragraph, character, page and frame. Don’t forget list styles if you need to number paragraphs.
When your articles have been saved to Writer’s native file format, it is not likely that content is lost when you save and reopen. Repagination after content reflow is the likely process at play here. This reflowing can occur when Writer attempts reasonable positioning of graphics. Another situation, which I suspect may be at play here, is when there is extensive use of flow-control formatting elements in your document.
My suspicion is based on your exporting content from WordPress via docx to odt. The three formats have inherent differences, which lead to conversion not being entirely straightforward.
WordPress uses HTML for structure and CSS for design (roughly). HTML/CSS contain mechanisms to handle the concept of pages, but as far as I have seen they are rarely used because HTML content is usually a web page, output to screen in a continuous stream. Also, the layout width for html content is often dynamic, so it adapts to the reader’s screen width, window size and display settings.
Word may use hybrid text/paragraph styles for design/structure, but exported content will often rely on direct formatting for structure and styling. Page layout is by direct formatting on a section. A Word section is a divider between (possibly named) parts of continued document flow.
Writer depends heavily on styles for document design and structure. Direct formatting can be used, but for page layout specifically, it is mandatory to use styles. A Writer section is a separate (named) part within the document flow.
Sections are important because in both steps of the translation process (html-docx and docx-odt) they may have been inserted to convey page adjustments. This is often used to make a paper document into an optimal representation of the web/onscreen output. While it may help with being true to the source, extensive use of sections makes further editing into a pain.
The keep with next page flow setting will usually do nothing on a web page, because there are no page breaks. Overusing it on a paper document makes an ugly mess.Solution
With your situation, I don’t believe there is any substitute for manual labor. On the upside, it is not likely that changing page count indicates content loss. It is useful to know what you are working with, and understand how and why changes (e.g. reflowing) happen.
A precision (otherwise excellent comment):
In Writer, a section is a part of a “region” controlled by a page style. This is fundamentally different from Word where a section is roughly equivalent to a page styled “region”.
Writer sections will not be used during the odx→odt translation. You’ll get many single-use page styles.
Follow @keme1’s advice and review manually your document. But before this, think carefully about the styles you’ll need. Many of them are available as built-ins, such as Heading n for paragraphs or Emphasis/Strong Emphasis for character, not speaking of page styles. You’ll only need to create variants of Text Body for specific paragraphs.
You’ll create less than 5 paragraph styles, tune built-in paragraph and character styles, perhaps create a handful of character styles. Pay special attention to page styles (you should do with 3-5). The most difficult challenge is to design frame styles (or customise builtins). If you can “standardise” your image properties one or two frame styles should do.
After that, it is only a matter of removing direct formatting and assigning styles to your “objects” (a double-click and it’s done).
My sincerest gratitude for the prompt and impressively detailed responses!
It is such a tremendous relief that, as you’ve each said, it is unlikely that the page number anomaly is indicative of content loss, and instead, is more likely the result of content (particularly image) re-flow. That eases my mind that this year of manual cleanup will not be in vain.
I am taking your advice an employing styles to automate layout properties wherever possible. Working smarter, not harder is critical. Fortunately, titles, headlines, and paragraph text were all translated to and assigned styles in the conversion process from DOCX, so I only needed to adjust those styles slightly to achieve the desired result.
The rest of the task, as you’ve each stated, will be the manual process of fixing all the sentences and missing / misplaced paragraph breaks for 3,000 pages of content. And while the PicTool extension made quick work of scaling all the images and dynamically centering them to the defined paragraph area as I said, there remains the task of selecting each image once at a time, cutting to clipboard, positioning the cursor where each image needs to go, pasting the image, and then tidying up the flow of adjacent text for all 1,300 images, many of which are invisibly stacked atop one another at the beginning of each article, sort of like layers in Photoshop.
It doesn’t appear, due to the seemingly random text breaks and image positioning, that there is a way to batch process either the text or the images with styles beyond what I’ve already done. It’s going to be a lot of manual work, but I’m 60 articles into the project already so I’m determined to make this work in the end.
Once again, thank you all for your expert insight. This community has twice now aided me with moving forward with this book authoring project and your knowledge of the nuances of the software are unparalleled. Hopefully in about a year I can go to press and call this project a success thanks to your help!
Be aware that the .docx step has pushed in its own mess, notably because Word has no notion of character and page styles. Consequently, methodical styling will be a very tedious process. And even with careful styling, your document will remain clumsy because of the DOCX mess.
La digue en terre sera édifiée à 7,90 mètres au-dessus du niveau de la mer, sur plus d’un kilomètre de long, avec un enrochement côté mer.
Au nord de la baie d’Authie, dans le département du Pas-de-Calais, le chantier préparant la construction de la digue de second rang a débuté le 1er décembre. La future digue « rétro-littorale », longue d’1,2 km, est construite sous la maîtrise d’ouvrage de la Communauté d’agglomération des 2 Baies en Montreuillois (CA2BM). Elle implique l’acquisition de 16,5 hectares de terre, en partie agricoles. Ces acquisitions avaient fait l’objet d’une concertation et d’un accord préalable avec les riverains.
Située entre le Pas-de-Calais et la Somme, la baie d’Authie est soumise aux risques de submersion marine et d’inondations par remontée de nappe. La submersion la plus grave du 20ème siècle a eu lieu en mars 1990 : elle avait inondé 150 maisons à Cayeux et 3000 hectares de prairies et de champs, par temps de tempête et de grande marée.
Sur le secteur Nord Authie, où les travaux actuels ont lieu, le coût moyen des dommages générés par les submersions marines est estimé à quelques 24 millions d’Euros par an et plus de 7 000 personnes sont exposées en cas d’événement centennal, d’après le Programme d'Actions de Prévention des Inondations (PAPI) Bresle Somme Authie (labélisé PAPI en 2016).
La réalisation de la digue est prévue sur une durée de sept mois, à partir de mars 2021, quand les travaux préalables de compensation auront été terminés, nous indique le Pôle Opérationnel de la CA2BM.
Voici les détails techniques qui nous ont été communiqués par la CA2BM :
« Le corps de digue est constitué de matériaux tout venant et d’un masque d’étanchéité en matériaux argileux A1/A2. Le matériau tout venant repose en partie sur un tapis drainant en matériau 45/125mm. Une clé d’étanchéité de 1.50m de profondeur est prévue sous le masque. Le tapis drainant est appuyé sur une butée de pied en enrochement coté terre. Les talus de la digue sont recouverts de géotextiles et/ou géogrilles anti-fouisseurs.
La carapace côté mer est constituée avec des enrochements d’apport de 10 à 70 kg disposés en bicouche sur une épaisseur de 50cm. La pente de talus côté mer est de 3 horizontal pour 1 vertical. Les enrochements de carapace sont placés aléatoirement et percolés de terre végétale. La carapace est ancrée dans une bêche réalisée dans le terrain naturel.
Les talus seront recouverts de terre végétale enherbée. Le talus côté terre est stabilisé par une butée de pied en enrochements 90/250mm.
Une piste de 3m de large est prévue en crête de digue, constituée de GNT 0/20 sur 30cm d’épaisseur.
Deux chemins en partie carrossables sont implantés en pied d’ouvrage, respectivement côté terre et mer ; le chemin rural coté terre est composé d’une épaisseur de 30cm de GNT 0/20 reposant sur une sous-couche de 30cm de GNT 0/80 posée sur un géotextile non tissé. Une noue est terrassée parallèlement aux chemins à l’extérieur de l’ouvrage. »
Cet aménagement interviendra en complément du cordon dunaire, régulièrement soumis à l’érosion et qui vient d’être rechargé en sable. La protection fait l’objet d’un financement de l’Etat dans le cadre du PAPI Bresle Somme Authie.
Selon la Voix du Nord, « l'emplacement de la digue avait été imaginé plus en retrait de la côte, pour laisser rentrer la mer et créer des bassins d'expansion. Mais cela aurait condamné trop de terres agricoles. Le projet a été abandonné et un compromis a été trouvé plus près du bois ».
«Vu le coût de l'ouvrage, on fait d'une pierre deux coups en le rendant accessible », précise Claude Vilcot, en charge de ce dossier à la CA2BM, dans les colonnes de la Voix du Nord.
L'état civil laïque est dans une certaine mesure la conséquence lointaine du schisme religieux du XVIe siècle. Dans les pays qui ne l'ont point connu ou qui l'ont tué dans l'œuf — pays de la Contre -Réforme, Espagne ou Italie, la laïcisation a été tardive, voire incomplète. La France au contraire a, la première, franchi avec la Révolution ce pas décisif .
Déjà, au XVIe siècle, la question s'était posée une première fois. Les fiançailles « par parole de présent » passées par devant notaire et que les protestants pratiquèrent au XVIe siècle pour éviter d'avoir recours aux prêtres est, après tout, la première ébauche du mariage civil. Mais l'édit de Nantes en reconnaissant en fait deux religions d'État laissait à l'état civil son caractère purement religieux : le ministre de l'Évangile était le pendant du curé. La Révocation, supprimant les pasteurs, reposa le problème.
Dès 1683, avant même la Révocation, un arrêt du Conseil « prescrivait le dépôt des registres d'état civil protestants des églises supprimées au greffe des bailliages et sénéchaussées. En septembre 1685, dans les mêmes localités, la publicité des bans pour le mariage réformé fut transmise au juge de la justice royale la plus proche, et les mariages célébrés en présence des consuls par des ministres autorisés chargés ensuite de faire enregistrer les mariages au greffe. L'édit d'octobre et le postulat qu'il implique, la disparition du protestantisme annulent le compromis. Or, le protestantisme n'est pas mort. Les protestants naissent, se marient et meurent...
Pour sortir de l'impasse, Claude Brousson proposait le retour au contrat notarié du XVIe siècle, et, en magistrat soucieux de l'ordre social, le complétait d'une déclaration devant la justice royale. La société était satisfaite, le mariage civil est créé. Mais la solution allait se heurter aux hostilités curieusement conjuguées des protestants eux-mêmes, du clergé catholique et du roi.
L'hostilité des protestants, cela va sans dire, présentait un réel danger, et le mariage au Désert va bientôt être préféré, pour avoir le double avantage de satisfaire les consciences et de créer un état civil clandestin. Les protestant espèrent d'ailleurs que celui-ci sera reconnu et qu'on reviendra à l'Édit de Nantes. De son côté, l'Église romaine veut acculer les hérétiques au mariage catholique ; certains ecclésiastiques, pourtant, par crainte du sacrilège ou goût du lucre, font inconsciemment du curé un « officier d'état civil » qui enregistre le consentement mutuel, sans autre exigeance religieuse. Dernière hostilité, celle du Roi aboutit à supprimer le contrat notarié et les autres expédients matrimoniaux. Sans doute, mais la magistrature est obligée de reconnaître la réalité protestante ; elle souffre du désordre social ainsi créé : bâtardise, incapacité d'hériter, et sa solution, l'enregistrement devant la justice royale, n'est pas différente de celle que Brousson, huguenot, magistrat avant d'être pasteur du Désert, avait proposée en son temps. La solution rallie finalement les sages de tous les partis, et, après avoir avancé ou reculé, au gré des fluctuations des intrigues de Cour, c'est celle qui prévaudra en 1787.
Fluctuations des intrigues de la Cour, dira-t-on, mais encore... les protestants eux-mêmes, par leurs divisions, retardent la solution du mariage civil.
Le protestantisme n'est pas un, on pouvait s'en douter : devant le problème du mariage, des divisions apparaissent. Pour les uns, restaurateurs de l'Église, non conformistes, ruraux, nobles, tenanciers du Midi et de l'Ouest, le problème du mariage civil n'est qu'un aspect de la reconstruction de l'Église et de la reconnaissance du culte réformé. Pour la bourgeoisie — cette bourgeoisie qu'incarnaient au XVIIIe siècle les Messieurs de La Rochelle et des autres métropoles calvinistes et commerçantes, ceux dont le patriotisme fiscal compensait largement aux yeux du Gouvernement la tare calviniste, — le Désert était bien compromettant : l'essentiel était de sauvegarder leurs intérêts en obtenant un état civil, et de transmettre à leurs enfants l'héritage, signe de la Grâce de Dieu : ils craignaient de sacrifier la proie pour l'ombre. Le mariage civil leur suffit et, paradoxe, ceux qu'on appelle les Messieurs s'allient à l'autorité royale contre le Désert. Bonne aubaine pour celle-ci. On comprend que la solution de 1787 ait tant tardé. Finalement, l'Édit de 1787, en donnant le mariage civil aux protestants sans accorder le culte public, donnait satisfaction aux bourgeois sans satisfaire les classes rurales plus sensibles à ce qui manquait à l'Édit qu'à ce qu'il apportait. — Épisode -d'une opposition profonde et complexe que la Révolution ne devait point apaiser.
Huguette Chaunu
Je vais dans ma vie comme un somnambule. Du monde qui m'entoure, je ne sais rien ou presque. Ainsi, j'ignore qui est Kim Kardashian, si elle est mariée avec Kanye West ou avec le fils caché du prince Charles. Dans la rue, je pourrais tout à fait croiser Taylor Swift, Lady Gaga ou Beyoncé sans même me douter que je viens de voir une star interplanétaire. C'est à peine si je sais à quoi sert TikTok. Quant au bitcoin, on a dû m'expliquer le principe un bon millier de fois sans que je comprenne pour autant son utilité et encore moins son fonctionnement.
Ce qu'est une personne binaire, je n'en ai pas la moindre idée. À chaque fois qu'on me parle d'une personne racisée, il me faut un certain temps avant de comprendre de qui, de quoi on parle exactement et encore, je ne suis pas bien certain d'avoir saisi toutes les nuances qui s'y rapportent. Pareil pour «inclusif». Qui inclut quoi dans qui, je ne saurais pas bien le dire. Transgenre et ses mille et une déclinaisons? N'étant pas suicidaire, je passe mon tour.
Afin de préserver ma santé mentale et ce qui me reste de dignité, je ne tweete pas. Sur Facebook, ma principale activité est de bannir quelques plaisantins qui veulent absolument m'envoyer à Auschwitz. La différence entre Facebook et Instagram, je n'en ai pas la moindre idée sauf que, paraît-il, l'un est mieux que l'autre. J'ai trois contacts sur WhatsApp, à qui je n'écris jamais si ce n'est pour me plaindre de n'avoir jamais de leurs nouvelles.
J'ai longtemps vécu sans téléphone portable. Je n'ai pas regardé une émission de télévision depuis «Champs-Élysées». Quand je découvre la liste des nominés pour les Victoires de la musique, je demeure aussi perplexe que lorsque je parcours la liste des ingrédients contenus dans mon pot de yaourt. Je n'ai jamais lu un roman de Guillaume Musso. Et le nom des chroniqueurs de «Touche pas à mon poste» ou d'autres programmes à succès me sont aussi familiers que les identités successives des amants de ma belle-mère, à qui je ne parle plus depuis des années.
Je refuse de reconnaître qu'il existe de par le vaste monde des gens qui se nomment «influenceurs». C'est au-dessus de mes forces. Je crois que si j'avais eu un enfant, effaré par le nombre de conneries auxquelles il aurait été exposé, je l'aurais tenu enfermé dans sa chambre jusqu'à sa majorité. Je n'ai aucune idée de ce à quoi peut bien servir un casque de réalité virtuelle, une Apple Watch ou une enceinte connectée, si ce n'est à nous rendre encore un peu plus crétins que nous ne le sommes déjà.
Autant dire que j'ai quelque mal à me reconnaître dans mon époque. Comme si j'étais un inadapté de naissance. Ou pire, un poseur qui aimerait tout critiquer, son temps comme ses contemporains, pour mieux exposer au grand jour sa singularité. À moins que je ne sois plus porté vers les choses de l'esprit, ce qui ferait de moi une sorte d'intellectuel dont la profondeur de pensée serait à peu près égale à celle d'un moineau en fin de vie.
Serais-je donc snob? À la fois élitiste et con comme un balais Bluetooth. Enfermé dans une tour d'ivoire qui serait celle d'un esprit dérangé, asocial, misanthrope au point de ne rien supporter si ce n'est la présence d'un chat tout aussi hautain que lui. Vous ai-je dit que je détestais aussi les vidéos de chats dans lesquelles on expose ces malheureux comme des bêtes de foire sans même leur demander leur avis?
Atrabilaire, vous dis-je.
Musicalement, je serais incapable de citer un seul groupé né dans les années 2000 et après. Pourtant, dans une autre vie, j'ai écrit pour les Inrockuptibles. En fait, c'est comme si ma vie s'était arrêtée à mes années de jeunesse. Au temps doré où je coïncidais avec mon époque. Où j'allais voir un film de Wim Wenders en noir et blanc au Lucernaire. Où je ramenais le dernier single des Smiths d'un voyage à Londres. Où je comprenais mon temps. Où, surtout, on me comprenait, moi.
À part cela, Andrew Fletcher, le claviériste de Depeche Mode, vient de mourir pendant que j'écrivais cette chronique.
Il y a sûrement une conclusion à en tirer.
Je vous laisse deviner laquelle.
CINÉMA - Lorsqu’on adapte une œuvre, il faut s’attendre à voir déferler les hordes de fans, quel que soit le soin avec lequel on a travaillé: ce sera forcément le cas du film Dune, basé sur l’œuvre monumentale de Frank Herbert, sorti en salles le 15 septembre et diffusé sur Canal+ ce vendredi 20 mai. Je suis bien placé pour en témoigner: je fais partie de la horde. Mais Denis Villeneuve a manifestement travaillé, donnant un écrin à 165 millions de dollars réussi aux aventures de Paul Atréides. Et me contenter, moi, c’était mettre d’accord à peu près toutes les étapes de ma vie.
J’avais neuf ans lorsque j’ai découvert Dune, à l’époque d’assez loin. Mon frère plus âgé les dévorait, et habitant le lit au-dessus du mien, ses livres, ou du moins leurs couvertures passaient, immanquablement devant mes yeux. Je fixais les illustrations, et les connaisseurs vont le diront: lorsque l’on arrive aux alentours du troisième tome, les portes de l’étrange ont été franchies. Cette étrangeté, elle est partout dans le Dune de Villeneuve. On est jamais tout à fait à son aise, et c’est très bien: on n’est pas sur Terre, on n’est pas chez soi. Rien n’est censé être familier.
À treize ans, j’ai donc relevé le défi, et attaqué le fameux cycle, pour caler assez tôt dans les étapes de montagne. Que les connaisseurs me pardonnent: dans les sept tomes du cycle de Dune, il y a un roman d’aventures qui en épuise deux, puis une réflexion philosophico-politique qui s’installe dans les cinq suivants. J’ai eu beau arriver au bout, les derniers milliers de pages étaient arides.
Assez logiquement, le film adapte le tout début de la saga, le premier tome, qui tient plus du livre d’aventure. Il réussit à faire assez peu d’impasses sur la richesse de ce monde, son vocabulaire, mais réussit à rester palpitant. Au fond, il reste focalisé sur l’essentiel: un désert gigantesque, l’affrontement sanglant de deux familles, et au milieu, des hommes qui survivent à un milieu absurdement hostile. Ce sont d’ailleurs ces éléments-là qui ont fait le succès de Dune ailleurs qu’en librairie.
J’avais beau mordre la poussière avec les bouquins, mon père avait installé les jeux vidéo Dune 1 et 2 sur notre PC familial, et c’était fantastique. Je jouais, mon père jouait, nous bottions les fesses de l’empereur Shaddam Corrino IV: les subtilités du livre m’échappaient certes un peu, mais avec les jeux, j’étais transporté.
Faut-il vraiment respecter une œuvre au détail près pour lui montrer qu’on l’aime à la folie? Dans le film de Villeneuve, les hommes en vadrouille dans le cagnard implacable du désert ont souvent la tête entièrement découverte, une véritable sentence de mort sur la planète Arrakis. Mais le cinéma exige qu’on voie régulièrement la bouille de Timothé Chalamet: ainsi soit-il. Il faut parfois faire des compromis sur les détails, qu’on soit Denis Villeneuve ou Matthieu Balu à 13 ans.
À quinze ans, dans l’été qui séparait ma seconde et ma première, j’ai relu la saga, et l’extase littéraire et intellectuelle s’est produite. La température de ma chambre y était pour beaucoup, en cette canicule de 1999, mais cette fois, j’y étais. Je vivais la prise du pouvoir des Atréides, la bataille de l’épice, j’exultais de lire la puissance des Fremen, je souffrais avec Paul, je devenais monstrueux avec l’empereur-Dieu, je comprenais son projet, et le tome d’après j’épousais la révolte de ses opposants. C’était ébouriffant.
Sur grand écran, ce premier volet, qui pose les bases d’une histoire ultra-riche, ne surjoue pas le côté café philo, et c’est tant mieux. On se laisse emporter, oubliant même l’emphase lourdingue de certains dialogues: après tout, Dune ressemble beaucoup plus à Star Wars que les fans ne voudront jamais l’avouer.
Avec la passion, la vraie, commence la longue tragédie de ne pouvoir communiquer ce que l’on a ressenti. Alors au lycée,en bon moine-soldat, j’entamais une quête perdue d’avance. À la place de Slipknot gravé au tipex sur mon sac à dos, j’avais stabiloté une phrase sur la couverture de mon agenda:“Recherchez la liberté et devenez esclave de vos désirs. Recherchez la discipline et trouvez votre liberté.” Certes, c’est complètement gênant une fois sorti du cadre de Dune, franchement réac aussi, mais je vous incite à vous replonger dans vos propres agendas d’ados.
Parler de Dune à mes amis était un exercice rendu périlleux par l’impératif de simplifier, toujours simplifier, pour donner envie. Denis Villeneuve, lui, a carrément gommé l’un des personnages les plus vils de Dune, Feyd-Rautha Harkonnen, sans doute avec le même objectif que moi. Je dois avouer qu’il m’a manqué.
Deux ans plus tard, nouvelle lecture sérieuse. Il était l’heure de m’apprendre la politique. Un bon livre de science-fiction, c’est souvent un manuel de sciences po à peine déguisé. Avec Dune, quelques grandes familles s’affrontent dans le silence intergalactique, avant une dictature sanguinaire à mi-chemin entre le califat, la cour de Louis XIV et le 3e Reich. En bref, ce n’est pas vraiment Borgen.
J’ai d’ailleurs appris, en écrivant ce texte, que les fascistes aimaient beaucoup Dune, cette saga pensée avant tout comme une fable écologique. Sur cet aspect, le film est quasi-irréprochable. Villeneuve a préservé tous les éléments qui font de cet univers une poudrière complexe où s’affrontent des visions du monde.
À moins bien sûr que l’on voie un problème dans le fait d’avoir féminisé un personnage de cet échiquier. Liet-Kynès, l’écologiste de Dune, l’idéaliste du désert, le remède à la force brute, est en effet incarné à l’écran par Sharon Duncan-Brewster. Mais je cherche encore quel mal à l’œuvre originale pourrait bien faire ce changement. Dans Dune, le genre est extrêmement important pour une poignée de personnages, et absolument sans intérêt pour tous les autres.
À 17 ans, je m’inscrivais pour la première fois sur un forum de discussion, et prenais, évidemment, le nom de l’un des héros du livre. À ce point du récit, je ne vais donner ni le nom du site, ni mon pseudo-enthousiaste: internet n’oublie jamais, une petite recherche sur le Wayback machine vient de me le démontrer, et il y a un niveau de gêne que je ne suis pas encore prêt à affronter.
Côté études, ma décision était prise depuis assez longtemps. Le livre, c’était moi. J’allais faire ma thèse universitaire dessus: peu importait l’angle, le sujet précis. Comme toujours, je voulais expliquer à tous ceux qui voulaient l’entendre pourquoi la saga était géniale - mais cette fois j’allais utiliser des méthodes d’adulte, en bon homme mûr que j’étais devenu. J’écrirais un pavé de doctorat sur Dune. Ça ne s’est pas fait. Pas le temps, sûrement.
Un an plus tard, nouvelle lecture. Là franchement, c’était trop. Après la philo, la politique, je me souviens que mes 18 ans furent ceux d’une lecture...amoureuse, les hormones y étaient sans doute pour beaucoup. J’étais fasciné par la tension sexuelle entre les personnages, ce qui, il faut l’avouer, est plutôt étrange. Plusieurs couples se font et se déchirent dans Dune, mais peu de gens décriraient l’œuvre d’Herbert comme romantique, ou même empreinte qu’un quelconque sentimentalisme. Vraiment pas, vraiment pas du tout, mis à part le très émouvant post-scriptum de Frank Herbert en hommage à sa femme éteinte.
Je ne crois pas non plus que ce soit la force de ce long-métrage. La relation entre Jessica et son fils Paul, la plus ambiguë, tient plus du boulet que du ressort dramatique. Le reste est très classique: Paul admire son père (Oscar Isaac, tellement beau), Paul admire son mentor (Jason Momoa, tellement costaud), Paul rêve parfois de sa promise (Zendaya, tellement Zendaya)...ces moments-là sont justement les plus familiers, les plus interchangeables avec n’importe quel autre film hollywoodien.
J’ai quand même réussi à associer Dune à ma vie sentimentale: l’une des tables de mon mariage en porte le nom. Celle, évidemment, où était placé mon frère. Cet hommage-là était plutôt facile: on avait choisi des titres de livres comme thématique. Une autre, comme les fromages, aurait demandé plus d’imagination.
Depuis, Dune reste dans ma bibliothèque, trône souverainement comme un totem, transféré d’appartement en appartement. Comme on exposerait ses premiers X-men, sa collection complète de Friends en VHS ou de Naruto en Manga. Aujourd’hui, ce n’est plus ma bible, mon livre de philo, de politique, ou d’art amoureux (je ne suis toujours pas bien sûr, là, de ce qui s’est passé). C’est un élément de ma culture. C’est aussi ce qui fait qu’un fan inconditionnel, un otaku, un nerd, aura toujours ma sympathie. Denis Villeneuve, tu as donc toute ma sympathie.
Cette pratique appelée «désherbage» est nécessaire à l'entretien des collections.
Il ne peut pas y avoir d'acquisition s'il n'y a pas de désherbage. Eugenio Mazzone via Unsplash
Le 14 février 2022, des étudiants américains postaient sur TikTok une vidéo où ils se mettaient en scène, choisissant des ouvrages jugés «colonialistes» dans une bibliothèque et les jetant à la benne. La vidéo fut à l'origine d'un petit buzz sur Twitter, d'aucuns y voyant la preuve de l'existence d'une cancel culture sur les campus américains.
Elle fut toutefois rapidement débunkée, après que l'auteur de la vidéo a contacté l'un des twittos à l'origine de la polémique: la vidéo était en fait une blague, les étudiants participaient au tri annuel des livres de la bibliothèque, et les livres devaient être jetés de toute façon, parmi de nombreux autres qui n'ont pas été filmés.
Un autre type de réaction est alors apparu: comment une bibliothèque peut-elle jeter des livres? Après tout, son rôle n'est-il pas de les conserver? N'est-ce pas une forme de destruction de la culture, un dévoiement du rôle des bibliothèques?
Déjà en juillet 2021, le site Mr Mondialisation partageait sur sa page Facebook son indignation face au «gaspillage» des livres jetés par les bibliothèques de Paris. Là encore, de nombreux internautes ont réagi, faisant part de leur incompréhension face à l'idée d'une bibliothèque jetant des livres.
Pourtant, se débarrasser des livres obsolètes fait partie du fonctionnement normal d'une médiathèque. Le processus a même un nom: le désherbage. Comme dans un jardin où les mauvaises herbes empêcheraient les autres de fleurir, les livres obsolètes ou abîmés nuisent au bon fonctionnement de la médiathèque.
«De toute façon, on ne peut pas pousser les murs, relève Cléo, bibliothécaire en région parisienne. Et comme on doit acquérir de nouveaux documents, ça veut dire qu'il y en a certains qui en remplacent d'autres. Ça fait partie de la politique d'acquisition, pour faire vivre une collection. Il ne peut pas y avoir d'acquisition s'il n'y a pas de désherbage.»
De fait, les objectifs d'une bibliothèque municipale ne sont pas ceux d'un fonds d'archives. Leur but est moins de conserver des documents, ou d'assurer la survie des textes, que de faciliter l'accès à l'information et à la culture, de les faire circuler. Or les livres, comme tous les objets, sont soumis à l'usure, et les informations qu'ils contiennent peuvent se périmer.
Les livres à désherber sont sélectionnés selon des critères précis, détaillés par la «méthode Ioupi», acronyme permettant de se souvenir des différentes raisons qui peuvent pousser à se débarrasser d'un livre:
Le «I» signifie «Incorrect», et correspond au cas où le document contient des informations erronées.
Le «O», pour «Ordinaire», désigne un livre dont le contenu n'a pas d'intérêt particulier.
Le «U», ou «Usé», rappelle de regarder l'état du document: si celui-ci est trop abîmé, il faut le désherber et éventuellement le remplacer par un exemplaire neuf.
Le «P» signifie «Périmé», à propos des documents dont les informations ne sont plus d'actualité. «Parfois c'est la science qui a avancé, ou encore un guide de voyage: il faut le renouveler tous les trois ans parce que les restaurants ont changé», exemplifie Cléo.
Le dernier «I» peut vouloir dire soit «Inadapté», c'est-à-dire un document qui n'aurait pas sa place dans cette collection précise, par exemple un document universitaire trop pointu dans une bibliothèque municipale généraliste, soit «Inutilisé», c'est-à-dire peu emprunté et donc peu lu. «Il n'a plus de succès, il ne sort plus, et donc il va quitter les collections de la médiathèque», indique Cléo.
«Mais ne pourrait-on pas donner tous ces livres, plutôt que de les jeter?», demandent les internautes dès que la question du désherbage revient sur les réseaux sociaux. Pour Cléo, ce n'est pas toujours aussi simple:
«Si le document est encore utilisable ailleurs, on peut en faire don, à une association, par exemple. Il y a aussi des médiathèques qui organisent des braderies. Mais ça peut être très compliqué à mettre en place. Ça nécessite de signer des conventions avec les associations. Et comme ça demande du temps, et que parfois les médiathèques sont en sous-effectifs, c'est une étape qu'on n'a pas forcément le loisir d'assumer.»
Par ailleurs, les livres étant achetés avec de l'argent public, les bibliothécaires ne sont pas seuls à décider de ce qu'ils deviennent. «C'est quelque chose qui doit être validé par notre hiérarchie, c'est-à-dire la direction de la médiathèque, et au-dessus de la médiathèque, il y a la mairie. Le maire peut refuser que les livres soient donnés, ou alors on n'a pas forcément le temps pour traiter cette question», ajoute Cléo.
J'ai l'impression qu'on sacralise l'objet livre, alors que pour moi, c'est un objet comme un autre, qui peut s'user. Cléo, bibliothécaire
Mais même lorsque les dons ou les braderies existent, un certain nombre de livres devront tout de même être jetés. «Si l'information est obsolète, elle est obsolète pour tout le monde», rappelle la bibliothécaire. Et certains livres sont en trop mauvais état pour être donnés. Le papier est toutefois recyclé: «Parfois, les livres sont couverts avec un film plastique sur la couverture, et il faut détacher la couverture pour pouvoir recycler le papier. On fait venir deux bennes, une pour le papier et une pour ce qui n'est plus recyclable.»
Malgré tout, l'idée de jeter des livres, même usagés, même obsolètes, provoque souvent des réactions épidermiques chez les amoureux de la lecture. En 2019, la série Netflix Tidying Up with Marie Kondo avait déjà suscité des réactions fortes lorsque la spécialiste du rangement avait conseillé à un couple de clients de faire un sérieux tri dans leur bibliothèque, de ne garder que les ouvrages qui leur «apportaient de la joie», et de se débarrasser du reste.
«J'ai l'impression qu'on sacralise l'objet livre, alors que pour moi, c'est un objet comme un autre, qui peut s'user, estime Cléo. Beaucoup de gens confondent l'objet livre, le contenant, avec le contenu.» De fait, la comparaison avec les autodafés de l'Allemagne nazie revient régulièrement lorsqu'il est question de détruire des livres. Mais c'est oublier que ces autodafés avaient pour objectif de détruire tous les exemplaires des textes afin de les supprimer définitivement de la circulation. Détruire un exemplaire d'un livre largement publié et distribué est fondamentalement différent, à la fois dans l'intention et dans les conséquences.
Si les gens se scandalisent qu'un livre quitte la bibliothèque, peut-être qu'ils auraient pu l'emprunter avant, on l'aurait sans doute gardé! Cléo, bibliothécaire
On peut se demander s'il n'y a pas dans ces réactions épidermiques une forme de ce que le sociologue Pierre Bourdieu appelait une «logique de distinction»: un moyen de montrer que l'on est un bon lecteur, qui a bien intégré la norme d'une vision du livre comme d'un objet «pas comme les autres», qui serait porteur d'émancipation et de culture. Une façon, finalement, de faire savoir que l'on est soi-même émancipé et cultivé.
En tout cas, Cléo constate que les personnes qui ont ce type de réactions ont peut-être une large bibliothèque personnelle, mais fréquentent vraisemblablement peu les bibliothèques publiques. «Je n'ai pas l'impression que les usagers sacralisent [le livre] particulièrement. Les usagers en médiathèque acceptent qu'un livre soit partagé et lu par d'autres personnes. Ils se rendent compte qu'un livre peut être abîmé.» D'ailleurs, «si les gens se scandalisent qu'un livre quitte la bibliothèque, peut-être qu'ils auraient pu l'emprunter avant, on l'aurait sans doute gardé!», ironise-t-elle.
Les États-Unis et 55 autres pays ont lancé, ce 28 avril, une initiative commune pour garantir un internet sûr et libre. Avec la signature de cette charte baptisée « Déclaration pour l’avenir d’internet », l’administration Biden veut réunir le plus de pays possibles autour d’une vision commune sur ce que doit être la toile de demain.
La « Déclaration pour l’avenir d’internet » contient plus de 20 « principes ». Dans cette charte, les signataires s’engagent, entre autres, à renforcer la démocratie en ligne en acceptant de ne pas fermer l'accès à l'internet. Les plus de 60 pays participants – dont la Grande-Bretagne, la France, l'Allemagne, le Japon, ou encore le Kenya et l'Ukraine – promettent de ne pas utiliser d’algorithmes pour espionner illégalement les citoyens et de ne pas mener de campagnes de désinformation pour influer sur des élections.
« Aux côtés de + de 50 partenaires, les États-Unis ont lancé aujourd'hui la déclaration pour l'avenir d'internet, un engagement à promouvoir un internet ouvert, au profit des peuples du monde entier. » - Le @SecBlinken #FutureoftheInternet pic.twitter.com/FwLtGCIXZg
Cette initiative se veut un contrepoids face à l’inquiétante montée de grandes puissances autoritaires, où l’accès à l’information numérique est restreint. L’enjeu est majeur, explique la Maison Blanche. Puisqu’il s’agit de repousser « l’autoritarisme numérique croissant », dont font preuve notamment la Chine et la Russie. Les équipes de Joe Biden ont travaillé pendant plusieurs mois à l'élaboration de cette charte.
Depuis l'invasion de l'Ukraine, le 24 février dernier, « la Russie a promu de manière agressive la désinformation dans son pays et à l'étranger, censuré les sources d'information sur internet, bloqué ou fermé des sites légitimes et est allée jusqu'à attaquer physiquement l'infrastructure internet en Ukraine », a dénoncé un haut responsable de l'administration Biden auprès de journalistes.
La nouvelle charte concoctée par Washington montre pourtant déjà ses limites : elle est non contraignante et des pays comme l’Inde, l’Indonésie ou le Brésil ne l’ont pas signée. Les défenseurs américains d’un internet libre attendent de Joe Biden surtout qu’il revienne sur la décision, prise sous la présidence de Donald Trump, de mettre fin à la neutralité du net. Le président s’y est engagé. Mais ses nominations pour les postes à la Commission fédérale des communications sont toujours bloquées au Sénat.
Expérimenté depuis le mois d’août 2021 dans trois départements de Métropole, le service Mon Espace Santé (qui prend la suite du Dossier Médical Partagé) a été généralisé à l’ensemble de la population depuis février 2022. Plusieurs associations (comme XY media, Acceptess-T ou le collectif POS) ont très tôt alerté sur les dangers liés à ce nouvel outil. Nous avons passé en revue les fonctionnalités de Mon Espace Santé et force est de constater qu’elles présentent des insuffisances alarmantes en matière de respect du consentement et de gestion des données de santé. De par l’audience large à laquelle il s’adresse et de part la sensibilité des données qu’il manipule, un tel outil du service public se devrait pourtant d’être irréprochable en la matière. À défaut, nous ne pouvons que vous rediriger vers des guides vous permettant de vous opposer à ces traitements de données.
Pour commencer, faisons un petit tour plutôt descriptif de ce qui est annoncé en terme de fonctionnalités. Mon Espace Santé (aussi appelé Espace numérique de santé dans la loi et le décret qui le créent) se compose principalement de quatre éléments :
Dans l’absolu, cet espace de partage des informations pourrait être une solution pour faciliter le droit d’accès à son dossier médical. Mais ceci impliquerait une mise en œuvre solide et de confiance qui n’est, à notre avis, pas atteinte avec Mon Espace Santé (voir plus bas la suite de notre analyse).
Une messagerie sécurisée pour échanger avec des professionnel·les de santé. À la création de Mon Espace Santé, une adresse de messagerie MSSanté (Messagerie Sécurisée de Santé) est automatiquement attribuée à la personne usagère et rattachée à Mon Espace Santé. Cette adresse est constituée à partir du matricule INS de l’usagère et du nom de domaine de l’Opérateur de Mon Espace Santé (selon le Référentiel Socle MSSanté). Les messages échangés sont stockés pendant une durée de dix ans, sauf lorsqu’ils sont supprimés directement par l’utilisateur·ice. Ces adresses existaient déjà pour les professionnel·les de santé.
Un agenda pour suivre ses rendez-vous médicaux et recevoir des rappels.
Enfin, pour accéder à ces différents services, outre un site web, une application mobile sera également disponible. Le développement technique est réalisé par les entreprises privées Atos, Octo, Accenture et Maincare. La société Worldline traite les données du Dossier Médical Partagé au travers de sa filiale Santeos. Les autres données (messagerie, agenda…) sont traitées par la société Atos.
Un recueil accessoire du consentement des personnes
Pour chaque personne, la création de Mon Espace Santé se fait automatiquement selon un calendrier régionalisé prévu par l’État. Chaque personne est notifiée par courrier postal ou par courriel de la création prochaine de son espace. Elle dispose alors d’un délai de six semaines pour empêcher la création de l’espace en se connectant sur le site. L’espace est donc créé sans le recueil du consentement préalable et explicite de la personne usagère. L’opposition, elle, doit être explicite.
Dans les premières annonces d’ évaluation de la phase pilote, qui a eu lieu à partir d’octobre 2021 dans trois départements, la Sécurité sociale annonçait que « moins de 0.7% des usagers se sont opposés à [la] création [de leur espace santé]. » Mais plus loin on apprenait que seuls 4.8% des personnes ayant un espace santé l’avaient utilisé. Comment savoir donc si les presque 90% restants ont réellement souhaité en avoir un, ou même s’ils ont reçu le courrier ou mail prévenant de sa création (et des possibilités de s’y opposer) ?
Avant même de se poser la question de l’utilité ou non de Mon Espace Santé, on peut dire que les modalités de sa création sont loin d’être respectueuses des personnes auxquelles il est censé simplifier la vie. Passer outre le consentement des personnes au prétexte de « les aider » est la définition du paternalisme et, selon nous, s’oppose aux véritables pratiques de soin fondées sur l’écoute et la considération.
Certes, il est toujours possible de supprimer son compte. Mais, là encore, la personne usagère devra être attentive et suffisamment informée si elle souhaite demander la fermeture de son compte en cochant la bonne case (ses données seront supprimées 3 mois plus tard, à moins d’être supprimées individuellement au sein du profil médical, des mesures santé ou de la messagerie, auquel cas elles seront effacées immédiatement). Nous avons trop souvent dénoncé ce tour de passe-passe lorsqu’il était réalisé par les GAFAM : la possibilité théorique d’effacement ultérieur ne produit aucun effet significatif concret qui pourrait justifier l’absence de consentement préalable. Ce qui est inadmissible pour les GAFAM l’est encore davantage pour un service public traitant des données extrêmement sensibles soi-disant « pour notre bien ».
Une fois créé, l’espace santé a pour but de partager les informations avec le personnel de santé : la personne usagère devra donc autoriser les soignant·es à accéder à tout ou partie de ses informations. Mais, là encore, le recueil du consentement est problématique, pour ne pas dire quasiment factice : une simple case à cocher par le ou la soignante servira de « preuve » que l’on a donné son accord pour qu’il ou elle y accède. Au niveau du service informatique, il n’y a donc aucune procédure pour vérifier qu’il s’agit bien de la personne patiente qui donne son accord, à qui, et quand.
On peut ainsi imaginer qu’une personne mal-intentionnée ait accès au service en tant que personnel soignant et consulte le dossier de n’importe quelle personne dans la base de données. Il lui suffirait de cocher cette case de manière arbitraire et d’accéder à des informations privées. Ce cas est certes déjà possible actuellement sans Mon Espace Santé, à partir des divers bases de données médicales existantes, mais de manière bien plus cloisonnée. Avec un système aussi centralisé que Mon Espace Santé, la possibilité que ce type de scénarios se produise est accrue. On peut aussi aisément imaginer que nombre de personnes soignantes vont considérer que le fait d’avoir pris rendez-vous équivaut à consentir à ce qu’ils ou elles accèdent au dossier du ou de la patient·e : le respect du consentement est encore malheureusement une question épineuse dans le milieu médical où les maltraitances médicales peuvent être nombreuses.
Enfin, une fois l’espace créé, seuls des « motifs légitimes » peuvent être invoqués pour refuser qu’un·e professionnel·le verse des documents en ligne. C’est ce qu’indique en l’article R. 1111-47 du code de la santé publique et rappelé dans la politique de protection des données personnelles : « Une fois votre profil Mon Espace Santé créé, vous ne pourrez pas, sauf à invoquer un motif légitime, refuser qu’un professionnel autorisé ou que les personnes exerçant sous sa responsabilité déposent dans votre dossier médical partagé les informations qui sont utiles à la prévention, la continuité et la coordination de vos soins (article R. 1111-47 du code de la santé publique) ».
Nous avons passé en revue la configuration des paramètres à la création du compte « Mon Espace Santé », et déjà, nous pouvons noter quelques actions effectuées sans l’accord explicite de la personne usagère :
L’attestation de vaccination Covid-19 est automatiquement versée dans le dossier par l’Assurance maladie. Le document est visible par défaut à l’ensemble des professionnel·les de santé. Il est possible de le masquer, mais pas de le supprimer car il a été ajouté par un·e professionnel·le de santé. Il n’est pas possible de s’opposer au versement de ce document, alors que l’Assurance maladie n’a pas été techniquement autorisée à déposer des documents sur ce compte.
En ce qui concerne la configuration des accès aux professionnel·les en cas d’urgence, l’option est activée par défaut à la création du compte. Pour s’en rendre compte, la personne usagère doit se rendre dans la section « Confidentialité » des paramètres de configuration, puis « Accès en cas d’urgence ». Le personnel du SAMU ainsi que « tout autre professionnel de santé » sont autorisés par défaut à accéder aux documents et aux rubriques « Vaccinations », « Historique de soins », « Entourage et volontés » du profil médical. Mais quels contrôles techniques permettent de définir ce qui est une situation d’urgence et débloque l’accès des documents aux professionnel·les ? Et s’agit-il des professionnel·les qui ont d’ordinaire déjà accès à notre espace ? Les informations que nous avons pu recueillir ne nous permettent pas de répondre actuellement à cette question.
Le décret s’appliquant à Mon Espace Santé prévoit une matrice d’accès différencié aux informations de la personne usagère selon le type d’activité du ou de la soignante. En pratique, le partage par défaut est très large : votre dentiste aura accès à vos résultats de prélèvements sanguins, votre kiné à votre historique de vaccination, votre sage-femme aux données de remboursement, et ainsi de suite.
Le ou la médecine traitante a, quant à elle, accès à l’ensemble des informations contenues dans l’espace santé de ses patient·es.
S’il est possible de bloquer l’accès à un·e professionnel·le de santé depuis les paramètres de l’espace, que se passe-t-il dans le cas où l’on souhaite changer de médecin·e traitant·e ? Ou que l’on souhaite choisir quelles informations partager ? En effet, certains parcours de santé nécessitent la consultation de divers spécialistes aux opinions divergentes pour obtenir un diagnostic. L’accès à certaines informations sur des opérations ne faisant pas consensus parmi le corps médical peut également générer des biais négatifs chez les professionnel·les de santé (par exemple, le recours à une IVG). Enfin, l’accès est partagé pour le service d’un hôpital : impossible dans de ce cas de savoir qui y a vraiment accès (prêt de carte d’accès au système informatique par exemple).
Cependant, il est important de noter que la personne usagère ou qu’un·e professionnel·le peuvent choisir de masquer un document pour le rendre inaccessible aux autres professionnel·les de santé, à l’exception du ou de la médecine traitante, de la personne ayant mise en ligne le document et du personnel intervenant en cas d’urgence. Si ce n’est pour ces larges exceptions, ceci représente un bon moyen de protéger la confidentialité des données au cas par cas. En revanche, il n’est pas possible de supprimer un document déjà versé par un·e professionnel·le de santé.
Il est possible pour les personnes de vérifier qui a eu accès à leurs données : des journaux d’activité enregistrent qui accède à quel document à une date et une heure donnée. La personne usagère peut recevoir des notifications chaque fois qu’un nouvel accès est détecté. Ces journaux permettent donc de détecter un potentiel mésusage de l’accès aux données. Cependant, cette fonctionnalité ne peut aider à protéger les accès qu’après coup : si on se rend compte qu’une personne soignante a eu accès à un document et que cela ne nous convient pas, on ne pourra que limiter ses accès futurs.
Le système de droit d’accès de Mon Espace Santé n’a pas été pensé pour permettre aux utilisateur·ices de gérer simplement et de manière éclairée l’accès à leurs données. On pourrait par exemple imaginer un système où par défaut seule la personne usagère et la liste de soignant·es qu’elle a désignées auraient accès aux documents la concernant, l’usagère pouvant ensuite choisir de démasquer certains documents à d’autres professionnel·les de santé (en bénéficiant par exemple de conseils de la part des soignant·es pour faire ce choix de manière éclairée). Dans ce cas, c’est la personne usagère qui aurait véritablement la main sur ses données, et non pas les professionnel·les de santé comme c’est le cas avec la conception actuelle de Mon Espace Santé.
Dans le cas des enfants et des adolescent·es, les ouvrants droits (c’est-à-dire les assuré·e·s) auront accès aux espace de santé des personnes qui leur sont rattachées. C’est-à-dire que, concrètement, toutes les informations de santé de leurs enfants et adolescent·es, ainsi que les rendez-vous et les courriels passant par la messagerie sécurisée leur seront accessibles.
En théorie, certaines infos peuvent ne pas être versées dans le dossier. Par exemple, dans le cas d’une IVG, le ou la soignant·e est en charge d’expliquer et de proposer à la personne mineure de ne pas ajouter les infos de l’IVG dans le dossier. La personne peut répondre qu’elle ne veut pas que ce soit versé. Aucune donnée de remboursement relatif à cet acte ne sera remontée. Cet exemple fait partie des motifs légitimes que peut invoquer une usagère pour refuser qu’un·e professionel·le verse un document sur l’espace santé.
Ceci implique que les soignant·es pensent à demander, et respectent, le souhait des personnes. Or, avec Mon Espace Santé, la quantité des données versées est multipliée et surtout normalisée : par fatigue ou par oubli à force de répétition, il est probable que le consentement pour verser une information dans Mon Espace Santé ne soit pas récolté à chaque fois. De plus, comme le recueil du consentement est oral et informel (il ne laisse donc aucune trace), la décision pourra difficilement être contestée.
Cet outil multiplie donc malheureusement les chances de mettre en danger le secret médical de ces personnes, et potentiellement la sécurité des personnes au sein de leur foyer ou de leur famille : que se passe-t-il si une enfant/ado ne souhaite pas parler d’un sujet (contraception, dépistage de MSTs, grossesse, avortement, transition) avec la personne à laquelle son compte est rattaché (que cela soit par pudeur ou par crainte de violences en représailles) ?
Le dossier Informatique et Libertés fourni par la Délégation du numérique en santé précise par ailleurs que l’opposition à la création du compte Mon Espace Santé appartient aux représentants légaux. Une personne mineure ne peut donc supprimer ou s’opposer à la création de son espace santé.
En revanche, lorsque la personne devient ayant droit autonome, les accès des représentants légaux sont clôturés par le service. La personne peut gérer son compte, le fermer ou le créer s’il n’existait pas avant si elle le souhaite. Notons qu’une personne peut demander, à partir de 16 ans, de devenir ayant droit autonome auprès de la CPAM de son domicile. On peut imaginer que le scénario de clôture des accès des anciens représentants légaux s’applique également dans ce cas.
Par ailleurs, la notion d’ayant droit existe toujours dans certains régimes tels que la Mutualité sociale agricole (MSA) ou le régime local d’Alsace-Moselle (personnes mariées, pacsées, concubines et enfants jusqu’à 24 ans sans activités). La documentation à laquelle nous avons eu accès ne permet pas de dire si les ouvrants droits auront accès aux espaces santé des ayants-droits majeurs. Nous attirons l’attention sur le fait que si tel était le cas, cela représenterait un danger pour les personnes qui vivent des violences ou des conflits dans leur vie familiale (personnes en instance de divorce par exemple).
Enfin, au delà des soignant·es et des utilisateur·ices, des personnes tierces peuvent avoir accès aux données de santé pour des fonctions de support. Les niveaux 2 et 3 de ce support pourront avoir accès aux données de santé. Ceci implique notamment des agent·es de la CPAM et le personnel de prestataires (Atos/Wordline) et de l’hébergement. L’accès aux informations doit en théorie recueillir le consentement de la personne usagère dans le cadre du support, mais là encore impossible d’assurer que ce consentement sera bien demandé et non forcé techniquement. Concrètement, des personnes qui ne sont pas professionnelles de santé peuvent accéder aux informations médicales personnelles des usagères. Mais cela est-il vraiment nécessaire pour une fonction support ? Ceci pose la question également de savoir si les documents sont stockées de manière chiffrée et lisibles uniquement par les personnes habilitées, ou pas. Difficile de répondre à cette question en l’état de nos connaissances.
La description du catalogue de services numériques de santé à venir implique la possibilité d’ajouter des applications d’entreprises privées au sein de l’espace santé. Ceci pose un grand nombre de questions concernant le partage des données d’activités et des contenus stockés dans l’espace santé. Pour l’instant, nous n’avons pas les réponses à ces questions, et nous soulignons notre inquiétude sur ce sujet : comment l’usagère pourra-t-elle déterminer à quelles données l’application accède, et si cela est légitime ? Pourra-t-on limiter les données auxquelles chaque application a accès (comme sur un smartphone) ? Lors des mises à jour des applications, les changements de permissions ou de fonctionnement seront-ils notifiés et comment ? Et enfin, quels usages de nos données feront les « startups » d’objets connectés et autres grandes entreprises et plateformes de prise de rendez-vous (monétisation, profilage) ? Au-delà de ces problèmes d’implémentation, il faut dénoncer la direction générale animée par cette évolution : le remplacement du soin par la technique industrielle.
Mon Espace Santé s’inscrit dans une tradition de numérisation et de centralisation en ligne des données : ceci fait du service une cible idéale pour les piratages de données. Le stockage est géré par une entreprise privée. Le code du service n’est ni public ni accessible, ce qui pose la question de la transparence pour un outil du service public.
Nous nous interrogeons, aujourd’hui comme dans un futur plus ou moins proche, sur l’accès à la santé des personnes ne pouvant ou ne voulant pas utiliser ce service de santé. Et si d’aventure nous nous retrouvions dans une situation où il nous est impossible d’avoir rendez-vous sans passer par cet espace ? Ou que nos remboursements sont rendus difficiles sans l’utilisation de cet espace ?
La fiabilité et la sécurité informatique de ce service doivent aussi être considérées : si la plateforme se retrouve la cible d’un défaut de fonctionnement ou d’un piratage, que deviennent alors nos données ? Souvenons-nous du piratage des services de l’AP-HP en 2021 dans le contexte du Covid-19, suite auquel la réponse apportée par les autorités de santé a été insuffisante, voire nulle. Plus récemment encore, les données d’au moins 510 000 personnes ont été volées à l’Assurance maladie via Amelipro. À vouloir faciliter l’accès à la santé en imposant un outil numérique, n’y a-t-il pas erreur sur la façon de procéder ? Autant de questions auxquelles cet outil numérique ne répond pas tout en persistant dans la même direction.
Mon Espace Santé est un service manipulant des données sensibles qui est déployé à l’ensemble de la population française. Or, sa conception et son déploiement ne sont clairement pas au niveau des services les plus respectueux en matière de protection de la vie privée.
Selon le Ségur du numérique en santé, son ambition est de « généraliser le partage fluide et sécurisé de données de santé entre professionnels et usagers pour mieux soigner et accompagner. »
Mais pour cela, les besoins en terme de consentement et de gestion des données des usagères devraient être au cœur d’une expérience utilisatrice respectueuse, fiable et réaliste, ce qui à notre sens n’est pas le cas avec Mon Espace Santé. Sans oublier que ce service s’inscrit dans un processus de numérisation des services publics qui, trop souvent, ne tient pas compte des difficultés d’accès et d’utilisation d’Internet par de nombreuses personnes.
Pour ces raisons, nous ne pouvons que remercier les nombreuses associations qui ont déjà alerté sur ce sujet et, comme elles, vous proposer des guides pour demander la suppression de votre espace santé.
Les applications « Messages » et « Téléphone » de Google, installées sur plus d'un milliard de smartphones, enregistrent l'activité de l'utilisateur et envoient ces données sur les serveurs de la firme. Les utilisateurs ne sont pas informés de cette collecte, qui ne respecterait pas le RGPD, et n'ont aucun moyen de s'y opposer.
Les utilisateurs d'Android sont habitués aux alertes concernant de fausses applications qui collectent leurs données. Cependant, cette fois ce sont deux applications légitimes préinstallées sur les versions récentes d'Android qui envoient des informations personnelles à Google...
Le problème a été découvert par Douglas Leith, professeur d'informatique au Trinity College de Dublin. Ce sont deux applications de Google qui sont mises en cause, à savoir Messages (com.google.android.apps.messaging) et Téléphone (com.google.android.dialer). À chaque SMS envoyé ou reçu, Messages envoie à Google un rapport qui inclut l'heure et une empreinte numérique du message. Ces données sont transmises à travers le service d'enregistrement Clearcut de Google Play ainsi que le service Firebase Analytics.
L'appli utilise la fonction de hachage SHA-256 pour créer une empreinte tronquée, ce qui est censé éviter de dévoiler le contenu du message. Toutefois, cela suffirait à Google pour faire le lien entre l'expéditeur et le destinataire. L'application Téléphone envoie des rapports similaires, avec l'heure et la durée des appels reçus ou émis. De plus, quand la protection contre les appels indésirables est activée, ce qui est le cas par défaut, l'appareil transmet également le numéro appelant aux serveurs de Google.
Graphique sur le lien entre les données collectées et l’identité réelle, via un identifiant Android, lié aux identifiants de l’appareil et de la carte SIM, ainsi qu’au compte Google, lui-même lié au numéro de téléphone et cartes bancaires. © Douglas Leith
Graphique sur le lien entre les données collectées et l’identité réelle, via un identifiant Android, lié aux identifiants de l’appareil et de la carte SIM, ainsi qu’au compte Google, lui-même lié au numéro de téléphone et cartes bancaires. © Douglas Leith
Les deux applis envoient également des informations détaillées sur leur utilisation, par exemple lorsque l'utilisateur affiche un message ou effectue une recherche dans ses conversations. Google n'informe à aucun moment l'utilisateur de la collecte de données et n'offre aucun moyen de s’y opposer. Le professeur met également en doute la conformité des applications avec le règlement général sur la protection des données (RGPD). Cette collecte ne respecterait pas les trois principes de base concernant l'anonymat, le consentement et un intérêt légitime.
Après avoir signalé à Google ces problèmes, la firme a répondu en indiquant effectuer quelques changements. Les utilisateurs seront notifiés qu'ils utilisent une application Google avec un lien vers la politique de confidentialité. Messages ne collectera plus le numéro d'expéditeur, le code ICCID de la carte SIM, ainsi que l'empreinte des SMS. Les deux applications n'enregistreront plus les évènements liés aux appels dans Firebase Analytics. La collecte de données utilisera un identifiant temporaire plutôt que l'identifiant Android permanent. Enfin, Google informera plus explicitement les utilisateurs lorsque la fonction de protection contre les appels indésirables sera activée, et cherche actuellement comment utiliser moins d'informations ou des données plus anonymes.
Le professeur a également indiqué que Google compte ajouter à Messages une option pour refuser la collecte d’informations. Toutefois, celle-ci ne couvrirait pas ce que la firme considère comme données « essentielles ». Il s'agit d'une des premières études sur les données personnelles transmises par les services Google Play, qui restent largement opaques et pourraient cacher bien d'autres surprises...
Le sujet est presque devenu un marronnier depuis le début de la crise sanitaire: les Français quitteraient la ville pour se mettre au vert. La réalité est tout autre.
Des cadres parisiens en télétravail, heureux de profiter d'une pièce supplémentaire, d'un jardin et d'un rythme moins effréné. Des agents immobiliers de zones rurales qui annoncent n'avoir «plus rien à vendre», et des villes qui se vident. Si ce tableau vous paraît familier, c'est qu'il est régulièrement brossé médiatiquement depuis la pandémie de Covid-19 en France.
Dès le premier confinement du printemps 2020, c'est d'abord avec les données de téléphonie mobile qu'on pense voir une fuite générale (mais temporaire) vers les campagnes. Une fois les restrictions levées, place aux achats de maison avec jardin, loin des centre-ville. Le sujet devient alors presque un marronnier, qu'il soit évoqué positivement comme un moyen de revitaliser les campagnes, ou moqué à travers la description de néo-ruraux découvrant la rosée matinale et les désagréments de la vie rurale. L'affaire paraît entendue: un bouleversement a eu lieu. La ville n'attire plus, et la campagne se gentrifie. «Comment l'exode urbain remodèle la France», titrait ainsi L'Obs en une.
Derrière cette expression générale «d'exode urbain» se cache pourtant un malentendu, pointe une étude pluridisciplinaire intitulée «Exode urbain? Petits flux, grands effets. Les mobilités résidentielles à l'ère (post-)Covid» et dont les premiers résultats viennent de paraître. «Dans l'imaginaire, l'expression renvoie à l'exode rural. Mais il n'y pas de caractère massif dans ces mobilités, note Hélène Milet, coordinatrice de l'étude. Il n'y a pas de big-bang territorial.»
Afin de traquer ces mouvements de population, les chercheurs ont étudié des données issues de plateformes en ligne: Leboncoin, Meilleursagents, Seloger, pour analyser les recherches immobilières où se projettent les Français. Pour compléter cette approche, les prises de contact et les ventes effectuées sur Seloger ont également été étudiées, tout comme les déménagements effectifs auprès de la Poste. Enfin, d'autres chercheurs ont de leur côté mené des enquêtes de terrain dans six zones rurales et péri-urbaines: Cévennes, Vosges, Pyrénées audoises, etc.
Les Français restent en majorité attirés par les grands pôles urbains, par le littoral, et par les zones périurbaines.
Un premier constat se dessine: les grandes tendances géographiques françaises n'ont pas été modifiées par la pandémie de Covid-19. Les Français restent en majorité attirés par les grands pôles urbains, par le littoral, et par les zones périurbaines. L'attrait pour la campagne, si présent dans nos représentations, n'est pas la principale caractéristique de la France à l'ère (post-)Covid. «Ce sont les principaux pôles urbains et leurs relations entre eux qui captent l'écrasante majorité des flux de recherche immobilière», cadre l'étude.
La principale raison est que ces pôles urbains restent des bassins d'emplois, le télétravail ne concernant qu'une faible partie des actifs. Idem pour les services: plutôt que la campagne, un couple de cadre va d'abord se diriger vers Marseille, Lyon ou Toulouse.
Dans le détail, les données de déménagement postaux montrent bien un départ des centres de grandes villes, particulièrement de Paris. Ce qui fait écho à d'autres données, comme la baisse du nombre d'enfants scolarisés dans la capitale, mais ne signifie pas que tout le monde est parti se mettre définitivement au vert. «Beaucoup des arrivées se font vers des petites villes, ou des villes de couronne», relève Hélène Milet. Là aussi, ce phénomène, appelé desserrement urbain, préexistait au Covid, prouvent les données de déménagement. La pandémie n'a fait que l'accentuer, parfois en poussant les ménages à s'installer un peu plus loin, comme à Tarare, à plus d'une quarantaine de kilomètres de Lyon.
Max Rousseau, chargé de recherches au Centre de coopération internationale en recherche agronomique pour le développement et qui a participé à l'étude, voit dans ces achats «une extension de la métropolisation», voire une «méga périurbanisation», bien loin d'une transition rurale avec un changement de mode de vie.
Même si ces «petits flux» ne constituent pas la majorité des déplacements, les travaux des chercheurs convergent cependant pour montrer des départs accrus vers la campagne. Mais attention à la généralisation, prévient Hélène Milet. «Il y a beaucoup de diversité dans les zones rurales. Celles qui attirent sont accessibles, à la mer ou proches d'une ville», explique la coordinatrice de l'étude. Dans les Pyrénées audoises, terrain qu'a couvert Aurélie Delage pour l'étude, peu de chances de voir débarquer des cadres en télétravail, vu la difficulté de faire une navette vers une grande ville. «On y retrouve trois profils: des retraités, dont ceux qui reviennent au pays, des ménages en transition professionnelle, et des personnes en recherche de marginalité, d'une vie alternative», témoigne la maîtresse de conférences en aménagement et urbanisme à l'université de Perpignan.
Si les interviews de maires se félicitant de voir tous les biens de leur commune vendus ont été légion, «investissement ne signifie pas toujours installation», rappelle Hélène Milet. Les retours de terrain montrent qu'une partie des achats sont en réalité des stratégies d'investissement. Ils consistent à acquérir un nouveau bien, pour des personnes déjà propriétaires, et à ne l'occuper que de manière temporaire ou saisonnière, parfois avec de la location de courte durée. Un constat qui ne devrait pas étonner en France, où la propriété reste très concentrée, rappelait l'Insee dans une étude parue en novembre dernier.
Ce phénomène d'achat refuge a été renforcé par la crise du Covid et la crainte d'un nouveau confinement, mais aussi par une prise de conscience grandissant des risques écologiques. La Bretagne devient ainsi un nouveau lieu d'investissement en vue de l'évolution climatique, plutôt que la Côte d'Azur. Le jardin n'est pas qu'un moyen de s'aérer, mais permet d'avoir un verger, un poulailler, voire une source d'eau, afin de développer une autonomie. Auparavant l'apanage des personnes avec un capital culturel élevé, cette conscience écologique se diffuse y compris dans la classe moyenne, assurent Aurélie Delage et Max Rousseau.
Loin de revitaliser toutes les campagnes françaises, ces flux risquent donc d'accentuer la «surchauffe» dans des territoires déjà attractifs, prévient l'étude. «Dans les zones rurales, le marché de l'immobilier peut se retrouver rapidement sous tension», explique Aurélie Delage, en raison du faible nombre de biens disponibles et du décalage de ces biens avec les besoins des acheteurs: vétusté, manque de terrain... Les nouveaux acheteurs introduisent des pratiques nouvelles dans ces régions, que l'étude résume par la formule de «parisianisation des marchés locaux»: achats comptants sans négociation, «parfois même sans visite», témoigne Hélène Milet.
Le marché locatif traditionnel se retrouve donc asséché. «C'est ce qui arrive sur le littoral nord de la Bretagne, autrefois épargné», précise Max Rousseau. «Il y a un phénomène d'éviction. Les studios sont rachetés, ce qui met les étudiants en difficulté.» Les populations moins favorisées se retrouvent à habiter de plus en plus loin des centres, ou à se tourner vers de l'habitat précaire. On voit alors émerger localement des questions très politiques: faut-il créer un statut de résident au Pays basque? Le parc social est-il dimensionné pour faire face à la hausse de l'immobilier? Autant de problématiques jusqu'ici absentes des débats de l'élection présidentielle.
COMMUNIQUÉ
Le Haut Conseil international de la langue française et de la francophonie* (HCILF) transmet le message suivant :
Le peuple français et les peuples des pays et communautés de langue française de Belgique, Canada, Québec, Suisse, et d’ailleurs, ACCUSENT :
une oligarchie mondialiste de viser une hégémonie universelle en épandant et imposant partout un anglais de commerce déculturant ;
trois institutions de l’Union européenne (Commission, Parquet, Cour des Comptes) de s’en faire les instruments en imposant – post-Brexit ! – l’anglais langue de travail unique en leur sein, décisions violant les textes fondateurs de l’UE : Traité de Rome, Charte des Droits, Règlement des langues ; nos associations attendent que le président de la République obtienne du Conseil de l’UE sous la présidence française le rétablissement d’un vrai pluralisme des langues : promesse écrite reçue de M. C. Beaune, secrétaire d’État aux Affaires européennes ;
la Cour de justice de l’Union européenne de déni de justice pour s’être déclarée incompétente sur le fond, déboutant notre association agréée qui la priait – preuves requises à l’appui – de sanctionner l’illégalité des trois décisions ; déni aggravé par le passage de fait du droit romain au droit coutumier anglo-saxon : le fait accompli illégal dure, fait jurisprudence, puis devient loi (« common law »), le remplacement de langue et celui de droit allant de pair, impérialement ;
les gouvernements français, belge, wallon, canadien, québécois, suisse, de ne pas faire appliquer leurs législations linguistiques : Constitution française (art. 2 et 87), lois Toubon (1994) et Fioraso (2013 pour l’enseignement supérieur trop en anglais) ; loi 101 au Québec... et de laisser pervertir administrations, écoles et universités par une idéologie et une novlangue américaines « déconstructrices » de l’histoire et de la langue de leur pays ;
des tribunaux administratifs français de complaisance coupable, pour avoir débouté nos associations qui attaquaient des décisions illégales de ministères et d’universités, et s’être ainsi rendus complices du remplacement du droit français par une « common law » de fait ;
Le Haut Conseil international de la langue française et de la francophonie (HCILFF) invite donc les gouvernements cités à entendre le message de leur peuple et à appliquer la loi.
Il invite les Français et toutes personnes de langue française présentes à Paris le 20 mars, et voulant – pacifiquement mais clairement – rejeter l’arrachage de leur langue, et affirmer leur attachement à leur civilisation, à confluer dès 14 h vers la Montagne Sainte-Geneviève et le Panthéon pour un rassemblement-forum au-delà de toutes les opinions politiques, à y entendre nos appels, puis à suivre notre cortège dans le Quartier latin, haut lieu de l’humanisme et de l’universalisme européens, pour appeler ensemble à un urgent sursaut civilisationnel.
Au nom du Haut Conseil : son secrétaire général Albert Salon, ancien ambassadeur. Contact : Avenir de la langue française (ALF), 34 bis, rue de Picpus, 75012, Paris, albert.salon0638@orange.fr tél 0768 87 16 01.
La CNIL[1] a mis en demeure un éditeur pour avoir collecté des données à caractère personnel sur les visiteurs de son site Internet à l’aide du module Google Analytics.
En intégrant ce module Google Analytics à son site Internet, l’éditeur donnait la consigne aux navigateurs de ses visiteurs d’envoyer des informations à Google. Ces informations contenaient notamment l’adresse de la page visitée, l’éventuel page précédemment visitée (« Referer »), l’heure de la visite, l’adresse IP du visiteur et des informations sur son appareil. Ces informations pouvaient aussi contenir l’identifiant unique qui était attribué par Google à l’internaute et stocké dans un cookie et/ou l’identifiant interne que l’éditeur du site avait attribué à l’internaute, si ce dernier était connecté à son espace personnel. Le numéro de commande était aussi présent si la personne avait passé commande sur le site.
Toutes ces informations permettaient à l’éditeur de mesurer l’audience de son site Internet avec précision, mais aussi de détecter d’éventuelles erreurs et de mesurer ou d’optimiser l’efficacité ses campagnes publicitaires.
En premier lieu, la CNIL a considéré que les données collectées par ce module Google Analytics étaient des données à caractère personnel, car elles étaient associées à un identifiant unique et/ou composées de données qui pouvaient permettre d’identifier les visiteurs ou de les différencier de façon significative. La Commission a donc estimé que les exigences du RGPD[2] devaient être respectées.
Ensuite, la CNIL a rappelé que les transferts de données vers un pays n’appartenant pas à l’Union européenne étaient autorisés uniquement si « le niveau de protection des personnes physiques garanti par le [RGPD] n[’est] pas compromis »[3]. Un tel niveau de protection peut être obtenu :
Les données issues de Google Analytics sont transférées vers les États-Unis. Ce pays ne bénéficie plus d’une décision d’adéquation depuis l’arrêt[5] « Shrems II » du 16 juillet 2020 de la Cour de justice de l’Union européenne (CJUE) en raison de la surveillance de masse réalisée par les services gouvernementaux américains. Ces programmes de surveillance obligent notamment la société Google à fournir au gouvernement américain les données à caractère personnelle qu’elle possède ou les clés de chiffrement qu’elle utilise.
En l’absence d’une décision d’adéquation, l’éditeur du site et la société Google avaient recourru à des « clauses contractuelles types », c’est-à-dire un rapport détaillé justifiant un niveau de protection suffisant. La CNIL a cependant considéré, comme l’avait déjà fait la CJUE dans son arrêt cité précédemment, qu’un tel document ne permettait pas, à lui seul, d’apporter une protection contre les programmes de surveillance américain, car la société Google ne pouvait pas aller à l’encontre des lois de son pays. Des mesures additionnelles devaient donc être prises par l’éditeur et/ou Google.
Des mesures organisationnelles ont été prises par Google, comme la publication d’un rapport de transparence et la publication d’une politique de gestion des demandes d’accès gouvernementales, mais la Commission a estimé que ces mesures ne permettent pas « concrètement d’empêcher ou de réduire l’accès des services de renseignement américains ».
Des mesures techniques ont aussi été prises par Google, comme la pseudo « anonymisation »[6] des adresses IPs, mais la CNIL a estimé qu’elles « ne sont pas efficaces », car « aucune d’entre elles n’empêche les services de renseignement américain d’accéder aux données en cause ne ne rendent cet accès ineffectif ».
En l’absence d’une protection des données adéquate, la CNIL a, par conséquent, estimé que les transferts effectué par l’éditeur vers les serveurs de Google situés aux États-Unis étaient illégaux.
La CNIL a mis en demeure le site de mettre en conformité les traitements de données associés à Google Analytrics ou, si ce n’est pas possible, de retirer le module Google Analytics.
Concernant le nom de l’éditeur mis en cause, la CNIL a décidé de ne pas rendre public son nom pour des raisons que j’ignore. Il est cependant fort probable que la société soit Decathlon, Auchan ou Sephora étant donné que cette décision est la conséquence de plaintes[7] déposées par l’association militante NOYB[8].
Concernant la décision elle même, même si c’est la première fois que la CNIL prend publiquement position sur Google Analytics, ce n’est ni une surprise, ni une révolution. Depuis l’invalidation de l’accord avec les États-Unis en juillet 2020, tous les acteurs s’intéressant de près à la protection des données savent que les transferts de données vers les USA étaient, au mieux, très douteux. De plus, la CNIL n’est pas la première autorité de protection des données européenne à avoir statué dans ce sens. L’autorité autrichienne avait fait de même[9] trois mois plus tôt.
Cette décision a le mérite de mettre les choses au clair. Les organismes ne peuvent désormais plus prétendre un éventuel flou juridique. Google Analytics doit être retiré.
Notes et références
CNIL : Commission Nationale de l’Informatique et des Libertés (cnil.fr).
RGPD : Règlement Général sur la Protection des Données (Règlement (UE) 2016/679).
Le RGPD autorise des transferts de données vers des pays tiers si « le niveau de protection des personnes physiques garanti par le [RGPD] n[’est] pas compromis » (source : RGPD, article 44).
Un transfert de données à caractère vers un pays tiers peut être réalisé si une décision d’adéquation existe pour ce pays (source : RGPD, article 45). Une telle décision existe, par exemple, pour le Royaume-Uni.
La Cour de justice de l’Union européenne (CJUE) invalide le « bouclier de protection des données UE-États-Unis » dans un arrêt du 16 juillet 2020 (source : CJUE, C-311/18, 16 juillet 2020, Shrems II).
La solution Google Analytics propose une option permettant d’« anonymiser » les adresses IP des internautes. Cette opération est toutefois réalisée par Google après que le transfert de données vers les États-Unis ait lieu.
L’association NOYB a déposé des plaintes contre de nombreux organismes suite à des transferts de données personnelles vers les États-Unis jugés illicites. Six entreprises francaises sont concernées. Trois d’entre elles concernent Google Analytics : Decathlon, Auchan et Sephora (source : noyb.eu).
NOYB - European Center for Digital Rights : (noyb.eu).
L’autorité autrichienne a décidé, décembre 2021, que les transferts de données réalisés par Google Analytics étaient illicites (source : noyb.eu, en allemand) (source 2 : gdprhub.eu, en anglais).
Été 2020, monoculture d’épicéas morts en Argonne, région naturelle chevauchant les départements de la Marne, des Ardennes et de la Meuse (sept. 2020). Sylvain Gaudin, CC BY-NC-ND
Car la forêt française est aujourd’hui en crise : depuis deux décennies, on assiste en effet à une mortalité croissante des peuplements forestiers et à une baisse globale de leur productivité. Si la surface boisée en France métropolitaine ne cesse de croître depuis le milieu du XIXe siècle, c’est en raison du boisement – spontané ou artificiel – de terres agricoles, car la superficie occupée par des forêts anciennes, elle, ne cesse de diminuer.
Ce « dépérissement », est généralement attribué aux modifications climatiques. Les sécheresses estivales récurrentes fragilisent les arbres et la douceur hivernale favorise les pullulations de bioagresseurs, en particulier les scolytes et les hannetons.
Le changement climatique en est sans aucun doute une cause essentielle, mais il est aussi le révélateur d’écosystèmes forestiers fragilisés par des décennies de pratiques sylvicoles focalisées sur la production de bois. Non seulement la forêt française fixe moins de carbone par unité de surface, mais l’exploitation des peuplements dépérissants induit des émissions supplémentaires de CO₂ aggravant l’effet de serre et les changements climatiques associés.
Dans un tel contexte, adapter la forêt française est plus qu’une nécessité, c’est une urgence.
Les forêts ne sont pas des champs d’arbres, mais des écosystèmes avec de multiples interactions entre les différentes composantes.
Le promeneur a tôt fait de constater que les descentes de cimes et les mortalités de masse concernent surtout des plantations monospécifiques, constituées d’arbres de même âge, correspondant souvent à des essences introduites hors de leur territoire d’indigénat.
C’est le cas de nombreuses plantations d’épicéa en plaine, tandis que les pessières naturelles d’altitude résistent plutôt bien. Les premières constituent des peuplements simplifiés sensibles aux aléas climatiques (tempêtes, sécheresses, incendies) et aux attaques de bioagresseurs (insectes, champignons…), tandis que les secondes, beaucoup plus hétérogènes et diversifiées, sont plus résilientes.
Même s’il existe une sensibilité propre à chaque essence et à chaque situation stationnelle, les impacts directs et indirects du dérèglement climatique sont modulés par l’intégrité fonctionnelle de l’écosystème forestier, qui est elle-même largement influencée par la sylviculture.
Adapter la forêt, c’est agir sur la santé de l’écosystème et non simplement remplacer des arbres mourants par d’autres. C’est un traitement de fond des causes du dépérissement qu’il faut entreprendre et non un simple traitement des symptômes. La forêt ne peut plus être réduite à ses arbres et à sa fonction de production : seule une vision écosystémique peut être salvatrice.
Le principal levier permettant d’adapter la forêt française repose sur la promotion de pratiques sylvicoles prenant davantage en compte le fonctionnement des écosystèmes forestiers dans leur ensemble ; cela pour améliorer durablement leur état de santé, leur résilience, et accroître leur capacité à séquestrer et à stocker du CO2.
D’abord, il faut réserver chaque essence à des stations présentant des conditions optimales pour elle, actuellement et en prenant en compte l’évolution modélisée du climat sur des pas de temps cohérents avec le cycle sylvicultural. Il faut aussi privilégier les peuplements mélangés (plusieurs essences) et structurellement hétérogènes (plusieurs hauteurs et formes de houppiers), de manière à renforcer la résistance aux aléas météorologiques et aux attaques de bioagresseurs.
Forêt mélangée des Vosges du Nord - sept. 2021. Evrard de Turckheim, CC BY-NC-ND
Privilégier la régénération naturelle permet d’accroître la diversité génétique soumise à la sélection naturelle et les capacités d’adaptation locale, contrairement aux plantations. Cela implique une meilleure gestion de l’équilibre sylvo-cynégétique, notamment en favorisant la végétation accompagnatrice qui protège les plants sensibles et fournit une ressource alimentaire alternative.
Il existe déjà des modes de sylviculture mettant en œuvre ces principes, comme la futaie irrégulière ou jardinée. Ce type de sylviculture n’est pas nouveau, il a été adopté depuis 2017 par l’Office national des forêts pour toutes les forêts publiques franciliennes afin d’éviter les « coupes à blanc ».
Coupe à blanc d’une parcelle de Douglas dans une forêt de l’Oise. Guillaume Decocq, CC BY-NC-ND
Face aux sécheresses récurrentes, il faut adapter la densité des peuplements au bilan hydrique de la station et préserver l’alimentation en eau des sols, y compris en limitant leur tassement.
Plus généralement, accroître la résilience des forêts nécessite de favoriser la biodiversité au sein de tous les compartiments de l’écosystème. Celle-ci est encore trop souvent perçue comme une contrainte pour le forestier, comme un obstacle à la gestion, alors même que c’est son assurance sur le long terme pour maintenir la fertilité des sols, la résistance aux bioagresseurs et, in fine, la capacité de production de bois.
Plusieurs documents de planification, comme les Plans régionaux Forêt-Bois (PRFB) considèrent un peu hâtivement que les essences indigènes ne sont plus adaptées au « nouveau » climat. Cette vision fixiste du monde vivant oublie que les essences forestières européennes ont déjà connu bien des changements climatiques (notamment un Petit Âge glaciaire et un Optimum médiéval). Pire, elle ignore nombre de travaux scientifiques récents qui mettent en lumière des capacités d’adaptation insoupçonnées des arbres.
Au moins trois ensembles de mécanismes permettent l’adaptation spontanée des arbres en environnement changeant : les mécanismes génétiques, via la sélection naturelle qui agit sur le long terme, ce qui nécessite une certaine diversité génétique ; les mécanismes épigénétiques, qui prédisposent des individus à des conditions environnementales que leurs parents ont vécues, via des marques induites capables de moduler l’expression des gènes et d’induire des mutations ; les mécanismes holobiontiques, via les symbioses issues de la co-évolution entre l’arbre et son microbiote, ce dernier contribuant à de nombreuses fonctions vitales.
Forêt mélangée dans le Sud amiénois où les épicéas sont épargnés par les attaques de scolytes - oct. 2021. Guillaume Decocq, CC BY-NC-ND
L’efficacité de ces différents mécanismes face à des changements climatiques rapides est encore mal connue, d’où l’intérêt de pouvoir observer la réponse des essences autochtones dans un contexte « naturel », c’est-à-dire hors forêt soumise à la sylviculture.
À cet égard, il est important d’augmenter les superficies d’aires forestières protégées et leur représentativité des différents contextes climatiques et des types de sols, comme souligné dans la contribution du Conseil national de la protection de la nature aux Assises de la forêt et du bois.
Ces espaces à naturalité élevée constituent non seulement des réservoirs de biodiversité préservée, mais aussi des laboratoires grandeur nature pour la compréhension de la biologie des espèces et des dynamiques forestières spontanées, indispensables à l’acquisition de références pour concevoir les itinéraires sylviculturaux de demain.
La prétendue « inadaptation » des essences autochtones justifie le recours à des essences exotiques, venant souvent d’autres continents, dont l’intérêt et l’innocuité sont plus que douteux… L’idée de privilégier les essences naturellement résistantes au stress hydrique serait séduisante, si elle ne faisait pas preuve d’une certaine amnésie (en plus de faire l’impasse sur des millions d’années d’histoire évolutive).
Car l’introduction d’essences exotiques en forêt n’est pas nouvelle. Beaucoup se sont soldées soit par des échecs d’acclimatation, soit par de graves crises écologiques : introductions accidentelles de bioagresseurs exotiques (l’actuelle épidémie de chalarose du frêne en est un exemple parmi des dizaines d’autres), invasions biologiques (le cerisier tardif, jadis vanté pour ses mérites en foresterie est devenu aujourd’hui l’ennemi du forestier), érosion de la biodiversité autochtone (les sous-bois fantomatiques de nombreuses plantations de conifères en plaine en sont un exemple criant) ; ou encore, aggravation des conséquences de certains aléas (les méga-feux que connaît la Péninsule ibérique sont étroitement liés aux plantations d’eucalyptus, très inflammables, et pourtant promues en région méditerranéenne française).
En forêt de Compiègne, invasion par le cerisier tardif - juin 200). Guillaume Decocq, CC BY-NC-ND
Une analyse détaillée de ces risques est présentée dans un livre blanc sur l’introduction d’essences exotiques en forêt, récemment publié par la Société botanique de France.
Les risques associés aux essences exotiques, difficilement prévisibles, mais réels et coûteux pour la société, justifient que les nouvelles plantations soient davantage réglementées. Celles-ci devraient faire l’objet d’une étude d’impact préalable avec analyse de risque.
Plus généralement, il est urgent d’évaluer le rapport bénéfice/risque à moyen et à long terme de ces plantations, et, dans l’attente d’une telle évaluation, de soumettre à un moratoire les mesures politiques et financières incitant leur introduction en forêt.
Cet effort indispensable pour adapter la gestion des forêts aux changements climatiques ne doit pas se limiter aux actions d’ingénierie, mais reposer sur une approche scientifique interdisciplinaire, fondée sur l’ensemble des apports récents des sciences et techniques de la conservation.
La recherche scientifique en écologie forestière en particulier est très mobilisée sur la question des impacts des changements climatiques sur la forêt et des capacités adaptatives des espèces.
Les nombreux résultats de la recherche permettraient d’appuyer les stratégies de gestion et de planification forestières sur des bases scientifiques robustes. Pourtant ces résultats sont jusqu’ici peu ou pas pris en compte par les décideurs.
La gestion durable des forêts ne peut pourtant reposer sur la seule ingénierie, tout comme elle ne peut se réduire aux seuls arbres. Agir en environnement changeant et en univers incertain suppose d’intégrer nos connaissances scientifiques dans tous les domaines, de prendre en compte l’évolution des attentes sociétales et d’actualiser les outils des ingénieurs.
“Napoléon exploite les moutons, c’est incroyable”, s’exclame Jordan Daughtry, 14 ans, son exemplaire du livre de George Orwell La Ferme des animaux à la main. Elle parle du cochon dictateur qui prend le contrôle d’une ferme anglaise avant de soumettre à sa volonté les autres animaux.
Dans cet ouvrage qui critique le régime stalinien, les moutons, qui représentent les masses facilement manipulables, sont des “idiots incultes”, ajoute-t-elle.
Sa sœur Kiara, 16 ans, poursuit : >“Ça m’a un peu rappelé toute cette histoire après l’élection de Joe Biden”, explique-t-elle en évoquant l’insurrection du 6 janvier, quand les partisans de Trump, enhardis par les mensonges du président sortant, ont assiégé le capitole. “Et toutes les bêtises qu’on a entendues.”
Les Daughtry discutent dans l’arrière-boutique de la librairie Firefly, un paradis de livres neufs et d’occasion de la petite ville de Kutztown, en Pennsylvanie. Les membres de ce club de lecture des livres interdits se retrouvent deux fois par mois pour lire et débattre d’ouvrages que les conservateurs de tout le pays cherchent à faire disparaître des bibliothèques scolaires.
Les membres du club, âgés de 13 à 16 ans, sont inquiets. L’année dernière, ce mouvement de censure a réussi à interdire des ouvrages sur les questions raciales et LGBTQ dans des bibliothèques au Texas, en Utah, en Virginie, dans le Wyoming et en Pennsylvanie.
Comme de nombreux jeunes aux États-Unis, les membres du club trouvent que la censure se fait plus pesante. En décembre, le district scolaire de Pennridge, à une quarantaine de kilomètres de chez eux, a fait retirer des bibliothèques des écoles élémentaires le livre Heather à deux mamans, un album jeunesse sur un couple lesbien.
L’année dernière, la commission scolaire du district de Central York, en Pennsylvanie, a publié une longue liste de livres interdits, en grande majorité des ouvrages dont les personnages ou les auteurs étaient des gens de couleur. Cette interdiction a été levée en septembre après des manifestations d’élèves.
“J’adore lire, alors c’est vraiment énervant de voir que des livres sont interdits, d’autant plus que ce sont des adultes qui décident et que personne de nous demande à nous, les ados, ce qu’on en pense”, lance Joselyn Diffenbaugh, 14 ans,
la fondatrice de ce club destiné à contrecarrer cette vague d’intolérance :
“C’est flippant de savoir que ceux qui pourraient avoir besoin de ces livres, pour mieux se comprendre par exemple, en sont privés.”
Fin janvier, le phénomène a pris des proportions inédites, avec l’interdiction de Maus, le roman graphique sur l’Holocauste d’Art Spiegelman, par la commission scolaire du comté de McMinn, dans le Tennessee.
À lire aussi Censure. Un district scolaire du Tennessee bannit le livre “Maus”, d’Art Spiegelman, sur l’Holocauste
Selon cette commission, ce récit, qui met en images ce qu’ont vécu les parents de l’auteur dans les camps de concentration nazis ainsi que le suicide de sa mère, contenait des propos “durs et grossiers”. Maus est désormais numéro un des ventes sur Amazon.
À la librairie Firefly, le club de lecture discute de La Ferme des animaux quand je les rejoins. Ce roman n’est pas visé par la récente vague de censure, mais il était interdit en URSS avant la chute de l’Union soviétique, et au Royaume-Uni pendant la Seconde Guerre mondiale – le gouvernement britannique ne voulant pas froisser son allié soviétique. Il a ensuite été interdit en Floride car jugé “procommuniste”.
Leur prochain livre sera La haine qu’on donne, un roman pour ados sur le meurtre d’un jeune Noir désarmé par un policier blanc, qui a été retiré des rayonnages de nombreuses bibliothèques scolaires. Pour l’instant, les jeunes lecteurs se demandent pourquoi aucun animal n’a choisi de quitter la ferme de George Orwell.
Bridget Johnson, 13 ans, la plus jeune du groupe, n’a pas sa langue dans sa poche : >“Je constate souvent cela dans la vraie vie. Les gens ne se rendent pas compte, ils ne veulent pas prendre de risques, ils préfèrent ne rien changer.”
La manipulation, les mensonges et, comme le dit un membre du club, la “volonté d’enfumage” se retrouvent dans ce mouvement pour expurger les bibliothèques américaines. Un mouvement lancé par des groupes issus de la société civile, soi-disant des parents, qui envoient des pétitions aux établissements et aux élus pour interdire certains livres. En réalité, ces groupes sont liés et soutenus par des donateurs conservateurs influents.
La plupart des livres visés parlent de l’égalité raciale ou sexuelle, alors que certains républicains ont lancé une grande offensive contre l’enseignement de la théorie critique de la race à l’école, une discipline qui examine la façon dont le racisme ronge les institutions et la société américaine.
Le roman Gender Queer, de Maia Kobabe, qui évoque les difficultés de faire son coming out et de découvrir son identité sexuelle, est l’un des livres les plus proscrits. Depuis sa publication en 2019, il a été banni des rayonnages d’au moins 11 États, dont le Texas, la Floride et la Pennsylvanie. Même chose pour Out of Darkness, l’histoire d’amour entre une Mexicaine-Américaine et un jeune garçon noir dans les années 1930 au Texas.
L’Œil le plus bleu, de Toni Morrison, un roman sur l’oppression raciale et sexuelle, a dû être retiré des bibliothèques scolaires en Floride et dans le Missouri.
Après une heure et demie de débats animés, la séance du club de Kutztown touche à sa fin. À la sortie de la librairie, Jesse Hastings, une grande jeune fille avec des grosses lunettes, tient dans la main un exemplaire de La haine qu’on donne. Tous les livres dont les jeunes débattent au club sont achetés et financés grâce à des dons.
Jesse se dit choquée par l’ampleur de la censure et “surtout par le ridicule des raisons invoquées pour interdire ces livres. Beaucoup ont été interdits simplement parce qu’ils avaient pour personnages des Noirs ou des LGBTQ”, explique-t-elle :
“Pour les jeunes homosexuels ou les jeunes de couleur, il est vraiment important d’être représenté dans les livres, et si vous n’y avez pas accès, cela peut être grave.”
Outre l’impact sur les personnes qui auraient pu se trouver des affinités avec les auteurs interdits et sur la représentation de la diversité dans les livres, Jesse trouve qu’il y a un autre aspect encore plus grave : “C’est un énorme problème, car il y a déjà un grand manque de représentation des minorités dans les romans. Ils veulent interdire des livres qui parlent de politique et d’autres choses importantes”.
Et la jeune fille de conclure :
”Pour moi, le risque, c’est que de plus en plus de jeunes manquent d’ouverture d’esprit.”
Adam Gabbatt
Par Claire Tervé
Gwenn ha Du -Photo Christophe Coat - EyeEm via Getty Images
BRETAGNE - Un drapeau, mais bien plus. Ce dimanche 20 février à Nantes, une association nommée À la Bretonne! compte déployer un drapeau breton géant sur l’esplanade du miroir d’eau. Une action parmi d’autres pour imposer le dossier de la réunification bretonne dans l’agenda des candidats à l’élection présidentielle.
“Nous vous demandons de vous engager à enclencher, en tant que président de la République, le processus législatif qui permettra aux électeurs de Loire-Atlantique de voter en 2024 sur leur souhait, ou non, de rejoindre la Région Bretagne”, ont écrit vendredi 18 février dans une lettre ouverte plus de 200 élus de tous bords politiques, des centaines d’associations, plusieurs fédérations culturelles, ainsi que le réseau Produit en Bretagne (475 entreprises, 110 000 salariés). Emblème de cette Bretagne qu’ils espèrent, le drapeau Breton est devenu tout un symbole. À tel point que les internautes bretons se battent pour qu’il ait son propre emoji depuis plusieurs années.
Flottant fièrement au vent partout en France, lors d’événements, de manifestations ou de jours de fête, le drapeau breton est connu de tous, mais savez-vous vraiment ce qu’il représente? On vous en dit plus ici sur ce monument qui fait la fierté des Bretons, au même titre que le Kouign-amann.
Le drapeau breton a un nom: Gwenn ha du, qui signifie littéralement en breton “blanc et noir”, les couleurs historiques de la Bretagne. Il peut s’écrire avec ou sans tirets “Gwenn-ha-du”.
Le Gwenn ha du est un symbole récent: c’est Morvan Marchal, un architecte français actif dans le mouvement breton, soucieux de préserver et de développer la spécificité de la Bretagne, qui lui a donné vie en 1925. Il aurait eu plusieurs inspirations, qui varient selon les sources. D’après Bretagne.com, un site du Télégramme, ce sont les armoiries de la ville de Rennes qui comportent des bandes blanches et noires verticales accompagnées d’un semis d’hermines. Il aurait alors imaginé sur cette base un emblème moderne pour la Bretagne.
Pour d’autres encore, sa disposition s’inspire fortement de la bannière étoilée des États-Unis d’Amérique ou bien même du drapeau grec, comme le note 20 Minutes. L’idée étant de symboliser le besoin d’indépendance et de liberté.
Il aura fallu plus de 50 ans pour que ce drapeau s’impose définitivement et soit débarrassé de toute connotation politique et séparatiste, même si aujourd’hui, le Gwenn ha du n’a aucun statut officiel en Bretagne et en France.
Vous en avez forcément déjà vu un, mais avez-vous bien observé ce drapeau? Il est composé de neuf bandes horizontales noires et blanches d’égales largeurs, disposées alternativement et de mouchetures d’hermines noires sur fond blanc au canton (carré à l’angle d’un blason) supérieur gauche.
Les quatre bandes blanches représentent les quatre pays de la Basse-Bretagne : Bro-Leon (Léon), Bro-Gernev (Cornouaille), Bro-Wened (Vannetais) et Bro-Dreger (Trégor). Le territoire de la Basse-Bretagne occupe la partie sud et occidentale de la région bretonne, explique Geobreizh.bzh, le portail géographique et cartographique de Bretagne.
Les cinq bandes noires représentent quant à elle les cinq pays de Haute-Bretagne: Bro-Sant-Brieg (Saint-Brieuc), Bro-Zol (Dol), Bro-Sant-Maloù (Saint-Malo), Bro-Roazhon (Rennes) et Bro-Naoned (Nantes). Le territoire de la Haute-Bretagne s’étend à l’est de la région.
Sur le canton blanc, les mouchetures d’hermine sont au nombre de 11, disposées en trois rangs, de haut en bas, quatre, trois, puis quatre. Pourquoi 11? Selon Geobreizh.bzh, il n’y a pas d’explication concrète à cela. Elles sont toutefois censées représenter le duché de Bretagne.
En revanche, le choix du symbole de l’hermine en lui-même n’a rien d’anodin. Ces sortes de pattes de mouches noires représentent en réalité la queue de l’hermine, le petit animal carnivore. Et l’hiver venu, sa queue est la seule partie de sa fourrure qui reste entièrement noire, explique le traducteur et spécialiste de la langue bretonne, Divi Kervella, dans son ouvrage Emblèmes et symboles des Bretons et des Celtes (éditions Coop Breizh, 2009).
L’hermine est un motif que l’on retrouve sur le drapeau du duché de Bretagne dès 1318. Elle symbolise la pureté et était autrefois exclusive au clergé.
Elle est également au centre d’une légende mettant en scène Anne de Bretagne, rappelle France 3 Régions. Cette dernière participait à une partie de chasse et fut subjuguée par le comportement d’une hermine qui préféra se laisser tuer par les chiens plutôt que de traverser une flaque de boue. Elle gracia l’hermine et en fit son emblème. La devise de la Bretagne provient également de cette légende: “Kentoc’h mervel eget bezan saotret” (“Plutôt la mort que la souillure”).
Vous pourrez y penser la prochaine fois que vous verrez le drapeau breton flotter au gré du vent.
La basilique Notre-Dame-de-la-Garde, le 24 octobre 2018, à Marseille. PHOTO / AFP / GERARD JULIEN
Nostalgique de la France qu’il avait découverte en Erasmus il y a vingt ans, ce journaliste anglais de la BBC, établi en Asie, décide de découvrir la seconde ville du pays, attiré par “son caractère branché et les trois cents jours d’ensoleillement annuel”. Il connaît la réputation de la cité phocéenne, “un cas à part en France”.
C’est une métropole qui cultive sa différence par rapport au reste du pays, sa population étant composée de vagues de migrants arrivés sur plus de deux millénaires et demi d’histoire, ce qui en fait non seulement la plus vieille ville de France, mais aussi la plus multiculturelle.”
Il connaît aussi son histoire. Port stratégique pour les Grecs, qui y introduisent les olives, si chères à la cuisine provençale, elle subit les invasions wisigothes et arabes puis devient l’une des portes de l’empire colonial français. Autant d’étapes qui ont considérablement enrichi la ville. “Tout est arrivé depuis la mer à Marseille : les peuples, les produits, la culture et la contrebande.”
Le journaliste perçoit cet héritage hétéroclite en traversant les rues. Sur le cours Belsunce, “des senteurs de cuisines arabe et turque flottent dans l’air”, tandis que “les vendeurs à la sauvette proposent des gravures sur bois africaines, des foulards de couleurs vives et des maillots de l’Olympique de Marseille”.
“J’ai commencé à comprendre pourquoi on appelle Marseille ‘la ville aux 100 quartiers’”, poursuit-il. Si la marque maghrébine s’y ressent particulièrement, l’auteur retrouve aussi des influences chinoises, maliennes, ivoiriennes, vietnamiennes, corses et arméniennes qui imprègnent la musique, les vêtements ou encore la cuisine. Le tout sous la protection de la basilique Notre-Dame-de-la-Garde, “le point le plus élevé de la ville, qui resplendit comme un phare sacré en pleine mer”.
Aujourd’hui, poursuit la BBC, Marseille est concurrencée par Lyon et Aix-en-Provence, qui correspondent plus à une vision “parisienne” de la France. Son image est flétrie par ses détracteurs qui y voient “une cité du vice” – idée véhiculée par les nombreux films sur sa violence et sa mafia, très souvent fantasmées. La nomination de Marseille comme capitale européenne de la culture, en 2013, a permis d’atténuer cette vision, en promouvant la culture méditerranéenne et en incitant la mairie à rendre le quartier du Vieux-Port plus attrayant.
Conquis par l’“esprit bon enfant” (en français dans le texte) de la ville de la Bonne Mère, le journaliste se réjouit de sa vraie “francité”. Et de surenchérir :
Cette ville prouve à quel point la France est un pays plus divers et d’une plus grande complexité culturelle que les Français eux-mêmes ne sont souvent prêts à l’admettre.”
Peut-être vous-êtes-vous déjà demandés si l’utilisation d’une police web personnalisée ou une Google Font, avait une incidence négative comme positive votre visibilité organique. Pour lever le voile sur ce sujet, nous avons décidé de nous replonger dans les déclarations passées de notre ami John Mueller, Webmaster Trends Analyst chez Google.
En d’autres mots, il s’agit de savoir si Google prenait en compte le choix de la police web pour juger de la qualité de votre contenu, par exemple si une police personnalisée conduisait Google à considérer le contenu comme moins pertinent que des qu’un même contenu utilisant d’autres types de web fonts.
Cette question avait été posée à John Mueller en 2017 lors de la vidéo Webmaster Office Hours ci-dessous.
Le cadre de chez Google affirme que le choix de la police d’écriture n’a pas d’impact sur votre référencement. Du moment que Google peut explorer la page et voir le contenu, l’analyse fonctionnera normalement.
La seule situation où John indique que cela pourrait être un peu délicat est si vous utilisez des images au lieu de texte sur une page. Ok, Google fait de l’OCR (Optical Character Recognition : processus de convertir une image en texte) sur les images, mais cela reste un procédé nouveau qui n’est pas pleinement sollicité pour l’indexation des pages web (cela exige beaucoup trop de ressources).
Le même sujet a été abordé sur Twitter en 2020. Toujours auprès de John Mueller. Cette fois-ci, la question initiale était de savoir si le choix de sa police avait un impact sur les performances de vitesse du site, puis de savoir s’il y avait des polices recommandées par Google.
1 - Tous les éléments qui composent une page web, comme la police, ont un impact sur la vitesse de chargement.
2 - Le choix de la police n’a pas d’importance pour le SEO.
Ces deux réponses sont contradictoires puisque le temps de chargement est considéré comme un facteur de ranking SEO. Ainsi, si votre police web impacte le temps de chargement, elle influence indirectement votre SEO.
Bon ok, ce n’est pas nouveau que la police impacte le temps de chargement, c’était d’ailleurs un point majeur soulevé dans notre article sur l’optimisation de votre vitesse de site sous WordPress.
Par conséquent, si vous utilisez une police personnalisée parce que vous voulez mettre en avant votre branding, faites attention à ce que cette dernière n’impacte pas trop vos performances. Surtout avec l’introduction des Core Web Vitals en tant que facteurs de positionnement SEO.
Évidemment, si vous optez pour des polices web personnalisées totalement illisibles, cela aura un réel impact sur la compréhension qu’auront les visiteurs du contenu de votre site. Veuillez donc à ne pas trop en faire et à trouver l’équilibre entre branding et expérience de navigation.
Mais améliorer l’expérience utilisateur signifie aussi que chaque milliseconde compte. De ce fait, il existe de nombreuses façons d’améliorer la vitesse, comme l’optimisation des images et des polices de caractères web.
Commençons par une note positive : il est facile d’adopter une belle typographie gratuitement pour votre site comme vous pouvez en trouver dans les magazines papier. Des sociétés comme Fontawesome, Google et Adobe proposent énormément de polices gratuites qui vous permettront de construire votre site selon votre image. Cependant, un grand nombre auront impact drastique sur la vitesse de vos pages… pouvant vous faire perdre de précieuses secondes et chuter votre score sur PageSpeed Insights.
Voyons donc ensemble comment ces satanés polices web peuvent autant impacter votre temps de chargement en se focalisant sur les polices Google.
Les Google Fonts peuvent représenter plusieurs problèmes pour vos performances de site. Mais pas que…
Lorsque votre site est en train de charger sur un navigateur, vous avez peut-être remarqué des messages dans la barre d’état tels que « connecting to fonts.gstatic.com » ou « waiting for fonts.googleapis.com ». Il s’agit du navigateur qui télécharge la police sur laquelle votre site repose à partir de serveurs qui hébergent ces polices.
Pour analyser ce processus de plus près, il suffit de se rendre sur des sites de mesure de vitesse de page tels que GTmetrix ou Pingdom et de tester votre URL. Il y a de fortes chances que vous soyez surpris par le nombre de requêtes que votre site nécessite pour télécharger des fichiers de polices. Mais… attendez deux p’tites secondes… ces polices ne sont-elles pas transférées à partir d’un Google Cloud super méga rapide ?!!
Oui, les polices web sont fournies par le CDN de Google. Google a optimisé et continue d’optimiser ces fichiers pour un transfert plus rapide. Néanmoins, il s’agit de demandes supplémentaires de données supplémentaires dont la plupart des sites et blogs peuvent se passer. Les néo webmasters commencent souvent avec un hébergement mutualisé chez OVH, et souvent avec un ensemble de plugins redondants qui alourdissent les performances globales de leur site. Dans la plupart des cas, les fichiers de polices web ne font que s’ajouter à la masse.
La taille typique d’un fichier de police est de 35-50ko. Cependant, selon la façon dont votre site est développé, il peut nécessiter plusieurs fichiers de polices ou parfois, même un seul fichier de police peut atteindre un poids de quelques mégaoctets. Cela s’explique par le fait qu’un site peut utiliser plus d’une langue, nécessiter plusieurs formats de fichiers ou devoir être disponible en mode hors ligne. Parfois, les thèmes et les plugins qui utilisent les Google Web Fonts font plusieurs demandes pour la même ressource. Pire encore, votre site peut obliger un visiteur à télécharger des éléments qui ne sont jamais utilisés. La plupart du temps, les visiteurs de votre site peuvent se passer de tout cela.
Du coup, une question légitime que l’on pourrait se poser serait de savoir si la mise en cache avait un impact ? Un navigateur ne va-t-il pas stocker ces polices pour une utilisation ultérieure ? La réponse courte : pas tout.
La mise en cache du navigateur ne permet d’accélérer que les visites répétées, et non les premières visites. Pour les visiteurs réguliers, le webmaster du site a le pouvoir de définir la durée pendant laquelle le navigateur doit mettre en cache une ressource localement. Vous pouvez fixer une date d’expiration lointaine (d’un mois ou plus) pour les ressources statiques telles que les images, etc… mais pas pour tout ! En effet, pour les ressources fournies par des tiers, comme Facebook ou Google, le propriétaire du site n’a aucun contrôle. Leur date d’expiration est fixée par les sites qui les fournissent.
Alors que les fichiers de polices de base peuvent avoir une date d’expiration lointaine, les ressources de style liées aux polices ont une date d’expiration de seulement 24h00 en général. Ainsi, lorsqu’un fichier de police a été modifié et qu’un abonné email clique sur le lien d’une newsletter pour lire votre dernier article, ce visiteur fidèle devra télécharger à nouveau toute la police web requise. Inutile de dire que si votre abonné dispose d’une connexion internet pourrie, vous ne l’aidez pas.
Alors, pourquoi ne pas simplement fournir les polices à partir de votre site et de contrôler l’expiration du cache du navigateur ?
Les polices web étant OpenSource, vous pouvez les héberger localement sur votre site, réduire le nombre de requêtes HTTP et contrôler l’expiration du cache. Il existe des plugins gratuits pour vous aider à y parvenir. Toutefois, Google déconseille cette pratique. Cela m’amène à poser la question suivante : pourquoi Google adopterait-il une pratique aussi gourmande en termes de ressources, puis déconseillerait dans le même temps une solution permettant de consommer moins et d’optimiser les performances ?
La raison officielle invoquée par la firme de Mountain View est qu’il héberge et fournit les polices afin que vous ayez les plus récentes et les plus optimisées à disposition pour votre site web. Cependant, la vérité se cache peut-être ailleurs…
Quelques pays, comme la Chine, bloquent l’accès à aux serveurs Google, ce qui signifie que les sites utilisant les Google Fonts n’auront pas la même apparence partout dans le monde. De nombreuses autres personnes ont fait part de leurs inquiétudes quant à la confidentialité des données liées aux polices Google, en particulier dans le sillage de la mise en œuvre de la politique européenne RGPD. En effet, en fournissant la police de votre site, Google a un accès direct à ses entrailles. Pour vous faire une idée, jetez un œil à la quantité gargantuesque de données collectées par Google à travers ses polices en consultant les statistiques du site Google Font Analytics.
Les polices web représentent un pilier essentiel pour le secteur des éditeurs. La capture à grande échelle des données d’utilisation de ses polices peut potentiellement aider Google à créer un modèle freemium classant les polices gratuites et premium afin de convaincre les navigateurs (tels que Firefox, Safari ou Internet Explorer) d’inclure certaines de ces polices en tant qu’option native dans leurs futures versions. Autre possibilité, l’API Google Fonts pourrait suivre le chemin de l’API de Google Maps, qui exige désormais des propriétaires de sites qu’ils fournissent des informations de carte bancaire pour pouvoir l’utiliser.
Seulement ils sont bien malin : le code CSS prêt-à-utiliser que vous devez mettre dans votre code contient le lien du fichier de la police d’écriture qui se trouve sur leur serveur. Voilà la marche à suivre pour récupérer manuellement le fichier et le placer en local, chez vous.
Je vais faire l’exemple avec une police d’écriture au hasard.
Rendez-vous sur google.com/fonts. Choisissez la police que vous voulez, puis cliquez sur « quick-use » :

Descendez un peu en bas dans la page et récupérez le lien vers le fichier CSS :

Ouvrez ce lien dans votre navigateur.
Vous pouvez déjà copier tout le code dans votre CSS. Il suffit juste de récupérer le lien vers le fichier de la police (fichier .woff).

Téléchargez le fichier .woff et enregistrez le dans votre projet.

Il ne reste alors plus qu’à changer le lien de la police dans le code CSS, pour qu’il utilise le fichier .woff local et pas via le site de Google.
Voilà, c’est tout.
L’avantage d’avoir le fichier de la police chez soi :
Pas de traçage possible par Google
Votre site reste indépendant : si Google ferme son service (il le fera un jour) votre CSS fonctionnera quand même.Désavantages :
Le fichier de la police sera téléchargé depuis votre site, donc consommera votre bande passante.
Si un autre site web quelque part utilise la même police, le navigateur le téléchargera deux fois, alors qu’il ne le fait qu’une seule fois si les deux utilisent le service de Google.
Cette astuce s’inscrit dans ma politique d’un site 100% indépendant sur le plan technique. Il n’y a aucun fichier (image, script…) utilisé dans mes pages qui soit hébergé ailleurs que chez moi.
Le premier Clary connu est Jacques Clary, fils d'Antoine Clary et de Marguerite Canolle, qui épousa le 24 novembre 1690, en la paroisse Saint-Martin de Marseille, Catherine Barosse, fille d'Angelin Barosse, jardinier, et de Jeanne Pelissière. Un fils de Jacques, Joseph Clary (1693-1748) épousa à Marseille le 21 novembre 1724 Françoise-Agnès Amaurric, fille d'un chapelier, qui lui apporta une dot de 15 000 livres, dont 1 500 en robes et meubles et 13 500 en louis d'or. De ce mariage, naquit à Marseille, paroisse Saint-Ferréol, le 24 janvier 1725, François Clary. Historiens, journalistes et cinéastes ont contribué à répandre à son sujet les légendes les plus absurdes, faisant de lui un marchand de soieries, de savon. En réalité, après des débuts fort modestes dans la boutique de son père, il devint armateur, assureur maritime, puis négociant. Il envoyait aux "échelles" du Levant, du blé, des tissus et en ramenait du café-moka, des épices et des matières colorantes. Par un travail acharné, il put doter chacune de ses filles de 50 000 livres et sa fortune fut évaluée à sa mort à un million de livres, mais c'était en 1794 et une partie de ses créances fut réglée en assignats dépréciés.
François Clary avait épousé, en secondes noces, le 24 juin 1759, en la paroisse Saint-Ferréol Françoise Rose Somis, fille d'un ingénieur en chef du port de Marseille soeur du général et baron d'Empire Justinien-Victor Somis. François et Rose eurent plusieurs enfants. A la Révolution, compromis dans le mouvement fédéraliste de 1793, François vit son fils Etienne et son gendre Antoine d'Anthoine, époux de sa fille Marie-Rose et futur maire de Marseille, jetés en prison. Un autre de ses fils se suicida pour ne pas être arrêté. Lui-même, très abattu, mourut sans connaître la destinée royale qui sera réservée à ses deux filles, Marie Julie et Eugénie Désirée.
Marie Julie née à Marseille le 26 décembre 1771, devint reine de Naples de 1806 à 1808 puis d'Espagne de 1808 à 1813, après avoir épousé Joseph Bonaparte, frère de Napoléon à Cuges (les-Pins) le 1er août 1794. Femme forte de la famille, elle refusa de suivre son mari aux Etats-Unis, elle parcourut l'Europe avant de mourir à Florence le 7 avril 1845. Elle y est enterrée.
Cependant, c'est incontestablement le destin de Désirée, qui a marqué les imaginations. Bernardine Eugénie Désirée Clary est née à Marseille le 8 novembre 1777. Elle est d'abord courtisée par Joseph Bonaparte en 1794, qui reporte finalement son dévolu sur Marie Julie, la soeur de Désirée. Pendant ce temps, Désirée s'est fiancée officiellement avec le frère de Joseph, Napoléon Bonaparte, le 21 avril 1795. Mais le général Bonaparte est rappelé à Paris. Après avoir rencontré Joséphine de Beauharnais, le 15 octobre 1795, par le biais de son ami Paul Barras, Bonaparte renonce à ce projet de mariage.
Désirée épouse le 17 août 1798 à Sceaux le général Jean-Baptiste Bernadotte. Lorsque son époux est placé par Napoléon sur le trône de Suède le 21 août 1810, Désirée s'installe à Stockholm avec son fils Oscar né le 4 juillet 1799 (16 messidor an VII) à Paris. Au bout d'un mois, elle retourne s'installer seule à Paris. Elle ne revient en Suède que pour assister le 19 juin 1823 au mariage d'Oscar avec la princesse Joséphine de Leuchtenberg, fille d'Eugène de Beauharnais, Duc de Leuchtenberg, et petite-fille de l'Impératrice Joséphine de Beauharnais, première épouse de Napoléon.
Désirée fut par la suite, couronnée reine de Suède et de Norvège. Son mari, Jean-Baptiste, l'était depuis la mort du roi Charles XIII le 5 février 1818, sous le nom de Charles XIV Jean (Carl XIV Johan). Désirée devint reine sous le nom de Desideria. Elle ne quittera plus son royaume désormais, mais se tenant toutefois, à l'écart des obligations des souverains et en entretenant une correspondance abondante avec sa famille.
A la mort de son époux le 8 mars 1844, son fils accède au trône sous le nom d'Oscar Ier. Désirée (Desideria) meurt le 17 décembre 1860 à Stockholm à l'âge de 83 ans. Elle est inhumée dans la crypte située sous la chapelle Bernadotte de l'église de Riddarholmen à Stockholm.
Sa mère, Françoise Rose Somis, peut prétendre, au même titre que la reine Victoria, au surnom de Grand-mère de l'Europe. En effet, ses descendants se trouvent aujourd'hui sur les trônes de Suède, de Norvège, du Danemark, de Belgique et du Luxembourg.
Sources : L'almanach de la Provence - Collection Jacques Marseille - Pays et Terres de France, Wikipédia - l'encyclopédie libre et le site d'Histoire de la Fondation Napoléon.