Les généalogistes devront s'y faire, car il y aura un avant et un après : depuis le 1er juin 2022, le livret de famille a changé pour s'adapter aux récentes lois sur la famille ayant modifié certaines informations devant figurer sur ce document d'état civil. C'est par l'arrêté du 3 mai 2022 que le gouvernement a introduit un nouveau modèle de livret de famille. Les modifications portent à la fois sur la partie principale relative à l'état civil et au droit de la famille et à la fois sur la partie concernant les extraits d'actes d'état civil.
Il s'agit notamment de prendre en compte les nouvelles dispositions concernant la procréation médicalement assistée. Ainsi, un couple de femmes ayant recouru à la PMA voit la filiation de son enfant établie directement à l'égard de la femme qui accouche, par sa seule désignation dans l'acte de naissance de l'enfant. À l'égard de l'autre femme, la filiation est établie par la reconnaissance conjointe anticipée faite devant le notaire concomitamment au consentement donné à l'assistance médicale à la procréation. »
Ce nouveau livret s'adapte aussi à la réglementation récente relative au changement de nom, simplifié quand le choix porte sur un nom issu de la filiation. Les couples pacsés et les concubins peuvent également adopter plus facilement. La nouvelle réglementation sur le choix d'un nom pour l'enfant né sans vie y est également présentée, il peut désormais y figurer, tout comme l'acte de décès d'un enfant majeur.
Tous ces bouleversements qui figurent sur le nouveau livret de famille parviendront aux familles dans un délai variable selon les communes : en effet si le nouveau modèle du livret de famille circule depuis le 1er juin 2022, les mairies pourront continuer à écouler leurs anciens modèles, jusqu'à épuisement de leur stock.
L'actrice française rejoint Timothée Chalamet, Zendaya, Christopher Walken et Austin Butler à l'affiche du deuxième volet réalisé par Denis Villeneuve.
Par Sarah Deslandes
CINÉMA - Un casting de haut vol se dévoile peu à peu pour Dune: partie deux. Léa Seydoux rejoint Timothée Chalamet et Zendaya à l’affiche de la suite du premier volet réalisé par Denis Villeneuve, annonce la presse américaine ce mardi 21 juin.
L’actrice française jouera le rôle de Lady Margot, qui n’est pas apparu dans le premier film mais qui est bien présent dans les romans de Frank Herbert. Dans les livres, ce personnage est une Bene Gesserit, une membre de la Communauté des sœurs. Le couple qu’elle forme avec le compte Hasimir Fenring est particulièrement influent auprès de l’Empereur Shaddam IV.
Dune: partie deux s’ajoute donc à la longue liste des apparitions internationales de Léa Seydoux. L’actrice a notamment joué aux côtés de Daniel Craig dans Mourir peut attendre, et Tom Cruise dans Mission Impossible et a également tourné dans Inglourious Basterds, The French Dispactch ou encore The Grand Budapest Hotel.
Léa Seydoux n’est pas la seule nouvelle recrue de la franchise Dune. En mai dernier, le nom du légendaire Christopher Walken a été annoncé pour le rôle de l’empereur Padishah Shaddam IV. Bien qu’il n’apparaisse pas dans le premier volet, il s’agit d’un personnage clé dès le début de l’histoire puisque c’est lui qui envoie la maison Atréides dans une mission vouée à l’échec sur la planète Arrakis.
On retrouvera également Austin Butler, actuellement en tête d’affiche d’Elvis. Dans Dune: partie deux, il sera Feyd-Rautha Harkonnen, l’héritier présumé de la dynastie Harkonnen et rival de Paul Atréides (Timothée Chalamet). Florence Pugh (Black Widow), interprètera, elle, la fille de l’empereur, la princesse Irulan.
La première partie de Dune a généré 400 millions de dollars à sa sortie en septembre 2021. Le film a remporté six Oscars en mars dernier, dont celui des meilleurs effets visuels, et de la meilleure musique pour la bande originale composée par Hans Zimmer.
Le tournage de la suite n’a pas encore débuté mais sa sortie en salles est prévue pour octobre 2023.
Construite en 1881, endommagée par les bombardements en 1944, rénovée dans les années 60 et rongée par la mer au fil des décennies, la grande jetée de Toulon avait besoin d’un petit lifting. En présence de plusieurs autorités militaires et civiles, comme le préfet maritime, M. Hubert Falco, la sous-préfète Mme Audrey Graffault ou encore M. Jean-Louis Masson, représentant du président du Conseil départemental du Var, la grande jetée a été inaugurée ce mardi.
Longue de 1 200 mètres et immergée par 11 mètres de fond, en moyenne, elle a été rénovée partiellement avec 600 mètres de linéaire restauré. Une opération importante car la digue occupe un rôle prépondérant en protégeant de la houle les infrastructures de la base navale et en permettant de développer les activités économiques et touristiques sur le plan d’eau et le littoral de la petite rade.
Pour financer l’opération de 21 millions d’euros, le ministère des Armées, la métropole Toulon Provence Méditerranée et le département du Var ont mis la main à la poche. L’armée, propriétaire de l’ouvrage, s’est acquittée de 60 % des coûts lorsque la métropole et le département se sont partagés les 40 % restants.
L’opération de réfection de la grande jetée a consisté à combler des brèches existantes en reconstituant la carapace de l’ouvrage à l’aide de blocs d’enrochement de 1 à 3 tonnes. Près de 122 000 tonnes ont été nécessaires pour restaurer la grande jetée, soit près de trois fois le poids du porte-avions Charles-de-Gaulle. Le sud de l’ouvrage, le musoir, a été totalement démoli et intégralement reconstruit afin d’accueillir le feu vert de navigation..
Sur le plan environnemental, les travaux ont été conduits en prenant en compte la présence de deux espèces protégées : les dattes de mer et la posidonie. Ainsi, une méthode de rideaux à bulles, formant une barrière anti-turbidités entre la zone de chantier et l’herbier a été mise en place pour minimiser l’impact du chantier sur les posidonies implantées.
A small plaque in St Gluvias church, Penryn, reads:
A LA MEMOIRE DES ACADIENS This memorial commemorates the 73 men, women and children buried in the churchyard in unmarked graves, following their exile from Acadia between 1756 and 1763
This is the only indication of the presence of a group of Acadians who were housed on the outskirts of the town in the mid C18.
(The British spelling is Acadians. The French use Acadiens or Acadiennes)
The Acadians were a group of French Catholic settlers of the early C17 who became caught up in the struggle between France and Britain for control of Canada, a conflict that started around 1688 and ended with the fall of Montreal in 1760.
They founded a colony in the Nova Scotia/New Brunswick area, bordering the British province of Maine, which they called Acadia. It appears that they established good relations with the indigenous peoples with some inter-marriage.
The Acadian capital of Port Royal fell in 1710 but much of Acadia remained under French control. After each territorial advance, the British invited the Acadians to swear unconditional oaths of allegiance to the British crown: an offer many refused because of their Catholic faith and ancestry.
Although many Acadians were neutral, others continued to work for the French and, with members of the Wabanaki Confederacy indigenous communities, raided British-held territory. Finally, the British lost patience and decided to expel the Acadians where they could.
There were two waves of expulsion. Together they are called the Great Upheaval, the Great Expulsion, or the Great Deportation.
The first wave came after the successful 1745 siege of the strategic port of Louisbourg. Under the Treaty of Aix-la-Chapelle (1748) at the end of the War of Austrian Succession, Louisbourg was handed back to the French in exchange for Madras.
Different sources quoting different figures but it seems that between six and seven thousand Acadians were expelled from Nova Scotia to American colonies and Britain in the first wave. Some 1,226 Acadians survived the ocean crossing to Britain in 1755, being separated into four groups: 336 (243) were sent to Liverpool; 340 to Southampton (Portsmouth); 300 to Bristol; 250 (220/204) to Falmouth. (The sources vary quite markedly on the numbers)
Falmouth, June 17: arriv’d, the Fanny, (Captained by) Bovey, from Virginia, with 204 Neutral French on board, being sent by the Governor of Virginia, he apprehending they would go and join their Countrymen and the Indians in their Interest.
Boston Evening Post, September 20, 1756
Many Acadians who were sent to Britain were housed in crowded warehouses and subject to plagues due to the close conditions, while others were allowed to join communities and live normal lives. They received a small payment each day and were treated as if they were prisoners of war.
The Falmouth/Penryn contingent was housed in a large barn at Upper Kergilliac Farm on the edge of Penryn. This had been used to hold prisoners of war a few years earlier during the War of the Austrian Succession (1740-1748). These Acadians are the ones commemorated on the plaque in St Gluvias church.
The north and west view of the L-shaped barn at Upper Kergilliac Farm on the outskirts of Penryn and Falmouth. Could these be the barn in which the Acadians were held? They seem very modest.


The second wave of expulsions came after the 1758 siege of Louisbourg which was more decisive and was followed by the advance on Quebec and Montreal. In this wave the Acadians were deported to France and Britain.
The sinking of the Duke William
Almost 1,000 Acadians died on their way to France when the transport ships Duke William, Violet, and Ruby sank in 1758. So significant was the sinking of the Duke William that the date of its sinking, 13 December, became the Acadian Remembrance Day.
On board was Noël Doiron (1684–1758), a regional leader. He was widely celebrated and places have been named after him in Nova Scotia.
The rather self-serving account of Captain Nicholls, the Commander of the Duke William survives in an account which was published in the Naval Chronicle of 1807. He deserted the sinking ship and managed to make his way to Penzance.
In 1763, the Treaty of Paris brought an end to the Anglo-French struggles of the Seven Years’ War. Canada was to be under British control. The Acadians were at last free to move around.
After 1764, they were allowed to return in small isolated groups to British territories in Canada provided that they took an unqualified oath of allegiance. A significant number migrated to Spanish Louisiana, where their name was Anglicised to ‘Cajuns’. Others returned to France, particularly Belle-Île-en-Mer off the western coast of Brittany.
By January 1763, after seven years in exile, only about 866 of the 1,266 Acadians originally deported to Britain had survived. Some 159 people, the remnants of the Falmouth/Penryn contingent, sailed for France on La Fauvette sent by King Louis XV to Falmouth.
Aux archives de l'Hérault, place aux "privilèges" ! Pour certains utilisateurs, les délais de communication sur Internet sont considérablement élargis, jusqu'à 1944 pour les registres de naissance, au lieu de 1918 pour le commun des mortels... Petite précision, ce "privilège" n'est aucunement un passe-droit, uniquement une application précise de la loi.
En effet, aux Archives de l'Hérault, tout le monde peut devenir un "privilégié" et consulter des actes avec des délais de communication plus favorables. Il suffit simplement de s'inscrire... L'explication est simple : il y a une différence sur le plan légal entre la communication sur Internet qui est ouverte à tous anonymement et la communication à des personnes dont l'identité a été vérifiée. On peut donc avoir accès à des archives plus récentes, comme en salle de lecture, à partir du moment où l'on a prouvé son identité.
Aux archives de l'Hérault, il y a désormais deux manières de justifier de son identité. Soit vous créez un compte de lecteur ordinaire et vous envoyez votre pièce d'identité au service des Archives. Votre compte est ensuite certifié dès lors que votre inscription a été validée. Sinon, depuis quelques jours, il vous suffit de vous connecter avec France Connect en utilisant l'un des services de l'Etat pour lequel votre identité est déjà validée : avec votre compte impots.gouv.fr, ameli.fr, l’Identité Numérique La Poste, MobileConnect et moi, msa.fr et Alicem. Ensuite, à vous la consultation des actes plus récents ! Ce n'est pas beau les privilèges ?
Toujours puiser aux sources.
Ne rien écrire qu'on ne sache d'original et produire ses références (renvois à des livres, à des pages de manuscrits et à des cotes d'archives).
Éviter les assertions sans preuves.
Travailler d'après les textes.
Distinguer le fait important, intéressant à élucider, d'avec le fait insignifiant sans intérêt, à négliger.
Apprécier la valeur d'un fait historique d'après son degré d'influence sur l'évolution de l'individu, du groupe ou de la société que l'on étudie ; éviter de s'attacher à des faits purement contingents absolument vides de signification.
Présenter les faits d'une manière impartiale et toute objective.
Éviter les publications intégrales de tout l'inédit où les faits signifiants sont noyés dans l'insignifiance et le fatras.
Que les recherches soient longues et les résultats courts.
Que l'histoire locale ainsi présentée constituera une décentralisation intellectuelle et se rattachera facilement à l'histoire générale.
Gilbert Brégail, président de la Société archéologique du Gers, 1948.
I’m experiencing anomalous layout behavior in LibreOffice Writer. I’ll do my best to summarize the issue.
LibreOffice version: 6.4.7.2.
System Specs (in case it’s a memory issue) -
Processor: i5 3.2ghz quad core
Memory: 8gb DDR4 RAM
OS: Ubuntu 20.04.4 LTS
Gnome version: 3.36.8
My document is a book I’m writing. The raw manuscript is ~1600 pages which will likely be 3,000 pages once I correct all the missing formatting.
I used an official WordPress utility to export 12 years of WP articles as .DOCX documents. I imported those into a master document .ODM file in LIbreOffice. Once I had them in the right order, I saved the project as an .ODT file and removed all the document links so that I could edit the book layout freely.
Due to a bug in the initial conversion, nearly all paragraph breaks were lost so all 3,000 pages of text are sentences butted up against each other. And similarly, the article images were jumbled and scattered at random throughout the document. I submitted a help request and a member of this community was amazing at helping me use the PicTool extension to batch-scale all 1300+ images and to dynamically assign their scale to the paragraph area. This way, if my publisher asks me to modify the margin measurements closer to publication, all images will snap to the new area. I was so grateful for that help!
The remaining task has been to go through the 1600+ page document, pull up each original WP article one at a time on the web, and correct all the missing paragraph breaks and to reposition all the images where they’re supposed to appear throughout each article. It’s a lot of work, but I blocked out several hours each weekend and created a spreadsheet to track which articles I’ve cleaned up. I’m tackling them in the order they appear so that I can move linearly through the document without compromising earlier pages as I work. I’ve been incrementally saving versions of the document as I go in case I suddenly discover that I’ve damaged something earlier in the file.
The document has an unnumbered title page, preface, and dynamically generated TOC. Numbering begins at the first article following the TOC. Periodically I know I need to right-click and Update Index so that the TOC reflects the adjusted pages as I clean them up.
This brings me to the anomalous behavior. I noticed that when I launch the document and scroll to the very end, the final numbered page showed as 1685. I closed and reopened the file and the final page number jumped to 1597. I clicked on Update Index for the TOC and then scrolled to the end and the final page number then showed as 1593. Worried that I was losing content, I tried opening the next-to-most-recent version of the doc alongside the other to compare them. LibreOffice crashed and force-exited, most-likely due to it running out of memory loading two 1600+ page documents. I relaunched them, recovered the lost files when prompted at launch, and updated the index for each file’s TOC. Now the final page number for both versions showed as 1593.
They crashed and force-quit again, and after recovering them one document showed 1594 pages instead of 1593. Then it crashed and exited again. The next time I opened it it showed 1589 pages. Updating the TOC changed it to 1594. I closed and reopened the earlier version and then it showed 1592 numbered pages. I closed and reopened them without attempting recovery and it showed 1658 pages before I updated the TOC. After updating it showed 1591 pages. I should note that I’d made no changes to the layout of any numbered pages during any of this so there is no reason the total number of pages should be changing at all.
Then I scrolled through the document reviewing the articles I’d recently tidied up and found that a few had stray images hanging off the page where I had previously worked incredibly hard to place them correctly. This is so disheartening as it takes me hours of painstaking work to correct the layout of each article. Checking the next-to-most recent version, one of the misplaced images was correct but the other had similarly shifted.
There’s no way for me to audit the thousands of pages of content after I’ve already proofed them and saved incrementally without re-reading my book hundreds of times, so I need a better solution to preserve the changes once I make them. And I need to determine why the page count is changing so wildly without any changes being made to the numbered pages of the document.
I really hope there is a solution so I can eventually publish my book. I sincerely appreciate any insight the community can offer.
Only guesses because updating a TOC should not change the finale page number (since you start page numbering after the TOC and TOC collecting does not change contents).
Only image shift can cause contents layout changes. This depends on anchor and wrap properties. The only way to get predictable, deterministic and reproducible positioning of image is through use of frame styles, despite their difficulty of set up and weird behaviour. Unfortunately, I understand you tuned everything manually.
Another possibility for page number change is a wrong specification with the page number field. A common error is to request a page offset instead of a page restart through a specific manual page break. But this will not move images.
A ~1600-page document bumps certainly into performance issues. A way to address them and partially solve them is to systematically style the document, avoiding direct formatting. This means using all possibilities; paragraph, character, page and frame. Don’t forget list styles if you need to number paragraphs.
When your articles have been saved to Writer’s native file format, it is not likely that content is lost when you save and reopen. Repagination after content reflow is the likely process at play here. This reflowing can occur when Writer attempts reasonable positioning of graphics. Another situation, which I suspect may be at play here, is when there is extensive use of flow-control formatting elements in your document.
My suspicion is based on your exporting content from WordPress via docx to odt. The three formats have inherent differences, which lead to conversion not being entirely straightforward.
WordPress uses HTML for structure and CSS for design (roughly). HTML/CSS contain mechanisms to handle the concept of pages, but as far as I have seen they are rarely used because HTML content is usually a web page, output to screen in a continuous stream. Also, the layout width for html content is often dynamic, so it adapts to the reader’s screen width, window size and display settings.
Word may use hybrid text/paragraph styles for design/structure, but exported content will often rely on direct formatting for structure and styling. Page layout is by direct formatting on a section. A Word section is a divider between (possibly named) parts of continued document flow.
Writer depends heavily on styles for document design and structure. Direct formatting can be used, but for page layout specifically, it is mandatory to use styles. A Writer section is a separate (named) part within the document flow.
Sections are important because in both steps of the translation process (html-docx and docx-odt) they may have been inserted to convey page adjustments. This is often used to make a paper document into an optimal representation of the web/onscreen output. While it may help with being true to the source, extensive use of sections makes further editing into a pain.
The keep with next page flow setting will usually do nothing on a web page, because there are no page breaks. Overusing it on a paper document makes an ugly mess.Solution
With your situation, I don’t believe there is any substitute for manual labor. On the upside, it is not likely that changing page count indicates content loss. It is useful to know what you are working with, and understand how and why changes (e.g. reflowing) happen.
A precision (otherwise excellent comment):
In Writer, a section is a part of a “region” controlled by a page style. This is fundamentally different from Word where a section is roughly equivalent to a page styled “region”.
Writer sections will not be used during the odx→odt translation. You’ll get many single-use page styles.
Follow @keme1’s advice and review manually your document. But before this, think carefully about the styles you’ll need. Many of them are available as built-ins, such as Heading n for paragraphs or Emphasis/Strong Emphasis for character, not speaking of page styles. You’ll only need to create variants of Text Body for specific paragraphs.
You’ll create less than 5 paragraph styles, tune built-in paragraph and character styles, perhaps create a handful of character styles. Pay special attention to page styles (you should do with 3-5). The most difficult challenge is to design frame styles (or customise builtins). If you can “standardise” your image properties one or two frame styles should do.
After that, it is only a matter of removing direct formatting and assigning styles to your “objects” (a double-click and it’s done).
My sincerest gratitude for the prompt and impressively detailed responses!
It is such a tremendous relief that, as you’ve each said, it is unlikely that the page number anomaly is indicative of content loss, and instead, is more likely the result of content (particularly image) re-flow. That eases my mind that this year of manual cleanup will not be in vain.
I am taking your advice an employing styles to automate layout properties wherever possible. Working smarter, not harder is critical. Fortunately, titles, headlines, and paragraph text were all translated to and assigned styles in the conversion process from DOCX, so I only needed to adjust those styles slightly to achieve the desired result.
The rest of the task, as you’ve each stated, will be the manual process of fixing all the sentences and missing / misplaced paragraph breaks for 3,000 pages of content. And while the PicTool extension made quick work of scaling all the images and dynamically centering them to the defined paragraph area as I said, there remains the task of selecting each image once at a time, cutting to clipboard, positioning the cursor where each image needs to go, pasting the image, and then tidying up the flow of adjacent text for all 1,300 images, many of which are invisibly stacked atop one another at the beginning of each article, sort of like layers in Photoshop.
It doesn’t appear, due to the seemingly random text breaks and image positioning, that there is a way to batch process either the text or the images with styles beyond what I’ve already done. It’s going to be a lot of manual work, but I’m 60 articles into the project already so I’m determined to make this work in the end.
Once again, thank you all for your expert insight. This community has twice now aided me with moving forward with this book authoring project and your knowledge of the nuances of the software are unparalleled. Hopefully in about a year I can go to press and call this project a success thanks to your help!
Be aware that the .docx step has pushed in its own mess, notably because Word has no notion of character and page styles. Consequently, methodical styling will be a very tedious process. And even with careful styling, your document will remain clumsy because of the DOCX mess.
La digue en terre sera édifiée à 7,90 mètres au-dessus du niveau de la mer, sur plus d’un kilomètre de long, avec un enrochement côté mer.
Au nord de la baie d’Authie, dans le département du Pas-de-Calais, le chantier préparant la construction de la digue de second rang a débuté le 1er décembre. La future digue « rétro-littorale », longue d’1,2 km, est construite sous la maîtrise d’ouvrage de la Communauté d’agglomération des 2 Baies en Montreuillois (CA2BM). Elle implique l’acquisition de 16,5 hectares de terre, en partie agricoles. Ces acquisitions avaient fait l’objet d’une concertation et d’un accord préalable avec les riverains.
Située entre le Pas-de-Calais et la Somme, la baie d’Authie est soumise aux risques de submersion marine et d’inondations par remontée de nappe. La submersion la plus grave du 20ème siècle a eu lieu en mars 1990 : elle avait inondé 150 maisons à Cayeux et 3000 hectares de prairies et de champs, par temps de tempête et de grande marée.
Sur le secteur Nord Authie, où les travaux actuels ont lieu, le coût moyen des dommages générés par les submersions marines est estimé à quelques 24 millions d’Euros par an et plus de 7 000 personnes sont exposées en cas d’événement centennal, d’après le Programme d'Actions de Prévention des Inondations (PAPI) Bresle Somme Authie (labélisé PAPI en 2016).
La réalisation de la digue est prévue sur une durée de sept mois, à partir de mars 2021, quand les travaux préalables de compensation auront été terminés, nous indique le Pôle Opérationnel de la CA2BM.
Voici les détails techniques qui nous ont été communiqués par la CA2BM :
« Le corps de digue est constitué de matériaux tout venant et d’un masque d’étanchéité en matériaux argileux A1/A2. Le matériau tout venant repose en partie sur un tapis drainant en matériau 45/125mm. Une clé d’étanchéité de 1.50m de profondeur est prévue sous le masque. Le tapis drainant est appuyé sur une butée de pied en enrochement coté terre. Les talus de la digue sont recouverts de géotextiles et/ou géogrilles anti-fouisseurs.
La carapace côté mer est constituée avec des enrochements d’apport de 10 à 70 kg disposés en bicouche sur une épaisseur de 50cm. La pente de talus côté mer est de 3 horizontal pour 1 vertical. Les enrochements de carapace sont placés aléatoirement et percolés de terre végétale. La carapace est ancrée dans une bêche réalisée dans le terrain naturel.
Les talus seront recouverts de terre végétale enherbée. Le talus côté terre est stabilisé par une butée de pied en enrochements 90/250mm.
Une piste de 3m de large est prévue en crête de digue, constituée de GNT 0/20 sur 30cm d’épaisseur.
Deux chemins en partie carrossables sont implantés en pied d’ouvrage, respectivement côté terre et mer ; le chemin rural coté terre est composé d’une épaisseur de 30cm de GNT 0/20 reposant sur une sous-couche de 30cm de GNT 0/80 posée sur un géotextile non tissé. Une noue est terrassée parallèlement aux chemins à l’extérieur de l’ouvrage. »
Cet aménagement interviendra en complément du cordon dunaire, régulièrement soumis à l’érosion et qui vient d’être rechargé en sable. La protection fait l’objet d’un financement de l’Etat dans le cadre du PAPI Bresle Somme Authie.
Selon la Voix du Nord, « l'emplacement de la digue avait été imaginé plus en retrait de la côte, pour laisser rentrer la mer et créer des bassins d'expansion. Mais cela aurait condamné trop de terres agricoles. Le projet a été abandonné et un compromis a été trouvé plus près du bois ».
«Vu le coût de l'ouvrage, on fait d'une pierre deux coups en le rendant accessible », précise Claude Vilcot, en charge de ce dossier à la CA2BM, dans les colonnes de la Voix du Nord.
L'état civil laïque est dans une certaine mesure la conséquence lointaine du schisme religieux du XVIe siècle. Dans les pays qui ne l'ont point connu ou qui l'ont tué dans l'œuf — pays de la Contre -Réforme, Espagne ou Italie, la laïcisation a été tardive, voire incomplète. La France au contraire a, la première, franchi avec la Révolution ce pas décisif .
Déjà, au XVIe siècle, la question s'était posée une première fois. Les fiançailles « par parole de présent » passées par devant notaire et que les protestants pratiquèrent au XVIe siècle pour éviter d'avoir recours aux prêtres est, après tout, la première ébauche du mariage civil. Mais l'édit de Nantes en reconnaissant en fait deux religions d'État laissait à l'état civil son caractère purement religieux : le ministre de l'Évangile était le pendant du curé. La Révocation, supprimant les pasteurs, reposa le problème.
Dès 1683, avant même la Révocation, un arrêt du Conseil « prescrivait le dépôt des registres d'état civil protestants des églises supprimées au greffe des bailliages et sénéchaussées. En septembre 1685, dans les mêmes localités, la publicité des bans pour le mariage réformé fut transmise au juge de la justice royale la plus proche, et les mariages célébrés en présence des consuls par des ministres autorisés chargés ensuite de faire enregistrer les mariages au greffe. L'édit d'octobre et le postulat qu'il implique, la disparition du protestantisme annulent le compromis. Or, le protestantisme n'est pas mort. Les protestants naissent, se marient et meurent...
Pour sortir de l'impasse, Claude Brousson proposait le retour au contrat notarié du XVIe siècle, et, en magistrat soucieux de l'ordre social, le complétait d'une déclaration devant la justice royale. La société était satisfaite, le mariage civil est créé. Mais la solution allait se heurter aux hostilités curieusement conjuguées des protestants eux-mêmes, du clergé catholique et du roi.
L'hostilité des protestants, cela va sans dire, présentait un réel danger, et le mariage au Désert va bientôt être préféré, pour avoir le double avantage de satisfaire les consciences et de créer un état civil clandestin. Les protestant espèrent d'ailleurs que celui-ci sera reconnu et qu'on reviendra à l'Édit de Nantes. De son côté, l'Église romaine veut acculer les hérétiques au mariage catholique ; certains ecclésiastiques, pourtant, par crainte du sacrilège ou goût du lucre, font inconsciemment du curé un « officier d'état civil » qui enregistre le consentement mutuel, sans autre exigeance religieuse. Dernière hostilité, celle du Roi aboutit à supprimer le contrat notarié et les autres expédients matrimoniaux. Sans doute, mais la magistrature est obligée de reconnaître la réalité protestante ; elle souffre du désordre social ainsi créé : bâtardise, incapacité d'hériter, et sa solution, l'enregistrement devant la justice royale, n'est pas différente de celle que Brousson, huguenot, magistrat avant d'être pasteur du Désert, avait proposée en son temps. La solution rallie finalement les sages de tous les partis, et, après avoir avancé ou reculé, au gré des fluctuations des intrigues de Cour, c'est celle qui prévaudra en 1787.
Fluctuations des intrigues de la Cour, dira-t-on, mais encore... les protestants eux-mêmes, par leurs divisions, retardent la solution du mariage civil.
Le protestantisme n'est pas un, on pouvait s'en douter : devant le problème du mariage, des divisions apparaissent. Pour les uns, restaurateurs de l'Église, non conformistes, ruraux, nobles, tenanciers du Midi et de l'Ouest, le problème du mariage civil n'est qu'un aspect de la reconstruction de l'Église et de la reconnaissance du culte réformé. Pour la bourgeoisie — cette bourgeoisie qu'incarnaient au XVIIIe siècle les Messieurs de La Rochelle et des autres métropoles calvinistes et commerçantes, ceux dont le patriotisme fiscal compensait largement aux yeux du Gouvernement la tare calviniste, — le Désert était bien compromettant : l'essentiel était de sauvegarder leurs intérêts en obtenant un état civil, et de transmettre à leurs enfants l'héritage, signe de la Grâce de Dieu : ils craignaient de sacrifier la proie pour l'ombre. Le mariage civil leur suffit et, paradoxe, ceux qu'on appelle les Messieurs s'allient à l'autorité royale contre le Désert. Bonne aubaine pour celle-ci. On comprend que la solution de 1787 ait tant tardé. Finalement, l'Édit de 1787, en donnant le mariage civil aux protestants sans accorder le culte public, donnait satisfaction aux bourgeois sans satisfaire les classes rurales plus sensibles à ce qui manquait à l'Édit qu'à ce qu'il apportait. — Épisode -d'une opposition profonde et complexe que la Révolution ne devait point apaiser.
Huguette Chaunu
Je vais dans ma vie comme un somnambule. Du monde qui m'entoure, je ne sais rien ou presque. Ainsi, j'ignore qui est Kim Kardashian, si elle est mariée avec Kanye West ou avec le fils caché du prince Charles. Dans la rue, je pourrais tout à fait croiser Taylor Swift, Lady Gaga ou Beyoncé sans même me douter que je viens de voir une star interplanétaire. C'est à peine si je sais à quoi sert TikTok. Quant au bitcoin, on a dû m'expliquer le principe un bon millier de fois sans que je comprenne pour autant son utilité et encore moins son fonctionnement.
Ce qu'est une personne binaire, je n'en ai pas la moindre idée. À chaque fois qu'on me parle d'une personne racisée, il me faut un certain temps avant de comprendre de qui, de quoi on parle exactement et encore, je ne suis pas bien certain d'avoir saisi toutes les nuances qui s'y rapportent. Pareil pour «inclusif». Qui inclut quoi dans qui, je ne saurais pas bien le dire. Transgenre et ses mille et une déclinaisons? N'étant pas suicidaire, je passe mon tour.
Afin de préserver ma santé mentale et ce qui me reste de dignité, je ne tweete pas. Sur Facebook, ma principale activité est de bannir quelques plaisantins qui veulent absolument m'envoyer à Auschwitz. La différence entre Facebook et Instagram, je n'en ai pas la moindre idée sauf que, paraît-il, l'un est mieux que l'autre. J'ai trois contacts sur WhatsApp, à qui je n'écris jamais si ce n'est pour me plaindre de n'avoir jamais de leurs nouvelles.
J'ai longtemps vécu sans téléphone portable. Je n'ai pas regardé une émission de télévision depuis «Champs-Élysées». Quand je découvre la liste des nominés pour les Victoires de la musique, je demeure aussi perplexe que lorsque je parcours la liste des ingrédients contenus dans mon pot de yaourt. Je n'ai jamais lu un roman de Guillaume Musso. Et le nom des chroniqueurs de «Touche pas à mon poste» ou d'autres programmes à succès me sont aussi familiers que les identités successives des amants de ma belle-mère, à qui je ne parle plus depuis des années.
Je refuse de reconnaître qu'il existe de par le vaste monde des gens qui se nomment «influenceurs». C'est au-dessus de mes forces. Je crois que si j'avais eu un enfant, effaré par le nombre de conneries auxquelles il aurait été exposé, je l'aurais tenu enfermé dans sa chambre jusqu'à sa majorité. Je n'ai aucune idée de ce à quoi peut bien servir un casque de réalité virtuelle, une Apple Watch ou une enceinte connectée, si ce n'est à nous rendre encore un peu plus crétins que nous ne le sommes déjà.
Autant dire que j'ai quelque mal à me reconnaître dans mon époque. Comme si j'étais un inadapté de naissance. Ou pire, un poseur qui aimerait tout critiquer, son temps comme ses contemporains, pour mieux exposer au grand jour sa singularité. À moins que je ne sois plus porté vers les choses de l'esprit, ce qui ferait de moi une sorte d'intellectuel dont la profondeur de pensée serait à peu près égale à celle d'un moineau en fin de vie.
Serais-je donc snob? À la fois élitiste et con comme un balais Bluetooth. Enfermé dans une tour d'ivoire qui serait celle d'un esprit dérangé, asocial, misanthrope au point de ne rien supporter si ce n'est la présence d'un chat tout aussi hautain que lui. Vous ai-je dit que je détestais aussi les vidéos de chats dans lesquelles on expose ces malheureux comme des bêtes de foire sans même leur demander leur avis?
Atrabilaire, vous dis-je.
Musicalement, je serais incapable de citer un seul groupé né dans les années 2000 et après. Pourtant, dans une autre vie, j'ai écrit pour les Inrockuptibles. En fait, c'est comme si ma vie s'était arrêtée à mes années de jeunesse. Au temps doré où je coïncidais avec mon époque. Où j'allais voir un film de Wim Wenders en noir et blanc au Lucernaire. Où je ramenais le dernier single des Smiths d'un voyage à Londres. Où je comprenais mon temps. Où, surtout, on me comprenait, moi.
À part cela, Andrew Fletcher, le claviériste de Depeche Mode, vient de mourir pendant que j'écrivais cette chronique.
Il y a sûrement une conclusion à en tirer.
Je vous laisse deviner laquelle.
CINÉMA - Lorsqu’on adapte une œuvre, il faut s’attendre à voir déferler les hordes de fans, quel que soit le soin avec lequel on a travaillé: ce sera forcément le cas du film Dune, basé sur l’œuvre monumentale de Frank Herbert, sorti en salles le 15 septembre et diffusé sur Canal+ ce vendredi 20 mai. Je suis bien placé pour en témoigner: je fais partie de la horde. Mais Denis Villeneuve a manifestement travaillé, donnant un écrin à 165 millions de dollars réussi aux aventures de Paul Atréides. Et me contenter, moi, c’était mettre d’accord à peu près toutes les étapes de ma vie.
J’avais neuf ans lorsque j’ai découvert Dune, à l’époque d’assez loin. Mon frère plus âgé les dévorait, et habitant le lit au-dessus du mien, ses livres, ou du moins leurs couvertures passaient, immanquablement devant mes yeux. Je fixais les illustrations, et les connaisseurs vont le diront: lorsque l’on arrive aux alentours du troisième tome, les portes de l’étrange ont été franchies. Cette étrangeté, elle est partout dans le Dune de Villeneuve. On est jamais tout à fait à son aise, et c’est très bien: on n’est pas sur Terre, on n’est pas chez soi. Rien n’est censé être familier.
À treize ans, j’ai donc relevé le défi, et attaqué le fameux cycle, pour caler assez tôt dans les étapes de montagne. Que les connaisseurs me pardonnent: dans les sept tomes du cycle de Dune, il y a un roman d’aventures qui en épuise deux, puis une réflexion philosophico-politique qui s’installe dans les cinq suivants. J’ai eu beau arriver au bout, les derniers milliers de pages étaient arides.
Assez logiquement, le film adapte le tout début de la saga, le premier tome, qui tient plus du livre d’aventure. Il réussit à faire assez peu d’impasses sur la richesse de ce monde, son vocabulaire, mais réussit à rester palpitant. Au fond, il reste focalisé sur l’essentiel: un désert gigantesque, l’affrontement sanglant de deux familles, et au milieu, des hommes qui survivent à un milieu absurdement hostile. Ce sont d’ailleurs ces éléments-là qui ont fait le succès de Dune ailleurs qu’en librairie.
J’avais beau mordre la poussière avec les bouquins, mon père avait installé les jeux vidéo Dune 1 et 2 sur notre PC familial, et c’était fantastique. Je jouais, mon père jouait, nous bottions les fesses de l’empereur Shaddam Corrino IV: les subtilités du livre m’échappaient certes un peu, mais avec les jeux, j’étais transporté.
Faut-il vraiment respecter une œuvre au détail près pour lui montrer qu’on l’aime à la folie? Dans le film de Villeneuve, les hommes en vadrouille dans le cagnard implacable du désert ont souvent la tête entièrement découverte, une véritable sentence de mort sur la planète Arrakis. Mais le cinéma exige qu’on voie régulièrement la bouille de Timothé Chalamet: ainsi soit-il. Il faut parfois faire des compromis sur les détails, qu’on soit Denis Villeneuve ou Matthieu Balu à 13 ans.
À quinze ans, dans l’été qui séparait ma seconde et ma première, j’ai relu la saga, et l’extase littéraire et intellectuelle s’est produite. La température de ma chambre y était pour beaucoup, en cette canicule de 1999, mais cette fois, j’y étais. Je vivais la prise du pouvoir des Atréides, la bataille de l’épice, j’exultais de lire la puissance des Fremen, je souffrais avec Paul, je devenais monstrueux avec l’empereur-Dieu, je comprenais son projet, et le tome d’après j’épousais la révolte de ses opposants. C’était ébouriffant.
Sur grand écran, ce premier volet, qui pose les bases d’une histoire ultra-riche, ne surjoue pas le côté café philo, et c’est tant mieux. On se laisse emporter, oubliant même l’emphase lourdingue de certains dialogues: après tout, Dune ressemble beaucoup plus à Star Wars que les fans ne voudront jamais l’avouer.
Avec la passion, la vraie, commence la longue tragédie de ne pouvoir communiquer ce que l’on a ressenti. Alors au lycée,en bon moine-soldat, j’entamais une quête perdue d’avance. À la place de Slipknot gravé au tipex sur mon sac à dos, j’avais stabiloté une phrase sur la couverture de mon agenda:“Recherchez la liberté et devenez esclave de vos désirs. Recherchez la discipline et trouvez votre liberté.” Certes, c’est complètement gênant une fois sorti du cadre de Dune, franchement réac aussi, mais je vous incite à vous replonger dans vos propres agendas d’ados.
Parler de Dune à mes amis était un exercice rendu périlleux par l’impératif de simplifier, toujours simplifier, pour donner envie. Denis Villeneuve, lui, a carrément gommé l’un des personnages les plus vils de Dune, Feyd-Rautha Harkonnen, sans doute avec le même objectif que moi. Je dois avouer qu’il m’a manqué.
Deux ans plus tard, nouvelle lecture sérieuse. Il était l’heure de m’apprendre la politique. Un bon livre de science-fiction, c’est souvent un manuel de sciences po à peine déguisé. Avec Dune, quelques grandes familles s’affrontent dans le silence intergalactique, avant une dictature sanguinaire à mi-chemin entre le califat, la cour de Louis XIV et le 3e Reich. En bref, ce n’est pas vraiment Borgen.
J’ai d’ailleurs appris, en écrivant ce texte, que les fascistes aimaient beaucoup Dune, cette saga pensée avant tout comme une fable écologique. Sur cet aspect, le film est quasi-irréprochable. Villeneuve a préservé tous les éléments qui font de cet univers une poudrière complexe où s’affrontent des visions du monde.
À moins bien sûr que l’on voie un problème dans le fait d’avoir féminisé un personnage de cet échiquier. Liet-Kynès, l’écologiste de Dune, l’idéaliste du désert, le remède à la force brute, est en effet incarné à l’écran par Sharon Duncan-Brewster. Mais je cherche encore quel mal à l’œuvre originale pourrait bien faire ce changement. Dans Dune, le genre est extrêmement important pour une poignée de personnages, et absolument sans intérêt pour tous les autres.
À 17 ans, je m’inscrivais pour la première fois sur un forum de discussion, et prenais, évidemment, le nom de l’un des héros du livre. À ce point du récit, je ne vais donner ni le nom du site, ni mon pseudo-enthousiaste: internet n’oublie jamais, une petite recherche sur le Wayback machine vient de me le démontrer, et il y a un niveau de gêne que je ne suis pas encore prêt à affronter.
Côté études, ma décision était prise depuis assez longtemps. Le livre, c’était moi. J’allais faire ma thèse universitaire dessus: peu importait l’angle, le sujet précis. Comme toujours, je voulais expliquer à tous ceux qui voulaient l’entendre pourquoi la saga était géniale - mais cette fois j’allais utiliser des méthodes d’adulte, en bon homme mûr que j’étais devenu. J’écrirais un pavé de doctorat sur Dune. Ça ne s’est pas fait. Pas le temps, sûrement.
Un an plus tard, nouvelle lecture. Là franchement, c’était trop. Après la philo, la politique, je me souviens que mes 18 ans furent ceux d’une lecture...amoureuse, les hormones y étaient sans doute pour beaucoup. J’étais fasciné par la tension sexuelle entre les personnages, ce qui, il faut l’avouer, est plutôt étrange. Plusieurs couples se font et se déchirent dans Dune, mais peu de gens décriraient l’œuvre d’Herbert comme romantique, ou même empreinte qu’un quelconque sentimentalisme. Vraiment pas, vraiment pas du tout, mis à part le très émouvant post-scriptum de Frank Herbert en hommage à sa femme éteinte.
Je ne crois pas non plus que ce soit la force de ce long-métrage. La relation entre Jessica et son fils Paul, la plus ambiguë, tient plus du boulet que du ressort dramatique. Le reste est très classique: Paul admire son père (Oscar Isaac, tellement beau), Paul admire son mentor (Jason Momoa, tellement costaud), Paul rêve parfois de sa promise (Zendaya, tellement Zendaya)...ces moments-là sont justement les plus familiers, les plus interchangeables avec n’importe quel autre film hollywoodien.
J’ai quand même réussi à associer Dune à ma vie sentimentale: l’une des tables de mon mariage en porte le nom. Celle, évidemment, où était placé mon frère. Cet hommage-là était plutôt facile: on avait choisi des titres de livres comme thématique. Une autre, comme les fromages, aurait demandé plus d’imagination.
Depuis, Dune reste dans ma bibliothèque, trône souverainement comme un totem, transféré d’appartement en appartement. Comme on exposerait ses premiers X-men, sa collection complète de Friends en VHS ou de Naruto en Manga. Aujourd’hui, ce n’est plus ma bible, mon livre de philo, de politique, ou d’art amoureux (je ne suis toujours pas bien sûr, là, de ce qui s’est passé). C’est un élément de ma culture. C’est aussi ce qui fait qu’un fan inconditionnel, un otaku, un nerd, aura toujours ma sympathie. Denis Villeneuve, tu as donc toute ma sympathie.
Cette pratique appelée «désherbage» est nécessaire à l'entretien des collections.
Il ne peut pas y avoir d'acquisition s'il n'y a pas de désherbage. Eugenio Mazzone via Unsplash
Le 14 février 2022, des étudiants américains postaient sur TikTok une vidéo où ils se mettaient en scène, choisissant des ouvrages jugés «colonialistes» dans une bibliothèque et les jetant à la benne. La vidéo fut à l'origine d'un petit buzz sur Twitter, d'aucuns y voyant la preuve de l'existence d'une cancel culture sur les campus américains.
Elle fut toutefois rapidement débunkée, après que l'auteur de la vidéo a contacté l'un des twittos à l'origine de la polémique: la vidéo était en fait une blague, les étudiants participaient au tri annuel des livres de la bibliothèque, et les livres devaient être jetés de toute façon, parmi de nombreux autres qui n'ont pas été filmés.
Un autre type de réaction est alors apparu: comment une bibliothèque peut-elle jeter des livres? Après tout, son rôle n'est-il pas de les conserver? N'est-ce pas une forme de destruction de la culture, un dévoiement du rôle des bibliothèques?
Déjà en juillet 2021, le site Mr Mondialisation partageait sur sa page Facebook son indignation face au «gaspillage» des livres jetés par les bibliothèques de Paris. Là encore, de nombreux internautes ont réagi, faisant part de leur incompréhension face à l'idée d'une bibliothèque jetant des livres.
Pourtant, se débarrasser des livres obsolètes fait partie du fonctionnement normal d'une médiathèque. Le processus a même un nom: le désherbage. Comme dans un jardin où les mauvaises herbes empêcheraient les autres de fleurir, les livres obsolètes ou abîmés nuisent au bon fonctionnement de la médiathèque.
«De toute façon, on ne peut pas pousser les murs, relève Cléo, bibliothécaire en région parisienne. Et comme on doit acquérir de nouveaux documents, ça veut dire qu'il y en a certains qui en remplacent d'autres. Ça fait partie de la politique d'acquisition, pour faire vivre une collection. Il ne peut pas y avoir d'acquisition s'il n'y a pas de désherbage.»
De fait, les objectifs d'une bibliothèque municipale ne sont pas ceux d'un fonds d'archives. Leur but est moins de conserver des documents, ou d'assurer la survie des textes, que de faciliter l'accès à l'information et à la culture, de les faire circuler. Or les livres, comme tous les objets, sont soumis à l'usure, et les informations qu'ils contiennent peuvent se périmer.
Les livres à désherber sont sélectionnés selon des critères précis, détaillés par la «méthode Ioupi», acronyme permettant de se souvenir des différentes raisons qui peuvent pousser à se débarrasser d'un livre:
Le «I» signifie «Incorrect», et correspond au cas où le document contient des informations erronées.
Le «O», pour «Ordinaire», désigne un livre dont le contenu n'a pas d'intérêt particulier.
Le «U», ou «Usé», rappelle de regarder l'état du document: si celui-ci est trop abîmé, il faut le désherber et éventuellement le remplacer par un exemplaire neuf.
Le «P» signifie «Périmé», à propos des documents dont les informations ne sont plus d'actualité. «Parfois c'est la science qui a avancé, ou encore un guide de voyage: il faut le renouveler tous les trois ans parce que les restaurants ont changé», exemplifie Cléo.
Le dernier «I» peut vouloir dire soit «Inadapté», c'est-à-dire un document qui n'aurait pas sa place dans cette collection précise, par exemple un document universitaire trop pointu dans une bibliothèque municipale généraliste, soit «Inutilisé», c'est-à-dire peu emprunté et donc peu lu. «Il n'a plus de succès, il ne sort plus, et donc il va quitter les collections de la médiathèque», indique Cléo.
«Mais ne pourrait-on pas donner tous ces livres, plutôt que de les jeter?», demandent les internautes dès que la question du désherbage revient sur les réseaux sociaux. Pour Cléo, ce n'est pas toujours aussi simple:
«Si le document est encore utilisable ailleurs, on peut en faire don, à une association, par exemple. Il y a aussi des médiathèques qui organisent des braderies. Mais ça peut être très compliqué à mettre en place. Ça nécessite de signer des conventions avec les associations. Et comme ça demande du temps, et que parfois les médiathèques sont en sous-effectifs, c'est une étape qu'on n'a pas forcément le loisir d'assumer.»
Par ailleurs, les livres étant achetés avec de l'argent public, les bibliothécaires ne sont pas seuls à décider de ce qu'ils deviennent. «C'est quelque chose qui doit être validé par notre hiérarchie, c'est-à-dire la direction de la médiathèque, et au-dessus de la médiathèque, il y a la mairie. Le maire peut refuser que les livres soient donnés, ou alors on n'a pas forcément le temps pour traiter cette question», ajoute Cléo.
J'ai l'impression qu'on sacralise l'objet livre, alors que pour moi, c'est un objet comme un autre, qui peut s'user. Cléo, bibliothécaire
Mais même lorsque les dons ou les braderies existent, un certain nombre de livres devront tout de même être jetés. «Si l'information est obsolète, elle est obsolète pour tout le monde», rappelle la bibliothécaire. Et certains livres sont en trop mauvais état pour être donnés. Le papier est toutefois recyclé: «Parfois, les livres sont couverts avec un film plastique sur la couverture, et il faut détacher la couverture pour pouvoir recycler le papier. On fait venir deux bennes, une pour le papier et une pour ce qui n'est plus recyclable.»
Malgré tout, l'idée de jeter des livres, même usagés, même obsolètes, provoque souvent des réactions épidermiques chez les amoureux de la lecture. En 2019, la série Netflix Tidying Up with Marie Kondo avait déjà suscité des réactions fortes lorsque la spécialiste du rangement avait conseillé à un couple de clients de faire un sérieux tri dans leur bibliothèque, de ne garder que les ouvrages qui leur «apportaient de la joie», et de se débarrasser du reste.
«J'ai l'impression qu'on sacralise l'objet livre, alors que pour moi, c'est un objet comme un autre, qui peut s'user, estime Cléo. Beaucoup de gens confondent l'objet livre, le contenant, avec le contenu.» De fait, la comparaison avec les autodafés de l'Allemagne nazie revient régulièrement lorsqu'il est question de détruire des livres. Mais c'est oublier que ces autodafés avaient pour objectif de détruire tous les exemplaires des textes afin de les supprimer définitivement de la circulation. Détruire un exemplaire d'un livre largement publié et distribué est fondamentalement différent, à la fois dans l'intention et dans les conséquences.
Si les gens se scandalisent qu'un livre quitte la bibliothèque, peut-être qu'ils auraient pu l'emprunter avant, on l'aurait sans doute gardé! Cléo, bibliothécaire
On peut se demander s'il n'y a pas dans ces réactions épidermiques une forme de ce que le sociologue Pierre Bourdieu appelait une «logique de distinction»: un moyen de montrer que l'on est un bon lecteur, qui a bien intégré la norme d'une vision du livre comme d'un objet «pas comme les autres», qui serait porteur d'émancipation et de culture. Une façon, finalement, de faire savoir que l'on est soi-même émancipé et cultivé.
En tout cas, Cléo constate que les personnes qui ont ce type de réactions ont peut-être une large bibliothèque personnelle, mais fréquentent vraisemblablement peu les bibliothèques publiques. «Je n'ai pas l'impression que les usagers sacralisent [le livre] particulièrement. Les usagers en médiathèque acceptent qu'un livre soit partagé et lu par d'autres personnes. Ils se rendent compte qu'un livre peut être abîmé.» D'ailleurs, «si les gens se scandalisent qu'un livre quitte la bibliothèque, peut-être qu'ils auraient pu l'emprunter avant, on l'aurait sans doute gardé!», ironise-t-elle.
Les États-Unis et 55 autres pays ont lancé, ce 28 avril, une initiative commune pour garantir un internet sûr et libre. Avec la signature de cette charte baptisée « Déclaration pour l’avenir d’internet », l’administration Biden veut réunir le plus de pays possibles autour d’une vision commune sur ce que doit être la toile de demain.
La « Déclaration pour l’avenir d’internet » contient plus de 20 « principes ». Dans cette charte, les signataires s’engagent, entre autres, à renforcer la démocratie en ligne en acceptant de ne pas fermer l'accès à l'internet. Les plus de 60 pays participants – dont la Grande-Bretagne, la France, l'Allemagne, le Japon, ou encore le Kenya et l'Ukraine – promettent de ne pas utiliser d’algorithmes pour espionner illégalement les citoyens et de ne pas mener de campagnes de désinformation pour influer sur des élections.
« Aux côtés de + de 50 partenaires, les États-Unis ont lancé aujourd'hui la déclaration pour l'avenir d'internet, un engagement à promouvoir un internet ouvert, au profit des peuples du monde entier. » - Le @SecBlinken #FutureoftheInternet pic.twitter.com/FwLtGCIXZg
Cette initiative se veut un contrepoids face à l’inquiétante montée de grandes puissances autoritaires, où l’accès à l’information numérique est restreint. L’enjeu est majeur, explique la Maison Blanche. Puisqu’il s’agit de repousser « l’autoritarisme numérique croissant », dont font preuve notamment la Chine et la Russie. Les équipes de Joe Biden ont travaillé pendant plusieurs mois à l'élaboration de cette charte.
Depuis l'invasion de l'Ukraine, le 24 février dernier, « la Russie a promu de manière agressive la désinformation dans son pays et à l'étranger, censuré les sources d'information sur internet, bloqué ou fermé des sites légitimes et est allée jusqu'à attaquer physiquement l'infrastructure internet en Ukraine », a dénoncé un haut responsable de l'administration Biden auprès de journalistes.
La nouvelle charte concoctée par Washington montre pourtant déjà ses limites : elle est non contraignante et des pays comme l’Inde, l’Indonésie ou le Brésil ne l’ont pas signée. Les défenseurs américains d’un internet libre attendent de Joe Biden surtout qu’il revienne sur la décision, prise sous la présidence de Donald Trump, de mettre fin à la neutralité du net. Le président s’y est engagé. Mais ses nominations pour les postes à la Commission fédérale des communications sont toujours bloquées au Sénat.
Expérimenté depuis le mois d’août 2021 dans trois départements de Métropole, le service Mon Espace Santé (qui prend la suite du Dossier Médical Partagé) a été généralisé à l’ensemble de la population depuis février 2022. Plusieurs associations (comme XY media, Acceptess-T ou le collectif POS) ont très tôt alerté sur les dangers liés à ce nouvel outil. Nous avons passé en revue les fonctionnalités de Mon Espace Santé et force est de constater qu’elles présentent des insuffisances alarmantes en matière de respect du consentement et de gestion des données de santé. De par l’audience large à laquelle il s’adresse et de part la sensibilité des données qu’il manipule, un tel outil du service public se devrait pourtant d’être irréprochable en la matière. À défaut, nous ne pouvons que vous rediriger vers des guides vous permettant de vous opposer à ces traitements de données.
Pour commencer, faisons un petit tour plutôt descriptif de ce qui est annoncé en terme de fonctionnalités. Mon Espace Santé (aussi appelé Espace numérique de santé dans la loi et le décret qui le créent) se compose principalement de quatre éléments :
Dans l’absolu, cet espace de partage des informations pourrait être une solution pour faciliter le droit d’accès à son dossier médical. Mais ceci impliquerait une mise en œuvre solide et de confiance qui n’est, à notre avis, pas atteinte avec Mon Espace Santé (voir plus bas la suite de notre analyse).
Une messagerie sécurisée pour échanger avec des professionnel·les de santé. À la création de Mon Espace Santé, une adresse de messagerie MSSanté (Messagerie Sécurisée de Santé) est automatiquement attribuée à la personne usagère et rattachée à Mon Espace Santé. Cette adresse est constituée à partir du matricule INS de l’usagère et du nom de domaine de l’Opérateur de Mon Espace Santé (selon le Référentiel Socle MSSanté). Les messages échangés sont stockés pendant une durée de dix ans, sauf lorsqu’ils sont supprimés directement par l’utilisateur·ice. Ces adresses existaient déjà pour les professionnel·les de santé.
Un agenda pour suivre ses rendez-vous médicaux et recevoir des rappels.
Enfin, pour accéder à ces différents services, outre un site web, une application mobile sera également disponible. Le développement technique est réalisé par les entreprises privées Atos, Octo, Accenture et Maincare. La société Worldline traite les données du Dossier Médical Partagé au travers de sa filiale Santeos. Les autres données (messagerie, agenda…) sont traitées par la société Atos.
Un recueil accessoire du consentement des personnes
Pour chaque personne, la création de Mon Espace Santé se fait automatiquement selon un calendrier régionalisé prévu par l’État. Chaque personne est notifiée par courrier postal ou par courriel de la création prochaine de son espace. Elle dispose alors d’un délai de six semaines pour empêcher la création de l’espace en se connectant sur le site. L’espace est donc créé sans le recueil du consentement préalable et explicite de la personne usagère. L’opposition, elle, doit être explicite.
Dans les premières annonces d’ évaluation de la phase pilote, qui a eu lieu à partir d’octobre 2021 dans trois départements, la Sécurité sociale annonçait que « moins de 0.7% des usagers se sont opposés à [la] création [de leur espace santé]. » Mais plus loin on apprenait que seuls 4.8% des personnes ayant un espace santé l’avaient utilisé. Comment savoir donc si les presque 90% restants ont réellement souhaité en avoir un, ou même s’ils ont reçu le courrier ou mail prévenant de sa création (et des possibilités de s’y opposer) ?
Avant même de se poser la question de l’utilité ou non de Mon Espace Santé, on peut dire que les modalités de sa création sont loin d’être respectueuses des personnes auxquelles il est censé simplifier la vie. Passer outre le consentement des personnes au prétexte de « les aider » est la définition du paternalisme et, selon nous, s’oppose aux véritables pratiques de soin fondées sur l’écoute et la considération.
Certes, il est toujours possible de supprimer son compte. Mais, là encore, la personne usagère devra être attentive et suffisamment informée si elle souhaite demander la fermeture de son compte en cochant la bonne case (ses données seront supprimées 3 mois plus tard, à moins d’être supprimées individuellement au sein du profil médical, des mesures santé ou de la messagerie, auquel cas elles seront effacées immédiatement). Nous avons trop souvent dénoncé ce tour de passe-passe lorsqu’il était réalisé par les GAFAM : la possibilité théorique d’effacement ultérieur ne produit aucun effet significatif concret qui pourrait justifier l’absence de consentement préalable. Ce qui est inadmissible pour les GAFAM l’est encore davantage pour un service public traitant des données extrêmement sensibles soi-disant « pour notre bien ».
Une fois créé, l’espace santé a pour but de partager les informations avec le personnel de santé : la personne usagère devra donc autoriser les soignant·es à accéder à tout ou partie de ses informations. Mais, là encore, le recueil du consentement est problématique, pour ne pas dire quasiment factice : une simple case à cocher par le ou la soignante servira de « preuve » que l’on a donné son accord pour qu’il ou elle y accède. Au niveau du service informatique, il n’y a donc aucune procédure pour vérifier qu’il s’agit bien de la personne patiente qui donne son accord, à qui, et quand.
On peut ainsi imaginer qu’une personne mal-intentionnée ait accès au service en tant que personnel soignant et consulte le dossier de n’importe quelle personne dans la base de données. Il lui suffirait de cocher cette case de manière arbitraire et d’accéder à des informations privées. Ce cas est certes déjà possible actuellement sans Mon Espace Santé, à partir des divers bases de données médicales existantes, mais de manière bien plus cloisonnée. Avec un système aussi centralisé que Mon Espace Santé, la possibilité que ce type de scénarios se produise est accrue. On peut aussi aisément imaginer que nombre de personnes soignantes vont considérer que le fait d’avoir pris rendez-vous équivaut à consentir à ce qu’ils ou elles accèdent au dossier du ou de la patient·e : le respect du consentement est encore malheureusement une question épineuse dans le milieu médical où les maltraitances médicales peuvent être nombreuses.
Enfin, une fois l’espace créé, seuls des « motifs légitimes » peuvent être invoqués pour refuser qu’un·e professionnel·le verse des documents en ligne. C’est ce qu’indique en l’article R. 1111-47 du code de la santé publique et rappelé dans la politique de protection des données personnelles : « Une fois votre profil Mon Espace Santé créé, vous ne pourrez pas, sauf à invoquer un motif légitime, refuser qu’un professionnel autorisé ou que les personnes exerçant sous sa responsabilité déposent dans votre dossier médical partagé les informations qui sont utiles à la prévention, la continuité et la coordination de vos soins (article R. 1111-47 du code de la santé publique) ».
Nous avons passé en revue la configuration des paramètres à la création du compte « Mon Espace Santé », et déjà, nous pouvons noter quelques actions effectuées sans l’accord explicite de la personne usagère :
L’attestation de vaccination Covid-19 est automatiquement versée dans le dossier par l’Assurance maladie. Le document est visible par défaut à l’ensemble des professionnel·les de santé. Il est possible de le masquer, mais pas de le supprimer car il a été ajouté par un·e professionnel·le de santé. Il n’est pas possible de s’opposer au versement de ce document, alors que l’Assurance maladie n’a pas été techniquement autorisée à déposer des documents sur ce compte.
En ce qui concerne la configuration des accès aux professionnel·les en cas d’urgence, l’option est activée par défaut à la création du compte. Pour s’en rendre compte, la personne usagère doit se rendre dans la section « Confidentialité » des paramètres de configuration, puis « Accès en cas d’urgence ». Le personnel du SAMU ainsi que « tout autre professionnel de santé » sont autorisés par défaut à accéder aux documents et aux rubriques « Vaccinations », « Historique de soins », « Entourage et volontés » du profil médical. Mais quels contrôles techniques permettent de définir ce qui est une situation d’urgence et débloque l’accès des documents aux professionnel·les ? Et s’agit-il des professionnel·les qui ont d’ordinaire déjà accès à notre espace ? Les informations que nous avons pu recueillir ne nous permettent pas de répondre actuellement à cette question.
Le décret s’appliquant à Mon Espace Santé prévoit une matrice d’accès différencié aux informations de la personne usagère selon le type d’activité du ou de la soignante. En pratique, le partage par défaut est très large : votre dentiste aura accès à vos résultats de prélèvements sanguins, votre kiné à votre historique de vaccination, votre sage-femme aux données de remboursement, et ainsi de suite.
Le ou la médecine traitante a, quant à elle, accès à l’ensemble des informations contenues dans l’espace santé de ses patient·es.
S’il est possible de bloquer l’accès à un·e professionnel·le de santé depuis les paramètres de l’espace, que se passe-t-il dans le cas où l’on souhaite changer de médecin·e traitant·e ? Ou que l’on souhaite choisir quelles informations partager ? En effet, certains parcours de santé nécessitent la consultation de divers spécialistes aux opinions divergentes pour obtenir un diagnostic. L’accès à certaines informations sur des opérations ne faisant pas consensus parmi le corps médical peut également générer des biais négatifs chez les professionnel·les de santé (par exemple, le recours à une IVG). Enfin, l’accès est partagé pour le service d’un hôpital : impossible dans de ce cas de savoir qui y a vraiment accès (prêt de carte d’accès au système informatique par exemple).
Cependant, il est important de noter que la personne usagère ou qu’un·e professionnel·le peuvent choisir de masquer un document pour le rendre inaccessible aux autres professionnel·les de santé, à l’exception du ou de la médecine traitante, de la personne ayant mise en ligne le document et du personnel intervenant en cas d’urgence. Si ce n’est pour ces larges exceptions, ceci représente un bon moyen de protéger la confidentialité des données au cas par cas. En revanche, il n’est pas possible de supprimer un document déjà versé par un·e professionnel·le de santé.
Il est possible pour les personnes de vérifier qui a eu accès à leurs données : des journaux d’activité enregistrent qui accède à quel document à une date et une heure donnée. La personne usagère peut recevoir des notifications chaque fois qu’un nouvel accès est détecté. Ces journaux permettent donc de détecter un potentiel mésusage de l’accès aux données. Cependant, cette fonctionnalité ne peut aider à protéger les accès qu’après coup : si on se rend compte qu’une personne soignante a eu accès à un document et que cela ne nous convient pas, on ne pourra que limiter ses accès futurs.
Le système de droit d’accès de Mon Espace Santé n’a pas été pensé pour permettre aux utilisateur·ices de gérer simplement et de manière éclairée l’accès à leurs données. On pourrait par exemple imaginer un système où par défaut seule la personne usagère et la liste de soignant·es qu’elle a désignées auraient accès aux documents la concernant, l’usagère pouvant ensuite choisir de démasquer certains documents à d’autres professionnel·les de santé (en bénéficiant par exemple de conseils de la part des soignant·es pour faire ce choix de manière éclairée). Dans ce cas, c’est la personne usagère qui aurait véritablement la main sur ses données, et non pas les professionnel·les de santé comme c’est le cas avec la conception actuelle de Mon Espace Santé.
Dans le cas des enfants et des adolescent·es, les ouvrants droits (c’est-à-dire les assuré·e·s) auront accès aux espace de santé des personnes qui leur sont rattachées. C’est-à-dire que, concrètement, toutes les informations de santé de leurs enfants et adolescent·es, ainsi que les rendez-vous et les courriels passant par la messagerie sécurisée leur seront accessibles.
En théorie, certaines infos peuvent ne pas être versées dans le dossier. Par exemple, dans le cas d’une IVG, le ou la soignant·e est en charge d’expliquer et de proposer à la personne mineure de ne pas ajouter les infos de l’IVG dans le dossier. La personne peut répondre qu’elle ne veut pas que ce soit versé. Aucune donnée de remboursement relatif à cet acte ne sera remontée. Cet exemple fait partie des motifs légitimes que peut invoquer une usagère pour refuser qu’un·e professionel·le verse un document sur l’espace santé.
Ceci implique que les soignant·es pensent à demander, et respectent, le souhait des personnes. Or, avec Mon Espace Santé, la quantité des données versées est multipliée et surtout normalisée : par fatigue ou par oubli à force de répétition, il est probable que le consentement pour verser une information dans Mon Espace Santé ne soit pas récolté à chaque fois. De plus, comme le recueil du consentement est oral et informel (il ne laisse donc aucune trace), la décision pourra difficilement être contestée.
Cet outil multiplie donc malheureusement les chances de mettre en danger le secret médical de ces personnes, et potentiellement la sécurité des personnes au sein de leur foyer ou de leur famille : que se passe-t-il si une enfant/ado ne souhaite pas parler d’un sujet (contraception, dépistage de MSTs, grossesse, avortement, transition) avec la personne à laquelle son compte est rattaché (que cela soit par pudeur ou par crainte de violences en représailles) ?
Le dossier Informatique et Libertés fourni par la Délégation du numérique en santé précise par ailleurs que l’opposition à la création du compte Mon Espace Santé appartient aux représentants légaux. Une personne mineure ne peut donc supprimer ou s’opposer à la création de son espace santé.
En revanche, lorsque la personne devient ayant droit autonome, les accès des représentants légaux sont clôturés par le service. La personne peut gérer son compte, le fermer ou le créer s’il n’existait pas avant si elle le souhaite. Notons qu’une personne peut demander, à partir de 16 ans, de devenir ayant droit autonome auprès de la CPAM de son domicile. On peut imaginer que le scénario de clôture des accès des anciens représentants légaux s’applique également dans ce cas.
Par ailleurs, la notion d’ayant droit existe toujours dans certains régimes tels que la Mutualité sociale agricole (MSA) ou le régime local d’Alsace-Moselle (personnes mariées, pacsées, concubines et enfants jusqu’à 24 ans sans activités). La documentation à laquelle nous avons eu accès ne permet pas de dire si les ouvrants droits auront accès aux espaces santé des ayants-droits majeurs. Nous attirons l’attention sur le fait que si tel était le cas, cela représenterait un danger pour les personnes qui vivent des violences ou des conflits dans leur vie familiale (personnes en instance de divorce par exemple).
Enfin, au delà des soignant·es et des utilisateur·ices, des personnes tierces peuvent avoir accès aux données de santé pour des fonctions de support. Les niveaux 2 et 3 de ce support pourront avoir accès aux données de santé. Ceci implique notamment des agent·es de la CPAM et le personnel de prestataires (Atos/Wordline) et de l’hébergement. L’accès aux informations doit en théorie recueillir le consentement de la personne usagère dans le cadre du support, mais là encore impossible d’assurer que ce consentement sera bien demandé et non forcé techniquement. Concrètement, des personnes qui ne sont pas professionnelles de santé peuvent accéder aux informations médicales personnelles des usagères. Mais cela est-il vraiment nécessaire pour une fonction support ? Ceci pose la question également de savoir si les documents sont stockées de manière chiffrée et lisibles uniquement par les personnes habilitées, ou pas. Difficile de répondre à cette question en l’état de nos connaissances.
La description du catalogue de services numériques de santé à venir implique la possibilité d’ajouter des applications d’entreprises privées au sein de l’espace santé. Ceci pose un grand nombre de questions concernant le partage des données d’activités et des contenus stockés dans l’espace santé. Pour l’instant, nous n’avons pas les réponses à ces questions, et nous soulignons notre inquiétude sur ce sujet : comment l’usagère pourra-t-elle déterminer à quelles données l’application accède, et si cela est légitime ? Pourra-t-on limiter les données auxquelles chaque application a accès (comme sur un smartphone) ? Lors des mises à jour des applications, les changements de permissions ou de fonctionnement seront-ils notifiés et comment ? Et enfin, quels usages de nos données feront les « startups » d’objets connectés et autres grandes entreprises et plateformes de prise de rendez-vous (monétisation, profilage) ? Au-delà de ces problèmes d’implémentation, il faut dénoncer la direction générale animée par cette évolution : le remplacement du soin par la technique industrielle.
Mon Espace Santé s’inscrit dans une tradition de numérisation et de centralisation en ligne des données : ceci fait du service une cible idéale pour les piratages de données. Le stockage est géré par une entreprise privée. Le code du service n’est ni public ni accessible, ce qui pose la question de la transparence pour un outil du service public.
Nous nous interrogeons, aujourd’hui comme dans un futur plus ou moins proche, sur l’accès à la santé des personnes ne pouvant ou ne voulant pas utiliser ce service de santé. Et si d’aventure nous nous retrouvions dans une situation où il nous est impossible d’avoir rendez-vous sans passer par cet espace ? Ou que nos remboursements sont rendus difficiles sans l’utilisation de cet espace ?
La fiabilité et la sécurité informatique de ce service doivent aussi être considérées : si la plateforme se retrouve la cible d’un défaut de fonctionnement ou d’un piratage, que deviennent alors nos données ? Souvenons-nous du piratage des services de l’AP-HP en 2021 dans le contexte du Covid-19, suite auquel la réponse apportée par les autorités de santé a été insuffisante, voire nulle. Plus récemment encore, les données d’au moins 510 000 personnes ont été volées à l’Assurance maladie via Amelipro. À vouloir faciliter l’accès à la santé en imposant un outil numérique, n’y a-t-il pas erreur sur la façon de procéder ? Autant de questions auxquelles cet outil numérique ne répond pas tout en persistant dans la même direction.
Mon Espace Santé est un service manipulant des données sensibles qui est déployé à l’ensemble de la population française. Or, sa conception et son déploiement ne sont clairement pas au niveau des services les plus respectueux en matière de protection de la vie privée.
Selon le Ségur du numérique en santé, son ambition est de « généraliser le partage fluide et sécurisé de données de santé entre professionnels et usagers pour mieux soigner et accompagner. »
Mais pour cela, les besoins en terme de consentement et de gestion des données des usagères devraient être au cœur d’une expérience utilisatrice respectueuse, fiable et réaliste, ce qui à notre sens n’est pas le cas avec Mon Espace Santé. Sans oublier que ce service s’inscrit dans un processus de numérisation des services publics qui, trop souvent, ne tient pas compte des difficultés d’accès et d’utilisation d’Internet par de nombreuses personnes.
Pour ces raisons, nous ne pouvons que remercier les nombreuses associations qui ont déjà alerté sur ce sujet et, comme elles, vous proposer des guides pour demander la suppression de votre espace santé.
Les applications « Messages » et « Téléphone » de Google, installées sur plus d'un milliard de smartphones, enregistrent l'activité de l'utilisateur et envoient ces données sur les serveurs de la firme. Les utilisateurs ne sont pas informés de cette collecte, qui ne respecterait pas le RGPD, et n'ont aucun moyen de s'y opposer.
Les utilisateurs d'Android sont habitués aux alertes concernant de fausses applications qui collectent leurs données. Cependant, cette fois ce sont deux applications légitimes préinstallées sur les versions récentes d'Android qui envoient des informations personnelles à Google...
Le problème a été découvert par Douglas Leith, professeur d'informatique au Trinity College de Dublin. Ce sont deux applications de Google qui sont mises en cause, à savoir Messages (com.google.android.apps.messaging) et Téléphone (com.google.android.dialer). À chaque SMS envoyé ou reçu, Messages envoie à Google un rapport qui inclut l'heure et une empreinte numérique du message. Ces données sont transmises à travers le service d'enregistrement Clearcut de Google Play ainsi que le service Firebase Analytics.
L'appli utilise la fonction de hachage SHA-256 pour créer une empreinte tronquée, ce qui est censé éviter de dévoiler le contenu du message. Toutefois, cela suffirait à Google pour faire le lien entre l'expéditeur et le destinataire. L'application Téléphone envoie des rapports similaires, avec l'heure et la durée des appels reçus ou émis. De plus, quand la protection contre les appels indésirables est activée, ce qui est le cas par défaut, l'appareil transmet également le numéro appelant aux serveurs de Google.
Graphique sur le lien entre les données collectées et l’identité réelle, via un identifiant Android, lié aux identifiants de l’appareil et de la carte SIM, ainsi qu’au compte Google, lui-même lié au numéro de téléphone et cartes bancaires. © Douglas Leith
Graphique sur le lien entre les données collectées et l’identité réelle, via un identifiant Android, lié aux identifiants de l’appareil et de la carte SIM, ainsi qu’au compte Google, lui-même lié au numéro de téléphone et cartes bancaires. © Douglas Leith
Les deux applis envoient également des informations détaillées sur leur utilisation, par exemple lorsque l'utilisateur affiche un message ou effectue une recherche dans ses conversations. Google n'informe à aucun moment l'utilisateur de la collecte de données et n'offre aucun moyen de s’y opposer. Le professeur met également en doute la conformité des applications avec le règlement général sur la protection des données (RGPD). Cette collecte ne respecterait pas les trois principes de base concernant l'anonymat, le consentement et un intérêt légitime.
Après avoir signalé à Google ces problèmes, la firme a répondu en indiquant effectuer quelques changements. Les utilisateurs seront notifiés qu'ils utilisent une application Google avec un lien vers la politique de confidentialité. Messages ne collectera plus le numéro d'expéditeur, le code ICCID de la carte SIM, ainsi que l'empreinte des SMS. Les deux applications n'enregistreront plus les évènements liés aux appels dans Firebase Analytics. La collecte de données utilisera un identifiant temporaire plutôt que l'identifiant Android permanent. Enfin, Google informera plus explicitement les utilisateurs lorsque la fonction de protection contre les appels indésirables sera activée, et cherche actuellement comment utiliser moins d'informations ou des données plus anonymes.
Le professeur a également indiqué que Google compte ajouter à Messages une option pour refuser la collecte d’informations. Toutefois, celle-ci ne couvrirait pas ce que la firme considère comme données « essentielles ». Il s'agit d'une des premières études sur les données personnelles transmises par les services Google Play, qui restent largement opaques et pourraient cacher bien d'autres surprises...
Le sujet est presque devenu un marronnier depuis le début de la crise sanitaire: les Français quitteraient la ville pour se mettre au vert. La réalité est tout autre.
Des cadres parisiens en télétravail, heureux de profiter d'une pièce supplémentaire, d'un jardin et d'un rythme moins effréné. Des agents immobiliers de zones rurales qui annoncent n'avoir «plus rien à vendre», et des villes qui se vident. Si ce tableau vous paraît familier, c'est qu'il est régulièrement brossé médiatiquement depuis la pandémie de Covid-19 en France.
Dès le premier confinement du printemps 2020, c'est d'abord avec les données de téléphonie mobile qu'on pense voir une fuite générale (mais temporaire) vers les campagnes. Une fois les restrictions levées, place aux achats de maison avec jardin, loin des centre-ville. Le sujet devient alors presque un marronnier, qu'il soit évoqué positivement comme un moyen de revitaliser les campagnes, ou moqué à travers la description de néo-ruraux découvrant la rosée matinale et les désagréments de la vie rurale. L'affaire paraît entendue: un bouleversement a eu lieu. La ville n'attire plus, et la campagne se gentrifie. «Comment l'exode urbain remodèle la France», titrait ainsi L'Obs en une.
Derrière cette expression générale «d'exode urbain» se cache pourtant un malentendu, pointe une étude pluridisciplinaire intitulée «Exode urbain? Petits flux, grands effets. Les mobilités résidentielles à l'ère (post-)Covid» et dont les premiers résultats viennent de paraître. «Dans l'imaginaire, l'expression renvoie à l'exode rural. Mais il n'y pas de caractère massif dans ces mobilités, note Hélène Milet, coordinatrice de l'étude. Il n'y a pas de big-bang territorial.»
Afin de traquer ces mouvements de population, les chercheurs ont étudié des données issues de plateformes en ligne: Leboncoin, Meilleursagents, Seloger, pour analyser les recherches immobilières où se projettent les Français. Pour compléter cette approche, les prises de contact et les ventes effectuées sur Seloger ont également été étudiées, tout comme les déménagements effectifs auprès de la Poste. Enfin, d'autres chercheurs ont de leur côté mené des enquêtes de terrain dans six zones rurales et péri-urbaines: Cévennes, Vosges, Pyrénées audoises, etc.
Les Français restent en majorité attirés par les grands pôles urbains, par le littoral, et par les zones périurbaines.
Un premier constat se dessine: les grandes tendances géographiques françaises n'ont pas été modifiées par la pandémie de Covid-19. Les Français restent en majorité attirés par les grands pôles urbains, par le littoral, et par les zones périurbaines. L'attrait pour la campagne, si présent dans nos représentations, n'est pas la principale caractéristique de la France à l'ère (post-)Covid. «Ce sont les principaux pôles urbains et leurs relations entre eux qui captent l'écrasante majorité des flux de recherche immobilière», cadre l'étude.
La principale raison est que ces pôles urbains restent des bassins d'emplois, le télétravail ne concernant qu'une faible partie des actifs. Idem pour les services: plutôt que la campagne, un couple de cadre va d'abord se diriger vers Marseille, Lyon ou Toulouse.
Dans le détail, les données de déménagement postaux montrent bien un départ des centres de grandes villes, particulièrement de Paris. Ce qui fait écho à d'autres données, comme la baisse du nombre d'enfants scolarisés dans la capitale, mais ne signifie pas que tout le monde est parti se mettre définitivement au vert. «Beaucoup des arrivées se font vers des petites villes, ou des villes de couronne», relève Hélène Milet. Là aussi, ce phénomène, appelé desserrement urbain, préexistait au Covid, prouvent les données de déménagement. La pandémie n'a fait que l'accentuer, parfois en poussant les ménages à s'installer un peu plus loin, comme à Tarare, à plus d'une quarantaine de kilomètres de Lyon.
Max Rousseau, chargé de recherches au Centre de coopération internationale en recherche agronomique pour le développement et qui a participé à l'étude, voit dans ces achats «une extension de la métropolisation», voire une «méga périurbanisation», bien loin d'une transition rurale avec un changement de mode de vie.
Même si ces «petits flux» ne constituent pas la majorité des déplacements, les travaux des chercheurs convergent cependant pour montrer des départs accrus vers la campagne. Mais attention à la généralisation, prévient Hélène Milet. «Il y a beaucoup de diversité dans les zones rurales. Celles qui attirent sont accessibles, à la mer ou proches d'une ville», explique la coordinatrice de l'étude. Dans les Pyrénées audoises, terrain qu'a couvert Aurélie Delage pour l'étude, peu de chances de voir débarquer des cadres en télétravail, vu la difficulté de faire une navette vers une grande ville. «On y retrouve trois profils: des retraités, dont ceux qui reviennent au pays, des ménages en transition professionnelle, et des personnes en recherche de marginalité, d'une vie alternative», témoigne la maîtresse de conférences en aménagement et urbanisme à l'université de Perpignan.
Si les interviews de maires se félicitant de voir tous les biens de leur commune vendus ont été légion, «investissement ne signifie pas toujours installation», rappelle Hélène Milet. Les retours de terrain montrent qu'une partie des achats sont en réalité des stratégies d'investissement. Ils consistent à acquérir un nouveau bien, pour des personnes déjà propriétaires, et à ne l'occuper que de manière temporaire ou saisonnière, parfois avec de la location de courte durée. Un constat qui ne devrait pas étonner en France, où la propriété reste très concentrée, rappelait l'Insee dans une étude parue en novembre dernier.
Ce phénomène d'achat refuge a été renforcé par la crise du Covid et la crainte d'un nouveau confinement, mais aussi par une prise de conscience grandissant des risques écologiques. La Bretagne devient ainsi un nouveau lieu d'investissement en vue de l'évolution climatique, plutôt que la Côte d'Azur. Le jardin n'est pas qu'un moyen de s'aérer, mais permet d'avoir un verger, un poulailler, voire une source d'eau, afin de développer une autonomie. Auparavant l'apanage des personnes avec un capital culturel élevé, cette conscience écologique se diffuse y compris dans la classe moyenne, assurent Aurélie Delage et Max Rousseau.
Loin de revitaliser toutes les campagnes françaises, ces flux risquent donc d'accentuer la «surchauffe» dans des territoires déjà attractifs, prévient l'étude. «Dans les zones rurales, le marché de l'immobilier peut se retrouver rapidement sous tension», explique Aurélie Delage, en raison du faible nombre de biens disponibles et du décalage de ces biens avec les besoins des acheteurs: vétusté, manque de terrain... Les nouveaux acheteurs introduisent des pratiques nouvelles dans ces régions, que l'étude résume par la formule de «parisianisation des marchés locaux»: achats comptants sans négociation, «parfois même sans visite», témoigne Hélène Milet.
Le marché locatif traditionnel se retrouve donc asséché. «C'est ce qui arrive sur le littoral nord de la Bretagne, autrefois épargné», précise Max Rousseau. «Il y a un phénomène d'éviction. Les studios sont rachetés, ce qui met les étudiants en difficulté.» Les populations moins favorisées se retrouvent à habiter de plus en plus loin des centres, ou à se tourner vers de l'habitat précaire. On voit alors émerger localement des questions très politiques: faut-il créer un statut de résident au Pays basque? Le parc social est-il dimensionné pour faire face à la hausse de l'immobilier? Autant de problématiques jusqu'ici absentes des débats de l'élection présidentielle.
COMMUNIQUÉ
Le Haut Conseil international de la langue française et de la francophonie* (HCILF) transmet le message suivant :
Le peuple français et les peuples des pays et communautés de langue française de Belgique, Canada, Québec, Suisse, et d’ailleurs, ACCUSENT :
une oligarchie mondialiste de viser une hégémonie universelle en épandant et imposant partout un anglais de commerce déculturant ;
trois institutions de l’Union européenne (Commission, Parquet, Cour des Comptes) de s’en faire les instruments en imposant – post-Brexit ! – l’anglais langue de travail unique en leur sein, décisions violant les textes fondateurs de l’UE : Traité de Rome, Charte des Droits, Règlement des langues ; nos associations attendent que le président de la République obtienne du Conseil de l’UE sous la présidence française le rétablissement d’un vrai pluralisme des langues : promesse écrite reçue de M. C. Beaune, secrétaire d’État aux Affaires européennes ;
la Cour de justice de l’Union européenne de déni de justice pour s’être déclarée incompétente sur le fond, déboutant notre association agréée qui la priait – preuves requises à l’appui – de sanctionner l’illégalité des trois décisions ; déni aggravé par le passage de fait du droit romain au droit coutumier anglo-saxon : le fait accompli illégal dure, fait jurisprudence, puis devient loi (« common law »), le remplacement de langue et celui de droit allant de pair, impérialement ;
les gouvernements français, belge, wallon, canadien, québécois, suisse, de ne pas faire appliquer leurs législations linguistiques : Constitution française (art. 2 et 87), lois Toubon (1994) et Fioraso (2013 pour l’enseignement supérieur trop en anglais) ; loi 101 au Québec... et de laisser pervertir administrations, écoles et universités par une idéologie et une novlangue américaines « déconstructrices » de l’histoire et de la langue de leur pays ;
des tribunaux administratifs français de complaisance coupable, pour avoir débouté nos associations qui attaquaient des décisions illégales de ministères et d’universités, et s’être ainsi rendus complices du remplacement du droit français par une « common law » de fait ;
Le Haut Conseil international de la langue française et de la francophonie (HCILFF) invite donc les gouvernements cités à entendre le message de leur peuple et à appliquer la loi.
Il invite les Français et toutes personnes de langue française présentes à Paris le 20 mars, et voulant – pacifiquement mais clairement – rejeter l’arrachage de leur langue, et affirmer leur attachement à leur civilisation, à confluer dès 14 h vers la Montagne Sainte-Geneviève et le Panthéon pour un rassemblement-forum au-delà de toutes les opinions politiques, à y entendre nos appels, puis à suivre notre cortège dans le Quartier latin, haut lieu de l’humanisme et de l’universalisme européens, pour appeler ensemble à un urgent sursaut civilisationnel.
Au nom du Haut Conseil : son secrétaire général Albert Salon, ancien ambassadeur. Contact : Avenir de la langue française (ALF), 34 bis, rue de Picpus, 75012, Paris, albert.salon0638@orange.fr tél 0768 87 16 01.
La CNIL[1] a mis en demeure un éditeur pour avoir collecté des données à caractère personnel sur les visiteurs de son site Internet à l’aide du module Google Analytics.
En intégrant ce module Google Analytics à son site Internet, l’éditeur donnait la consigne aux navigateurs de ses visiteurs d’envoyer des informations à Google. Ces informations contenaient notamment l’adresse de la page visitée, l’éventuel page précédemment visitée (« Referer »), l’heure de la visite, l’adresse IP du visiteur et des informations sur son appareil. Ces informations pouvaient aussi contenir l’identifiant unique qui était attribué par Google à l’internaute et stocké dans un cookie et/ou l’identifiant interne que l’éditeur du site avait attribué à l’internaute, si ce dernier était connecté à son espace personnel. Le numéro de commande était aussi présent si la personne avait passé commande sur le site.
Toutes ces informations permettaient à l’éditeur de mesurer l’audience de son site Internet avec précision, mais aussi de détecter d’éventuelles erreurs et de mesurer ou d’optimiser l’efficacité ses campagnes publicitaires.
En premier lieu, la CNIL a considéré que les données collectées par ce module Google Analytics étaient des données à caractère personnel, car elles étaient associées à un identifiant unique et/ou composées de données qui pouvaient permettre d’identifier les visiteurs ou de les différencier de façon significative. La Commission a donc estimé que les exigences du RGPD[2] devaient être respectées.
Ensuite, la CNIL a rappelé que les transferts de données vers un pays n’appartenant pas à l’Union européenne étaient autorisés uniquement si « le niveau de protection des personnes physiques garanti par le [RGPD] n[’est] pas compromis »[3]. Un tel niveau de protection peut être obtenu :
Les données issues de Google Analytics sont transférées vers les États-Unis. Ce pays ne bénéficie plus d’une décision d’adéquation depuis l’arrêt[5] « Shrems II » du 16 juillet 2020 de la Cour de justice de l’Union européenne (CJUE) en raison de la surveillance de masse réalisée par les services gouvernementaux américains. Ces programmes de surveillance obligent notamment la société Google à fournir au gouvernement américain les données à caractère personnelle qu’elle possède ou les clés de chiffrement qu’elle utilise.
En l’absence d’une décision d’adéquation, l’éditeur du site et la société Google avaient recourru à des « clauses contractuelles types », c’est-à-dire un rapport détaillé justifiant un niveau de protection suffisant. La CNIL a cependant considéré, comme l’avait déjà fait la CJUE dans son arrêt cité précédemment, qu’un tel document ne permettait pas, à lui seul, d’apporter une protection contre les programmes de surveillance américain, car la société Google ne pouvait pas aller à l’encontre des lois de son pays. Des mesures additionnelles devaient donc être prises par l’éditeur et/ou Google.
Des mesures organisationnelles ont été prises par Google, comme la publication d’un rapport de transparence et la publication d’une politique de gestion des demandes d’accès gouvernementales, mais la Commission a estimé que ces mesures ne permettent pas « concrètement d’empêcher ou de réduire l’accès des services de renseignement américains ».
Des mesures techniques ont aussi été prises par Google, comme la pseudo « anonymisation »[6] des adresses IPs, mais la CNIL a estimé qu’elles « ne sont pas efficaces », car « aucune d’entre elles n’empêche les services de renseignement américain d’accéder aux données en cause ne ne rendent cet accès ineffectif ».
En l’absence d’une protection des données adéquate, la CNIL a, par conséquent, estimé que les transferts effectué par l’éditeur vers les serveurs de Google situés aux États-Unis étaient illégaux.
La CNIL a mis en demeure le site de mettre en conformité les traitements de données associés à Google Analytrics ou, si ce n’est pas possible, de retirer le module Google Analytics.
Concernant le nom de l’éditeur mis en cause, la CNIL a décidé de ne pas rendre public son nom pour des raisons que j’ignore. Il est cependant fort probable que la société soit Decathlon, Auchan ou Sephora étant donné que cette décision est la conséquence de plaintes[7] déposées par l’association militante NOYB[8].
Concernant la décision elle même, même si c’est la première fois que la CNIL prend publiquement position sur Google Analytics, ce n’est ni une surprise, ni une révolution. Depuis l’invalidation de l’accord avec les États-Unis en juillet 2020, tous les acteurs s’intéressant de près à la protection des données savent que les transferts de données vers les USA étaient, au mieux, très douteux. De plus, la CNIL n’est pas la première autorité de protection des données européenne à avoir statué dans ce sens. L’autorité autrichienne avait fait de même[9] trois mois plus tôt.
Cette décision a le mérite de mettre les choses au clair. Les organismes ne peuvent désormais plus prétendre un éventuel flou juridique. Google Analytics doit être retiré.
Notes et références
CNIL : Commission Nationale de l’Informatique et des Libertés (cnil.fr).
RGPD : Règlement Général sur la Protection des Données (Règlement (UE) 2016/679).
Le RGPD autorise des transferts de données vers des pays tiers si « le niveau de protection des personnes physiques garanti par le [RGPD] n[’est] pas compromis » (source : RGPD, article 44).
Un transfert de données à caractère vers un pays tiers peut être réalisé si une décision d’adéquation existe pour ce pays (source : RGPD, article 45). Une telle décision existe, par exemple, pour le Royaume-Uni.
La Cour de justice de l’Union européenne (CJUE) invalide le « bouclier de protection des données UE-États-Unis » dans un arrêt du 16 juillet 2020 (source : CJUE, C-311/18, 16 juillet 2020, Shrems II).
La solution Google Analytics propose une option permettant d’« anonymiser » les adresses IP des internautes. Cette opération est toutefois réalisée par Google après que le transfert de données vers les États-Unis ait lieu.
L’association NOYB a déposé des plaintes contre de nombreux organismes suite à des transferts de données personnelles vers les États-Unis jugés illicites. Six entreprises francaises sont concernées. Trois d’entre elles concernent Google Analytics : Decathlon, Auchan et Sephora (source : noyb.eu).
NOYB - European Center for Digital Rights : (noyb.eu).
L’autorité autrichienne a décidé, décembre 2021, que les transferts de données réalisés par Google Analytics étaient illicites (source : noyb.eu, en allemand) (source 2 : gdprhub.eu, en anglais).
Été 2020, monoculture d’épicéas morts en Argonne, région naturelle chevauchant les départements de la Marne, des Ardennes et de la Meuse (sept. 2020). Sylvain Gaudin, CC BY-NC-ND
Car la forêt française est aujourd’hui en crise : depuis deux décennies, on assiste en effet à une mortalité croissante des peuplements forestiers et à une baisse globale de leur productivité. Si la surface boisée en France métropolitaine ne cesse de croître depuis le milieu du XIXe siècle, c’est en raison du boisement – spontané ou artificiel – de terres agricoles, car la superficie occupée par des forêts anciennes, elle, ne cesse de diminuer.
Ce « dépérissement », est généralement attribué aux modifications climatiques. Les sécheresses estivales récurrentes fragilisent les arbres et la douceur hivernale favorise les pullulations de bioagresseurs, en particulier les scolytes et les hannetons.
Le changement climatique en est sans aucun doute une cause essentielle, mais il est aussi le révélateur d’écosystèmes forestiers fragilisés par des décennies de pratiques sylvicoles focalisées sur la production de bois. Non seulement la forêt française fixe moins de carbone par unité de surface, mais l’exploitation des peuplements dépérissants induit des émissions supplémentaires de CO₂ aggravant l’effet de serre et les changements climatiques associés.
Dans un tel contexte, adapter la forêt française est plus qu’une nécessité, c’est une urgence.
Les forêts ne sont pas des champs d’arbres, mais des écosystèmes avec de multiples interactions entre les différentes composantes.
Le promeneur a tôt fait de constater que les descentes de cimes et les mortalités de masse concernent surtout des plantations monospécifiques, constituées d’arbres de même âge, correspondant souvent à des essences introduites hors de leur territoire d’indigénat.
C’est le cas de nombreuses plantations d’épicéa en plaine, tandis que les pessières naturelles d’altitude résistent plutôt bien. Les premières constituent des peuplements simplifiés sensibles aux aléas climatiques (tempêtes, sécheresses, incendies) et aux attaques de bioagresseurs (insectes, champignons…), tandis que les secondes, beaucoup plus hétérogènes et diversifiées, sont plus résilientes.
Même s’il existe une sensibilité propre à chaque essence et à chaque situation stationnelle, les impacts directs et indirects du dérèglement climatique sont modulés par l’intégrité fonctionnelle de l’écosystème forestier, qui est elle-même largement influencée par la sylviculture.
Adapter la forêt, c’est agir sur la santé de l’écosystème et non simplement remplacer des arbres mourants par d’autres. C’est un traitement de fond des causes du dépérissement qu’il faut entreprendre et non un simple traitement des symptômes. La forêt ne peut plus être réduite à ses arbres et à sa fonction de production : seule une vision écosystémique peut être salvatrice.
Le principal levier permettant d’adapter la forêt française repose sur la promotion de pratiques sylvicoles prenant davantage en compte le fonctionnement des écosystèmes forestiers dans leur ensemble ; cela pour améliorer durablement leur état de santé, leur résilience, et accroître leur capacité à séquestrer et à stocker du CO2.
D’abord, il faut réserver chaque essence à des stations présentant des conditions optimales pour elle, actuellement et en prenant en compte l’évolution modélisée du climat sur des pas de temps cohérents avec le cycle sylvicultural. Il faut aussi privilégier les peuplements mélangés (plusieurs essences) et structurellement hétérogènes (plusieurs hauteurs et formes de houppiers), de manière à renforcer la résistance aux aléas météorologiques et aux attaques de bioagresseurs.
Forêt mélangée des Vosges du Nord - sept. 2021. Evrard de Turckheim, CC BY-NC-ND
Privilégier la régénération naturelle permet d’accroître la diversité génétique soumise à la sélection naturelle et les capacités d’adaptation locale, contrairement aux plantations. Cela implique une meilleure gestion de l’équilibre sylvo-cynégétique, notamment en favorisant la végétation accompagnatrice qui protège les plants sensibles et fournit une ressource alimentaire alternative.
Il existe déjà des modes de sylviculture mettant en œuvre ces principes, comme la futaie irrégulière ou jardinée. Ce type de sylviculture n’est pas nouveau, il a été adopté depuis 2017 par l’Office national des forêts pour toutes les forêts publiques franciliennes afin d’éviter les « coupes à blanc ».
Coupe à blanc d’une parcelle de Douglas dans une forêt de l’Oise. Guillaume Decocq, CC BY-NC-ND
Face aux sécheresses récurrentes, il faut adapter la densité des peuplements au bilan hydrique de la station et préserver l’alimentation en eau des sols, y compris en limitant leur tassement.
Plus généralement, accroître la résilience des forêts nécessite de favoriser la biodiversité au sein de tous les compartiments de l’écosystème. Celle-ci est encore trop souvent perçue comme une contrainte pour le forestier, comme un obstacle à la gestion, alors même que c’est son assurance sur le long terme pour maintenir la fertilité des sols, la résistance aux bioagresseurs et, in fine, la capacité de production de bois.
Plusieurs documents de planification, comme les Plans régionaux Forêt-Bois (PRFB) considèrent un peu hâtivement que les essences indigènes ne sont plus adaptées au « nouveau » climat. Cette vision fixiste du monde vivant oublie que les essences forestières européennes ont déjà connu bien des changements climatiques (notamment un Petit Âge glaciaire et un Optimum médiéval). Pire, elle ignore nombre de travaux scientifiques récents qui mettent en lumière des capacités d’adaptation insoupçonnées des arbres.
Au moins trois ensembles de mécanismes permettent l’adaptation spontanée des arbres en environnement changeant : les mécanismes génétiques, via la sélection naturelle qui agit sur le long terme, ce qui nécessite une certaine diversité génétique ; les mécanismes épigénétiques, qui prédisposent des individus à des conditions environnementales que leurs parents ont vécues, via des marques induites capables de moduler l’expression des gènes et d’induire des mutations ; les mécanismes holobiontiques, via les symbioses issues de la co-évolution entre l’arbre et son microbiote, ce dernier contribuant à de nombreuses fonctions vitales.
Forêt mélangée dans le Sud amiénois où les épicéas sont épargnés par les attaques de scolytes - oct. 2021. Guillaume Decocq, CC BY-NC-ND
L’efficacité de ces différents mécanismes face à des changements climatiques rapides est encore mal connue, d’où l’intérêt de pouvoir observer la réponse des essences autochtones dans un contexte « naturel », c’est-à-dire hors forêt soumise à la sylviculture.
À cet égard, il est important d’augmenter les superficies d’aires forestières protégées et leur représentativité des différents contextes climatiques et des types de sols, comme souligné dans la contribution du Conseil national de la protection de la nature aux Assises de la forêt et du bois.
Ces espaces à naturalité élevée constituent non seulement des réservoirs de biodiversité préservée, mais aussi des laboratoires grandeur nature pour la compréhension de la biologie des espèces et des dynamiques forestières spontanées, indispensables à l’acquisition de références pour concevoir les itinéraires sylviculturaux de demain.
La prétendue « inadaptation » des essences autochtones justifie le recours à des essences exotiques, venant souvent d’autres continents, dont l’intérêt et l’innocuité sont plus que douteux… L’idée de privilégier les essences naturellement résistantes au stress hydrique serait séduisante, si elle ne faisait pas preuve d’une certaine amnésie (en plus de faire l’impasse sur des millions d’années d’histoire évolutive).
Car l’introduction d’essences exotiques en forêt n’est pas nouvelle. Beaucoup se sont soldées soit par des échecs d’acclimatation, soit par de graves crises écologiques : introductions accidentelles de bioagresseurs exotiques (l’actuelle épidémie de chalarose du frêne en est un exemple parmi des dizaines d’autres), invasions biologiques (le cerisier tardif, jadis vanté pour ses mérites en foresterie est devenu aujourd’hui l’ennemi du forestier), érosion de la biodiversité autochtone (les sous-bois fantomatiques de nombreuses plantations de conifères en plaine en sont un exemple criant) ; ou encore, aggravation des conséquences de certains aléas (les méga-feux que connaît la Péninsule ibérique sont étroitement liés aux plantations d’eucalyptus, très inflammables, et pourtant promues en région méditerranéenne française).
En forêt de Compiègne, invasion par le cerisier tardif - juin 200). Guillaume Decocq, CC BY-NC-ND
Une analyse détaillée de ces risques est présentée dans un livre blanc sur l’introduction d’essences exotiques en forêt, récemment publié par la Société botanique de France.
Les risques associés aux essences exotiques, difficilement prévisibles, mais réels et coûteux pour la société, justifient que les nouvelles plantations soient davantage réglementées. Celles-ci devraient faire l’objet d’une étude d’impact préalable avec analyse de risque.
Plus généralement, il est urgent d’évaluer le rapport bénéfice/risque à moyen et à long terme de ces plantations, et, dans l’attente d’une telle évaluation, de soumettre à un moratoire les mesures politiques et financières incitant leur introduction en forêt.
Cet effort indispensable pour adapter la gestion des forêts aux changements climatiques ne doit pas se limiter aux actions d’ingénierie, mais reposer sur une approche scientifique interdisciplinaire, fondée sur l’ensemble des apports récents des sciences et techniques de la conservation.
La recherche scientifique en écologie forestière en particulier est très mobilisée sur la question des impacts des changements climatiques sur la forêt et des capacités adaptatives des espèces.
Les nombreux résultats de la recherche permettraient d’appuyer les stratégies de gestion et de planification forestières sur des bases scientifiques robustes. Pourtant ces résultats sont jusqu’ici peu ou pas pris en compte par les décideurs.
La gestion durable des forêts ne peut pourtant reposer sur la seule ingénierie, tout comme elle ne peut se réduire aux seuls arbres. Agir en environnement changeant et en univers incertain suppose d’intégrer nos connaissances scientifiques dans tous les domaines, de prendre en compte l’évolution des attentes sociétales et d’actualiser les outils des ingénieurs.