Chez Orange, la fin programmée du téléphone fixe traditionnel
lci.fr/societe/a-relire-la-fin-des-lignes-fixes-chez-orange-c-est-pour-2023-2096522.html
FIN D'UNE EPOQUE - Reliques d’un temps où les smartphones n’existaient pas, les bonnes vieilles ligne de téléphone fixes ne passant pas par internet sont en passe de disparaître. Une bascule technologique qui n’est pas sans conséquences pour des millions de Français.
25 août 23:51 - La rédaction de TF1
Les téléphones portables avait déjà relégué les cabines téléphoniques aux oubliettes. C’est désormais au tour des lignes fixes de faire des frais de l'évolution technologique. Dans le cadre de la modernisation de son réseau, l’opérateur Orange a annoncé en début de semaine qu’il cesserait de vendre des abonnements dès le 15 novembre prochain, avant d’y mettre fin définitivement, de manière progressive, à partir de 2023.
Pourtant, un peu moins de 10 millions de Français utiliseraient encore leur combiné, sans passer par Internet, selon les derniers chiffres de l'Autorité de régulation des communications électroniques et des postes (Arcep). "Des gens peu habitués aux nouvelles technologies, notamment les personnes âgées, vont se retrouver sans téléphone", s’alarme Olivier Gayraud, juriste à l’Association nationale de défense des consommateurs et usagers (CLCV), interrogé par Le Parisien.
Vers une hausse des tarifs de la téléphonie fixe ?
En effet, pour continuer à avoir le téléphone, de nombreux Français seront contraints d’installer un modem chez eux. Or, comme le souligne Olivier Gayraut, cela aura un coût pour les consommateurs et il faudra accompagner ces personnes. Enfin, selon lui, il sera important de veiller à ce que cette bascule technologique ne s’accompagne pas d’une hausse des tarifs de la téléphonie fixe.
Les ventes de téléphones mobiles sans connexion à internet ont augmenté de 5% l’année dernière.
Après avoir été éclipsé par l’iPhone depuis 2007 et le développement de l’homo digitalis, le «dumbphone» –contraction des mots anglais dumb (idiot) et phone (téléphone), en opposition à smartphone (téléphone intelligent)– fait son retour sur la scène internationale. Ces appareils, non connectés à internet et qui permettent uniquement à leurs utilisateurs et utilisatrices de téléphoner et d’échanger des SMS, semblent regagner leurs lettres de noblesse.
Le quotidien britannique The Independent rapporte que si la vente de smartphones augmentait de 2% l’année dernière, celle des dumbphones gonflait de 5%. Ne nous emballons pas pour autant: les smartphones restent leader du marché, même si la tendance confirme la bonne progression des appareils vintage.
Une solution à notre addiction aux smartphones
Le phénomène n’étonne pas Tanya Goodin, autrice de Stop Staring at Screens [«Arrêtez de regarder vos écrans»]: «Depuis quelques années, j’observe un nombre croissant de personnes qui passent, au moins partiellement, aux dumbphones, afin d’avoir un peu de répit dans cette stimulation incessante du monde numérique.»
«Alors que les logiciels travaillent de plus en plus dur pour nous stimuler face à nos écrans et que notre volonté ne semble plus assez forte, il semble que nous sommes tous sensibilisés au fait qu’éteindre nos appareils est le seul moyen de décrocher», dénonce-t-elle.
Des statistiques récentes semblent nuancer cette prise de conscience collective. Deux personnes sur cinq ont pleinement conscience du fait qu’elles passent trop de temps sur leurs appareils. Des recherches ont montré que 78% des Britanniques estiment ne pas pouvoir vivre sans smartphone. Et selon l'Ofcom, l'autorité régulatrice des télécommunications au Royaume-Uni, 92% d’entre elles et eux pensent qu’avoir un téléphone connecté à internet est essentiel.
La psychologue Daria Kuss a décrypté ce phénomène pour Sky News: «[Les utilisateurs et utilisatrices de smartphone] ont pleine conscience du fait de beaucoup trop utiliser ces appareils, mais elles et ils ne peuvent pas s’en passer [...] et craignent de rater quelque chose sur leurs réseaux. C’est pourquoi elles et ils l’utilisent de manière compulsive».
Si vous vous sentez esclaves de votre smartphone, de nombreux types de téléphones basiques existent encore. L’un des plus populaires, le Nokia 3310, a été remis sur le marché par la marque. Tout est là pour que nous mettions cette addiction de côté, encore faut-il réussir à faire le pas.
Partager sur Facebook
Entre un manque de sommeil et un syndrome dépressif, la lumière artificielle a un impact important sur la santé.
SANTÉ - Depuis le 1er juillet, les enseignes commerciales doivent être plongées dans le noir entre 1 heure et 6 heures du matin. La raison? La pollution lumineuse. Vous savez, toutes les sources d'éclairage qui dérangent l'obscurité de la nuit, mais qui perturbent aussi votre sommeil.
Une réalité inquiétante puisque que 83 % de la population mondiale vit sous un ciel altéré par les différents types d'éclairages publics, selon l'étude publiée dans la revue Science Advances en juin, "Un nouvel atlas mondial de la luminosité artificielle du ciel nocturne". En effet, seulement 40 % des Européens peuvent admirer la Voie lactée aujourd'hui.
En plus d'être un problème économique et écologique, la pollution lumineuse s'avère dangereuse pour la santé. Comme l'explique le docteur Marc Rey, responsable du Centre du sommeil à l'Hôpital de la Timone à Marseille, au HuffPost, "elle peut être responsable d'une dépression, d'une prise de poids ou d'une perte de mémoire".
Tout repose sur le sommeil
Les troubles évoqués par le docteur Marc Rey, auteur du livre "Quand le sommeil nous éveille", sont caractéristiques d'un manque de sommeil évident. Les lumières artificielles altèrent notre horloge biologique. L'hormone sécrétée quand il fait nuit, la mélatonine, va être la principale victime de la pollution lumineuse. Sa sécrétion s'arrête quand le jour se lève et donc quand le ciel est bleu.
Cette lumière émise par le soleil est aussi diffusée par les lampes à LED et les écrans. C'est ce que l'on appelle la lumière bleue, et qui recrée en quelque sorte l'effet de la lumière du jour.
Ainsi, si vous regardez un film ou une série sur votre ordinateur le soir, le cerveau comprend qu'il est temps de se lever, à cause de la lumière bleue. Elle envoie un faux signal à la mélatonine. Votre endormissement va donc être retardé. Les adolescents sont encore plus touchés, car leur hormone du sommeil se manifeste de manière très lente lors de la puberté.
Pourquoi est-ce problématique? Le lendemain, vous allez vous retrouver en privation de sommeil, comme le prouve une étude publiée dans la revue Proceedings of the National Academy of Science en décembre 2014. Une baisse d'énergie se manifestera, tout comme d'autres effets négatifs.
De fait, une dépression peut être causée par le fort déséquilibre que subit le système hormonal. Ce même dérèglement peut entraîner des pertes de mémoire et de l'attention. L'appétit augmente considérablement, ce qui peut provoquer une prise de poids. C'est pour cette raison qu'il y a "plus d'obèses chez les gens qui travaillent la nuit que chez ceux qui travaillent le jour", affirme le spécialiste.
Est-ce une fatalité ?
En soi, non. Il est possible d'adopter quelques habitudes pour limiter les effets de la pollution lumineuse. L'une d'entre elles est d'activer l'option "filtre de lumière bleue" ou une application qui possède la même fonction sur votre smartphone ou iPhone, comme Twilight. Des outils qu'a recommandés le chronobiologiste de l'Inserm, Claude Gronfier, en 2016. Mais, attention: pour l'instant, aucune étude n'a été menée sur l'efficacité de ces options.
Il existe également des lunettes filtrantes, correctrices ou non, que l'on peut se procurer chez un opticien. Le seul bémol est le reflet violet qui apparaît dans les verres lorsque vous les portez.
Mais, idéalement, il faudrait arrêter de regarder les écrans une heure avant de se coucher, selon le chef du Centre du Sommeil. "Vous pouvez également porter un masque de sommeil pour bloquer les éclairages extérieurs", conseille le docteur Marc Rey.
"La télévision représente une nuisance visuelle et sonore", insiste Marc Rey. Il recommande alors de s'asseoir sur une chaise. Ainsi, dès que vous vous endormirez, vous tomberez littéralement de fatigue et le choc vous réveillera. Autre technique, moins douloureuse cette fois, prévoir une alarme pour que l'appareil électronique en question s'éteigne tout seul à une certaine heure.
Évidemment, ces astuces sont difficiles à transposer pour les personnes qui exercent un travail de nuit. Pour elles, la solution est en partie entre les mains des gestionnaires de lampadaires. Sauf que, en accord avec la législation européenne qui interdit les ampoules halogènes à partir du 1er septembre 2018, de plus en plus d'éclairages à LED sont introduits... la lumière bleue avec. Cette dernière crée certes une luminosité plus confortable pour l'œil humain, mais elle n'est en rien une réponse au dérèglement hormonal que peuvent subir les travailleurs de nuit.
Le vrai problème, selon le docteur, c'est que "nos rythmes sociaux ne sont pas en phase avec nos rythmes biologiques". Le corps humain est conçu pour dormir plus longtemps l'hiver. Pourtant, c'est la période où les gens travaillent le plus. La nuit tombe plus tôt. Donc, nous somme exposés plus longtemps à la pollution lumineuse. Le cerveau humain n'a donc pas le temps de récupérer et s'épuise progressivement.
L’expérience utilisateur (abrégée en UX pour les professionnels anglophones) est une notion difficile à définir de façon consensuelle, mais qui vise essentiellement à rendre agréable à l’internaute son parcours sur le Web dans un objectif le plus souvent commercial, ce qui explique l’intérêt particulier que lui vouent les entreprises qui affichent une vitrine numérique sur le Web.
Sans surprise, il s’agit de monétiser l’attention et les clics des utilisateurs. L’article ci-dessous que Framalang a traduit pour vous évoque les Dark UX, c’est-à-dire les techniques insidieuses pour manipuler les utilisateurs et utilisatrices. Il s’agit moins alors de procurer une expérience agréable que d’inciter par toutes sortes de moyens à une série d’actions qui en fin de compte vont conduire au profit des entreprises, aux dépens des internautes.
La présente partie fait suite à la première intitulée «La colonie française de l'Acadie, 1604-1755». Après la déportation, l'Acadie a pu revivre et se transformer dans une forme autre que coloniale ou celle d'un État autonome ou souverain. L'Acadie contemporaine ne forme pas un État, mais elle existe néanmoins. C'est la suite de l'Histoire des Acadiens qui est présentée ici: la Nouvelle Acadie, celle d'après la déportation de 1755,et de ce qu'elle deviendra avec le retour des Acadiens dans les Maritimes (voir les cartes sur l'évolution des établissements acadiens). Mais la Nouvelle Acadien n'est pas géographique, elle est culturelle et historique.
L'examen détaillé des généalogies et des résultats économiques des habitations des quartiers de Kourou, de Sinnamary et d'Iracoubo entre 1772 et 1853montre que les colons Acadiens, venus en Guyane dans le cadre de la désastreuse "expédition de Kourou" de 1764, ont plutôt bien réussi leur implantation, contrairement aux conclusions avancées par la plupart des spécialistes de la période. Ce constat nous amène à relancer le débat sur l'émergence de véritables cultures paysannes, via la société d'habitation, parallèlement ou en dehors de la société de plantation.
La Loi de Renseignements et le Fichier TES sont passés par là et je sens que ça ne tourne plus rond. Tous les appareils de contrôle, légaux ou non, se multiplient partout sur la planète, je n’aime pas l’idée. Les états ont grignoté l’espace et reprennent la main à pas feutrés. On bannit pour une origine ou pour une opinion, sans subtilité. Dans certains pays, et pas des dictatures, on vous demande d’ouvrir votre Facebook ou même de donner vos mots de passe. J’ai en magasin quelques anecdotes à ce sujet qui font peur. Je n’ai pas envie, jamais, de justifier des opinions et des propos à qui que ce soit, ici ou ailleurs. Alors je le fais une bonne fois pour toutes aujourd’hui et je dis adieu à 31 500 tweets.
Les temps ont changé depuis juillet 2007, date à laquelle je me suis lancé sur Twitter. 31 500 tweets plus tard, quiconque voudrait me faire dire un truc pourrait le faire sans difficulté. C’est la guerre des mots et des GIFs, la bataille du temps qui ne passe plus. Ce que vous dites un jour est gravé pour toujours, vos propos s’empilent et s’empalent sur le mur de l’actu chaude sans aucune exigence de vérité. Ce qui est dit est dit, cochon qui s’en dédit, peu importe le sens, le contexte, le droit à la connerie, au changement d’opinion ou à cette sublime contradiction qui fait de nous ce que nous sommes. Certes, personne ne me cherche de poux aujourd’hui, mais dans six mois, deux ans ou même dix? Et vous?
Je n’ai plus confiance
Ni dans les techno-corporations dirigées par des solutionnistes aux ambitions floues, illégitimes et hors contrôle. Ni dans les états qui, profitant de nos peurs, placent leurs mouchards dans nos réseaux. La ficelle est fine pour l’instant, mais elle grossit. Je ne crois pas à la neutralité de ceux qui nous observent. Il y a derrière chaque action une intention, et je ne sais rien des intentions de nos dirigeants actuels et futurs. Nous avons offert sur un plateau aux prochains gouvernants les outils de notre soumission et ça me tend. Je ne crois pas non plus à l’inviolabilité des serveurs. D’ailleurs, je sais bien que quelque part sur cette planète mes Tweets sont gravés et dupliqués, pour toujours.
Parano? Pfff… Plus envie d’argumenter, faites comme vous le sentez.
Les règles du jeu ont changé. Loin de moi l’idée de supprimer mon compte, mais le temps de l’innocence est révolu.
PS: à la demande générale. Pour sauvegarder ses tweets, vous pouvez le faire sur Twitter, dans paramètres, et vous téléchargez un fichier. Pour supprimer vos Tweets en masse il y a, entre autres, l’appli payante DLTTR. Vous pouvez choisir de supprimer les tweets de l’heure, du jour, du mois, de l’année ou tous vos tweets. Cela m’a pris 16 minutes pour 31 500 tweets.
Les voitures électriques sont actuellement plus chères à l’achat que les voitures essence ou diesel.
Mais selon les projections de Bloomberg New Energy Finance, la tendance devrait s'inverser à partir de 2025.
Le développement du réseau des stations de charge et la pénurie de cobalt qui se profile pourraient toutefois retarder cette perspective.
La loi Informatique et Libertés et son décret d’application ont été modifiés afin de mettre en conformité le droit national avec le cadre juridique européen. Ces textes permettent la mise en œuvre concrète du Règlement général sur la protection des données (RGPD) et de la Directive « police-justice », applicable aux fichiers de la sphère pénale. La lisibilité du cadre juridique national sera améliorée par une ordonnance qui sera prise dans un délai de six mois.
La nouvelle loi Informatique et Libertés permet l’application effective des textes européens, qui représentent un progrès majeur pour la protection des données personnelles des citoyens et la sécurité juridique des acteurs économiques.
Elle dote notamment la CNIL des pouvoirs nécessaires à l’exercice de ses missions, dans un contexte marqué par la reconnaissance de nouveaux droits aux citoyens et le renforcement de la responsabilité des opérateurs.
Elle organise l’articulation nécessaire des procédures internes de la CNIL aux nouveaux mécanismes de coopération européenne.
Elle exerce certaines des « marges de manœuvre nationales » autorisées par le RGPD, transpose en droit français la Directive « police-justice » et modifie certaines de ses dispositions pour les rapprocher de la lettre du RGPD.
La bonne compréhension du cadre juridique suppose de combiner désormais les deux niveaux, européen et national. Le RGPD s’applique directement en droit français : il remplace sur de nombreux points (droits des personnes, bases légales des traitements, mesures de sécurité à mettre en œuvre, transferts, etc.) la loi nationale. Sur d’autres points (les « marges de manœuvre nationales »), la loi Informatique et Libertés reste en vigueur et vient compléter le RGPD : il s’agit par exemple du traitement des données de santé ou des données d’infraction, de la fixation à 15 ans du seuil d’âge du consentement des mineurs aux services en ligne, des dispositions relatives à la mort numérique, etc. Enfin, la loi nationale reste pleinement applicable pour tous les fichiers « répressifs », qu’il s’agisse de la sphère pénale ou du domaine du renseignement et de la sûreté de l’Etat. De nombreuses dispositions spéciales sont prévues en ces matières.
Une ordonnance de réécriture complète de la loi Informatique et Libertés est prévue, dans un délai de six mois, notamment afin de résoudre ces difficultés de lisibilité de ce cadre juridique composite. Dans l’attente, il convient de prêter une attention particulière au cadre juridique applicable à chaque traitement.
Le droit national a également été complété par un nouveau décret d’application de la loi Informatique et Libertés, qui achève la mise en conformité du droit national au cadre juridique européen. Ce décret, sur lequel la CNIL a rendu un avis le 21 juin 2018, a été publié le 3 août 2018. Il fixe plus précisément les délais et procédures applicables aux différentes missions de la CNIL et précise certaines dispositions de la loi.
Prétendue révolution, le RGPD n’est en réalité que l’expression plus aboutie d’une vision philosophique ancienne, tendant à rapprocher donnée, vie privée et personne humaine.
Le Règlement général sur la protection des données (RGPD) est entré en application en mai dernier, et avec lui son lot de provisions supposées renforcer la protection des données à caractère personnel. Prétendue révolution, ce texte n’est en réalité que l’expression plus aboutie d’une vision philosophique ancienne, tendant à rapprocher donnée, vie privée et personne humaine et s’opposant à une vision plus mercantile de la donnée, adoptée outre-Atlantique.
En développant massivement les services numériques, nos sociétés ont profondément transformé la notion de vie privée: consciemment ou non, chaque individu partage des informations plus nombreuses et plus diverses le concernant, faisant d’éléments ordinairement privés, des données connues par d’autres individus, des entreprises ou des administrations.
Parmi ces données comptent, de manière très immédiate et par exemple, les données de localisation collectées notamment par les smartphones et les diverses applications qui y sont installées, les données biométriques collectées à la demande d’édition d’un passeport ou encore les préférences alimentaires via les cartes de fidélité utilisées par les grands acteurs de la distribution.
En outre, la modification de la notion de vie privée est d’autant plus grande lorsque l’entité collectant initialement des informations sur un utilisateur, les recoupe, déduisant ainsi de nouvelles données, notamment par l’utilisation d’algorithmes.
Dans les deux cas, en face des possibilités offertes par la technologie, existent des risques pour les personnes concernées en cas de fuite de données comme le prouvent les nombreux scandales passés (Target, Ashley Madison, etc.) ou lors de la prise de décisions basées sur des données erronées. Dès lors, il appartient à chaque société, notamment par le droit, de contrôler les opérations portant sur des données à caractère personnel.
De l’anthropocentrisme aristotélicien à l’idée kantienne de respect de la personne, les philosophes européens ont longtemps considéré que toute chose de nature ontologique méritait une protection des plus absolues. Cette approche fondamentaliste, embrassant les droits humains, se retrouve par exemple en droit français dans le concept d’indisponibilité du corps humain, lui-même à l’origine de l’interdiction de vente d’organes, ou de la pratique des mères porteuses.
Le philosophe italien Luciano Floridi (Information: a very short introduction, 2010) crée à ce titre un parallèle éloquent entre la donnée et le corps humain en expliquant que la «quatrième révolution» (celle de l’informatique, en référence à Alan Turing) et la circulation accrue de données qui y est associée ont transformé la vie humaine à tel point que la donnée devrait être vue comme une extension de la personne humaine.
Ainsi, la marque de possession de la donnée à caractère personnel («mes données») se rapprocherait davantage du lien entre l’individu et son corps («mon bras») que de la marque de possession d’un objet («ma voiture»).
Droit à l’autodétermination informationnelle
En considérant la donnée comme une véritable émanation de la personne, celle-ci devient digne d’une protection très élevée. La volonté de protéger les données à caractère personnel est ainsi bien antérieure au RGPD en Europe, les premières législations relatives aux données à caractère personnel datant de 1970 (Land de Hesse, Allemagne), 1976 (Suède) et 1978 (France).
En Allemagne, la protection des données à caractère personnel revêt, en outre, un caractère constitutionnel depuis qu’en 1983 la Cour constitutionnelle a déduit de la Constitution fédérale un principe de droit à l’autodétermination informationnelle.
Ce principe dépasse la conception minimaliste de la vie privée («le droit d’être laissé tranquille») pour correspondre davantage à une protection large de la sphère privée et à la capacité de l’individu à participer de manière indépendante à la vie politique et sociale, comme l’expliquent Gerrit Hornung et Christoph Schnabel («Computer law and security report», 2009).
"Un renforcement progressif au sein de l’UE
L’Union européenne est également intervenue sur le sujet de la protection des données à caractère personnel avant le RGPD par l’adoption de la Directive 95/46/CE du Parlement européen et du Conseil, du 24 octobre 1995, créant un cadre général relatif à la protection des données à caractère personnel ainsi que par l’inclusion, dans la Charte des droits fondamentaux de l’Union européenne, d’un article 8 relatif à la protection des données à caractère personnel.
Sans constituer une révolution, le RGPD vient toutefois renforcer sensiblement la protection des données à caractère personnel, en ligne avec l’idéologie fondamentaliste présente en Europe.
À titre d’exemple, le Règlement a une portée plus large territorialement puisqu’il s’applique à des contrôleurs de données situés en dehors de l’Union européenne. Substantiellement également, il accorde davantage de droits aux personnes concernées et prévoit notamment des sanctions plus fortes en cas de non-respect.
Aux États-Unis: laissez-faire, laissez-passer
À l’opposé de la vision sacrée de la vie privée et de la considération quasi corporelle de la donnée, existe une vision plus matérielle de cette dernière, dérivée d’une vision plus mercantile de la vie privée.
Dans An economic theory of privacy (1978), Richard Posner dépeint la notion de privacy comme nocive pour le marché en ce qu’elle prive d’informations les agents dans leurs prises de décisions. Dès lors, il n’apparaîtrait pas justifié d’accorder une protection particulièrement élevée aux données mais plutôt d’en autoriser la libre aliénabilité, notamment en créant un droit de propriété de l’individu sur ses données comme le défendait récemment le think tank Génération libre.
La structure américaine s’inspire de cette logique mercantile et est ainsi moins contraignante pour les entreprises désireuses de collecter et traiter des données à caractère personnel. Elle s’oppose au choix européen d’un régime protecteur de l’individu, destiné à sécuriser sa confiance en l’économie numérique.
Au contraire d’une intervention publique forte comme l’est le RGPD, les premières initiatives de régulation aux États-Unis sont l’œuvre des acteurs privés ayant produit des codes de bonne conduite (voir notamment les guidelines de la Direct Marketing Association).
La liberté laissée aux grands acteurs du secteur symbolise parfaitement l’approche libérale choisie par le législateur américain, suivant la doctrine libérale du «laissez-faire, laissez passer» élaborée par Vincent de Gournay au XVIIIe siècle. Cette expression, symbole de la confiance en la capacité autorégulatrice du marché, explique alors la structure parcellaire du droit américain de la protection des données à caractère personnel.
Ce seul exemple de la structure du droit suffit à mettre en lumière les différences juridiques résultant des différences philosophiques dont font l’objet États-Unis et Union européenne. En effet, aucun texte général relatif à la protection des données à caractère personnel n’existe aux États-Unis et le législateur n’est intervenu que sporadiquement sur des points particulièrement sensibles (la protection des jeunes enfants avec le Children Online Privacy Protection Act, 1998) ou pour certains secteurs comme les télécommunications (1996) et la finance (1970, 1999).
Jacques Cartier n'était pas le premier européen à fréquenter le Saint-Laurent mais il savait en dire les beautés, il savait aussi le surnommer: "le fleuve qui marche" , disait-il. On lui doit aussi le mot "Canada" .
Mais l'Amérique française, c'est bien davantage que le Canada de Cartier.
Il y a aussi, en Atlantique Nord, des îles, Terre Neuve, Saint Pierre et Miquelon et l'Acadie. Et au Sud, la Louisiane, à entendre comme un gigantesque espace entre Grands Lacs et golfe du Mexique, Appalaches et Rocheuses. Jacques Cartier n'a peut-être pas découvert le Canada mais les Français ont arpenté le Grand Ouest avant les cow-boys.
La Nouvelle France, s'émerveillait Bougainville, au milieu du XVIIIe, peu avant sa fin, c'était bien plus de territoire qu'il n'y en avait en Europe. ...
Cliquer sur le lien pour écouter l'émission.
Déclarations de généalogie des familles Acadiennes établies à Belle-Ile-enMer en 1767, relevées par l'association Racines et rameaux français d'Acadie aux archives Départementales du Morbihan.
Au-delà de l'usage de l'application Google Maps, le service de Google alimente un écosystème habitué de longue date à une quasi-gratuité. Aujourd'hui, Google change les règles.
Mise à jour du 16 juillet 2018 : la mise à jour tarifaire de Google Maps est entrée en vigueur après quelques semaines de retard. Les développeurs qui utilisent la Google Maps Platform ont pu recevoir un courriel.
Cela signifie en pratique que des sites pourraient voir leur utilisation de Google Maps invalidée par Google (s’ils n’ont tout simplement pas accepté les nouvelles CGU) — cela concernera les pages jamais mises à jour. Les gros utilisateurs qui ont bien compris l’augmentation tarifaire qui les attend devront s’y tenir… ou changer rapidement de plateforme. Une source qui a préféré rester anonyme nous indique que des délais ont pu être accordés à des professionnels qui n’auraient pas eu le temps de plancher sur le sujet.
Demain, les sites web avec des modules de cartographie non fonctionnels devraient commencer à apparaître.
Article original du 9 mai 2018 : On en a lu beaucoup, des chaînes d’e-mail ou de publications sur les réseaux sociaux qui disaient que tel ou tel service allait devenir payant. Alors quand cela arrive véritablement, on a un peu de mal à y croire. C’est pourtant ce que les utilisateurs professionnels de Google Maps ont découvert début mai 2018. Coupons court à toute polémique : l’application que vous utilisez sur votre smartphone nommée Maps ou la version web de Google Maps ne devient pas payante. C’est l’utilisation par les entreprises du service de Google qui va être monétisé… ce qui crée un vent de panique, plutôt justifié.
Mais de quoi est-il question ? Grosso modo, d’une nouvelle tarification qui entre en vigueur le 16 juillet 2018 — initialement le 11 juin, Google a pris du retard — et dont les détails peuvent être consultés sur cette page. Avant cela, Google laissait les entreprises utiliser Google Maps de manière assez libre, les seuils de vues qui déclenchaient une tarification n’arrivant qu’assez tard. Une carte dynamique pouvait s’afficher 25 000 fois par jour sur un site sans que l’entreprise qui l’a affichée ne débourse un centime. Les nouveaux tarifs sont radicalement différents : la même carte dynamique est gratuite pour 28 000 affichages… par mois. La tarification se fait ensuite au pack de 1 000 vues supplémentaires et est dégressive une fois un certain palier atteint.
D’après Fabien Nicollet, développeur spécialisé sur les applications professionnelles cartographie pour Business Geografic contacté par Numerama, les gros utilisateurs de Google Maps ne risquent rien : ils paient déjà Google pour une utilisation massive de données de géolocalisation.
On fait allusion ici aux sites de réservation touristique ou de cartographie GPS personnalisée, faisant autant d’appels à Google Maps qu’ils ont de visiteurs. Mais l’interface de programmation (API) de Google Maps n’est pas utilisée que par des mastodontes du web : startups, développeurs indépendants et TPE-PME utilisent aussi ces outils — c’est d’ailleurs l’une des API les plus utilisées au monde.
Un changement brutal
Pour ces entreprises qui dépassent les quotas gratuits, les choses vont changer du jour au lendemain : elles vont devoir payer, parfois cher, pour un service qui a longtemps été mis à disposition gratuitement. Les usages qui entrent dans le quota gratuit ne paieront rien, mais les utilisateurs devront tout de même renseigner leur carte bancaire pour continuer à utiliser Maps. « On parle de toutes les utilisations de l’API Google Maps, soit des centaines de milliers, voire des millions de pages internet, poursuit Fabien Nicollet. Pour ces entreprises, si elles n’ont pas renseigné de carte bancaire dans leur Google Console, c’est rideau. On ne sait pas encore sous quelle forme apparaîtront les cartes, mais a priori, cela ne fonctionnera plus. »
Le risque est de se retrouver avec un site qui affiche un message d’erreur à la place d’une carte. Et ce risque concerne tous les utilisateurs, du petit restaurant qui n’a qu’une centaine d’affichages par mois et qui ne sera jamais facturé au site du gouvernement qui utilise Google Maps : même les utilisateurs qui resteront dans la tranche gratuite devront renseigner une carte bancaire pour pouvoir continuer à utiliser l’API Google Maps.
Une énorme partie de ces utilisateurs qui ont un usage personnel des API de Google Maps, ne verront donc pas de changement, si ce n’est une mauvaise surprise le jour où ils constateront que le site de leur petite boutique affiche une erreur sur la page « Où nous trouver ». Mais pour toutes les entreprises de taille moyenne dont le cœur de métier est la cartographie, cela ne laisse qu’un mois pour se préparer. Et les options ne sont pas nombreuses : le concurrent ouvert Open Street Maps (OSM) ne propose pas autant de services que Google Maps. « OSM peut être gratuit, mais il ne propose pas ce que Google Maps propose : géocodage, itinéraire, Street View, Google Places, etc. », précise Fabien Nicollet.
Pour Christian Quest, ingénieur qui a consacré une publication Medium au sujet, ces difficultés doivent être converties le plus rapidement possible en opportunités : entre les business qui paient de toute façon leur utilisation de Google Maps et les particuliers ou petits qui ne verront pas de changement, se dresse aujourd’hui un marché sur lequel une concurrence aurait tout intérêt à s’implanter.
Et en effet, toutes ces entreprises pour qui l’abonnement sera devenu trop cher seront à la recherche d’alternatives moins onéreuses pour répondre à des besoins spécifiques que seul Google Maps était capable de proposer.
À bon entendeur.
Cet article fait écho à mon précédent article sur le pouvoir de nuisance des silos de mail.
Dans cet article, je pestais contre le pouvoir ahurissant que confère une grosse base d’utilisateurs à certains fournisseurs de mail (Gmail, Yahoo, etc).
Florilège
À tout seigneur, tout honneur, commençons par laposte.net.
laposte.net
La Poste avait tout pour fournir un service de mail propre et performant : son histoire dans les communications remonte à loin (on peut faire remonter sa généalogie au XVe siècle avec la première poste d’État de Louis XI) et si nous avons tous eu une lettre ou un colis qui s’est perdu dans les méandres des centres de tri, force est de constater que ça fonctionnait quand même très bien. En 2000, la Poste, encore entreprise publique, devait pouvoir fournir une adresse électronique à tous les Français⋅e⋅s.
Comment ne pas lui faire confiance ? Nous-mêmes, libristes avons, pendant longtemps, conseillé laposte.net à qui nous demandait un fournisseur de mail « propre », qui n’espionne pas les conversations, ne met pas de publicité…
Les choses ont bien changé.
Le prestataire de la Poste (ah bah oui, c’est un sous-traitant, vous n’imaginiez quand même pas que la Poste allait avoir des compétences en interne à l’heure des suppressions de postes de fonctionnaires ?) semble être, excusez le terme, un vrai branquignol : nous avons souvent des messages d’erreur comme 421 4.3.2 All server ports are busy (les serveurs ne sont pas correctement dimensionnés), 550 5.5.0 Service refuse. Veuillez essayer plus tard. service refused, please try later. LPN007_510 (« nope, on veut pas, revenez plus tard ») ou mon préféré, 451 4.7.1 Service unavailable – try again later (tout est vautré).
Ça fait des mois que les serveurs de laposte.net plantent régulièrement, avec en point d’orgue une panne qui a duré plusieurs jours en avril et une communication qui a mis plusieurs jours à arriver (un message pour dire qu’il y a un problème serait-il un aveu de faiblesse pour eux ?).
Résultat :
les mails s’accumulent sur nos serveurs, et comme on retente de les envoyer pendant quelques jours, eh bien ça ralentit le traitement des autres mails (bon, maintenant, j’ai mis en place des mailqueues séparées, mais ce n’est pas quelque chose que je devrais avoir à mettre en place !) ;
les utilisateurs ne reçoivent pas leurs mails de confirmation d’inscription à nos services ;
qui les utilisateurs contactent-ils ? Ah bah non, pas le support de la Poste, ce serait trop simple. Non, non, c’est nous. Et c’est usant. Non pas de vous répondre, mais le fait que ce soit 95 % du temps la faute à votre fournisseur de mail qui ne fait pas correctement son boulot.
Orange (wanadoo)
Ah, Orange. Tout un poème…
L’opérateur historique qui, lui aussi, a bénéficié de son aura d’ancien service public pour capter une grande majorité des internautes français lorsque vint l’heure de se choisir son premier FAI. Du coup, beaucoup de personnes ont encore une adresse wanadoo. Et comme Orange est le FAI majoritaire en France, encore plus de personnes ont une adresse orange.
J’avais déjà parlé dans mon précédent article de sa sale manie de ne pas accepter qu’on lui envoie trop de mails en une seule connexion. Imaginez un quidam qui refuse que son facteur lui apporte plus de trois lettres par tournée. Le facteur doit donc se représenter plusieurs fois s’il a plus de trois lettres à délivrer. C’est débile. Orange fait ça, mais pour le mail.
C’est le seul fournisseur que je connaisse qui impose ce genre de limite (qu’on ne vienne pas me dire que c’est pour lutter contre le spam : comment font les autres ? Hein ? Orange n’aurait pas les capacités financières et techniques de lutter plus proprement contre le spam ?).
Heureusement, ça se règle facilement, mais tout de même.
Et puis, de temps en temps, pouf, il rejette nos mails à coup de 550 5.2.0 Mail rejete. Mail rejected. ofr_506. Pourquoi ? Va savoir. Et ça se débloque tout seul au bout d’un temps.
Free
Après l’opérateur historique, voici celui qu’on surnomme le trublion du net. De temps en temps, celui-ci semble modifier les règles de son antispam, et nous voilà avec des mails 550 spam detected, quand bien même c’est le 300e mail quasi identique que nous envoyons de la journée. Et puis ça s’en va et ça revient.
Pareil avec 451 too many errors from your ip, ça bloque de temps en temps et ça repart comme c’est venu… alors qu’il s’agit majoritairement de mails de notification (framapiaf, framasphere, framagit…) et donc que les adresses ont été vérifiées ! Certes, il peut y avoir des erreurs, mais tellement peu dans le volume de mails que nous envoyons à Free… Ça arrive vraiment de façon aléatoire. Grmpf.
Facebook
On l’oublie, mais Facebook, en 2010, a proposé d’avoir une adresse mail @facebook.com (bon, ils ont arrêté les inscriptions en 2014, ce qui explique l’oubli). Et certaines personnes utilisent encore ces adresses.
Nos mails étaient bloqués de temps à autre avec un code 554 5.7.1 POL-P4 Connection refused, ce qui veut dire en gros « Revenez dans 24 ou 48 heures ». En soi, ce n’était pas forcément délirant, si jamais nous avions, pour une raison ou pour une autre, envoyé beaucoup de mails d’un coup à leurs serveurs. Mais depuis quelques semaines, il n’y a plus de déblocage : nos mails ne partent plus pour facebook.com, même en les faisant partir d’un autre serveur ou en diminuant la vitesse d’envoi.
Voilà pour les fournisseurs de mails qui font n’importe quoi avec leurs serveurs. Ils présentent tout de même l’avantage de nous permettre de comprendre pourquoi les destinataires n’ont pas reçu leurs mails, fût-ce pour de stupides raisons. Mais il y en a de plus vicieux…
Ceux qui n’amènent pas les mails à leurs destinataires (ou qui les cachent)
On ne les connaît pas bien, ce n’est que lorsque l’on nous contacte pour et que nous voyons que le mail est bien parti qu’on les repère : les fournisseurs de mails qui acceptent nos mails mais, pour une raison ou pour une autre, les envoient rejoindre le grand rien.
Eh oui, nos mails disparaissent parfois sur le serveur de votre fournisseur de messagerie. Vous ne les trouverez dans aucun dossier, pas même dans les spams.
Il s’agit le plus souvent de choix algorithmiques du fournisseur : l’antispam est vraiment sûr que ce message est frauduleux ? Bah, pas la peine d’embêter l’utilisateur, on le jette ! (ce qui est stupide car ne permettant pas la correction des faux positifs par les utilisateurs).
Encore mieux, Gmail. Comme expliqué dans notre FAQ, si vous recevez un mail identique à un que vous avez envoyé, comme un message à une framaliste à laquelle vous êtes inscrit, Gmail cachera le mail reçu de la liste. Vous l’avez envoyé, vous en connaissez le contenu, non ? Ah, vous vouliez voir quand le message arriverait, histoire d’être sûr qu’il a bien été traité par notre serveur de listes ? Pas de bol.
Ceux qui proposent une application pourrie
Les personnes qui utilisent l’application de mail Orange sur leur téléphone ont des soucis pour envoyer des messages à des framalistes. Après investigation, nous nous sommes rendus compte que l’application met l’adresse de la liste (enfin un dérivé, elle met l’adresse dédiée à la réexpédition des mails reçus par la liste) dans l’en-tête Sender.
Que cela veut-il dire et pourquoi est-ce un problème ? Cela fait croire que le mail provient du serveur des framalistes. Comme notre serveur n’est pas stupide, voyant un mail provenant soit-disant de lui-même mais passant par un serveur non-autorisé à envoyer des mails framalistes, celui-ci refuse le mail. Tout simplement. C’est une des techniques classiques de lutte contre le spam que d’agir ainsi.
Conclusion
Les problèmes face aux gros silos de mail sont nombreux, et sont loin d’être tous dus à une mauvaise configuration de votre serveur mail que vous chouchoutez vous-même (ou de ceux que nous configurons… Non vraiment, c’est pas nous qui pondons de telles bouses ! D’où ce joli hache-tague : c’est #PasMonCaca).
Je pense personnellement et sincèrement qu’il y a une part d’incompétence de la part de ces silos dans un certain nombre de cas. Si tout le monde jouait le jeu correctement, le mail ne serait pas aussi compliqué qu’aujourd’hui.
Que pouvez-vous faire ? Eh bien, à part changer de fournisseur de mail (connaissez-vous les CHATONS ?), vous pouvez contacter le support de votre fournisseur actuel, lui expliquer la situation et lui dire que ce n’est pas normal. Nous pouvons vous fournir, le cas échéant, les codes d’erreur retournés par son serveur pour les mails que nous vous envoyons. Peut-être qu’en étant suffisamment nombreux à râler, la situation évoluera.
Fun fact : combien des fournisseurs de mail évoqués dans cet article permettent de contacter leur serveur de mail en IPv6 ? Un seul — je vous laisse chercher lequel 😁
(Et si vous vous posez la question, oui, les serveurs de framasoft.org et framalistes.org sont accessibles en IPv6, comme toute l’infrastructure de Framasoft. Quand on veut, on peut.)
En effet, il est quasiment impensable pour quiconque envoie des mails de passer outre leurs façons de faire, sous peine de se couper d’une grande partie des internautes.
Quand bien même on se conforme à leurs desiderata, quand bien même on met en place toutes les bonnes pratiques existantes, certains fournisseurs de mail ne font pas leur travail correctement…
Nota Bene : Framasoft n’est pas la seule structure à rencontrer les problèmes décrits ci-dessous. Des universités aux entreprises en passant par les google groups, on trouve des témoignages un peu partout sur le Web de mails qui n’arrivent pas à destination, et les administrateurs systèmes échangent souvent entre eux pour savoir si ça vient d’eux ou du serveur d’en face (vous aurez déjà deviné, d’après le titre de cet article, d’où vient généralement le problème).
La surhydratation est un risque moins connu mais qui peut s'avérer mortel. Que se passe-t-il dans notre corps lorsque nous ingérons une trop grande quantité d'eau ?
Atlantico : S'il est bien connu que s'hydrater pendant les périodes de forte chaleur est important, la surhydratation est un risque moins connu mais qui peut s'avérer mortel. Au cours des quatre dernières années, deux footballeurs lycéens en sont morts durant le mois d'août. Pouvez-vous nous expliquer en quoi consiste une surhydratation ? Que se passe-t-il dans notre corps lorsque nous ingérons une trop grande quantité d'eau ?
Le principe de l'homéostasie et ses mises en défaut
Stéphane Gayet : L'homéostasie de notre corps (c'est son maintien dans un état permanent d'équilibre physiologique) est réalisée au prix d'importantes dépenses énergétiques. Ce qui signifie que rester en vie et en bonne santé nécessite un travail cellulaire et tissulaire de tous les instants. Cet équilibre est constamment menacé et les trillions de réactions biochimiques qui s'effectuent en permanence dans notre corps œuvrent en silence afin de le maintenir. Il arrive cependant que des circonstances trop violentes parviennent à mettre en défaut cette hémostasie.
C'est ce qui se produit en cas d'intoxication sévère, de traumatisme grave, de maladie infectieuse généralisé… A chaque fois, il existe une possibilité au moins théorique d'évolution mortelle.
A propos des intoxications, tous les éléments qui sont indispensables à notre vie peuvent aussi nous tuer quand ils sont apportés en quantité massive. Chacun sait bien que l'eau, le glucose (sucre simple) et l'oxygène sont nécessaires à la vie des êtres aérobies que nous sommes. Or, leur excès peut se montrer mortel. Pour désigner l'excès de quelque chose en médecine, on a l'habitude d'employer le préfixe "hyper". On parle d'hypertension artérielle (pression excessive et dangereuse), d'hypersomnie (tendance à s'endormir dans la journée), d'hypercoagulabilité (le sang forme trop facilement des thromboses ou "caillots"), d'hyper-sensibilité (terme proche de celui d'allergie), d'hyperglycémie (trop de glucose dans le sang en cas de diabète déséquilibré), d'hyperoxie (excès d'oxygène, lors d'un accident de plongée sous-marine par exemple), ou encore d'hyperhydratation (excès d'eau dans le corps ).
Dans quelles circonstances survient une hyperhydratation ?
En règle générale, une hyperhydratation ne survient pas spontanément. Elle est la résultante de plusieurs erreurs. Il peut arriver qu'elle soit iatrogénique (liée aux soins), chez un malade dans un état très grave et pour lequel des erreurs ont été commises lors de la réanimation hydroélectrolytique. Mais dans ce cas, il est habituel que l'on s'en rende compte à temps et que l'on parvienne à la corriger. En revanche, lorsqu'une hyperhydratation est consécutive à un excès d'ingestion d'eau, elle survient en dehors de tout milieu de soins et son évolution à court terme peut se montrer fatale. L'erreur en cas d'ingestion massive d'eau est double, liée pour partie à la composition de l'eau ingérée, pour partie au volume d'eau ingéré.
La composition de l'eau que nous buvons est déterminante
La composition de l'eau est l'aspect le plus important. Quand on parle d'eau de boisson, on utilise une formule abrégée. Car ce n'est pas seulement d'eau dont nous avons besoin, c'est d'eau et de sels minéraux : cela change tout. L'eau du réseau de distribution (eau appelée couramment "eau du robinet") est en France l'objet de traitements complexes. Car les eaux usées sont tellement polluées que leur traitement dans les stations d'épuration se doit d'être à un haut niveau de performance, étant donné les exigences élevées du décret portant sur les eaux destinées à la consommation humaine (eau dite "potable" : décret n° 2001-1220 du 20 décembre 2001, modifié par le décret n° 2007-49 du 11 janvier 2007). Fournir une eau dite "potable" est un peu devenu aujourd'hui la quadrature du cercle. Le résultat est qu'un grand nombre d'entre nous reçoit une eau chlorée (à cause des exigences microbiennes) et bien pauvre en sels minéraux. Si, comme cela est conseillé, nous mangeons beaucoup de légumes et de fruits, leur apport de sels minéraux compense la pauvreté de l'eau du réseau. Mais si nous buvons une grande quantité d'eau faiblement minéralisée et sans compléments en sels minéraux, nous pouvons nuire à notre santé, plus ou moins gravement.
Pourquoi avons-nous besoin de sels minéraux en plus d'eau ?
L'eau (H2O) est un fluide simple, un solvant neutre. Elle est partout dans notre corps et se déplace en permanence. Elle suit les mouvements des ions sodium (Na+). Nous perdons tous les jours de l'eau par notre urine, nos matières fécales, notre expiration ainsi que par notre transpiration. L'eau de notre urine sert à véhiculer les déchets, l'eau de nos matières fécales sert à leur éviter d'être trop dures et impossibles à éliminer, l'eau de notre expiration contribue à humidifier nos voies aériennes et celle de notre transpiration intervient dans la régulation thermique (l'évaporation de la sueur entraîne un refroidissement de la peau). Il faut donc compenser chaque jour cette perte d'eau qui s'accompagne obligatoirement d'une perte de sels minéraux et notamment de sodium (sel) qui est l'ion essentiel du métabolisme de l'eau avec l'ion chlorure (Cl-) et l'ion potassium (K+). Une personne qui ne boirait que de l'eau pure (H20 sans aucun sel minéral : eau distillée) et sans autre apport de sels minéraux deviendrait rapidement et gravement malade, jusqu'à en mourir.
En cas de forte chaleur, nous perdons par notre sudation de l'eau ainsi que des ions Na+ et Cl-, en plus d'autres sels minéraux. Il est donc indispensable de compenser à la fois la perte d'eau et celle de chlorure de sodium (Na+ Cl- ou NaCl ou sel ordinaire).
En quoi consiste une hyperhydratation ?
Une hyperhydratation est une intoxication par l'eau pure (H2O). Un apport massif d'eau pure ou en réalité très pauvre en chlorure de sodium entraîne une dilution du chlorure de sodium (sel indispensable à la vie) qui se trouve déjà dans le compartiment liquidien extracellulaire de l'organisme (le sang, la lymphe, les sérosités et les liquides interstitiels dans lesquels les cellules baignent). Cette dilution du chlorure de sodium dans le compartiment liquidien extra-cellulaire se traduit par une baisse de la concentration en ions sodium, notamment dans le sang ou plutôt le sérum (hyponatrémie). Nous savons que l'eau suit les ions sodium (Na+). Spontanément, au travers d'une membrane dite semi-perméable, comme la membrane des cellules (membrane plasmique), l'eau diffuse de façon à équilibrer les concentrations en Na+ de part et d'autre : elle diffuse du compartiment le moins concentré en sodium vers celui qui est le plus concentré en sodium. Une hyponatrémie provoque de ce fait un passage massif d'eau vers le compartiment hydrique intracellulaire et les cellules se trouvent donc inondées d'eau pure (H2O) : c'est une hyperhydratation intracellulaire, c'est elle qui fait toute la gravité de cet accident métabolique. Les cellules gonflées d'eau souffrent et finissent par mourir si elles sont fragiles (cellules cérébrales notamment).
Atlantico : Quels sont les signes avant-coureurs d'une surhydratation ? Comment l'anticiper ?
Les principaux signes et symptômes sont ceux d'une souffrance cérébrale par œdème des cellules nerveuses (gonflement des neurones) : nausées et parfois vomissements, troubles de l'équilibre, mal de tête (céphalées), ralentissement psychique, troubles mnésiques (de la mémoire), asthénie (fatigue), dégoût de l'eau, absence d'appétit et crampes musculaires.
A un stade de plus, apparaissent des convulsions et un coma (perte de connaissance).
Les reins, qui en principe assurent la régulation de la concentration en ions sodium et donc de la teneur en eau de l'organisme, voient leur capacité régulatrice dépassée lorsqu'il existe une ingestion massive d'eau sans sel.
Ils ne suffisent pas à corriger le trouble métabolique.
Il est essentiel d'avoir à l'esprit le volume d'eau approximatif que l'on absorbe dans la demi-journée. Quand il est manifestement excessif (deux litres et plus dans une demi-journée) et que surviennent une fatigue anormale, des nausées, des céphalées, un ralentissement de la pensée, des troubles de l'équilibre et des crampes, il faut penser à une intoxication par l'eau. La mesure salvatrice consiste à absorber une grande quantité de chlorure de sodium (sel de cuisine) dilué dans très peu d'eau. C'est la mesure que l'on met en œuvre en réanimation, cependant par voie veineuse (on utilise du sérum salé hypertonique à 3 %). Mais surtout pas de diurétique qui aggrave le manque de sel. Il faut évidemment être préventif : boire de l'eau bien minéralisée, ainsi que des fruits et protéines (ces dernières se transforment en peptides qui, une fois dans le compartiment extracellulaire, limitent, grâce à leur pouvoir osmotique, le passage d'eau vers l'intérieur des cellules).
Atlantico : Dès lors, en période de forte chaleur et durant une pratique sportive, quelle attitude adopter ? Comment s'hydrater sans risque ?
Il est important de connaître le risque d'intoxication par l'eau. Cela se voit également dans certains troubles comportementaux (la potomanie qui consiste à boire énormément d'eau et la polydipsie psychiatrique, observée lors de certaines formes de schizophrénie).
Ce qu'il faut retenir, c'est que l'ingestion d'eau sans sel est dangereuse. Il est utile de boire en cas de forte chaleur une eau riche en chlorure de sodium (comme les différentes eaux minérales de : Vals, Parot, Rozana, Saint-Diéry, Sainte-Marguerite, Arvie, Volvic, Cilaos…).
La peur de consommer trop de sel n'est pas fondée quand il faut chaud : au contraire, c'est une nécessité. Les Touaregs et les autres peuples du désert le savent bien : ils consomment suffisamment de sel (chlorure de sodium), car c'est indispensable pour pouvoir lutter contre la déshydratation ainsi qu'éviter l'hyperhydratation. Le sel permet de maintenir au maximum l'eau dans le compartiment extracellulaire.
Sauf exception, on ne meurt pas d'une poussée hypertensive (excès éventuel d'ingestion de sel), mais on peut mourir d'un manque de sel. Ainsi, lorsqu'il fait très chaud, il est préférable d'ingérer trop de sel que pas assez.
L'apport de chlorure de sodium peut également provenir des légumes et des fruits, ainsi que des produits carnés qui de plus apportent des protides contribuant à freiner le passage d'eau vers l'intérieur des cellules (pression osmotique du compartiment extracellulaire permettant d'y retenir l'eau).
Il faut également, c'est évident, rester raisonnable dans sa consommation d'eau : boire de l'eau en quantité suffisante pour un sportif ne signifie pas se gaver d'eau. Une sudation très importante survenant lors d'un effort physique sportif ne justifie pas de boire un litre et demi d'eau. La sueur perdue pendant un violent effort dépasse rarement un demi-litre et c'est déjà un volume important. On peut aussi se faire une idée de son besoin en eau en observant la concentration de son urine. Mais comme en toute chose, il faut rester raisonnable, c'est tout.
La chaleur, le soleil, l'absence de vent signent le retour de la pollution à l'ozone dans plusieurs régions et agglomérations françaises. Ce gaz que l'on retrouve typiquement au moment des canicules est irritant et toxique pour l'Homme.
Soleil, chaleur, absence de vent... et voilà le retour des épisodes de pollution à l'ozone, polluant typique des canicules dont la concentration peut être toxique pour l'Homme et l'environnement. Il ne faut pas confondre l'ozone stratosphérique, la fameuse couche d'ozone qui protège la Terre des rayonnements ultraviolets du soleil, et l'ozone que l'on respire et qui devient toxique lorsque sa concentration augmente.
Cet ozone des basses couches de l'atmosphère est un polluant dit secondaire car il n'est pas directement rejeté par une activité. Il est issu de réactions chimiques, sous l'effet du soleil, impliquant des polluants présents dans l'air, comme les oxydes d'azote, émis principalement par le trafic routier, et les composés organiques volatils (hydrocarbures, solvants...) rejetés par l'industrie. Il pose surtout problème en été, en période de fort ensoleillement et s'il n'y a pas de vent pour le disperser. Il peut être transporté sur de longues distances.
Le nombre et l'intensité des pointes de pollution ont diminué ces dernières années, notamment grâce à la réduction des émissions des précurseurs. « On parle d'une baisse de 10 % de l'amplitude des pics depuis le début des années 2000 », indique à l'AFP Augustin Colette, spécialiste de la modélisation de la qualité de l'air à l'Institut national de l'environnement industriel et des risques (Ineris).
Cette baisse n'est « pas encore satisfaisante », note-t-il, et elle risque d'être annulée par le réchauffement appelé à multiplier les canicules. On observe dans le même temps une relative stagnation de la moyenne annuelle, voire une augmentation, ajoute le scientifique, qui évoque une hausse de 5 % des moyennes annuelles sur la période 2000-2010.
Un polluant de l’air toxique pour l’Homme et l’environnement
Contrairement à d'autres polluants de l'air, il n'existe pas de valeur limite légale pour l'ozone en Europe, mais une valeur cible de 120 microgrammes/m3 en moyenne sur huit heures. Pour la protection de la santé à long terme, cette valeur ne doit pas être dépassée plus de 25 jours par an, en moyenne sur trois ans. Mais sur la période 2014-2016, Auvergne-Rhône-Alpes, Grand-Est, Occitanie et Provence-Alpes-Côte d'Azur sont au-delà, avec parfois entre 40 et 50 jours de dépassement, selon le ministère de la Transition écologique. Il existe d'autre part en France une procédure d'information des populations au-delà de 180 microgrammes/m3 en moyenne horaire et d'alerte au-delà de 240.
Le saviez-vous ?
L'ozone (O3) est un gaz irritant qui pénètre facilement jusqu'aux voies respiratoires les plus fines. Il peut provoquer des irritations des yeux, du nez et de la gorge, de la toux, des essoufflements..., en particulier chez les personnes les plus sensibles (personnes âgées, asthmatiques, jeunes enfants).
Il faut distinguer pics de pollution et exposition chronique à des niveaux de concentration élevés qui ne dépassent pas nécessairement les valeurs cibles. Ainsi, des concentrations journalières élevées d'ozone sont associées à une augmentation de crises d'asthme, d'admissions hospitalières pour causes respiratoires et cardiovasculaires, d'après Santé Publique France. Selon une étude publiée en 2016 par cette agence, « l'exposition chronique à l'ozone serait responsable de près de 500 décès pour causes respiratoires chaque année » en France. Moins que les 48.000 décès annuels attribués aux particules fines (PM 2,5), autre polluant de l'air. Concernant cette fois les pics de pollution, une autre étude de la même agence portant sur neuf grandes villes a conclu que pendant la canicule de 2003, l'ozone aurait été responsable de 380 décès prématurés (dont 228 à Paris) entre le 3 et le 17 août.
“
L'exposition chronique à l'ozone serait responsable de près de 500 décès pour causes respiratoires chaque année
À des taux élevés, ce gaz réduit la capacité des végétaux à assurer la photosynthèse. « Des niveaux élevés d'O3 causent des dommages aux cellules des plantes, altérant leur reproduction et leur croissance, réduisant ainsi la production des récoltes agricoles, la croissance de la forêt et la biodiversité », souligne l'Agence européenne pour l'environnement (AEE).
À la différence de l'ozone, les particules, matières microscopiques en suspension dans l'air, proviennent directement des combustions industrielles et domestiques et des transports (diesel) notamment. Les épisodes de pollution aux particules ont lieu essentiellement en hiver. Les organismes de surveillance de la qualité de l'air mesurent également les dioxydes d'azote (NO2) ou de soufre (SO2).
Ce qu'il faut retenir
Les épisodes de fortes chaleurs s’accompagnent souvent de pollutions à l’ozone.
Ce gaz provient de réactions chimiques qui touchent d’autres polluants atmosphériques.
Toxique pour l’Homme, ce gaz serait à l’origine de 500 décès chaque année en France.SAN FRANCISCO — For decades, the district south of downtown and alongside San Francisco Bay here was known as either Rincon Hill, South Beach or South of Market. This spring, it was suddenly rebranded on Google Maps to a name few had heard: the East Cut.
The peculiar moniker immediately spread digitally, from hotel sites to dating apps to Uber, which all use Google’s map data. The name soon spilled over into the physical world, too. Real-estate listings beckoned prospective tenants to the East Cut. And news organizations referred to the vicinity by that term.
“It’s degrading to the reputation of our area,” said Tad Bogdan, who has lived in the neighborhood for 14 years. In a survey of 271 neighbors that he organized recently, he said, 90 percent disliked the name.
The swift rebranding of the roughly 170-year-old district is just one example of how Google Maps has now become the primary arbiter of place names. With decisions made by a few Google cartographers, the identity of a city, town or neighborhood can be reshaped, illustrating the outsize influence that Silicon Valley increasingly has in the real world.
The Detroit neighborhood now regularly called Fishkorn (pronounced FISH-korn), but previously known as Fiskhorn (pronounced FISK-horn)? That was because of Google Maps. Midtown South Central in Manhattan? That was also given life by Google Maps.
Bloc-notes techno en ligne de Katryne