Le mot de Kat - Votre attention, s'il vous plait : c'est pas faux, ce que raconte ce long article que je viens donc de traduire., mais pensez à le mettre en perspective, sachant qu'il est publié sur et par Proton, qui fournit un service de mail très beaucoup plus sécurisé et respectueux de la vie privée. Le service Proton mail gratuit est très basique, mais devient un petit peu payant si on en veut un peu plus. C'est donc une société commerciale qui, après avoir dézingué Gmail s'en prend à son autre concurrent Outlook. J'ai pas mis les images, ce sont des copies d'écran en anglais. Pas les liens non plus. Si vous y tenez, retrouvez l'article original (en anglais) en cliquant sur le titre.
Publié le 5 janvier2024 par Edward Komenda
Avec le lancement de la nouvelle version d'Outlook pour Windows, Microsoft semble avoir transformé son application de messagerie en un outil de surveillance pour la publicité ciblée.
Tout le monde parle des campagnes de protection de la vie privée de Google et d'Apple, qui exploitent vos données en ligne pour générer des revenus publicitaires. Mais il semble maintenant qu'Outlook ne soit plus simplement un service de courrier électronique ; c'est un mécanisme de collecte de données pour les 772 partenaires externes de Microsoft et un système de diffusion de publicités pour Microsoft elle-même.
Voici comment et pourquoi Microsoft partage vos données avec 772 tierces parties.
Certains utilisateurs européens qui téléchargent le nouveau logiciel Outlook pour Windows verront apparaître une fenêtre modale contenant des informations troublantes sur la manière dont Microsoft et plusieurs centaines de tiers traitent leurs données : la fenêtre informe les utilisateurs que Microsoft et ces 772 tiers utilisent leurs données pour un certain nombre de raisons, notamment pour.. :
Stocker et/ou accéder à des informations sur l'appareil de l'utilisateur
Développer et améliorer les produits
Personnaliser les publicités et le contenu
Mesurer les publicités et le contenu
Obtenir des informations sur l'audience
Obtenir des données de géolocalisation précises
Identifier les utilisateurs grâce à l'analyse des appareils
Cette dernière version d'Outlook confirme que les marges de profit des grandes entreprises technologiques dépendent de plus en plus de la collecte de vos données personnelles. Outlook vous invite également à choisir la manière dont les publicités s'affichent sur votre écran, ce qui montre clairement que la publicité est un élément clé de l'accord.
Les utilisateurs de Mac connectés à la nouvelle version d'Outlook verront même des publicités apparaître dans les messages de la boîte de réception. Certaines publicités concernent des applications Microsoft, tandis que d'autres proviennent de tiers qui vendent des produits..
Grâce au règlement général sur la protection des données de l'UE, les Européens sont au moins informés qu'un petit village de tiers pourra consulter leurs données. Les Américains, grâce au refus de leur gouvernement d'adopter une législation sur la protection de la vie privée, ne sont même pas informés de ce qui se passe.
Dans les paramètres d'Outlook, les utilisateurs britanniques peuvent explorer une "Liste des partenaires publicitaires", qui indique le nombre inquiétant de sociétés publicitaires travaillant avec Microsoft. Ces sociétés tierces - appelées partenaires - portent des noms tels que "ADMAX" et "ADSOCY". Cette liste n'est pas disponible dans les paramètres pour les utilisateurs américains et suisses.
Dans une certaine mesure, le nouvel Outlook vous permet de choisir comment vos données sont utilisées, mais ce n'est pas aussi simple que de cliquer sur un simple bouton.
"En fonction du type de données qu'ils collectent, utilisent et traitent et ainsi que d'autres facteurs, notamment la protection de la vie privée dès la conception, certains partenaires s'appuient sur votre consentement, tandis que d'autres vous demandent de vous désinscrire", peut-on lire sur la page des préférences destinée aux utilisateurs britanniques. "Cliquez sur chaque société de publicité listée ci-dessous pour consulter sa politique de confidentialité et exercer vos choix."
Tous les partenaires n'ont pas les mêmes règles. Les utilisateurs peuvent lire chaque politique de confidentialité avant de prendre une décision, mais cette lecture n'est pas obligatoire.
Ces politiques sont généralement longues, décousues et notoirement difficiles à comprendre. Mais pour de nombreuses entreprises, c'est justement l'idée. Ces politiques sont intentionnellement rédigées de cette manière afin de donner aux entreprises la plus grande liberté possible pour faire ce qu'elles veulent de vos données. Cela signifie souvent qu'elles vendent vos données personnelles à des annonceurs tiers et à des courtiers en données, tout en vous empêchant de vous y opposer.
Avec le nouvel Outlook, Microsoft oblige les utilisateurs à entrer dans un labyrinthe de déclarations de confidentialité pour reprendre le contrôle de leurs données. Bien entendu, Microsoft sait que presque personne ne lit les politiques de confidentialité. Si tout le monde comprenait ces politiques, les revenus seraient compromis
L'intégration par Microsoft d'Outlook dans les services en ligne a déclenché une alarme en matière de protection de la vie privée.
Lorsque vous synchronisez des comptes de messagerie tiers provenant de services tels que Yahoo ou Gmail avec le nouvel Outlook, vous risquez d'accorder à Microsoft l'accès aux identifiants IMAP et SMTP, aux courriels, aux contacts et aux événements associés à ces comptes, selon le blog informatique allemand Heise Online.
"Bien que Microsoft explique qu'il est possible de revenir à tout moment aux applications précédentes, les données seront déjà stockées par l'entreprise", rapporte M. Heise. "Cela permet à Microsoft de lire les courriels.
Il est impossible d'utiliser le nouvel Outlook sans synchroniser toutes ces informations avec Microsoft Cloud - il n'y a qu'une option d'annulation, selon le forum de développeurs XDA. Il est également configuré pour envoyer les données de connexion - y compris les noms d'utilisateur et les mots de passe - directement aux serveurs de Microsoft.
Bien que ce transfert soit sécurisé par Transport Layer Security (TLS), selon Heise Online, votre nom d'utilisateur et votre mot de passe IMAP et SMTP sont transmis à Microsoft en texte clair. XDA a pu montrer ses identifiants de test pour un fournisseur de services de messagerie tiers sur les serveurs de Microsoft.
Microsoft s'autorise à accéder à votre compte de messagerie à tout moment et à votre insu, ce qui lui permet de scanner et d'analyser vos courriels - et de les partager avec des tiers.
Pour les utilisateurs qui ne sont pas conscients des implications en matière de protection de la vie privée, l'utilisation du nouvel Outlook peut sembler inoffensive. Mais cela pourrait signifier que vous accueillez Microsoft dans votre coffre-fort de données et que vous lui donnez la liberté totale d'en faire l'usage qu'il souhaite.
Le professeur Ulrich Kelber, commissaire fédéral allemand à la protection des données et à la liberté d'information, s'est dit préoccupé par les capacités de traitement des données du nouvel Outlook. Il a annoncé sur Mastodon son intention de demander un rapport au commissaire irlandais à la protection des données, qui est chargé de veiller à ce que des entreprises comme Microsoft respectent les normes en matière de protection des données et de la vie privée.
Microsoft n'a pas répondu publiquement aux critiques concernant sa dernière capture de données. Mais le géant du logiciel a été franc quant à sa volonté d'utiliser la publicité ciblée pour atteindre de nouveaux sommets en termes de revenus. En 2021, Microsoft Advertising a rapporté 10 milliards de dollars. Mais Microsoft veut doubler ce chiffre.
Conformément à sa politique publicitaire, Microsoft n'utilise pas les données personnelles contenues dans les courriers électroniques, les chats ou les documents pour cibler les publicités. En revanche, les publicités qui s'affichent peuvent être sélectionnées en fonction d'autres données qui ont permis à l'entreprise de mieux vous connaître, telles que "vos centres d'intérêt et vos favoris, votre localisation, vos transactions, la manière dont vous utilisez nos produits, vos requêtes de recherche ou le contenu que vous visualisez".
Un examen plus approfondi de la politique de confidentialité de Microsoft montre quelles données personnelles peuvent être extraites :
Nom et coordonnées
Mots de passe
Données démographiques
Données de paiement
Données relatives aux abonnements et aux licences
Requêtes de recherche
Données relatives à l'appareil et à l'utilisation
Rapports d'erreurs et données de performance
Données vocales
Texte, encrage et données dactylographiques
Images
Données de localisation
Contenu
Retour d'information et évaluations
Données sur le trafic
Les termes du contrat donne un aperçu de l'endroit où vos données peuvent se retrouver:
Fournisseurs de services
Entités gérées par les utilisateurs
Prestataires de services de paiement
Tiers exécutant des services de publicité en ligne pour le compte de Microsoft
Lorsque Google a mis en place une politique de confidentialité élargissant ses pouvoirs de collecte de données, l'entreprise s'est attiré les critiques des régulateurs et de ses rivaux, notamment Microsoft, qui a publié des pages entières de publicité dans les journaux pour informer les utilisateurs de Google que l'entreprise ne respectait pas leur vie privée.
Peu de temps après, cependant, Microsoft a dévoilé une politique de confidentialité lui permettant d'utiliser des informations personnelles pour vendre de la publicité ciblée, s'engageant ainsi de manière agressive dans une voie qu'elle avait autrefois décriée.
Depuis, Microsoft a pris des mesures importantes pour générer des revenus de surveillance, suivant les traces de Google, de Facebook et, plus récemment, d'Apple. Comme d'autres grandes entreprises technologiques, Microsoft a compris qu'elle pouvait générer d'importants flux de revenus en collectant et en analysant les données des utilisateurs. Cet état d'esprit centré sur les données s'inscrit dans une tendance plus large d'entreprises établies qui se disputent une part du gâteau de la surveillance.
La nomination de Satya Nadella au poste de PDG en 2014 a marqué un tournant pour Microsoft, qui a fait l'objet d'un examen minutieux la même année après avoir admis avoir lu des courriels provenant du compte Hotmail d'un journaliste, ce qui a contraint l'entreprise à renforcer sa politique de protection de la vie privéey.
Trois mois après sa prise de fonction, M. Nadella a publié une étude d'un cabinet d'intelligence économique qui concluait que "les entreprises qui tirent parti de leurs données ont le potentiel de générer un chiffre d'affaires supplémentaire de 1,6 billion de dollars par rapport aux entreprises qui ne le font pas", écrit l'auteur Shoshana Zuboff dans son livre The Age of Surveillance Capitalism (L'ère du capitalisme de surveillance).
Les développements clés qui ont suivi comprennent le moteur de recherche Bing et l'assistant numérique Cortana, tous deux conçus pour capturer et analyser les données des utilisateurs. La sortie de Windows 10 en 2015 a encore souligné l'engagement de Microsoft dans cette nouvelle direction. Les critiques de la communauté de la protection de la vie privée n'ont pas tardé à fuser.
Windows 10 "est actuellement un marasme en matière de protection de la vie privée qui a grand besoin d'être réformé", écrit l'ingénieur logiciel David Auerbach dans Slate, décrivant comment le nouveau système d'exploitation "se donne le droit de transmettre une grande quantité de vos données aux serveurs de Microsoft, d'utiliser votre bande passante à des fins propres à Microsoft et d'établir un profil de votre utilisation de Windows".
L'orientation de Microsoft vers la publicité s'est poursuivie avec l'achat de Xandr en 2021, mais l'entreprise a ensuite décidé de capitaliser sur la base d'utilisateurs captifs créée par son jardin clos et s'est concentrée sur l'affichage de publicités de première main dans ses services.
Compte tenu de cette orientation, le nouveau format d'Outlook fait sens.
Dans une interview accordée à Business Insider en 2022, Rob Wilk, responsable de la publicité chez Microsoft, a évoqué les possibilités offertes par des propriétés telles que la Xbox, qui comprend une activité liée aux consoles ainsi qu'aux comptes de connexion - "l'un des domaines dans lesquels nous allons jouer", a-t-il déclaré.
"Imaginez un monde, pas si lointain, où toutes ces pièces sont assemblées pour proposer une offre plus claire et plus nette à nos annonceurs", a déclaré M. Wilk. "N'oublions pas que nous disposons également d'informations et de données sur la navigation dans les jeux et sur les activités de Microsoft Windows, avec des milliards d'utilisateurs, ce qui nous donne un avantage unique pour comprendre les intentions.
M. Wilk a qualifié la campagne publicitaire de Microsoft de "nouvelle religion".
Microsoft affirme que la collecte de vos données a pour but de "vous offrir des expériences riches et interactives" Pourtant, dans le domaine de la Big Tech, la publicité et les recettes publicitaires sont devenues des fins en soi, justifiant un modèle commercial fondé sur la surveillance de vos données privées au nom du profit.
En présentant le nouvel Outlook comme un service de collecte de données et de diffusion de publicités, Microsoft a montré qu'elle n'était pas différente des Google et des Meta du monde entier. Pour ces entreprises, faire de la protection de la vie privée une option par défaut signifierait perdre les revenus dont elles sont devenues dépendantes.
(NDLR : ce titre et ce sous-titre sont de Kat, ce qui vient ensuite est la conclusion de l'article original, je vous avais prévenus, c'est un article de promotion de Proton Mail)
Il existe d'autres modèles commerciaux déployés par des entreprises qui se concentrent avant tout sur la sécurité et la protection de la vie privée en ligne.
Proton est l'un d'entre eux.
Proton utilise le cryptage de bout en bout pour protéger vos courriels, votre calendrier, vos fichiers stockés dans le nuage, vos mots de passe et vos identifiants de connexion, ainsi que votre connexion internet). Notre architecture de sécurité est conçue pour que vos données restent invisibles, même pour nous, car notre modèle d'entreprise vous offre plus de confidentialité, pas moins.
Proton fournit une technologie gratuite et open-source pour étendre l'accès à la vie privée, à la sécurité et à la liberté en ligne. Mais vous pouvez toujours passer à des plans payants pour accéder à des fonctionnalités supplémentaires, ce qui vous permet de payer avec de l'argent plutôt qu'avec des données sensibles.
Proton facilite le passage à sa plateforme. En quelques étapes simples, vous pouvez migrer vers un service de messagerie en lequel vous pouvez avoir confiance.
Nous croyons en la construction d'un internet qui fonctionne pour les gens et pas seulement pour le profit. La violation de la vie privée à laquelle se livrent régulièrement des entreprises comme Microsoft et Google au nom de leur chiffre d'affaires n'est qu'un obstacle de plus à l'avènement d'un meilleur internet, où la protection de la vie privée serait la règle par défaut.
Ah, the wind in your hair, the open road ahead, and not a care in the world… except all the trackers, cameras, microphones, and sensors capturing your every move. Ugh. Modern cars are a privacy nightmare.
Car makers have been bragging about their cars being “computers on wheels" for years to promote their advanced features. However, the conversation about what driving a computer means for its occupants' privacy hasn’t really caught up. While we worried that our doorbells and watches that connect to the internet might be spying on us, car brands quietly entered the data business by turning their vehicles into powerful data-gobbling machines. Machines that, because of their all those brag-worthy bells and whistles, have an unmatched power to watch, listen, and collect information about what you do and where you go in your car.
All 25 car brands we researched earned our *Privacy Not Included warning label -- making cars the official worst category of products for privacy that we have ever reviewed.
The car brands we researched are terrible at privacy and security
Why are cars we researched so bad at privacy? And how did they fall so far below our standards? Let us count the ways!
We reviewed 25 car brands in our research and we handed out 25 “dings” for how those companies collect and use data and personal information. That’s right: every car brand we looked at collects more personal data than necessary and uses that information for a reason other than to operate your vehicle and manage their relationship with you. For context, 63% of the mental health apps (another product category that stinks at privacy) we reviewed this year received this “ding.”
And car companies have so many more data-collecting opportunities than other products and apps we use -- more than even smart devices in our homes or the cell phones we take wherever we go. They can collect personal information from how you interact with your car, the connected services you use in your car, the car’s app (which provides a gateway to information on your phone), and can gather even more information about you from third party sources like Sirius XM or Google Maps. It’s a mess. The ways that car companies collect and share your data are so vast and complicated that we wrote an entire piece on how that works. The gist is: they can collect super intimate information about you -- from your medical information, your genetic information, to your “sex life” (seriously), to how fast you drive, where you drive, and what songs you play in your car -- in huge quantities. They then use it to invent more data about you through “inferences” about things like your intelligence, abilities, and interests.
It’s bad enough for the behemoth corporations that own the car brands to have all that personal information in their possession, to use for their own research, marketing, or the ultra-vague “business purposes.” But then, most (84%) of the car brands we researched say they can share your personal data -- with service providers, data brokers, and other businesses we know little or nothing about. Worse, nineteen (76%) say they can sell your personal data.
A surprising number (56%) also say they can share your information with the government or law enforcement in response to a “request.” Not a high bar court order, but something as easy as an “informal request.” Yikes -- that’s a very low bar! A 2023 rewrite of Thelma & Louise would have the ladies in custody before you’ve had a chance to make a dent in your popcorn. But seriously, car companies' willingness to share your data is beyond creepy. It has the potential to cause real harm and inspired our worst cars-and-privacy nightmares.
And keep in mind that we only know what companies do with personal data because of the privacy laws that make it illegal not to disclose that information (go California Consumer Privacy Act!). So-called anonymized and aggregated data can (and probably is) shared too, with vehicle data hubs (the data brokers of the auto industry) and others. So while you are getting from A to B, you’re also funding your car’s thriving side-hustle in the data business in more ways than one.
All but two of the 25 car brands we reviewed earned our “ding” for data control, meaning only two car brands, Renault and Dacia (which are owned by the same parent company) say that all drivers have the right to have their personal data deleted. We would like to think this deviation is one car company taking a stand for drivers’ privacy. It’s probably no coincidence though that these cars are only available in Europe -- which is protected by the robust General Data Protection Regulation (GDPR) privacy law. In other words: car brands often do whatever they can legally get away with to your personal data.
It’s so strange to us that dating apps and sex toys publish more detailed security information than cars. Even though the car brands we researched each had several long-winded privacy policies (Toyota wins with 12), we couldn’t find confirmation that any of the brands meet our Minimum Security Standards.
Our main concern is that we can’t tell whether any of the cars encrypt all of the personal information that sits on the car. And that’s the bare minimum! We don’t call them our state-of-the-art security standards, after all. We reached out (as we always do) by email to ask for clarity but most of the car companies completely ignored us. Those who at least responded (Mercedes-Benz, Honda, and technically Ford) still didn’t completely answer our basic security questions.
A failure to properly address cybersecurity might explain their frankly embarrassing security and privacy track records. We only looked at the last three years, but still found plenty to go on with 17 (68%) of the car brands earning the “bad track record” ding for leaks, hacks, and breaches that threatened their drivers’ privacy.
At a glance: How the car brands stack up
Here’s how the cars performed against our privacy and security criteria.
Some not-so-fun facts about these rankings:
Tesla is only the second product we have ever reviewed to receive all of our privacy “dings.” (The first was an AI chatbot we reviewed earlier this year.) What set them apart was earning the “untrustworthy AI” ding. The brand’s AI-powered autopilot was reportedly involved in 17 deaths and 736 crashes and is currently the subject of multiple government investigations.
Nissan earned its second-to-last spot for collecting some of the creepiest categories of data we have ever seen. It’s worth reading the review in full, but you should know it includes your “sexual activity.” Not to be out done, Kia also mentions they can collect information about your “sex life” in their privacy policy. Oh, and six car companies say they can collect your “genetic information” or “genetic characteristics.” Yes, reading car privacy policies is a scary endeavor.
None of the car brands use language that meets Mozilla’s privacy standard about sharing information with the government or law enforcement, but Hyundai goes above and beyond. In their privacy policy, it says they will comply with “lawful requests, whether formal or informal.” That’s a serious red flag.
All of the car brands on this list except for Tesla, Renault, and Dacia signed on to a list of Consumer Protection Principles from the US automotive industry group ALLIANCE FOR AUTOMOTIVE INNOVATION, INC. The list includes great privacy-preserving principles such as “data minimization,” “transparency,” and “choice.” But the number of car brands that follow these principles? Zero. It’s interesting if only because it means the car companies do clearly know what they should be doing to respect your privacy even though they absolutely don’t do it.
What can you do about it? Well…
This is usually where we’d encourage you to read our reviews, and to choose the products you can trust when you can. But, cars aren’t really like that.
Sure, there are some steps you can take to protect more of your privacy, and we’ve listed them all in each of our reviews under “Tips to protect yourself.” They’re definitely worth doing. You can also avoid using your car’s app or limit its permissions on your phone. (Since many of the apps share a privacy policy with the vehicle, we can’t always tell which data is taken from your phone so it’s probably better to err on the side of caution by not using it.) But compared to all the data collection you can’t control, these steps feel like tiny drops in a massive bucket. Plus, you deserve to benefit from all the features you pay for without also having to give up your privacy.
The lack of choice has really been among the biggest bummers in reading up on cars and privacy. Consumers’ choices are limited in so many ways with cars, because:
They’re all bad
People don’t comparison-shop for cars based on privacy. And they shouldn’t be expected to. That’s because there are so many other limiting factors for car buyers. Like cost, fuel efficiency, availability, reliability, and the features you need. Even if you did have the funds and the resources to comparison shop for your car based on privacy, you wouldn’t find much of a difference. Because according to our research, they are all bad! On top of all that, researching cars and privacy was one of the hardest undertakings we as privacy researchers have ever had. Sorting through the large and confusing ecosystem of privacy policies for cars, car apps, car connected services, and more isn’t something most people have the time or experience to do.
Like we mentioned, all of the cars we researched earned our *Privacy Not Included warning label. All of the car brands we researched got our “data use” and “security” dings -- and most earned dings for poor data control and bad track records too! We can’t stress enough how bad and not normal this is for an entire product guide to earn warning labels.
It’s so confusing
We spent over 600 hours researching the car brands’ privacy practices. That’s three times as much time per product than we normally do. Even still, we were left with so many questions. None of the privacy policies promise a full picture of how your data is used and shared. If three privacy researchers can barely get to the bottom of what’s going on with cars, how does the average time-pressed person stand a chance?
But wait, there’s more!
"Consent” is an illusion
Many people have lifestyles that require driving. So unlike a smart faucet or voice assistant, you don’t have the same freedom to opt out of the whole thing and not drive a car. We’ve talked before about the murky ways that companies can manipulate your consent. And car companies are no exception. Often, they ignore your consent. Sometimes, they assume it. Car companies do that by assuming that you have read and agreed to their policies before you step foot in their cars. Subaru’s privacy policy says that even passengers of a car that uses connected services have “consented” to allow them to use -- and maybe even sell -- their personal information just by being inside.
So when car companies say they have your “consent” or won’t do something “without your consent,” it often doesn’t mean what it should. Like when Tesla says, that sure! You can opt out of data collection, but it might break your car:
However, “if you no longer wish for us to collect vehicle data or any other data from your Tesla vehicle, please contact us to deactivate connectivity. Please note, certain advanced features such as over-the-air updates, remote services, and interactivity with mobile applications and in-car features such as location search, Internet radio, voice commands, and web browser functionality rely on such connectivity. If you choose to opt out of vehicle data collection (with the exception of in-car Data Sharing preferences), we will not be able to know or notify you of issues applicable to your vehicle in real time. This may result in your vehicle suffering from reduced functionality, serious damage, or inoperability."
Tesla's Customer Privacy Notice
https://www.tesla.com/legal/privacy
A few of the car companies we researched take manipulating your consent one step further by making you complicit in getting “consent” from others, saying it’s on you to inform them of your car’s privacy policies. Like when Nissan makes you “promise to educate and inform all users and occupants of your Vehicle about the Services and System features and limitations, the terms of the Agreement, including terms concerning data collection and use and privacy, and the Nissan Privacy Policy.” OK, Nissan! We would love to meet the social butterfly who drafted this line.
Don’t worry!! There is something you can do!
Hey woah don’t hang up your driving gloves just yet! We’re not saying the situation is hopeless. What we are saying is that it’s not fair for the burden to be on consumers to make “better choices” that in this case don’t exist. And we don’t want to take a page from car companies’ books by asking you to do things no reasonable person would ever do -- like reciting a 9,461-word privacy policy to everyone who opens your car’s doors.
You’re already helping us to spread the word just by reading our research. Our hope is that increasing awareness will encourage others to hold car companies accountable for their terrible privacy practices too. But that’s not all. On behalf of the Mozilla community, we’re asking car companies to stop their huge data collection programs that only benefit them. Join us!
Add your name to ask car companies to respect drivers’ privacy and to stop collecting, sharing and selling our very personal information.
1er février 2023 VIE PRIVÉE
La proposition de loi européenne sur le contrôle du chat ne se contentera pas de prendre le contrôle totalitaire de toutes les communications privées. Elle aura également pour conséquence involontaire d'interdire les systèmes d'exploitation open source.
L'UE est actuellement en train de promulguer la loi sur le contrôle du chat. Elle a été critiquée pour avoir créé un système centralisé de surveillance et de censure de masse à l'échelle de l'UE et pour avoir permis aux gouvernements d'écouter toutes les communications privées. Mais une conséquence peu évoquée de la loi proposée est qu'elle rend illégaux pratiquement tous les systèmes d'exploitation à code source ouvert existants, y compris les principales distributions Linux. Elle interdirait également l'archive d'applications Android open source F-Droid.
L'article 6 de la loi impose à tous les "magasins d'applications logicielles" de :
Évaluer si chaque service fourni par chaque application logicielle permet une communication interhumaine.
vérifier si chaque utilisateur est âgé de plus ou moins de 17 ans
empêcher les utilisateurs de moins de 17 ans d'installer de tels logiciels de communication.
En laissant de côté la folie des intentions déclarées ou les détails des logiciels qui seraient visés, examinons les implications pour les systèmes de logiciels libres.
Un "magasin d'applications logicielles" est défini par l'article 2[*] comme étant "un type de services d'intermédiation en ligne, qui se concentre sur les applications logicielles en tant que produit ou service intermédié".
Cela couvre clairement les archives logicielles en ligne presque universellement utilisées par les systèmes d'exploitation à source ouverte depuis les années 1990 comme principale méthode de distribution des applications et des mises à jour de sécurité. Ces archives sont souvent créées et maintenues par de petites entreprises ou des associations de bénévoles. Elles sont hébergées par des centaines d'organisations telles que des universités et des fournisseurs d'accès à Internet dans le monde entier. L'une des principales, l'archive de paquets Debian gérée par des bénévoles, contient actuellement plus de 170 000 paquets logiciels.
Ces services d'archivage de logiciels ne sont pas construits autour du concept d'un utilisateur humain individuel avec une identité ou un compte. Ils desservent des machines anonymes, comme un ordinateur portable, un serveur ou un appareil. Ces machines peuvent ensuite être utilisées ou non par des utilisateurs humains individuels pour installer des applications, ce qui échappe totalement au contrôle des services d'archives.
Pour être en mesure, ne serait-ce que conceptuellement et théoriquement, de respecter cette loi, il faudrait revoir totalement l'installation des logiciels, leur approvisionnement et les mises à jour de sécurité, procéder à une restructuration organisationnelle majeure et mettre au rebut, centraliser et reconstruire l'infrastructure de distribution des logiciels.
Ceci n'est bien sûr que théorique car les coûts et les problèmes pratiques seraient insurmontables.
Si et quand cette loi entre en vigueur, elle rendra illégaux les services de logiciels libres qui sous-tendent la majorité des services et des infrastructures sur l'internet, un nombre incalculable d'appareils et les ordinateurs utilisés par les développeurs de logiciels, parmi beaucoup d'autres choses. Pour se conformer à la loi, il faudrait tout arrêter, au niveau mondial, car les serveurs qui fournissent les logiciels et les mises à jour de sécurité ne font pas la différence entre un serveur web, un développeur de logiciels japonais, un réfrigérateur et un adolescent européen.
Il peut sembler incroyable que les auteurs de la loi n'aient pas pensé à cela, mais ce n'est pas si surprenant si l'on considère qu'il ne s'agit là que de l'une des nombreuses conséquences gigantesques de cette loi mal conçue et rédigée.
[Pour définir un magasin d'applications logicielles, la loi fait référence à la loi européenne sur les marchés numériques, article 2, point 12, qui définit l'"assistant virtuel". Ce qu'ils veulent dire en réalité est le point 14, qui définit le "magasin d'applications logicielles".
Traduit avec www.DeepL.com/Translator (version gratuite)
Expérimenté depuis le mois d’août 2021 dans trois départements de Métropole, le service Mon Espace Santé (qui prend la suite du Dossier Médical Partagé) a été généralisé à l’ensemble de la population depuis février 2022. Plusieurs associations (comme XY media, Acceptess-T ou le collectif POS) ont très tôt alerté sur les dangers liés à ce nouvel outil. Nous avons passé en revue les fonctionnalités de Mon Espace Santé et force est de constater qu’elles présentent des insuffisances alarmantes en matière de respect du consentement et de gestion des données de santé. De par l’audience large à laquelle il s’adresse et de part la sensibilité des données qu’il manipule, un tel outil du service public se devrait pourtant d’être irréprochable en la matière. À défaut, nous ne pouvons que vous rediriger vers des guides vous permettant de vous opposer à ces traitements de données.
Pour commencer, faisons un petit tour plutôt descriptif de ce qui est annoncé en terme de fonctionnalités. Mon Espace Santé (aussi appelé Espace numérique de santé dans la loi et le décret qui le créent) se compose principalement de quatre éléments :
Dans l’absolu, cet espace de partage des informations pourrait être une solution pour faciliter le droit d’accès à son dossier médical. Mais ceci impliquerait une mise en œuvre solide et de confiance qui n’est, à notre avis, pas atteinte avec Mon Espace Santé (voir plus bas la suite de notre analyse).
Une messagerie sécurisée pour échanger avec des professionnel·les de santé. À la création de Mon Espace Santé, une adresse de messagerie MSSanté (Messagerie Sécurisée de Santé) est automatiquement attribuée à la personne usagère et rattachée à Mon Espace Santé. Cette adresse est constituée à partir du matricule INS de l’usagère et du nom de domaine de l’Opérateur de Mon Espace Santé (selon le Référentiel Socle MSSanté). Les messages échangés sont stockés pendant une durée de dix ans, sauf lorsqu’ils sont supprimés directement par l’utilisateur·ice. Ces adresses existaient déjà pour les professionnel·les de santé.
Un agenda pour suivre ses rendez-vous médicaux et recevoir des rappels.
Enfin, pour accéder à ces différents services, outre un site web, une application mobile sera également disponible. Le développement technique est réalisé par les entreprises privées Atos, Octo, Accenture et Maincare. La société Worldline traite les données du Dossier Médical Partagé au travers de sa filiale Santeos. Les autres données (messagerie, agenda…) sont traitées par la société Atos.
Un recueil accessoire du consentement des personnes
Pour chaque personne, la création de Mon Espace Santé se fait automatiquement selon un calendrier régionalisé prévu par l’État. Chaque personne est notifiée par courrier postal ou par courriel de la création prochaine de son espace. Elle dispose alors d’un délai de six semaines pour empêcher la création de l’espace en se connectant sur le site. L’espace est donc créé sans le recueil du consentement préalable et explicite de la personne usagère. L’opposition, elle, doit être explicite.
Dans les premières annonces d’ évaluation de la phase pilote, qui a eu lieu à partir d’octobre 2021 dans trois départements, la Sécurité sociale annonçait que « moins de 0.7% des usagers se sont opposés à [la] création [de leur espace santé]. » Mais plus loin on apprenait que seuls 4.8% des personnes ayant un espace santé l’avaient utilisé. Comment savoir donc si les presque 90% restants ont réellement souhaité en avoir un, ou même s’ils ont reçu le courrier ou mail prévenant de sa création (et des possibilités de s’y opposer) ?
Avant même de se poser la question de l’utilité ou non de Mon Espace Santé, on peut dire que les modalités de sa création sont loin d’être respectueuses des personnes auxquelles il est censé simplifier la vie. Passer outre le consentement des personnes au prétexte de « les aider » est la définition du paternalisme et, selon nous, s’oppose aux véritables pratiques de soin fondées sur l’écoute et la considération.
Certes, il est toujours possible de supprimer son compte. Mais, là encore, la personne usagère devra être attentive et suffisamment informée si elle souhaite demander la fermeture de son compte en cochant la bonne case (ses données seront supprimées 3 mois plus tard, à moins d’être supprimées individuellement au sein du profil médical, des mesures santé ou de la messagerie, auquel cas elles seront effacées immédiatement). Nous avons trop souvent dénoncé ce tour de passe-passe lorsqu’il était réalisé par les GAFAM : la possibilité théorique d’effacement ultérieur ne produit aucun effet significatif concret qui pourrait justifier l’absence de consentement préalable. Ce qui est inadmissible pour les GAFAM l’est encore davantage pour un service public traitant des données extrêmement sensibles soi-disant « pour notre bien ».
Une fois créé, l’espace santé a pour but de partager les informations avec le personnel de santé : la personne usagère devra donc autoriser les soignant·es à accéder à tout ou partie de ses informations. Mais, là encore, le recueil du consentement est problématique, pour ne pas dire quasiment factice : une simple case à cocher par le ou la soignante servira de « preuve » que l’on a donné son accord pour qu’il ou elle y accède. Au niveau du service informatique, il n’y a donc aucune procédure pour vérifier qu’il s’agit bien de la personne patiente qui donne son accord, à qui, et quand.
On peut ainsi imaginer qu’une personne mal-intentionnée ait accès au service en tant que personnel soignant et consulte le dossier de n’importe quelle personne dans la base de données. Il lui suffirait de cocher cette case de manière arbitraire et d’accéder à des informations privées. Ce cas est certes déjà possible actuellement sans Mon Espace Santé, à partir des divers bases de données médicales existantes, mais de manière bien plus cloisonnée. Avec un système aussi centralisé que Mon Espace Santé, la possibilité que ce type de scénarios se produise est accrue. On peut aussi aisément imaginer que nombre de personnes soignantes vont considérer que le fait d’avoir pris rendez-vous équivaut à consentir à ce qu’ils ou elles accèdent au dossier du ou de la patient·e : le respect du consentement est encore malheureusement une question épineuse dans le milieu médical où les maltraitances médicales peuvent être nombreuses.
Enfin, une fois l’espace créé, seuls des « motifs légitimes » peuvent être invoqués pour refuser qu’un·e professionnel·le verse des documents en ligne. C’est ce qu’indique en l’article R. 1111-47 du code de la santé publique et rappelé dans la politique de protection des données personnelles : « Une fois votre profil Mon Espace Santé créé, vous ne pourrez pas, sauf à invoquer un motif légitime, refuser qu’un professionnel autorisé ou que les personnes exerçant sous sa responsabilité déposent dans votre dossier médical partagé les informations qui sont utiles à la prévention, la continuité et la coordination de vos soins (article R. 1111-47 du code de la santé publique) ».
Nous avons passé en revue la configuration des paramètres à la création du compte « Mon Espace Santé », et déjà, nous pouvons noter quelques actions effectuées sans l’accord explicite de la personne usagère :
L’attestation de vaccination Covid-19 est automatiquement versée dans le dossier par l’Assurance maladie. Le document est visible par défaut à l’ensemble des professionnel·les de santé. Il est possible de le masquer, mais pas de le supprimer car il a été ajouté par un·e professionnel·le de santé. Il n’est pas possible de s’opposer au versement de ce document, alors que l’Assurance maladie n’a pas été techniquement autorisée à déposer des documents sur ce compte.
En ce qui concerne la configuration des accès aux professionnel·les en cas d’urgence, l’option est activée par défaut à la création du compte. Pour s’en rendre compte, la personne usagère doit se rendre dans la section « Confidentialité » des paramètres de configuration, puis « Accès en cas d’urgence ». Le personnel du SAMU ainsi que « tout autre professionnel de santé » sont autorisés par défaut à accéder aux documents et aux rubriques « Vaccinations », « Historique de soins », « Entourage et volontés » du profil médical. Mais quels contrôles techniques permettent de définir ce qui est une situation d’urgence et débloque l’accès des documents aux professionnel·les ? Et s’agit-il des professionnel·les qui ont d’ordinaire déjà accès à notre espace ? Les informations que nous avons pu recueillir ne nous permettent pas de répondre actuellement à cette question.
Le décret s’appliquant à Mon Espace Santé prévoit une matrice d’accès différencié aux informations de la personne usagère selon le type d’activité du ou de la soignante. En pratique, le partage par défaut est très large : votre dentiste aura accès à vos résultats de prélèvements sanguins, votre kiné à votre historique de vaccination, votre sage-femme aux données de remboursement, et ainsi de suite.
Le ou la médecine traitante a, quant à elle, accès à l’ensemble des informations contenues dans l’espace santé de ses patient·es.
S’il est possible de bloquer l’accès à un·e professionnel·le de santé depuis les paramètres de l’espace, que se passe-t-il dans le cas où l’on souhaite changer de médecin·e traitant·e ? Ou que l’on souhaite choisir quelles informations partager ? En effet, certains parcours de santé nécessitent la consultation de divers spécialistes aux opinions divergentes pour obtenir un diagnostic. L’accès à certaines informations sur des opérations ne faisant pas consensus parmi le corps médical peut également générer des biais négatifs chez les professionnel·les de santé (par exemple, le recours à une IVG). Enfin, l’accès est partagé pour le service d’un hôpital : impossible dans de ce cas de savoir qui y a vraiment accès (prêt de carte d’accès au système informatique par exemple).
Cependant, il est important de noter que la personne usagère ou qu’un·e professionnel·le peuvent choisir de masquer un document pour le rendre inaccessible aux autres professionnel·les de santé, à l’exception du ou de la médecine traitante, de la personne ayant mise en ligne le document et du personnel intervenant en cas d’urgence. Si ce n’est pour ces larges exceptions, ceci représente un bon moyen de protéger la confidentialité des données au cas par cas. En revanche, il n’est pas possible de supprimer un document déjà versé par un·e professionnel·le de santé.
Il est possible pour les personnes de vérifier qui a eu accès à leurs données : des journaux d’activité enregistrent qui accède à quel document à une date et une heure donnée. La personne usagère peut recevoir des notifications chaque fois qu’un nouvel accès est détecté. Ces journaux permettent donc de détecter un potentiel mésusage de l’accès aux données. Cependant, cette fonctionnalité ne peut aider à protéger les accès qu’après coup : si on se rend compte qu’une personne soignante a eu accès à un document et que cela ne nous convient pas, on ne pourra que limiter ses accès futurs.
Le système de droit d’accès de Mon Espace Santé n’a pas été pensé pour permettre aux utilisateur·ices de gérer simplement et de manière éclairée l’accès à leurs données. On pourrait par exemple imaginer un système où par défaut seule la personne usagère et la liste de soignant·es qu’elle a désignées auraient accès aux documents la concernant, l’usagère pouvant ensuite choisir de démasquer certains documents à d’autres professionnel·les de santé (en bénéficiant par exemple de conseils de la part des soignant·es pour faire ce choix de manière éclairée). Dans ce cas, c’est la personne usagère qui aurait véritablement la main sur ses données, et non pas les professionnel·les de santé comme c’est le cas avec la conception actuelle de Mon Espace Santé.
Dans le cas des enfants et des adolescent·es, les ouvrants droits (c’est-à-dire les assuré·e·s) auront accès aux espace de santé des personnes qui leur sont rattachées. C’est-à-dire que, concrètement, toutes les informations de santé de leurs enfants et adolescent·es, ainsi que les rendez-vous et les courriels passant par la messagerie sécurisée leur seront accessibles.
En théorie, certaines infos peuvent ne pas être versées dans le dossier. Par exemple, dans le cas d’une IVG, le ou la soignant·e est en charge d’expliquer et de proposer à la personne mineure de ne pas ajouter les infos de l’IVG dans le dossier. La personne peut répondre qu’elle ne veut pas que ce soit versé. Aucune donnée de remboursement relatif à cet acte ne sera remontée. Cet exemple fait partie des motifs légitimes que peut invoquer une usagère pour refuser qu’un·e professionel·le verse un document sur l’espace santé.
Ceci implique que les soignant·es pensent à demander, et respectent, le souhait des personnes. Or, avec Mon Espace Santé, la quantité des données versées est multipliée et surtout normalisée : par fatigue ou par oubli à force de répétition, il est probable que le consentement pour verser une information dans Mon Espace Santé ne soit pas récolté à chaque fois. De plus, comme le recueil du consentement est oral et informel (il ne laisse donc aucune trace), la décision pourra difficilement être contestée.
Cet outil multiplie donc malheureusement les chances de mettre en danger le secret médical de ces personnes, et potentiellement la sécurité des personnes au sein de leur foyer ou de leur famille : que se passe-t-il si une enfant/ado ne souhaite pas parler d’un sujet (contraception, dépistage de MSTs, grossesse, avortement, transition) avec la personne à laquelle son compte est rattaché (que cela soit par pudeur ou par crainte de violences en représailles) ?
Le dossier Informatique et Libertés fourni par la Délégation du numérique en santé précise par ailleurs que l’opposition à la création du compte Mon Espace Santé appartient aux représentants légaux. Une personne mineure ne peut donc supprimer ou s’opposer à la création de son espace santé.
En revanche, lorsque la personne devient ayant droit autonome, les accès des représentants légaux sont clôturés par le service. La personne peut gérer son compte, le fermer ou le créer s’il n’existait pas avant si elle le souhaite. Notons qu’une personne peut demander, à partir de 16 ans, de devenir ayant droit autonome auprès de la CPAM de son domicile. On peut imaginer que le scénario de clôture des accès des anciens représentants légaux s’applique également dans ce cas.
Par ailleurs, la notion d’ayant droit existe toujours dans certains régimes tels que la Mutualité sociale agricole (MSA) ou le régime local d’Alsace-Moselle (personnes mariées, pacsées, concubines et enfants jusqu’à 24 ans sans activités). La documentation à laquelle nous avons eu accès ne permet pas de dire si les ouvrants droits auront accès aux espaces santé des ayants-droits majeurs. Nous attirons l’attention sur le fait que si tel était le cas, cela représenterait un danger pour les personnes qui vivent des violences ou des conflits dans leur vie familiale (personnes en instance de divorce par exemple).
Enfin, au delà des soignant·es et des utilisateur·ices, des personnes tierces peuvent avoir accès aux données de santé pour des fonctions de support. Les niveaux 2 et 3 de ce support pourront avoir accès aux données de santé. Ceci implique notamment des agent·es de la CPAM et le personnel de prestataires (Atos/Wordline) et de l’hébergement. L’accès aux informations doit en théorie recueillir le consentement de la personne usagère dans le cadre du support, mais là encore impossible d’assurer que ce consentement sera bien demandé et non forcé techniquement. Concrètement, des personnes qui ne sont pas professionnelles de santé peuvent accéder aux informations médicales personnelles des usagères. Mais cela est-il vraiment nécessaire pour une fonction support ? Ceci pose la question également de savoir si les documents sont stockées de manière chiffrée et lisibles uniquement par les personnes habilitées, ou pas. Difficile de répondre à cette question en l’état de nos connaissances.
La description du catalogue de services numériques de santé à venir implique la possibilité d’ajouter des applications d’entreprises privées au sein de l’espace santé. Ceci pose un grand nombre de questions concernant le partage des données d’activités et des contenus stockés dans l’espace santé. Pour l’instant, nous n’avons pas les réponses à ces questions, et nous soulignons notre inquiétude sur ce sujet : comment l’usagère pourra-t-elle déterminer à quelles données l’application accède, et si cela est légitime ? Pourra-t-on limiter les données auxquelles chaque application a accès (comme sur un smartphone) ? Lors des mises à jour des applications, les changements de permissions ou de fonctionnement seront-ils notifiés et comment ? Et enfin, quels usages de nos données feront les « startups » d’objets connectés et autres grandes entreprises et plateformes de prise de rendez-vous (monétisation, profilage) ? Au-delà de ces problèmes d’implémentation, il faut dénoncer la direction générale animée par cette évolution : le remplacement du soin par la technique industrielle.
Mon Espace Santé s’inscrit dans une tradition de numérisation et de centralisation en ligne des données : ceci fait du service une cible idéale pour les piratages de données. Le stockage est géré par une entreprise privée. Le code du service n’est ni public ni accessible, ce qui pose la question de la transparence pour un outil du service public.
Nous nous interrogeons, aujourd’hui comme dans un futur plus ou moins proche, sur l’accès à la santé des personnes ne pouvant ou ne voulant pas utiliser ce service de santé. Et si d’aventure nous nous retrouvions dans une situation où il nous est impossible d’avoir rendez-vous sans passer par cet espace ? Ou que nos remboursements sont rendus difficiles sans l’utilisation de cet espace ?
La fiabilité et la sécurité informatique de ce service doivent aussi être considérées : si la plateforme se retrouve la cible d’un défaut de fonctionnement ou d’un piratage, que deviennent alors nos données ? Souvenons-nous du piratage des services de l’AP-HP en 2021 dans le contexte du Covid-19, suite auquel la réponse apportée par les autorités de santé a été insuffisante, voire nulle. Plus récemment encore, les données d’au moins 510 000 personnes ont été volées à l’Assurance maladie via Amelipro. À vouloir faciliter l’accès à la santé en imposant un outil numérique, n’y a-t-il pas erreur sur la façon de procéder ? Autant de questions auxquelles cet outil numérique ne répond pas tout en persistant dans la même direction.
Mon Espace Santé est un service manipulant des données sensibles qui est déployé à l’ensemble de la population française. Or, sa conception et son déploiement ne sont clairement pas au niveau des services les plus respectueux en matière de protection de la vie privée.
Selon le Ségur du numérique en santé, son ambition est de « généraliser le partage fluide et sécurisé de données de santé entre professionnels et usagers pour mieux soigner et accompagner. »
Mais pour cela, les besoins en terme de consentement et de gestion des données des usagères devraient être au cœur d’une expérience utilisatrice respectueuse, fiable et réaliste, ce qui à notre sens n’est pas le cas avec Mon Espace Santé. Sans oublier que ce service s’inscrit dans un processus de numérisation des services publics qui, trop souvent, ne tient pas compte des difficultés d’accès et d’utilisation d’Internet par de nombreuses personnes.
Pour ces raisons, nous ne pouvons que remercier les nombreuses associations qui ont déjà alerté sur ce sujet et, comme elles, vous proposer des guides pour demander la suppression de votre espace santé.
Les applications « Messages » et « Téléphone » de Google, installées sur plus d'un milliard de smartphones, enregistrent l'activité de l'utilisateur et envoient ces données sur les serveurs de la firme. Les utilisateurs ne sont pas informés de cette collecte, qui ne respecterait pas le RGPD, et n'ont aucun moyen de s'y opposer.
Les utilisateurs d'Android sont habitués aux alertes concernant de fausses applications qui collectent leurs données. Cependant, cette fois ce sont deux applications légitimes préinstallées sur les versions récentes d'Android qui envoient des informations personnelles à Google...
Le problème a été découvert par Douglas Leith, professeur d'informatique au Trinity College de Dublin. Ce sont deux applications de Google qui sont mises en cause, à savoir Messages (com.google.android.apps.messaging) et Téléphone (com.google.android.dialer). À chaque SMS envoyé ou reçu, Messages envoie à Google un rapport qui inclut l'heure et une empreinte numérique du message. Ces données sont transmises à travers le service d'enregistrement Clearcut de Google Play ainsi que le service Firebase Analytics.
L'appli utilise la fonction de hachage SHA-256 pour créer une empreinte tronquée, ce qui est censé éviter de dévoiler le contenu du message. Toutefois, cela suffirait à Google pour faire le lien entre l'expéditeur et le destinataire. L'application Téléphone envoie des rapports similaires, avec l'heure et la durée des appels reçus ou émis. De plus, quand la protection contre les appels indésirables est activée, ce qui est le cas par défaut, l'appareil transmet également le numéro appelant aux serveurs de Google.
Graphique sur le lien entre les données collectées et l’identité réelle, via un identifiant Android, lié aux identifiants de l’appareil et de la carte SIM, ainsi qu’au compte Google, lui-même lié au numéro de téléphone et cartes bancaires. © Douglas Leith
Graphique sur le lien entre les données collectées et l’identité réelle, via un identifiant Android, lié aux identifiants de l’appareil et de la carte SIM, ainsi qu’au compte Google, lui-même lié au numéro de téléphone et cartes bancaires. © Douglas Leith
Les deux applis envoient également des informations détaillées sur leur utilisation, par exemple lorsque l'utilisateur affiche un message ou effectue une recherche dans ses conversations. Google n'informe à aucun moment l'utilisateur de la collecte de données et n'offre aucun moyen de s’y opposer. Le professeur met également en doute la conformité des applications avec le règlement général sur la protection des données (RGPD). Cette collecte ne respecterait pas les trois principes de base concernant l'anonymat, le consentement et un intérêt légitime.
Après avoir signalé à Google ces problèmes, la firme a répondu en indiquant effectuer quelques changements. Les utilisateurs seront notifiés qu'ils utilisent une application Google avec un lien vers la politique de confidentialité. Messages ne collectera plus le numéro d'expéditeur, le code ICCID de la carte SIM, ainsi que l'empreinte des SMS. Les deux applications n'enregistreront plus les évènements liés aux appels dans Firebase Analytics. La collecte de données utilisera un identifiant temporaire plutôt que l'identifiant Android permanent. Enfin, Google informera plus explicitement les utilisateurs lorsque la fonction de protection contre les appels indésirables sera activée, et cherche actuellement comment utiliser moins d'informations ou des données plus anonymes.
Le professeur a également indiqué que Google compte ajouter à Messages une option pour refuser la collecte d’informations. Toutefois, celle-ci ne couvrirait pas ce que la firme considère comme données « essentielles ». Il s'agit d'une des premières études sur les données personnelles transmises par les services Google Play, qui restent largement opaques et pourraient cacher bien d'autres surprises...
L'application de cartographie Google Maps affiche désormais une alerte pour demander aux utilisateurs de partager leurs données en échange de ses facultés de navigation.
Que ce soit sur Android ou iOS, l'application Google Maps affiche désormais un message invitant l'utilisateur à autoriser la collecte de vos données pour pouvoir exploiter certaines des fonctions de navigation. Sans cela, plusieurs options de navigation en temps réel ne seront pas fonctionnelles. Il faut dire que l'application de cartographie réalise une collecte abondante de données, avec notamment les relevés GPS, pour établir les conditions de circulation et les afficher en temps réel ou les prédire grâce à l’analyse statistique. Une précision de plus en plus redoutable qui repose sur un milliard de kilomètres collectés chaque jour sur la planète grâce à l'application Google Maps utilisé par bon nombre de conducteurs.
Il faut payer de sa personne pour se faire guider !
Pour le moment, le message ne s'affiche que chez certains utilisateurs localisés aux États-Unis. En annulant ces nouvelles conditions d'utilisation, sans la collecte de ces données, l'application ne délivrera plus le suivi de navigation à la façon d'un GPS avec les instructions locales. Le géant d'Internet souligne que les données récupérées ne sont aucunement nominatives et associées à votre compte Google.
Hormis cette nouvelle nécessité d'accorder cette autorisation à Google, il n'y aurait aucun changement par rapport à avant. Autrement dit, depuis toujours, l'application collectait les données en question.
La loi a changé : depuis le 25 août, le fait de révéler sur le net l'identité d'une personne et des informations personnelles, en sachant que cela va lui nuire, est puni pénalement.
C’est la conséquence juridique de l’assassinat de Samuel Paty, ce professeur d’histoire-géographie et instruction civique dans un collège à Conflans-Sainte-Honorine tué parce qu’il avait montré des caricatures de Mahomet dans un cours sur la liberté d’expression. Désormais, la pratique du « doxing » (parfois orthographié « doxxing ») est définie dans la loi, et réprimée.
Le travail d’enquête a montré que l’identité de l’instituteur avait été diffusée sur le net, en lien avec ce cours et l’attentat qui a suivi.
Le tribunal administratif de Montreuil, rapportait France Bleu en octobre 2020, avait émis un ordre de fermeture temporaire d’une mosquée, car celle-ci avait partagé sur sa page Facebook une vidéo d’un parent d’élève appelant à la mobilisation contre l’enseignant. En commentaire, un internaute avait en outre révélé l’identité et le collège où l’enseignant officiant, sans que ce message ne soit modéré.
Le « doxing » désigne « le fait de révéler, de diffuser ou de transmettre, par quelque moyen que ce soit, des informations relatives à la vie privée, familiale ou professionnelle d’une personne permettant de l’identifier ou de la localiser aux fins de l’exposer ou d’exposer les membres de sa famille à un risque direct d’atteinte à la personne ou aux biens que l’auteur ne pouvait ignorer. »
Cette pratique est désormais incriminée par le Code pénal (même s’il existait déjà des dispositions particulières s’en approchant), car la loi confortant le respect des principes de la République (anciennement appelée loi contre le séparatisme et qui contient quelques autres articles autour du numérique) vient de paraître au Journal officiel, le 24 août. Elle est donc en vigueur depuis le 25 août. L’article 36 de ce texte prévoit une nouvelle infraction, qui est matérialisée à travers l’article 223-1.1 du Code pénal.
De base, la nouvelle sanction prévoit pour la personne fautive jusqu’à trois ans de prison et 45 000 euros d’amende. Il s’agit-là des peines maximales. Cependant, celles-ci peuvent être alourdies du fait de circonstances aggravantes : les peines passent alors à 5 ans de prison et 75 000 euros d’amende. Celles-ci se déclenchent lorsque les victimes ont été ciblées en raison de certaines caractéristiques.
Cela inclut la profession, par exemple si l’on s’en prend à un journaliste, à un fonctionnaire, un individu chargé d’une mission de service public (sapeur pompier, chauffeur de bus, contrôleur de la SNCF, etc.), au titulaire d’un mandat électif public (comme un maire ou un député) ou une personne dépositaire de l’autorité publique (juge, policier, gendarme, etc.).
L’état de la personne est aussi une caractéristique qui est prise en compte. Ainsi, un « doxing » sur un mineur, une femme enceinte ou sur une personne en raison de son âge, de sa maladie, de son infirmité, de sa déficience physique ou psychique constitue aussi une circonstance aggravante, du fait de la vulnérabilité particulière de la victime, quand celle-ci est apparente ou connue par l’auteur des faits.
Réagissant à la publication de cette loi, l’officier de gendarmerie Matthieu Audibert, qui est doctorant en droit privé et sciences criminelles, a apporté quelques éclairages juridiques dans un fil Twitter le 25 août, en constant que le texte prévoit bien l’élément constitutif de l’infraction, matérialisé par le « doxing » à proprement parler, ainsi qu’un élément moral et la prise en compte de l’intentionnalité de l’auteur.
De ces éléments, Matthieu Audibert souligne que cette incrimination reste encadrée : « lorsque l’auteur doxe un internaute ou un utilisateur de Twitter, il faut prouver que l’auteur a nécessairement conscience que cela expose la victime à un risque direct d’atteinte à la personne ou aux biens ». Le fait de publier l’identité d’une personne ne constitue pas à lui seul une raison suffisante pour condamner quelqu’un.
L’officier de gendarmerie termine avec une question ouverte : ce type d’infraction entre-t-il dans la catégorie des infractions instantanées (comme un vol à l’étalage) ou dans celles des infractions continues (comme un recel). En apparence très juridique, la question a une incidence sur la prescription, c’est-à-dire sur le moment à partir duquel la justice ne peut plus être saisie.
« Si on considère que l’infraction est continue, cela signifie que tous les faits de doxing commis avant l’entrée en vigueur de la loi, mais encore en ligne pourront être poursuivis. Les faits n’étant plus commis par exemple au moment de la suppression du tweet », fait-il observer. En clair, tant qu’un tweet est en ligne, par exemple, il peut tomber sous le coup de la loi, y compris s’il a été écrit avant.
Dans deux ans, votre ordinateur portable équipé de Windows 11 devra disposer d'une webcam. Ce n'est pas une prédiction, c'est un fait, car Microsoft l'exige. Dans le cadre de l'afflux d'actualités concernant son nouveau système d'exploitation, Microsoft a déclaré qu'à partir du 1er janvier 2023, tous les NOUVEAUX ordinateurs portables fonctionnant sous Windows 11 devront avoir une caméra frontale. Pour le moment, la caméra frontale est encore optionnelle.
Cette exigence matérielle semble être obligatoire pour tous les ordinateurs portables Windows 11 et non pour les ordinateurs de bureau à partir du 1er janvier 2023. Dans le document d'exigences matérielles relatives à Windows 11, Microsoft note que la caméra frontale doit avoir une résolution au moins HD (1280 × 720 pixels) avec un minimum de 15 fps. Dans des conditions de faible luminosité, la caméra doit maintenir 10 images par seconde. Elle doit également prendre en charge l'exposition automatique et la balance des blancs automatique, note le document. Plus loin nous pouvons lire que Windows 11 pourrait ne pas prendre en charge ou fonctionner sur les ordinateurs portables sans caméras ou avec des caméras qui ne sont pas au moins HD à partir de 2023.
Bien que la société n'ait pas fourni de commentaire concernant ses motivations, il semble que Microsoft force les webcams dans tous les ordinateurs portables Windows 11 pour s'assurer que les fabricants à petit budget n'ignoreront pas la webcam HD comme mesure de réduction des coûts (cela dit, les modules webcam HD ne sont pas vraiment chers, vous pouvez acheter une unité individuelle pour un peu plus d'un dollar sur des sites comme AliExpress). Il est également possible que Microsoft s'efforce d'exiger la prise en charge de Windows Hello sur les ordinateurs portables, une fonctionnalité qui améliorerait l'expérience utilisateur et la sécurité des appareils. Mais tout cela n'est que spéculation.
Microsoft déclare que « si un bouton de caméra dédié est implémenté, il peut s'agir d'un bouton de caméra à double action avec la possibilité de détecter "une demi-pression" et "une*pression complète" en tant qu'actions distinctes ou un bouton de caméra à action unique qui ne ne prend pas en charge une fonctionnalité "demi-presse" ». Les raisons exactes de la configuration matérielle requise pour Windows 11 restent floues dans le document, bien qu'elles soient susceptibles d'activer Windows Hello, qui est le système de reconnaissance faciale de Microsoft pour une connexion pratique sans mot de passe.
La nouvelle exigence pourrait provoquer un tollé parmi les défenseurs de la vie privée dans un contexte de craintes que les géants de la technologie aient un accès non sollicité aux caméras ou aux microphones des ordinateurs portables (ou de tout matériel).De même, cela pourrait également donner aux OEM une chance de présenter leurs ordinateurs portables avec un bouton de sourdine dédié pour le microphone et une caméra avec obturateur de caméra pour couvrir l'objectif. Notamment, le document de Microsoft recommande aux OEM d'ajouter des « contrôles physiques sous la forme d'obturateurs de confidentialité de la caméra » et « d'inclure éventuellement des LED de notification (NLED) ou un indicateur LED à l'antenne qui fournit une notification visuelle lorsque la caméra est en cours d'utilisation ». Apple avait résolu ce problème avec iOS 14 avec des indicateurs lumineux LED qui alertent essentiellement un utilisateur lorsque des applications ou des programmes accèdent à la caméra ou au micro.
La Cnil donne un coup de pied dans la fourmilière : interrogée sur l'emploi d'outils collaboratifs américains, l'autorité administrative française estime qu'il faut s'en passer et opter pour des solutions françaises ou européennes.
Les outils Framasoft plutôt que la suite bureautique de Google Docs pour les élèves qui poursuivent leurs études après le Bac ? Si la Commission nationale de l’informatique et des libertés (Cnil) ne va pas jusqu’à formuler une telle recommandation, le sens de son message est toutefois limpide : il est préférable de délaisser les outils américains pour l’enseignement supérieur et la recherche.
C’est en effet ce qui transparait dans une prise de parole datée du 27 mai 2021. La Cnil répondait alors aux sollicitations de la Conférence des grandes écoles et la Conférence des présidents d’université sur l’évolution du cadre juridique européen et ses effets que cela peut avoir sur les conditions stockage et de circulation des données qui sont produites, collectées et manipulées via ces outils de travail.
Cet appel de la Cnil ne vient pas de nulle part : il tient compte d’une réalité juridique avec l’invalidation du Privacy Shield par la Cour de justice de l’Union européenne, à l’été 2020. Or ce cadre, qui remplaçait le Safe Harbor, un mécanisme similaire qui a aussi été détruit, servait à encadrer le transfert des données des internautes en Europe vers les États-Unis, là où figurent de nombreux services en ligne.
La Cour a considéré qu’il n’existe en fait aucune garantie juridique pour des personnes non américaines pouvant être visées par les programmes de surveillance américains. Or, le Privacy Shield était censé être conforme aux standards européens. En clair, il y a un conflit manifeste entre le droit européen et le droit américain. Dès lors, la légalité de ces transferts est remise en question.
Considérant ce verdict majeur, véritable séisme juridique au niveau européen, mais aussi les documents qui lui ont été transmis, la Cnil relève que « dans certains cas, des transferts de données personnelles vers les États-Unis dans le cadre de l’utilisation des suites collaboratives pour l’éducation » surviennent, et cela pour beaucoup de monde : étudiants, chercheurs, enseignants, personnels administratifs.
Ce n’est pas tout : des informations encore plus critiques peuvent être en jeu, comme des données de santé (qui sont des données sensibles devant bénéficier d’un plus haut degré de protection ), des données particulières (relatives à des mineurs) et des données pouvant impliquer des enjeux stratégiques, dans les secteurs scientifique et économique (données de recherche).
« Il existe donc un risque d’accès par les autorités américaines aux données stockées »
Et dans le cas où les fournisseurs américains de ces outils prennent des mesures pour ne procéder à aucun transfert, de sorte de stocker et traiter les données en Europe ? Là aussi, il y a un problème : le Cloud Act. Ce texte autorise les juridictions à forcer les entreprises aux États-Unis de fournir les données sur leurs serveurs, dans le cadre d’une procédure, y compris les serveurs situés à l’étranger.
« Indépendamment de l’existence de transferts, les législations américaines s’appliquent aux données stockées par les sociétés états-uniennes en dehors de ce territoire. Il existe donc un risque d’accès par les autorités américaines aux données stockées », relève la Cnil. Dès lors, l’engagement de Microsoft en la matière doit être tempéré, même si la société a par le passé combattu ce genre de demande.
Enfin, si la Cnil admet qu’il faudrait déployer des mesures additionnelles pour poursuivre ces transferts même si le Privacy Shield est tombé, il s’avère que ces dispositions capables « d’assurer un niveau de protection adéquat » ne sont à ce jour pas identifiées. De plus, ajoute la Cnil, jouer la carte des dérogations n’est pas une réponse viable : elles doivent rester des dérogations, c’est-à-dire des exceptions.
Pour cette dernière remarque, la Cnil mentionne les observations du Comité européen de la protection des données, dont elle est membre, et qui raisonnait en citant soit le cas d’un fournisseur de services via le cloud soit le cas d’un sous-traitant qui « dans le cadre de leurs prestations, ont la nécessité d’accéder aux données en clair ou possèdent les clefs de chiffrement. »
Cette situation fait donc dire à la Cnil qu’il « est nécessaire que le risque d’un accès illégal par les autorités américaines à ces données soit écarté ». Mais parce qu’il n’est pas évident de basculer d’un claquement de doigts tout l’écosystème de l’enseignement supérieur et de la recherche, et parce qu’il existe encore une crise sanitaire à cause du coronavirus, la Cnil admet le besoin « d’une période transitoire. »
La Cnil se dit disponible pour « identifier des alternatives possibles ». Des pistes existent du côté des logiciels libres, à l’image de Framasoft ou LibreOffice. Il reste à déterminer quelles décisions seront prises à la suite de l’appel de la Cnil et, si l’offre est au niveau, car la commodité d’emploi, la disponibilité et l’éventail des fonctionnalités l’emportent parfois sur toute autre considération.
Nettoyons le Web !
par Aral Balkan
Développeurs, développeuses, c’est le moment de choisir votre camp :
voulez-vous contribuer à débarrasser le Web du pistage hostile à la confidentialité, ou bien allez-vous en être complices ?
Que puis-je faire ?
�️ Supprimer les scripts tiers de Google, Facebook, etc.
À commencer par Google Analytics (un des pisteurs les plus répandus dans le monde), YouTube videos, Facebook login widgets, etc.
Ces scripts permettent à des éleveurs de moutons numériques comme Google et Facebook de pister les utilisatrices d’un site à l’autre sur tout le Web. Si vous les incorporez à votre site, vous êtes complice en permettant ce pistage par des traqueurs.
Et oui, ça inclut aussi ces saloperies de Google AMP.
�️ Envoyer balader Google et son FLoC !
Face à la pression montante des mécontents, Google a annoncé qu’il allait à terme bloquer les traqueurs tiers dans son navigateur Chrome. Ça a l’air bien non ? Et ça l’est, jusqu’à ce que l’on entende que l’alternative proposée est de faire en sorte que Chrome lui-même traque les gens sur tous les sites qu’ils visitent…sauf si les sites lui demandent de ne pas le faire, en incluant le header suivant dans leur réponse :
Permissions-Policy : interest-cohort=()
Bon, maintenant, si vous préférez qu’on vous explique à quel point c’est un coup tordu…
Aucune page web au monde ne devrait avoir à supplier Google : « s’il vous plaît, monsieur, ne violez pas la vie privée de la personne qui visite mon site » mais c’est exactement ce que Google nous oblige à faire avec sa nouvelle initiative d’apprentissage fédéré des cohortes (FLoC).
(Si jamais vous avez du mal à retenir le nom, n’oubliez pas que « flock » veut dire « troupeau » en anglais, comme dans « troupeau de moutons, » parce que c’est clairement l’image qu’ils se font de nous chez Google s’ils pensent qu’on va accepter cette saloperie.
Donc c’est à nous, les développeurs, de coller ce header dans tous les serveurs web (comme nginx, Caddy, etc.), tous les outils web (comme WordPress, Wix, etc.)… bref dans tout ce qui, aujourd’hui, implique une réponse web à une requête, partout dans le monde.
Notre petit serveur web, Site.js, l’a déjà activé par défaut.
Ça a pris cinq minutes à mettre en place.
Vous pouvez le faire.
Pour en savoir plus sur le FLoC de Google vous pouvez lire cet article du Framablog (en français) et cet article de l’EFF (en anglais).
Si jamais il y a des politiciens qui ont les yeux ouverts en ce 21e siècle et qui ne sont pas trop occupés à se frotter les mains ou à saliver à l’idée de fricoter, voire de se faire embaucher par Google et Facebook, c’est peut-être le moment de faire attention et de faire votre putain de taf pour changer.)
�️ Arrêter d’utiliser Chrome et conseiller aux autres d’en faire autant, si ça leur est possible.
Rappelons qui est le méchant ici : c’est Google (Alphabet, Inc.), pas les gens qui pour de multiples raisons pourraient être obligés d’utiliser le navigateur web de Google (par exemple, ils ne savent pas forcément comment télécharger et installer un nouveau navigateur, ou peuvent être obligés de l’utiliser au travail, etc.)
Donc, attention de ne pas vous retrouver à blâmer la victime, mais faites comprendre aux gens quel est le problème avec Google (« c’est une ferme industrielle pour les êtres humains ») et conseillez-leur d’utiliser, s’ils le peuvent, un navigateur différent.
Malheureusement, dans l’état actuel des choses, il n’y a pas de navigateur parfait. Firefox, par exemple, est une option viable mais il ne faut pas oublier que Mozilla n’existe que parce que Google les rémunère à peu près un demi-milliard de dollars par an pour en faire le moteur de recherche par défaut sur leur navigateur. Dans le même ordre d’idées, Safari est une bonne option sur Apple mais n’oublions pas que même Apple laisse Google violer notre vie privée en échange de quelques milliards (à la différence de Mozilla, Apple n’a pas besoin de cet argent pour survivre, mais ce qui est sûr c’est qu’ils veulent en profiter.) Brave pourrait sembler le choix le plus judicieux jusqu’à ce qu’on se rende compte que le business model de Brave repose sur la vente de votre attention. Sous Linux, GNOME Web est un bon choix mais ne perdez pas de vue que Google est un membre rémunéré à part entière du Comité consultatif de GNOME…
C’est décourageant de voir les tentacules de ce foutu monstre marin s’étendre partout et s’il a jamais été temps de créer une organisation indépendante financée par des fonds publics pour mettre au point un navigateur sans cochonnerie, c’est le moment.
�️ Protégez-vous et montrez aux autres comment en faire autant
Même si les bloqueurs de traqueurs sont en train de perdre au jeu du chat et de la souris (cf. par exemple FLoC ci-dessus), ils restent encore utiles pour protéger la vie privée des gens. Nous en proposons un qui s’appelle Better Blocker à la Small Technology Foundation. Nous recommandons également l’excellente extension uBlock Origin. (Et nous proposons une version des règles de blocage de Better que vous pouvez utiliser sur UBlock Origin.)
�️ Découvrir et utiliser des solutions alternatives.
Apprenez à connaître et à utiliser les alternatives. Les sites suivant sont des mines de ressources :
Good Reports
Switching Software
�️ Passez le mot !
Pointez vers cette page avec les hashtags #CleanUpTheWeb et#FlocOffGoogle.
�️ Choisissez un autre business model
En fin de compte, on peut résumer les choses ainsi : si votre business model est fondé sur le pistage et le profilage des gens, vous faites partie du problème.
Les mecs de la tech dans la Silicon Valley vous diront qu’il n’y a pas d’autre façon de faire de la technologie que la leur.
C’est faux.
Ils vous diront que votre « aventure extraordinaire » commence par une startup financée par des business angels et du capital risque et qu’elle se termine soit quand vous êtes racheté par un Google ou un Facebook, soit quand vous en devenez un vous-même. Licornes et compagnie…
Vous pouvez créer de petites entreprises durables. Vous pouvez créer des coopératives. Vous pouvez créer des associations à but non lucratif, comme nous.
Et au sein de ces structures alternatives qui n’ont pas l’obsession de tout savoir sur tout le monde ni de générer de la croissance infinie avec des ressources finies, vous pouvez produire des outils qui font ce qui est dit sur l’étiquette et rien d’autre.
Si vous vous demandez ce qui vous rend heureux, est-ce que ce n’est pas ça, par hasard ?
Est-ce que vous voulez devenir milliardaire ? Est-ce que vous avez envie de traquer, de profiler, de manipuler les gens ? Ou est-ce que vous avec juste envie de faire de belles choses qui améliorent la vie des gens et rendent le monde plus équitable et plus sympa ?
Nous faisons le pari que vous préférez la seconde solution.
Si vous manquez d’inspiration, allez voir ce qui se fait chez Plausible, par exemple, et comment c’est fait, ou chez HEY, Basecamp, elementary OS, Owncast, Pine64, StarLabs, Purism, ou ce à quoi nous travaillons avec Site.js et le Small Web… vous n’êtes pas les seuls à dire non aux conneries de la Silicon Valley
Là où ils voient grand, voyons petit.
Parce que small is beautiful.
Les « conditions juridiques nécessaires » ne « semblent pas réunies » pour confier le mégafichier des données de santé françaises « à une entreprise non soumise exclusivement au droit européen », a estimé vendredi l’Assurance maladie, désignant ainsi implicitement Microsoft. La pilule ne passe toujours pas : saisi une nouvelle fois pour avis, sur le projet de décret devant graver dans le marbre les « modalités de mise en oeuvre » du gigantesque « système national des données de santé », le conseil d’administration de la Caisse nationale d’Assurance maladie (CNAM) ne s’est pas privé d’exprimer ses désaccords.
« Les conditions juridiques nécessaires à la protection de ces données ne semblent pas réunies pour que l’ensemble de la base principale soit mise à disposition d’une entreprise non soumise exclusivement au droit européen (…) indépendamment de garanties contractuelles qui auraient pu être apportées », écrit cette instance dans une délibération adoptée à l’unanimité des membres qui ont pris position. La charge vise évidemment le géant américain Microsoft, choisi sans appel d’offres début 2019 pour héberger le Health Data Hub, gestionnaire désigné de ce fichier agrégeant les données de la Sécu, des hôpitaux ou des soignants libéraux, entre autres.
« Seul un dispositif souverain et uniquement soumis au RGPD (le règlement européen qui garantit aux usagers certains droits sur leurs données, ndlr) permettra de gagner la confiance des assurés », ajoute le conseil d’administration. L’instance juge qu’en attendant cette solution, les données « ne seraient mises à disposition du Health Data Hub qu’au cas par cas », uniquement pour « des recherches nécessaires à la prévention, au traitement et à la prise en charge de la Covid-19 ».
Google sait où vous êtes, les annonceurs aussi.
Avec un milliard d'utilisateurs actifs par mois, Google Maps sait tout. Non seulement les noms de toutes les rues, cafés, bars et magasins, mais aussi les endroits où les gens se rendent. Mais s’il a le pouvoir de suivre chacun de nos pas, cela ne veut pas forcément dire qu'il abuse de ce pouvoir. Mais il pourrait le faire s’il le voulait, ce qui est un problème en soi, d'autant plus que le siège de Google se trouve aux États-Unis, où la législation sur la vie privée est moins stricte qu'en Europe et où les agences de renseignement ont l'habitude de surveiller les particuliers (on vous voit, la NSA).
Oui, Google Maps est incroyablement utile. Mais voici quelques raisons qui vous inciteront à vérifier vos paramètres de confidentialité et à vous demander quelle quantité de données personnelles vous êtes prêt à sacrifier au nom de la commodité.
Dans les paramètres, il est dit que l’option « Activité sur le Web et les applications » permet à l’utilisateur de bénéficier d’une expérience plus rapide et plus personnalisée. En clair, cela signifie que chaque endroit que vous consultez dans l'application – qu'il s'agisse d'un club de strip-tease, d'un kebab ou de la localisation de votre dealer – est enregistré et intégré dans l'algorithme du moteur de recherche de Google pendant une période de 18 mois.
Google sait bien que tout cela est un peu flippant. C'est pourquoi l'entreprise utilise des dark patterns, c'est-à-dire des interfaces utilisateur conçues pour nous tromper ou nous manipuler, par exemple en mettant en évidence une option avec certaines polices ou des couleurs plus vives.
Nous avons donc créé un nouveau compte Google pour tenter de repérer ces dark patterns. Après avoir cliqué sur « Créer un compte », une fenêtre pop-up nous indique que le compte est « configuré pour inclure des fonctions de personnalisation » en petites lettres grises. En cliquant sur « Confirmer », nous acceptons d’activer l’option « Activité sur le Web et les applications » mentionnée ci-dessus. L’autre bouton, « Plus d'options », est moins visible et redirige vers une nouvelle page avec des explications denses et compliquées. Nous devons désactiver l’option manuellement.
Si vous ouvrez l’application Google Maps, vous verrez un cercle avec votre photo de profil dans le coin supérieur droit qui indique que vous êtes connecté à votre compte Google. Ce n'est pas nécessaire, et il vous suffit de vous déconnecter. Évidemment, le bouton pour se déconnecter de votre compte est légèrement caché, mais vous pouvez le trouver comme ceci : cliquez sur le cercle > Paramètres > faites défiler vers le bas > Se déconnecter de Google Maps.
Autre fonctionnalité problématique : « Vos trajets Google Maps » qui « affiche une estimation des lieux que vous avez visités et des itinéraires que vous avez empruntés d’après l’historique de vos positions. » Cette fonction vous permet de consulter les informations figurant dans vos trajets, y compris les modes de transports utilisés, comme en voiture ou à vélo. L'inconvénient, bien sûr, est que tous vos déplacements sont connus de Google et de toute personne ayant accès à votre compte.
Et il n’y a pas seulement les hackers dont vous devez vous méfier ; Google peut aussi fournir vos données à des agences gouvernementales comme la police. Sur sa page FAQ à ce sujet, Google indique que son équipe juridique évalue chaque cas individuellement. Tous les six mois, l'entreprise publie un rapport de transparence, mais rien n'est disponible pour 2020. Entre juillet et décembre 2019, Google a reçu 81 785 demandes de divulgation d'informations concernant 175 715 comptes dans le monde entier et a répondu favorablement à 74 % d’entre elles.
Si votre « historique des positions » est activé, votre téléphone « indique les positions des appareils sur lesquels vous êtes connecté à votre compte ». Cette fonction est utile si vous perdez votre téléphone, mais elle en fait surtout un véritable dispositif de suivi.
Les avis Google peuvent être très utiles, mais une recherche rapide peut révéler des informations sensibles que les utilisateurs ont oubliées par inadvertance. Un exemple est celui d'un utilisateur (qui semble utiliser son vrai nom) qui a écrit la critique suivante sur un supermarché à Berlin : « Depuis quatre ans, j'y vais deux ou trois fois par semaine pour faire les courses pour ma famille. » Il va sans dire que le fait de partager ce type d'informations avec tout le monde peut être risqué.
Google Maps demande souvent aux utilisateurs de partager une évaluation publique rapide. « Comment était le Berlin Burger ? », demande l’application après votre dîner. Cette question a priori désinvolte et légère donne l’impression d’aider les autres, mais toutes ces informations sont stockées sur votre profil Google et toute personne qui le lira pourra facilement savoir si vous avez été quelque part pendant une courte période (par exemple en vacances) ou si vous vivez à proximité.
Si vous finissez par regretter un avis, Google vous donne au moins la possibilité de le rendre privé après l’avoir publié. Pour ce faire : Photo de profil > Modifier le profil > Profil et confidentialité > Faites défiler vers le bas > Profil limité. Si vous activez cette option, vous devrez approuver les personnes qui peuvent suivre votre profil et voir vos avis.
Vous vous souvenez de la navigation GPS ? Elle était peut-être maladroite et lente, mais il n’était pas nécessaire d'être connecté à Internet pour être dirigé. En fait, d'autres applications offrent une navigation sans connexion Internet. Dans l'application Google, vous pouvez télécharger les cartes, mais la navigation hors ligne n'est disponible que pour les voitures. Il semble assez improbable que le géant de la technologie ne soit pas en mesure de guider les piétons et les cyclistes sans Internet.
« La mission de Google consiste à proposer des expériences utiles et enrichissantes, pour lesquelles les données de localisation jouent un rôle essentiel », explique l'entreprise sur son site. Elle utilise ces données pour toutes sortes de choses utiles, comme la « sécurité » ou les « paramètres linguistiques ». Et, bien sûr, pour vendre des annonces. Google offre également aux annonceurs la possibilité de « mesurer le degré de notoriété de leur marque ».
Parfois, il existe de bonnes alternatives aux applications problématiques. C'est vrai pour WhatsApp, par exemple, mais pas pour Google Maps. Apple Maps a une politique de confidentialité plus stricte, mais elle n'est pas disponible pour Android. Des applications comme Here WeGo collectent aussi des données et ne sont pas aussi bonnes, mais si vous êtes un marcheur qui préfère rester hors ligne, OsmAnd et Maps.me peuvent au moins vous montrer le chemin sans passer par Internet.
La CNIL a adopté des lignes directrices modificatives ainsi qu’une recommandation portant sur l’usage de cookies et autres traceurs. L’évolution des règles applicables marque un tournant pour les internautes, qui pourront désormais exercer un meilleur contrôle sur les traceurs en ligne.
01 octobre 2020
L’article 82 de la loi Informatique et Libertés transpose en droit français l’article 5.3 de la directive 2002/58/CE « vie privée et communications électroniques » (ou « ePrivacy »). Il prévoit notamment l’obligation, sauf exception, de recueillir le consentement des internautes avant toute opération d’écriture ou de lecture de cookies et autres traceurs.
En 2013, la CNIL adoptait une première recommandation pour guider les acteurs dans la mise en œuvre des textes régissant à l’époque les opérations de lecture et d’écritures par des cookies.
Le 25 mai 2018, l’entrée en application du règlement général sur la protection des données (RGPD) est venue renforcer les exigences en matière de validité du consentement, rendant obsolète une partie de cette recommandation.
Dans le cadre de son plan d’action sur le ciblage publicitaire, la CNIL a donc entrepris d’actualiser en deux temps ses cadres de référence.
Le 4 juillet 2019, la CNIL a ainsi adopté des lignes directrices rappelant le droit applicable. Celles-ci ont été ajustées le 17 septembre 2020 pour tirer les conséquences de la décision rendue le 19 juin 2020 par le Conseil d’Etat.
En parallèle, la CNIL a également décidé d’établir, à l’issue d’une concertation avec les professionnels et la société civile, un projet de recommandation. Sans être prescriptive, la recommandation joue le rôle de guide pratique destiné à éclairer les acteurs utilisant des traceurs sur les modalités concrètes de recueil du consentement de l’internaute.
Ce projet a été soumis, le 14 janvier dernier, à une consultation publique, dont les apports ont permis d’enrichir la version finalement adoptée le 17 septembre 2020.
L’évolution des règles applicables
L’évolution des règles applicables, clarifiées par les lignes directrices et la recommandation, marque un tournant tant pour le secteur de la publicité en ligne que pour les internautes, qui pourront désormais exercer un meilleur contrôle sur les traceurs en ligne.
la simple poursuite de la navigation sur un site ne peut plus être considérée comme une expression valide du consentement de l’internaute ;
les personnes doivent consentir au dépôt de traceurs par un acte positif clair (comme le fait de cliquer sur « j’accepte » dans une bannière cookie). Si elles ne le font pas, aucun traceur non essentiel au fonctionnement du service ne pourra être déposé sur leur appareil.
Les utilisateurs devront être en mesure de retirer leur consentement, facilement, et à tout moment.
Refuser les traceurs doit être aussi aisé que de les accepter.
- elles doivent clairement être informées des finalités des traceurs avant de consentir, ainsi que des conséquences qui s’attachent à une acceptation ou un refus de traceurs ;
- elles doivent également être informées de l’identité de tous les acteurs utilisant des traceurs soumis au consentement.
Les organismes exploitant des traceurs doivent être en mesure de fournir, à tout moment, la preuve du recueil valable du consentement libre, éclairé, spécifique et univoque de l’utilisateur.
Certains traceurs sont cependant exemptés du recueil de consentement, comme par exemple les traceurs destinés à l’authentification auprès d’un service, ceux destinés à garder en mémoire le contenu d’un panier d’achat sur un site marchand, certains traceurs visant à générer des statistiques de fréquentation, ou encore ceux permettant aux sites payants de limiter l’accès gratuit à un échantillon de contenu demandé par les utilisateurs.
Les recommandations de la CNIL
Par ailleurs la CNIL recommande que l’interface de recueil du consentement ne comprenne pas seulement un bouton « tout accepter » mais aussi un bouton « tout refuser ».
Elle suggère que les sites internet, qui généralement conservent pendant une certaine durée le consentement aux traceurs, conservent également le refus des internautes pendant une certaine période, afin de ne pas réinterroger l’internaute à chacune de ses visites.
En outre, pour que l’utilisateur soit bien conscient de la portée de son consentement, la CNIL recommande que, lorsque des traceurs permettent un suivi sur des sites autres que le site visité, le consentement soit recueilli sur chacun des sites concernés par ce suivi de navigation.
Afin de répondre aux questions des acteurs concernés et des internautes, la CNIL propose une FAQ accompagnement la publication des lignes directrices et de la recommandation.
Vers une mise en conformité des acteurs concernés
La CNIL invite tous les acteurs concernés à s’assurer de la conformité de leurs pratiques aux exigences du RGPD et de la directive ePrivacy.
Comme elle l’avait annoncé, elle estime que le délai de mise en conformité aux nouvelles règles ne devra pas dépasser six mois, soit au plus tard fin mars 2021.
Si la CNIL tiendra compte des difficultés opérationnelles des opérateurs pendant cette période durant laquelle elle privilégiera l’accompagnement sur les contrôles, elle se réserve la possibilité, conformément à la jurisprudence du Conseil d’Etat, de poursuivre certains manquements, notamment en cas d'atteinte particulièrement grave au droit au respect de la vie privée (CE, 16 octobre 2019, n° 433069, Rec.). En outre, la CNIL continuera à poursuivre les manquements aux règles relatives aux cookies antérieures à l’entrée en vigueur du RGPD, éclairées par sa recommandation du 5 décembre 2013.
SauteNuage est un site qui traite de la vie privée sur internet. Il explique simplement pourquoi et comment vous échapper du pistage et autres atteintes à la vie privée sur internet à travers des guides colorés dans une interface très épurée.
Le site est divisé en 2 catégories :
Dans la première catégorie, on trouve des articles comme :
Dans la seconde catégorie, on trouve d'autres thèmes comme :
L'auteur a aussi prévu des guides (appelés Nuages) pour vous guider étape par étape pour améliorer votre vie privée sur internet. Pour l'instant, seul le Nuage 1 (guide 1) est paru, le Nuage 2 (guide 2) est prévu pour plus tard.
Ce site est un peu mystérieux car on ne sait pas qui en est l'auteur et il n'y a pas de page "A propos", comme de coutume sur la plupart des sites web. Les articles n'en demeurent pas moins intéressants, mais le fait qu'il n'y ait aucune info sur le site et l'auteur des articles est un peu surprenant.
Une note interne du Pentagone avertit les soldats américains des dangers des tests génétiques. Les données des militaires pourraient fuiter et être utilisées par des gouvernements hostiles aux États-Unis.
“Donner des informations détaillées sur son patrimoine génétique à des sociétés privées peut avoir de graves conséquences pour les forces militaires”, avertit une note interne du Pentagone dévoilée par le site Yahoo News. Les plus hauts gradés de l’armée américaine estiment que les données génétiques collectées par des entreprises comme 23 And Me, ne sont pas régulées et pourraient être revendues ou fuiter vers des gouvernements hostiles aux États-Unis.
Si le Pentagone ne détaille pas plus précisément les menaces sur la diffusion de ces données génétiques, certains scénarios possibles sont décrits dans cette note interne. Des agences d’espionnage étrangères pourraient avoir accès à des données compromettantes sur un officier américain comme une maladie héréditaire par exemple et le faire chanter pour qu’il soit obligé de donner des informations clefs à l’ennemi. Une inquiétude fondée. En février 2019, l’entreprise FamilyTreeDNA a révélé qu’elle laissait régulièrement le FBI fouiller dans ses banques de données de ses clients afin de résoudre plus facilement des crimes. Les clients FamilyTreeDNA n’avaient jamais donner leur accord pour que leurs données soient partagées.
Les hauts gradés de l’US Army affirment également que les kits pour analyser son patrimoine génétique peuvent donner des résultats imprécis sur des prédispositions à certaines maladies. Ces données erronées pourraient engendrer de faux diagnostics sur la condition médicale d’un militaire et peut-être freiner sa carrière. Certains officiers appellent même à une loi visant à mieux réguler ces entreprises de tests génétiques pour éviter de futures fuites et de mieux protéger la vie privée des citoyens américains.
Vous avez sans doute vu défiler des annonces du Black Friday vous invitant à acheter des produits de toute sorte. Si vous vous êtes résolu à acheter une (nouvelle) smart TV, le FBI voudrait que vous sachiez un certain nombre de choses.
Les smart TV ressemblent aux téléviseurs ordinaires, mais disposent de la possibilité de se connecter à Internet. Plusieurs vont se tourner vers la télévision connectée pour avoir accès à des services de streaming comme Netflix, Hulu, Amazon Prime Video et d’autres. Mais, comme tout ce qui se connecte à Internet, les vulnérabilités des smart TV sont donc ouvertes aux hackers. De plus, de nombreuses smart TV sont équipées d'une caméra et d'un microphone. Pourtant, comme pour la plupart des autres appareils connectés à Internet, les fabricants ne mettent souvent pas la sécurité en priorité.
C’est l'un des points sur lesquels le bureau du FBI à Portland a publié un avertissement sur son site Web.
« Un certain nombre de téléviseurs récents ont également des caméras intégrées. Dans certains cas, les caméras sont utilisées pour la reconnaissance faciale afin que le téléviseur sache qui est en train de regarder les programmes pour adapter le contenu et réaliser des propositions. Certains de ses appareils permettent également de réaliser des appels vidéo.
« Outre le risque que votre fabricant de télévision et les développeurs d'applications vous écoutent et vous regardent, la télévision peut également être une passerelle pour que les pirates pénètrent dans votre maison. Un cyberacteur malveillant peut ne pas être en mesure d'accéder directement à votre ordinateur verrouillé, mais il est possible que votre téléviseur non sécurisé lui permette d'accéder facilement à la porte dérobée via votre routeur.
« Les pirates peuvent également prendre le contrôle de votre téléviseur non sécurisé. Au bas du spectre des risques, ils peuvent changer de chaîne, jouer avec le volume et montrer à vos enfants des vidéos inappropriées. Dans le pire des cas, ils peuvent allumer la caméra et le microphone de votre téléviseur et vous espionner ».
Les attaques actives et les exploits contre les téléviseurs connectés sont rares, mais pas inconnus. Étant donné que chaque téléviseur intelligent connecté est livré avec le logiciel de son fabricant et est à la merci de son programme de correctifs de sécurité irrégulier et souvent peu fiable, certains appareils sont plus vulnérables que d’autres. Plus tôt cette année, des hackers ont montré qu’il était possible de détourner la Google Chromecast et de diffuser des vidéos au hasard à des milliers de victimes.
En fait, certains des plus grands exploits ciblant les télévisions connectées de ces dernières années ont été développés par la CIA, mais ont été volés. Les fichiers ont ensuite été publiés en ligne par WikiLeaks.
Cependant, même si l’avertissement du FBI répond à de véritables craintes, l’un des problèmes les plus importants qui devraient en susciter autant, sinon davantage, est le nombre de données de suivi collectées sur les propriétaires de téléviseurs intelligents.
Le Washington Post, plus tôt cette année, a constaté que certains des fabricants de téléviseurs intelligents les plus populaires, y compris Samsung et LG, collectent des tonnes d'informations sur ce que les utilisateurs regardent afin d'aider les annonceurs à mieux cibler leurs publicités et à suggérer des contenus à suivre, par exemple. Le problème de la retransmission télévisée est devenu si problématique il y a quelques années que le fabricant de téléviseurs intelligents Vizio a dû payer une amende de 2,2 millions de dollars après avoir été surpris en train de collecter secrètement les données de visionnage. Plus tôt cette année, un recours collectif séparé lié à la poursuite de Vizio a été autorisé malgré la demande de l'entreprise.
Les téléviseurs et la technologie occupent une place importante dans nos vies et ne sont pas près de disparaître. Aussi, le FBI a fait une série de recommandations pour vous aider à mieux protéger votre famille :
Sachez exactement quelles sont les fonctionnalités de votre téléviseur et comment les contrôler. Effectuez une recherche Internet de base avec votre numéro de modèle et les mots « microphone », « caméra » et « confidentialité ».
Ne dépendez pas des paramètres de sécurité par défaut. Modifiez les mots de passe si vous le pouvez. Sachez, si possible, désactiver les microphones, les appareils photo et la collecte des informations personnelles. Si vous ne pouvez pas les désactiver, déterminez si vous êtes prêt à prendre le risque d’acheter ce modèle ou d’utiliser ce service.
Si vous ne pouvez pas éteindre une caméra, mais souhaitez le faire, un simple morceau de ruban noir sur l’œil de la caméra est une option de retour aux sources.
Vérifiez la capacité du fabricant à mettre à jour votre appareil avec des correctifs de sécurité. Peuvent-ils le faire ? L'ont-ils fait dans le passé ?
Vérifiez la politique de confidentialité du fabricant de téléviseurs et les services de streaming que vous utilisez. Confirmez quelles données ils collectent, comment ils les stockent et ce qu’ils en font.
Source : FBI
The FBI says owners of IoT (Internet of Things) devices should isolate this equipment on a separate WiFi network, different from the one they're using for their primary devices, such as laptops, desktops, or smartphones.
"Your fridge and your laptop should not be on the same network," the FBI's Portland office said in a weekly tech advice column. "Keep your most private, sensitive data on a separate system from your other IoT devices," it added.
The same advice -- to keep devices on a separate WiFi network or LAN -- has been shared in the past by multiple IT and security experts [1, 2, 3, 4].
The reasoning behind it is simple. By keeping all the IoT equipment on a separate network, any compromise of a "smart" device will not grant an attacker a direct route to a user's primary devices -- where most of their data is stored. Jumping across the two networks would require considerable effort from the attacker.
However, placing primary devices and IoT devices on separate networks might not sound that easy for non-technical users. The simplest way is to use two routers.
The smarter way is to use "micro-segmentation," a feature found in the firmware of most WiFi routers, which allows router admins to create virtual networks (VLANs). VLANs will behave as different networks; even they effectively run on the same router. A good tutorial on how you can create VLANs on your routers is available here.
While isolating IoT devices on their own network is the best course of action for both home users and companies alike, this wasn't the FBI's only advice on dealing with IoT devices. See below:
Change the device's factory settings from the default password. A simple Internet search should tell you how—and if you can't find the information, consider moving on to another product.
Passwords should be as long as possible and unique for IoT devices.
Many connected devices are supported by mobile apps on your phone. These apps could be running in the background and using default permissions that you never realized you approved. Know what kind of personal information those apps are collecting and say "no" to privilege requests that don't make sense.
Make sure all your devices are updated regularly. If automatic updates are available for software, hardware, and operating systems, turn them on.
Last week, the same FBI branch office in Portland also gave out similarly good advice on dealing with smart TVs by recommending that device owners put a piece of black tape over their smart TV's camera lens.
The FBI claimed that hackers who take over one of today's fully-featured smart television sets would be able to spy on device owners through the built-in cameras.
While this is prudent advice, it is worth mentioning that there have not been any known cases of this happening -- with hackers taking over a smart TV and spying on its owner.
Oui... à condition de protéger certaines données personnelles, a répondu le ministère de la Culture à la question écrite du sénateur Jean-Louis Masson (NI, Moselle). Décryptage de la réponse de la Rue de Valois.
Le parlementaire de Moselle Jean-Louis Masson s’interroge sur les conséquences de cette passion française pour la généalogie, plusieurs associations de généalogistes amateurs proposant aux communes « de numériser leurs documents d’état civil afin de permettre l’accès du plus grand nombre à ces documents ». Cette numérisation est-elle conforme au droit ? Le ministère de la Culture souligne tout d’abord que les actes de naissance et de mariage sont communicables à tous au terme de 75 ans. Quant aux actes de décès, ils le sont immédiatement, sauf si l’accès est -limité par le procureur de la République. « Les documents librement communicables peuvent être consultés par les généalogistes amateurs dans les institutions qui les conservent : mairies, greffes ou services départementaux d’archives, ajoute la Rue de Valois. La communication s’opère, au choix du demandeur, par consultation gratuite sur place ou par délivrance d’une copie.
Et rien ne s’oppose à ce que l’usager « reproduise lui-même les documents avec son propre matériel. Ces opérations de reproduction ne doivent cependant pas être autorisées si elles présentent un risque pour la conservation des registres originaux », précise le ministère, et « la reproduction doit se faire […] en prenant le plus grand soin des documents ».
La réutilisation des informations publiques obtenues est libre et gratuite. « Néanmoins, lorsque les documents reproduits comportent des données à caractère personnel, c’est-à-dire relatives à des personnes vivantes, leur traitement par les usagers et les associations généalogiques est soumis au réglement européen » de protection des données. Ainsi, « la plus grande vigilance s’impose s’agissant du traitement des actes d’état civil de personnes potentiellement vivantes, prévient le ministère. La Commission nationale de l’informatique et des libertés (Cnil) a interdit toute mise en ligne, par des opérateurs de généalogie, de fichiers-images et d’indexations nominatives d’actes de moins de 120 ans ou relatifs à des personnes nées depuis moins de 120 ans. »
Références
Réponse à Jean-Louis Masson, n° 7946, JO Sénat du 18 avril 2019
L’Association Interhop.org est une initiative de professionnels de santé spécialisés dans l’usage et la gestion des données de santé, ainsi que la recherche en machine learning dans de multiples domaines médicaux. Aujourd’hui, en leur donnant la parole sur ce blog, nous publions à la fois une alerte et une présentation de leur initiative.
En effet, promouvant un usage éthique, solidaire et intelligent des données de santé, Interhop s’interroge au sujet du récent projet Health Data Hub annoncé par le gouvernement français pour le 1er décembre prochain. Devons-nous sacrifier le bon usage des données de santé sur l’autel de la « valorisation » et sous l’œil bienveillant de Microsoft ? Tout comme dans l’Éducation Nationale des milliers d’enseignants tentent chaque jour de ne pas laisser le cerveaux de nos enfants en proie au logiciels fermés et addictifs, il nous appartient à tous de ne pas laisser nos données de santé à la merci de la recherche de la rentabilité au mépris de l’éthique et de la science.
Hold-up sur les données de santé, patients et soignants unissons-nous Par Interhop.org
La plateforme nationale des données de santé ou Health Data Hub, pour les plus américains d’entre nous, doit voir le jour d’ici la fin de l’année. Il s’agit d’un projet qui, selon le Ministère de la Santé, vise à « favoriser l’utilisation et de multiplier les possibilités d’exploitation des données de santé » en créant notamment « une plateforme technologique de mise à disposition des données de santé ».
Or, à la lecture du rapport d’étude qui en détermine les contours, le projet n’est pas sans rappeler de mauvais souvenirs. Vous rappelez-vous, par exemple, du contexte conduisant à la création de la CNIL (Commission nationale de l’informatique et des libertés) en 1978 en France ? L’affaire a éclaté en mars 1974, dans les pages du journal Le Monde. Il s’agissait de la tentative plus ou moins contrecarrée du projet SAFARI (Système Automatisé pour les Fichiers Administratifs et le Répertoire des Individus) visant à créer une banque de données de tous les citoyens français en interconnectant les bases de plusieurs institutions grâce à un numéro unique d’identification du citoyen : le numéro de Sécurité Sociale.
Ce scandale n’était pourtant pas inédit, et il ne fut pas le dernier… À travers l’histoire, toutes les tentatives montrent que la centralisation des données correspond à la fois à un besoin de gouvernement et de rentabilité tout en entamant toujours un peu plus le respect de nos vies privées et la liberté. L’histoire de la CNIL est jalonnée d’exemples. Quant aux motifs, ils relèvent toujours d’une très mauvaise habitude, celle de (faire) croire que la centralisation d’un maximum d’informations permet de les valoriser au mieux, par la « magie » de l’informatique, et donc d’être source de « progrès » grâce aux « entreprises innovantes ».
Concernant le « Health Data Hub », il s’agit d’un point d’accès unique à l’ensemble du Système National des Données de Santé (SNDS) issu de la solidarité nationale (cabinets de médecins généralistes, pharmacies, hôpitaux, Dossier Médical Partagé, registres divers et variés…). L’évènement semble si important qu’il a même été annoncé par le Président Macron en mars 2018. Par ailleurs, il est important de pointer que le SNDS avait été épinglé pour l´obsolescence de son système de chiffrement en 2017 par la CNIL.
De plus, l’infrastructure technique du Health Data Hub est dépendante de Microsoft Azure. Et ce point à lui seul soulève de grandes problématiques d’ordre éthique et réglementaire.
Alors que le Règlement Général sur la Protection des Données (RGPD) protège les citoyens européens d’un envoi de leurs données en dehors du territoire européen, la loi Américaine (Cloud Act) permet de contraindre tout fournisseur de service américain à transférer aux autorités les données qu’il héberge, que celles-ci soient stockées aux États-Unis ou à l’étranger.
Entre les deux textes, lequel aura le dernier mot ?
Les citoyens et patients français sont donc soumis à un risque fort de rupture du secret professionnel. La symbolique est vertigineuse puisque l’on parle d’un reniement du millénaire serment d’Hippocrate.
Le risque sanitaire d’une telle démarche est énorme. Les patients acceptent de se faire soigner dans les hôpitaux français et ils ont confiance dans ce système. La perte de confiance est difficilement réparable et risque d’être désastreuse en terme de santé publique.
C’est sous couvert de l’expertise et du « progrès » que le pouvoir choisit le Health Data Hub, solution centralisatrice, alors même que des solutions fédérées peuvent d’ores et déjà mutualiser les données de santé des citoyens Français et permettre des recherches de pointe. Bien que les hôpitaux français et leurs chercheurs œuvrent dans les règles de l’art depuis des années, il apparaît subitement que les données de santé ne sauraient être mieux valorisées que sous l’égide d’un système central, rassemblant un maximum de données, surveillant les flux et dont la gestion ne saurait être mieux maîtrisée qu’avec l’aide d’un géant de l’informatique : Microsoft.
Il est à noter que d’une part, il n’a jamais été démontré que le développement d’un bon algorithme (méthode générale pour résoudre un type de problèmes) nécessite une grande quantité de données, et que d’autre part, on attend toujours les essais cliniques qui démontreraient les bénéfices d’une application sur la santé des patients.
Pour aller plus loin, le réseau d’éducation populaire Framasoft, créé en 2001 et consacré principalement au développement de logiciels libres, veut montrer qu’il est possible d’impacter le monde en faisant et en décentralisant. C’est cette voie qu’il faut suivre.
La loi pour une République numérique fournit un cadre légal parfait pour initier des collaborations et du partage. La diffusion libre du savoir s’inscrit totalement dans la mission de service publique des hôpitaux telle qu’imaginée il y a des décennies par le Conseil National de la Résistance, puis par Ambroise Croizat lors de la création de la Sécurité Sociale.
On ne s’étonne pas que le site Médiapart ait alerté le 22 novembre dernier sur les conditions de l’exploitation des données de santé. Il est rappelé à juste titre que si la CNIL s’inquiète ouvertement à ce sujet, c’est surtout quant à la finalité de l’exploitation des données. Or, la récente Loi Santé a fait disparaître le motif d’intérêt scientifique pour ne garder que celui de l’intérêt général…
Quant à la confidentialité des données, confier cette responsabilité à une entreprise américaine semble être une grande erreur tant la ré-identification d’une personne sur la base du recoupement de données médicales anonymisées est en réalité plutôt simple, comme le montre un article récent dans Nature.
Ainsi, aujourd’hui en France se développe toute une stratégie visant à valoriser les données publiques de santé, en permettant à des entreprises (non seulement des start-up du secteur médical, mais aussi des assureurs, par exemple) d’y avoir accès, dans la droite ligne d’une idéologie de la privatisation des communs. En plus, dans le cas de Microsoft, il s’agit de les héberger, et de conditionner les technologies employées. Quant aux promesses scientifiques, elles disparaissent derrière des boîtes noires d’algorithmes plus ou moins fiables ou, disons plutôt, derrière les discours qui sous le « noble » prétexte de guérir le cancer, cherchent en fait à lever des fonds.
Le monde médical et hospitalier est loin de plier entièrement sous le poids des injonctions.
Depuis plusieurs années, les hôpitaux s’organisent avec la création d’Entrepôts de Données de Santé (EDS). Ceux-ci visent à collecter l’ensemble des données des dossiers des patients pour promouvoir une recherche éthique en santé. Par exemple, le projet eHop a réussi à fédérer plusieurs hôpitaux de la Région Grand Ouest (Angers, Brest, Nantes, Poitiers, Rennes, Tours). Le partage en réseau au sein des hôpitaux est au cœur de ce projet.
Par aller plus loin dans le partage, les professionnels dans les hôpitaux français reprennent l’initiative de Framasoft et l’appliquent au domaine de la santé. Ils ont donc créé Interhop.org, association loi 1901 pour promouvoir l’interopérabilité et « le libre » en santé.
L’interopérabilité des systèmes informatisés est le moteur du partage des connaissances et des compétences ainsi que le moyen de lutter contre l’emprisonnement technologique. En santé, l’interopérabilité est gage de la reproductibilité de la recherche, du partage et de la comparaison des pratiques pour une recherche performante et transparente.
L’interopérabilité est effective grâce aux standards ouverts d’échange définis pour la santé (OMOP et FHIR)
Comme dans le cas des logiciels libres, la décentralisation est non seulement une alternative mais aussi un gage d’efficacité dans le machine learning (ou « apprentissage automatique »), l’objectif visé étant de rendre la machine ou l’ordinateur capable d’apporter des solutions à des problèmes compliqués, par le traitement d’une quantité astronomique d’informations.
La décentralisation associée à l’apprentissage fédéré permet de promouvoir la recherche en santé en préservant, d’une part la confidentialité des données, d’autre part la sécurité de leur stockage. Cette technique permet de faire voyager les algorithmes dans chaque centre partenaire sans mobiliser les données. La décentralisation maintient localement les compétences (ingénieurs, soignants) nécessaires à la qualification des données de santé.
La solidarité, le partage et l’entraide entre les différents acteurs d’Interhop.org sont les valeurs centrales de l’association. Au même titre qu’Internet est un bien commun, le savoir en informatique médical doit être disponible et accessible à tous. Interhop.org veut promouvoir la dimension éthique particulière que reflète l’ouverture de l’innovation dans le domaine médical et veut prendre des mesures actives pour empêcher la privatisation de la médecine.
Les membres d’Interhop.org s’engagent à partager librement plateforme technique d’analyse big data, algorithmes et logiciels produits par les membres. Les standards ouverts d’échange sont les moyens exclusifs par lesquels ils travaillent et exposent leurs travaux dans le milieu de la santé. Les centres hospitaliers au sein d’Interhop.org décident de se coordonner pour faciliter et agir en synergie.
L’interconnexion entre le soin et la recherche est de plus en plus forte. Les technologies développées au sein des hôpitaux sont facilement disponibles pour le patient.
L’Association Interhop.org veut prévenir les risques de vassalisation aux géants du numériques en facilitant la recherche pour une santé toujours améliorée. L’expertise des centres hospitaliers sur leurs données, dans la compréhension des modèles et de l’utilisation des nouvelles technologies au chevet des patients, est très importante. Le tissu d’enseignants-chercheurs est majeur. Ainsi en promouvant le Libre, les membres d’Interhop.org s’engagent pour une santé innovante, locale, à faible coût et protectrice de l’intérêt général.
Les données de santé sont tout à la fois le bien accessible et propre à chaque patient et le patrimoine inaliénable et transparent de la collectivité. Il est important de garder la main sur les technologies employées. Cela passe par des solutions qui privilégient l’interopérabilité et le logiciel libre mais aussi le contrôle des contenus par les patients.
Sans aucun consentement de la part des patients, Google a récupéré en toute discrétion des millions de données médicales aux USA.
C'est un nouveau scandale qui s'annonce : le Wall Street Journal et Forbes évoquent dans leurs colonnes que Google aurait mis la main sur "des données médicales de millions d'Américains à travers 21 États" sans avoir obtenu le consentement des patients.
Car il ne s'agit pas là de données récoltées par l'application Google Fit de la marque, mais de données véritablement sensibles récupérées à travers un partenariat noué avec un assureur privé. Les données sont issues du projet Nightingale et proviennent de laboratoires, de médecins ou d'hôpitaux. Pour certains patients, les données correspondraient à l'historique complet de santé intégrant leur nom, date de naissance...
C'est Ascension, un assureur privé aux États-Unis qui a partagé ces informations avec Google. Le partenariat permet à Google d'accéder aux données des assurés pour développer et proposer un outil permettant à ces derniers de mieux retrouver les données des patients à l'aide d'un moteur de recherche doté d'intelligence artificielle.
Malgré tout, la situation pose un sérieux problème sur la capacité de Google à gérer ces données sensibles et à y avoir accès notamment parce que les médecins et patients n'ont jamais donné leur accord. Par ailleurs, 150 salariés de Google auraient eu accès à ces données pour un traitement manuel.
Pointé du doigt, Google tente de désamorcer la situation en expliquant sur son blog avoir obtenu les autorisations nécessaires et précise que les données en questions sont par ailleurs déjà partagées par l'assureur pour d'autres objectifs. Google assure ne pas stocker les données de son côté... Reste à savoir si l'explication sera suffisante pour les concernés.