PROJET AUTOBLOG


Pixellibre.net

Site original : Pixellibre.net

⇐ retour index

Pourquoi revendre ses données personnelles est une énorme c…

mardi 30 janvier 2018 à 14:03

Le Think-tank Génération Libre vient de publier un rapport sur les données personnelles. Dans ce dernier, particulièrement libéral, les auteurs proposent « d’instaurer une patrimonialité des données personnelles », un « droit de propriété sur les données », afin de pouvoir vendre, ou non, ses données personnelles.

Nous allons nous demander si l’idée de monétiser ses données personnelles est bonne ou pas. Spoiler : c’est une aberration.

Données personnelles, c’est-à-dire ?

Pour commencer, il est nécessaire de se demander à quoi « données personnelles » se réfère. La réponse, vous allez le voir, n’est pas si simple.

On retrouve la définition des données personnelles « réglementaire », à savoir « toute donnée qui permet directement ou indirectement d’identifier un individu ». Pêle-mêle, on parle de votre âge, votre sexe, du lieu de naissance, de votre adresse, de tout ce qui a un rapport direct ou indirect à vous.

Indirect signifie qu’il est également question des métadonnées, qui sont, pour rappel, « toutes les données qui gravitent autour du contenu principal, de la donnée » : l’heure d’envoi d’un sms, le temps passé à un endroit, la fréquence de contact avec une personne, le temps d’un appel, la destination d’un message, vos données de navigation, etc. Ces éléments permettant une identification indirecte.

Le caractère indirect des données personnelles doit nous faire prendre conscience d’une chose : certaines données « personnelles » sont davantage des données « communes », reliées à d’autres personnes que vous.

Partant de ce principe, revendre des données personnelles revient, parfois, voire souvent, à vendre aussi celles des autres. Or, vous n’êtes pas en droit de décider pour d’autres personnes, encore moins quand-il est question de revente…

Une donnée personnelle, ça vaut combien ?

C’est une question à laquelle il n’y a pas de réponse. Certains s’accordent à dire que la revente de vos données personnelles rapporterait une dizaine d’euros par ans, au mieux.

Il faut comprendre que vos données, seules, et sauf votre respect, ne sont pas intéressantes. Non pas qu’on se fiche de votre vie, mais c’est la somme des données et le croisement de ces dernières qui est intéressant, rien d’autre. Un système devient intéressant s’il est basé  sur des milliers de données, alors bon, vos données et uniquement vos données, « on s’en moque ». Pensez global et non individuel.

Définir la valeur d’une donnée personnelle est d’autant plus compliqué qu’en fonction de l’usage ou de l’instant, elle peut avoir plus ou moins de valeur : votre géolocalisation n’intéressera que très peu un acteur X, mais énormément un acteur Y.

Faudrait-il vendre deux fois ses données, à deux prix différents, à deux entreprises différentes ?

On commence à entrevoir l’énorme problème technique créé par cette idée de revente des données personnelles.

Qui dit revente, dit contractualisation de l’échange, donc acte inscrit « dans le marbre ». Or, qui rédigera le contrat ? Sera-t-il possible de le modifier ? Existera-t-il des clauses permettant de revenir en arrière et, si oui, seront-elles vraiment efficaces ? Et que faire si je ne veux plus que mes données soient utilisées ?

Il est encore possible de se demander si la cession des données personnelles à, disons, Facebook, ne vas pas aussi concerner Instagram ou WhatsApp.

Que faire si je décide de vendre mes données à Facebook mais pas à Instagram ou WhatsApp ?

Bref, un gros problème insoluble, si ce n’est en multipliant les contrats partout, en direct ou via des intermédiaires, avec les marques et les GAFA.

N’oublions pas non plus que contractualiser cette revente signifie lire des documents. La majorité des utilisateurs ne lisent pas les conditions générales d’utilisations, faute de temps et parfois, de capacité, certaines CGU étant imbuvables.

Pourquoi cela serait différent avec un contrat qui ne sera sans doute pas à notre avantage ?

Clôturons cette partie en parlant de la valeur « morale » ou « sentimentale » d’une donnée : la vie privée, l’intimité, est composée d’un ensemble de facteurs et de données personnelles.

Chaque personne accorde une importance différente aux pans ce cette intimité. Ainsi, certains ne voient pas de problèmes à exposer leurs scores dans des jeux vidéo, là où d’autres si. Certains ne voient pas de problèmes à exposer des aspects extrêmement intimes de leurs vies, là où d’autres s’y opposent fermement.

Un contrat, par définition, ne s’attache pas à la valeur qu’on donne à une donnée. Il est impensable que les GAFA (ou les autres) éditent des contrats sur-mesure, donc individuels. Un prix sera fixé par donnée, probablement arbitrairement, point.

Une boite de Pandore à ne pas|jamais ouvrir

Si ces idées de monétisation venaient à devenir la norme, la loi, alors il y a fort à parier que d’autres s’engouffreraient dans le précédent créé par ce changement.

Pour illustrer le propos, parlons un peu des assurances : le principe des assurances et la mutualisation des risques. En tant qu’assuré, vous payez une cotisation, ou prime d’assurance.

Cette cotisation vous protège financièrement des risques ou des dommages qui touchent ce qui est assuré (maison, voiture, etc.). Ce sont les cotisations qui font que vous êtes remboursé, non pas en fonction de qui vous êtes, mais en fonction du contrat auquel vous avez souscrit. Vous payez donc pour les autres, et les autres payent pour vous pour que, le jour venu, l’assurance puisse vous aider. C’est un principe de solidarité fondamental dans le monde de l’assurance.

Seulement, il y a fort à parier que les assurances seraient extrêmement intéressées par la revente des données personnelles, qui pourrait les conduire à un principe d’individualisation des assurances.

Vous pensez que c’est une bonne chose ? Détrompez-vous.

Votre hygiène de vie n’est pas exemplaire 24h/24 et l’information est transmise par votre montre connectée ? L’assureur pourrait vous faire payer plus cher. Vous vous appelez Mohamed et pas Julien ? L’assureur pourrait également vous faire payer plus cher, comme le démontre cet exemple. C’est une rupture franche de l’égalité que nous avons dans ces systèmes assurantiels.

On peut certes se dire que le principe n’est pas mauvais, puisqu’il tend à prendre « soin » de nous… mais en faisant cela, il mène aussi à une forme très violente d’autocensure, où (ne pas) faire certaines activités reviendrait à prendre des risques. Comme je l’ai dit de nombreuses fois ici, avoir quelqu’un qui vous observe constamment modifie obligatoirement votre comportement, même inconsciemment.

Ce n’est pas un problème d’argent

Enfin, et surtout, ce rapport laisse penser que l’exploitation des données personnelles n’est, au final, qu’un banal problème de rémunération des producteurs de données, à savoir nous.

L’exploitation des données personnelles, l’intrusion brutale dans les composantes de nos vies privées, n’est pas un problème d’argent. C’est un problème éthique et éminemment politique. La vision de Génération Libre est partielle, voire erronée. En ne solutionnant que l’aspect financier dans la gestion des données personnelles, on ramène l’utilisateur final, nous, à une simple question d’acceptation ou de refus de signer. Et Génération Libre de confirmer le propos en filigrane, dans son rapport :

« Mais au regard des faits actuels, est-ce que la soi-disant non patrimonialisation des données empêche une quelconque exploitation abusive de ses données ? Voyons-nous une baisse du nombre d’usurpations d’identité ? Force est de constater que non. On voit au contraire que le cyber-citoyen est désapproprié de son droit d’abusus. »

Nous sommes désappropriés de nos droits, nos données ne nous appartiennent déjà plus, fin du game ?

Exit les combats politiques, les propositions de loi, amendements, les luttes sur le terrain, les appels et les mails, les billets de blog, les personnes expertes, tout cela ne sert à rien puisque le combat est déjà perdu ?

Je ne peux être qu’en désaccord avec la vision de Génération Libre, la simple existence de ce billet exprime la force de mon désaccord.

Effectivement, le contrôle de nos données personnelles est de plus en plus difficile, les menaces qui pèsent sur notre intimité sont de plus en plus nombreuses et il n’y a pas une semaine sans une nouvelle découverte d’un abus, d’un problème ou d’une faille relative à nos données personnelles. Pour autant, quitte à marteler, la réponse à cela n’est pas, et ne peut pas être, purement et simplement financière.

Je vous invite à lire, et à partager, l’excellent billet « Revendre ses données « personnelles », la fausse bonne idée », de Mais où va le WEB. Son analyse est détaillée, avec des sources et elle est bien plus neutre que la mienne, bien que nos points de vue se rejoignent.

Je vous invite également à lire le tout aussi excellent article d’Olivier Ertzscheid, sur son blog : Faut pas prendre les usagers des GAFAM pour des Datas sauvages.

Et vous, vous en pensez quoi ?

PS : le rapport est téléchargeable… en échange d’une adresse mail. A qui j’envoie la facture ?

En Bref : Strava, ou un exemple simple du besoin de sensibilisation à la protection des données personnelles.

lundi 29 janvier 2018 à 13:30

Strava, vous connaissez ? Si vous faites du sport, de la course plus précisément, sans doute. Pour les autres : Strava est une application qui permet d’enregistrer son parcours en se servant du GPS du Smartphone sur lequel l’application est installée. L’entreprise propose une carte mondiale des trajets enregistrés… et on y retrouve des données plutôt sensibles.

Si, dans nos contrées, l’application ne nous apprend rien de particulier, dans des zones moins denses avec moins de parcours, c’est sensiblement différent. On apprend de Tobias Schneider   qu’il est possible de localiser des bases militaires et des sites sensibles, dessinés par les trajets enregistrés et publiés sur la « Global Heatmap » de Strava.

J’ai rapidement parcouru cette carte et à l’heure actuelle, on retrouve toujours des trajets qui semblent délimiter des zones d’activité humaine. On retrouve des trajets autour de Mossoul (en Irak), au Niger, en Syrie et à chaque fois, ils semblent correspondre à des rondes ou à des sites militaires.

Ces trajets étant précis, on peut délimiter des zones de faible passage, de passage moyen et de passage intense, puis en déduire les contours des bases militaires.

Strava image localisation 2
Des contours, en plein milieu de rien…

Ces deux images nous donnent un aperçu du problème rencontré. La première image est relativement claire et on devine une base, avec ou sans les trajets disponibles sur Strava. La seconde, en revanche, est perdue en plein milieu du désert, il n’y a absolument rien autour. Sans la carte des trajets, il est très compliqué voire impossible de deviner qu’il existe une activité humaine. Les trajets sont précis et semblent définir ce qui ressemble à une base (le jaune) et des contours, ou des rondes militaires (le chemin violet, donc le périmètre de sécurité).

Le problème peut vous sembler anodin mais il est en réalité dramatique. L’affichage de ces trajets peut donner des indications précises sur des bases stratégiques, des indications sur des bases tenues secrètes ou encore permettre à des attaquants de cibler aisément des lieux et d’effectuer une première reconnaissance très facilement.

Potentiellement, cela met en danger de nombreuses personnes, qu’elles utilisent ou non l’application. Elles se retrouvent exposées à un défaut créé par d’autres personnes. Défaut qui aurait pu être évité si ces mêmes personnes avaient refusé le partage de leurs données, Strava permettant l’usage en « mode privé », sans partage sur la carte globale.

Ce cas met en évidence un problème important : le manque de formation et de sensibilisation à la protection des données personnelles. La faute n’est pas imputable à l’entreprise éditrice, en soi, elle propose un mode « privé ».

La faute n’est pas entièrement imputable aux militaires, des personnes extérieures entrent et sortent des bases (diplomates, personnel de santé, …). Il suffit d’une seule personne pour exposer toutes les autres, ce qui est autant critique que compliqué à gérer.

On peut également s’interroger sur la mise à jour des données : est-il possible d’avoir un suivi en temps réel ? Est-ce que les données nouvelles remontent sur la carte immédiatement ? Si c’est le cas, le problème est d’autant plus grave car il devient possible de suivre des mouvements, des troupes, des patrouilles… et donc de planifier des actions au bon moment.

Bref, vous l’aurez compris, de nombreuses troupes, tous pays confondus, vont entendre parler de ce problème.

Un monde sans neutralité du net

mercredi 10 janvier 2018 à 11:18

Ce billet s’adresses à celleux qui se disent « La neutralité du net ? Rien à foutre. », ainsi qu’a celleux qui ne comprennent pas forcément, par manque de temps, de moyens ou de savoirs, les implications concrètes d’une absence de neutralité du net.

Je ne vais pas expliquer ce que c’est, d’autres le font très bien, ici, ici, ici, ici ou encore . Non, je vais simplement vous donner des projections sur ce que serait un monde sans neutralité du net.

Réfléchissez à un instant à votre connexion, à ce que vous ainsi que les personnes qui utilisent cette connexion font de cette connexion, de cet accès pour ainsi dire illimité.

En vrac :

Enfin, vous ferez des choses dans six mois, ou un an, qui n’existent pas à l’heure actuelle, parce que vous pouvez le faire. Vous irez jeter un œil à des sites qui n’existent pas encore, vous irez tester des applications qui n’existent pas encore, parce que vous pouvez le faire.

De la même façon qu’on ne parlait pas deWhatsApp ou de Snapchat il y a encore quelques années, vous découvrirez un nouveau réseau social ou une nouvelle application pour PC, tablette ou smartphone.

Ces choses, vous pouvez les réaliser car votre accès Internet n’est pas bridé. Nous pouvons faire plus ou moins toutes ces choses et cela nous semble parfaitement naturel, logique et évident, parce que notre accès Internet n’est pas bridé.

La Neutralité du Net, c’est ça. C’est cette chose tellement évidente, tellement logique, que vous n’y songez absolument pas. C’est ce confort qui semble naturel, confort dans lequel nous évoluons en permanence.

C’est ce qui fait que vous pouvez actuellement arriver sur mon site « normalement », aussi vite que sur d’autres sites, que vous pouvez me lire, sans pour autant devoir payer plus que votre connexion Internet.

Un monde sans neutralité, c’est un monde où l’ensemble de vos usages, ainsi que le confort d’utilisation de ces derniers, sont menacés par des politiques de restrictions ou des politiques commerciales différentes de celles qui existent actuellement.

Parce qu’une image est plus parlante qu’un long texte, un monde sans neutralité du net, potentiellement, c’est ça :

Et si ce n’est pas ça, comprenez « un monde où vos usages sont facturés, en plus de votre abonnement internet », ou pour faire encore plus clair « ce que vous faites aujourd’hui pour une trentaine d’euros en coûtera une centaine plus tard », alors cela sera votre confort d’utilisation.

L’option « Youtube » ne sera pas obligatoire, mais sans cette option, regarder des vidéos sera difficile, elles seront de mauvaise qualité et mettront du temps à charger.

Votre confort d’utilisation, c’est réellement tout ce qui vous semble normal : le fait qu’un site s’ouvre vite, qu’une vidéo sur Youtube se charge globalement aisément, toutes ces choses qui vous semblent naturelles quoi…

Vous pensez que c’est une fiction ? Voici une offre Internet, au Portugal, sans neutralité du net.

Alors, important ou pas ?

 

Les cartes bancaires sans contact et la confidentialité des données

jeudi 16 novembre 2017 à 14:40

Le paiement sans contact est une fonction disponible sur plus de 60% des cartes bancaires en circulation. Les données bancaires étant des éléments sensibles, elles doivent naturellement être protégées.

Est-ce vraiment le cas ?

Evolution du paiement sans contact

Cette fonctionnalité est apparue en France aux alentours de 2012. Depuis, elle n’a cessé de se développer. Selon le GIE Cartes bancaires, 44,9 millions de cartes bancaires sans contact étaient en circulation en septembre 2017, soit 68% du parc français.

données GIE Bancaire sur l'usage des cartes sans contact
(source : GIE Cartes Bancaires)

Dans son bilan 2016 (PDF, page 11), ce même GIE déclare que 605 millions de paiements ont été réalisés via du sans contact. Si ce chiffre semble énorme, l’évolution de ce dernier l’est encore plus : +158% de paiements par rapport à 2015, et la tendance ne faiblit pas.

Le paiement sans contact est fait pour des petites transactions, celles de « la vie quotidienne », le montant des échanges étant plafonné à maximum 30€ depuis octobre 2017.

Fonctionnement du paiement sans contact

Le principe est relativement simple, la personne détentrice d’une carte sans contact souhaite payer sa transaction (inférieure à 30€ donc), elle pose sa carte à quelques centimètres du terminal de paiement sans contact et « paf », c’est réglé.

Le paiement sans contact est basé sur la technologie NFC, ou Near Field Communication (communication en champ proche) via une puce et un circuit faisant office d’antenne, intégrés à la carte bancaire.

Le NFC est caractérisé par sa distance de communication, qui ne dépasse pas 10 cm avec du matériel conventionnel. Les fréquences utilisées par les cartes sans contact sont de l’ordre de la haute fréquence (13,56 MHz) et peuvent utiliser des protocoles de chiffrement et d’authentification. Le pass Navigo, les récents permis de conduire ou certains titres d’identité récents utilisent par exemple de la NFC.

Si la technique vous intéresse, je vous invite à lire en détail les normes ISO-14443A standard et la norme ISO 7816, partie 4.

Paiement sans contact et données personnelles

On va résumer simplement le problème : il n’y a pas de phase d’authentification ni de chiffrement total des données. En clair, cela signifie que des informations relativement sensibles se promènent, en clair, sur un morceau de plastique.

De nombreuses démonstrations existent çà et là, vous pouvez également trouver des applications pour mobile qui vous permettent de récupérer les informations non chiffrées (votre téléphone doit être compatible NFC pour réaliser l’opération).

exemple application lecture carte bancaire

Pour réaliser l’opération, avec du matériel conventionnel, il faut être maximum à quelques centimètres de la carte sans contact, ce qui limite fortement le potentiel d’attaque et interdit, de fait, une « industrialisation » de ces dernières.

Cependant, avec du matériel plus précis, plus puissant et plus onéreux, il est possible de récupérer les données de la carte jusqu’à 1,5 mètre et même plus avec du matériel spécifique et encore plus onéreux (il est question d’une portée d’environ 15 mètres avec ce genre de matériel). Un attaquant doté de ce type d’équipement peut récupérer une liste assez impressionnante de cartes, puisqu’elles sont de plus en plus présentes… problématique non ?

En 2012, le constat était plus alarmant qu’aujourd’hui, puisqu’il était possible de récupérer le nom du détenteur de la carte, son numéro de carte, sa date d’expiration, l’historique de ses transactions et les données de la bande magnétique de la carte bancaire.

En 2017… il est toujours possible de récupérer le numéro de la carte, la date d’expiration de cette dernière et, parfois, l’historique des transactions, mais nous y reviendrons.

Que dit la CNIL sur le sujet ?

J’ai demandé à la CNIL s’il fallait considérer le numéro de carte bancaire comme étant une donnée à caractère personnel, sans réponse pour le moment. J’éditerai cet article lorsque la réponse arrivera.

Si le numéro de carte bancaire est une donnée à caractère personnel, alors le fait qu’il soit disponible, et stocké en clair, me semble problématique, cela ne semble pas vraiment respecter la loi informatique et libertés.

En 2013, cette même CNIL a émis des recommandations à destination des organismes bancaires, en rappelant par exemple l’article 32 et l’article 38 de la loi informatique et libertés. Les porteurs de carte doivent, entre autres, être informés de la présence du sans contact et doivent pouvoir refuser cette technologie.

Les paiements sans contact sont appréciés des utilisateurs car ils sont simples, il suffit de passer sa carte sur le lecteur. Ils sont préférés aux paiements en liquide et certains vont même jusqu’à déclarer que « le liquide finira par disparaître dans quelques années ». Son usage massif fait que votre organisme bancaire vous connaît mieux, il peut maintenant voir les paiements qui lui échappaient avant, lorsque ces derniers étaient en liquide.

La CNIL s’est également alarmée, dès 2012, des données transmises en clair par les cartes en circulation à l’époque. Ainsi, il n’est plus possible de lire le nom du porteur de la carte, ni, normalement, de récupérer l’historique des transactions… ce dernier point étant discutable dans la mesure où, pas plus tard que la semaine dernière, j’ai pu le faire avec une carte émise en 2014.

Comme expliqué précédemment, il est encore possible aujourd’hui de récupérer le numéro de carte ainsi que la date d’expiration de cette dernière.

Dans le scénario d’une attaque ciblée contre un individu, obtenir son nom n’est pas compliqué. Le CVV – les trois chiffres indiqués au dos de la carte – peut être forcé, il n’existe que 1000 combinaisons possibles, allant de 000 à 999.

Si la CNIL a constaté des améliorations, elle n’est pas rassurée pour autant. En 2013, elle invitait les acteurs du secteur bancaire à mettre à niveau leurs mesures de sécurité pour garantir que les données bancaires ne puissent pas être collectées ni exploitées par des tiers.

Elle espère que ce secteur suivra les différentes recommandations émises [PDF, page 3], notamment par l’Observatoire de la Sécurité des Cartes de Paiement, quant à la protection et au chiffrement des échanges. Les premières recommandations datent de 2007 [PDF], mais malheureusement, dix ans après, très peu de choses ont été entreprises pour protéger efficacement les données bancaires présentes dans les cartes sans contact.

S’il existe des techniques pour restreindre voire empêcher la récupération des données bancaires via le sans contact, le résultat n’est toujours pas satisfaisant, le numéro de carte est toujours stocké en clair et lisible aisément, les solutions ne garantissent ni un niveau de protection adéquat, ni une protection permanente.

Une solution consiste à « enfermer » sa carte dans un étui qui bloque les fréquences utilisées par le NFC. Tant que la carte est dans son étui, pas de risques… mais pour payer, il faut bien sortir ladite carte, donc problème.

L’autre solution, plus « directe », consiste à trouer – physiquement – sa carte au bon endroit pour mettre le circuit de la carte hors service. Attention cependant, votre carte bancaire n’est généralement pas votre propriété, vous louez cette dernière à votre banque, il est normalement interdit de détériorer le bien de votre banque.

DCP ou pas DCP ?

J’en parlais précédemment : est-ce que le numéro de carte bancaire constitue à lui seul une donnée à caractère personnel, ou DCP ?

Cela semble un point de détail mais je pense que c’est assez important en réalité. Si c’est effectivement une DCP, alors le numéro de carte bancaire doit, au même titre que les autres DCP, bénéficier d’un niveau de protection adéquat, exigence qui n’est actuellement pas satisfaite.

Si vous avez la réponse, n’hésitez pas à me contacter ou à me donner quelques références.

Les « boites noires » de la loi renseignement semblent désormais fonctionnelles

mardi 14 novembre 2017 à 14:41

Plus de deux années après leur création dans la loi, les équipements permettant aux services de renseignement d’analyser de grands volumes de données semblent fonctionnels.

Lors d’un colloque organisé par l’université de Grenoble ce mardi 14 novembre, Francis Delon, le président de la Commission nationale de contrôle des techniques de renseignement – ou CNCTR – a déclaré que les « boites noires » étaient à présent opérationnelles, et ce depuis environ un mois.

Ces équipements, surnommés ainsi pendant les débats sur la loi renseignement, doivent permettre aux services de renseignement d’analyser de grands volumes de données afin de détecter toute trace d’une menace terroriste… et c’est tout ce qu’on sait, officiellement.

Le principe et son problème

Pour vous résumer les débats de l’époque, il était question de créer des algorithmes permettant de détecter les terroristes, le tout sans aller lire le contenu des échanges ou des communications, les algorithmes n’utilisant que les métadonnées et pas le contenu direct.

La CNCTR a donné son feu vert à la mise en place desdits algorithmes :

« Nous avons examiné le projet d’algorithme sur le plan juridique. Est-il adapté ? Remplit-il les critères de proportionnalité ? Mais aussi un contrôle technique.

Nous avons des ingénieurs, ce qui permet de le faire. »

A l’époque du projet de loi, en 2015, ces dispositions faisaient débat. Des associations protectrices des libertés individuelles et numériques, comme La Quadrature du Net, dénonçaient la mise en place d’un système de surveillance de masse et une absence de mécanismes de contrôles clairs et adaptés.

Problème n°1 : les métadonnées parlent plus que « la donnée ».

La loi sur le renseignement autorise l’exploitation des métadonnées, c’est-à-dire des informations qui gravitent autour de la donnée sans être de la donnée… exemple : dans un e-mail, l’heure d’envoi, l’expéditeur, le destinataire et tout ce qui n’est pas directement le contenu du mail sont des métadonnées.

Si la loi interdit d’analyser les données, le contenu du mail dans notre exemple, il n’en reste pas moins que ces boites noires posent un vrai problème de confidentialité, les métadonnées étant bien plus parlantes que les données.

En soi, sauf dans des cas de surveillance ciblée, le contenu n’intéresse que très peu les renseignements, ils souhaitent savoir qui communique avec qui, quand, où, comment, à quelle fréquence. Ils souhaitent savoir qui visite quoi, quelle adresse, à quelle heure, combien de fois, etc.

Prenons un exemple très concret, qui ne va utiliser que des métadonnées. Aujourd’hui, un individu a :

J’arrête l’exemple ici mais vous l’aurez compris, une journée entière serait bien trop longue. Les métadonnées sont très précises et, par croisement, elles permettent d’identifier une personne assez rapidement.

Ce qui nous amène au…

Problème n°2 : on ne sait pas comment ça fonctionne

Selon M. Delon, pour des « raisons évidentes », les algorithmes des boites sont secrets. On ne sait donc rien d’eux. On peut déjà s’interroger sur les raisons qui font que cet algorithme est secret. Si les critères de l’algorithme peuvent être sensibles, l’algorithme en soi n’a, normalement, rien de cela. Je trouve toujours étonnant que les gouvernements préfèrent la sécurité par l’obscurité à la transparence d’un code, mais passons…

On peut tout de même imaginer que ces derniers ne sont pas en mesure d’intercepter et de casser du trafic chiffré. On peut aussi imaginer que les jeux de données doivent être très larges, afin de permettre aux algorithmes d’avoir assez de matière pour faire le boulot.

On renverse donc un peu plus la logique de surveillance actuelle, en passant d’une surveillance ciblée pour obtenir des informations à l’obtention d’informations sur une population très large pour trouver des individus qui répondent à des critères précis. Autrement dit, on bascule davantage dans la surveillance de masse de tout le monde que dans la surveillance ciblée. Ce qui n’est pas sans poser de nombreux problèmes, comme l’ONU s’en inquiétait à l’époque.

Les algorithmes, ce n’est pas « automagique », des personnes ont travaillé sur ces choses, ont produit du code. Qui ? Comment ? On ne sait pas. On peut donc s’interroger quant à l’impartialité des algorithmes. Sur quels critères ces derniers déclarent que telle ou telle personne a un comportement étrange, voire suspect ? Est-ce que les algorithmes sont assez efficaces pour éviter tout faux positif ? Et même dans ce cas, est-ce que ces techniques ne seraient pas disproportionnées ? Combien de milliers de données passent dans les moulinettes des algorithmes alors qu’elles ne devraient rien y faire ?

La CNCTR déclare que, pour le moment, une seule machine a été déployée, dans un endroit tenu évidemment secret, comme le reste… mais est-ce un test ou une généralisation ?

Vous l’aurez compris, je suis sceptique quant à l’usage et l’efficacité de ces outils, et vous ?