VILLE NUMÉRIQUE : QUELS IMPACTS SUR LA VIE PRIVÉE?
Ville numérique : quels impacts sur la vie privée?
Dans un article publié sur Government Information Quarterly, la sociologue Liesbet van Zoonen propose un instrument de sensibilisation à destination des collectivités territoriales.
La ville numérique ou la « smart city », fait l’objet de nombreux débats parmi les chercheurs et les spécialistes. Ses promoteurs voient dans le big data une opportunité pour les villes de devenir plus riches, plus propres et plus efficaces ; d’autres considèrent que les villes deviendront des espaces robotisés, ennuyeuses, gérés par les seules data (data driven), et où la créativité n’aura plus aucune place. Le géographe Rob Kitchin, considère que la collection tous azimuts de données urbaines risque de produire des villes « panoptiques », qui risquent de menacer le droit à la vie privée et à la liberté d’expression. Liesbet van Zoonen considère, que si l’on ne prend pas en compte des aspects vie privée, les projets de smart cities, deviendront sujets à controverses, voire disparaitront. Pour la CNIL, le sujet des smart cities fera l’objet d’une attention toute particulière de nos travaux innovation et prospective en 2017...
« PRIVACY FRAMEWORK »
Quelles données ? Personnelles ou non ? Pour quels objectifs ? C’est à partir de ces questions et en se basant sur l’étude de la ville de Rotterdam, que Liesbet van Zoonen analyse des risques en termes de protection de la vie privée. La sociologue utilise dans son graphique (voir ci-dessous) le terme « impersonal » pour les données qui ne sont pas « à caractère personnel », nous lui préfèrerons le terme « non-personnelles ».
On retrouve ainsi quatre quadrants :
-
Quadrant I - Collecte de données personnelles à des fins de services.
Il s’agit des données traditionnellement collectées par les collectivités (Etat civil, adresse, bureau de vote, profession, etc…), les données liées à la situation économique (chômage, allocations sociales, par exemple), mais aussi des données relatives à la correspondance en ligne (email,..) et aux réseaux. Les finalités sont liées aux études démographiques, à l’urbanisme, aux services municipaux ou sociaux : autant d’usages qui ne comportent pas, selon la sociologue, d’enjeux vie privée pour les habitants, à condition de respecter certaines règles et que le marché reste clair : une donnée pour un service. La relativisation des enjeux vie privée vient du fait que les individus sont actifs et donc conscients que des données les concernant sont utilisées pour rendre un service.
-
Quadrant II - Collecte de données personnelles à des fins de surveillance.
Ce quadrant recouvre les données personnelles collectées par la police, les autorités organisatrices des transports publics, mais aussi des caméras de surveillance, des bases liées à la reconnaissance faciale, etc. Ce quadrant cristallise les contestations par les citoyens et les militants du respect de la vie privée. Liesbet van Zoonen note que le Règlement européen apportera de nouvelles garanties aux citoyens pour faire valoir et protéger leurs droits.
-
Quadrant III - Collecte de données « non –personnelles » à des fins de surveillance.
On retrouve ici les données liées à la surveillance de l’espace urbain, sans a priori de reconnaissance possible des individus : le monitoring du trafic automobile, de gestion des foules, par exemple par des caméras infrarouge ou des capteurs de chaleur. Ces données peuvent cependant permettre de reconnaître une personne, par exemple lorsque l’on utilise un logiciel de reconnaissance faciale sur des vidéos.
-
Quadrant IV - Collecte de données « non-personnelles » à des fins de services.
La dernière catégorie correspond à toutes les données non-personnelles collectées et utilisées pour le bénéfice des citoyens, telles que les données environnementales, de gestion des déchets ou de l’énergie (hors les données de chaque foyer). Ce quadrant ne présente à première vue pas d’inquiétudes quant au respect de la vie privée, mais l’auteur rappelle que là aussi, grâce à l’agrégation et au recoupement de données pourtant anonymisées, il reste parfois possible de reconstituer des données personnelles.
COMMENT UTILISER CE CADRE D’ANALYSE ?
Des exemples d’utilisation de ce cadre d’analyse sont proposés.
Poubelles « intelligentes »
La gestion intelligente des déchets figure parmi les projets classiques des « smart cities », notamment par le biais de capteurs installés sur les bennes. Un capteur de poids peut par exemple servir à alerter les services de ramassage lorsqu’il devient nécessaire de récolter les ordures ; le système permet alors de réguler au mieux la tournée des camions dans la ville. La donnée collectée ne concerne que la localisation de la benne et la charge de déchets qu’elle supporte. Selon la matrice « Privacy Concerns », il s’agit de données appartenant au quadrant IV, « non-personnelles » utilisées à des fins de service.
Si l’on ajoute un système de carte individuelle d’ouverture de la benne, la poubelle connectée effectue une translation vers le quadrant II : « données personnelles à des fins de surveillance ». La donnée récoltée permet de savoir qui jette quelle quantité de déchets. Le premier cas ne posait pas de questions directes quant à la protection des données personnelles, contrairement aux deuxième cas.
Police prédictive
Les systèmes prédictifs de la criminalité se sont développés depuis quelques années. Le premier type d’algorithme se base sur les statistiques concernant l’historique des lieux et le type de crimes constatés dans une ville, afin de déterminer les zones dans lesquels la police doit patrouiller en priorité. On a alors à faire à des données « non-personnelles » utilisées à des fins de surveillance (quadrant III).
Si l’algorithme cherche non plus à déterminer le lieu, mais les personnes susceptibles de commettre un délit, par les statistiques et potentiellement les données des réseaux sociaux, les risques liés à la protection de la vie privée se déplacent alors vers le quadrant II : « utilisation de données personnelles à des fins de surveillance ». Dans ce cas, le risque cité par Liesbeth van Zoonen, est alors que tous les habitants d’une ville deviennent suspects. Dans les faits, une enquête menée par ProPublica démontre que ce type d’algorithme tendrait à renforcer des préjugés existant et stigmatise certains segments de la population.
UN OUTIL PÉDAGOGIQUE ET DE COMMUNICATION
Pensé pour les collectivités territoriales, ce cadre d’analyse des « privacy concerns » se révèle un outil intéressant pour quiconque souhaite comprendre ou faire comprendre les impacts en termes de protection de la vie privée des projets de la ville numérique ou de smart city, dans des visées pédagogique ou de communication. La logique est ici comparable aux guides PIA (Privacy Impact Assessment) de la CNIL, qui dans une version plus approfondie et dans un formalisme plus complet, apporte les outils aux responsables de traitement dans leur démarche de mise en conformité. L’approche gestion des risques est d’ailleurs au cœur du Règlement européen, et la sensibilisation en amont à l’impact sur la vie privée de nouveaux services reste la meilleure manière de faire entrer dans les esprits la culture de la protection de la vie privées et des libertés.
Illustration principale : Flickr cc-by Mark Fischer
A découvrir aussi
Inscrivez-vous au blog
Soyez prévenu par email des prochaines mises à jour
Rejoignez les 348 autres membres