Questions juridiques
Home » Géolocalisation » Biais d’adresse » Questions juridiques

Les biaissont l’un des principaux problèmes liés à l’utilisation des dispositifs et systèmes TIC, un problème qui va à l’encontre du principe de loyauté(voir “Principe de licéité, de loyautéet de transparence” dans la partie II, section “Principes” des présentes lignes directrices). Dans le cas des dispositifs basés sur des données de localisation et/ou de proximité, les biais peuvent provenir d’au moins deux situations différentes :

  • Biais créés par un système d’IA interagissant avec les dispositifs ou systèmes de localisation. Parfois, les dispositifs ou systèmes de localisation intègrent des outils d’IA ou interagissent avec eux (voir la partie III des présentes lignes directrices consacrée aux systèmes d’IA). Si tel est le cas, les développeurs doivent veiller tout particulièrement à ce qu’ils n’introduisent pas de biais dans le fonctionnement du dispositif ou du système de localisation. À cette fin, ils doivent adopter un certain nombre de mesures, telles que décrites dans la partie III des présentes lignes directrices consacrée aux systèmes d’IA
  • Biais créés par les données recueillies. Ce type de biais est particulièrement probable si l’outil TIC vise à fournir des informations basées sur des données recueillies auprès d’une population entière. Il faut garder à l’esprit que, selon l’origine des données agrégées, il est très probable que leur degré de représentation sociale soit inexact. En effet, comme l’a montré la recherche sur les médias locatifs, le contexte et la marginalisation importent avec les données de localisation.[1] Cela peut créer des problèmes d’iniquité, car certaines classes sociales (notamment celles qui n’utilisent pas les appareils ou qui souffrent d’un manque de capacités spécifiques permettant d’obtenir les données) sont sous-représentées dans l’analyse et la prise de décision ultérieure.[2] Cela pourrait laisser de côté des populations entières et en déformer d’autres, et conduire à un déploiement de ressources non seulement biaisé et injuste – en faveur des quartiers les plus riches, par exemple – mais aussi inefficace du point de vue des politiques publiques.[3] Bien entendu, la mauvaise représentation peut également introduire des biais dans les interventions de policeet de l’ordre public, produisant des résultats préjudiciables aux communautés à faibles revenus, par exemple. Les développeurs de dispositifs ou de systèmes de localisation doivent s’efforcer d’éviter ce type de biais, soit en fournissant des dispositifs à ceux qui seraient autrement marginalisés, soit en intégrant des informations complémentaires qui corrigent l’erreur. S’il est impossible de l’éviter, ils devraient consigner l’existence du biais, afin que ceux qui auraient à prendre des décisions grâce au mécanisme développé en soient conscients.
Liste de contrôle : [4]

 Le responsable du traitementa mis en place des moyens de mesurer si l’outil fait un nombre inacceptable de prédictions biaisées.

 Le responsable du traitement a mis en place une série de mesures pour accroître la précision de l’outil.

 Le responsable du traitement a mis en place des mesures pour évaluer s’il est nécessaire de disposer de données supplémentaires, par exemple pour éliminer les biais.

 Le responsable du traitement a vérifié le préjudice qui serait causé si l’outil faisait des prédictions biaisées.

 

  1. Graham, M., Zook, M. (2013). Réalités augmentées et géographies inégales : Exploration des contours géolinguistiques du web. Environment and Planning A, 45, 77-99.
  2. Frith J, Saker M. It Is All About Location : Smartphones and Tracking the Spreading of COVID-19. Social Media + Society. Juillet 2020. doi:10.1177/2056305120948257
  3. Jay Stanley et Jennifer Stisa Granick The Limits of Location Tracking in an Epidemic, ACLU Whitepaper, 8 avril 2020, à l’adresse : https://www.aclu.org/report/aclu-white-paper-limits-location-tracking-epidemic?redirect=aclu-white-paper-limits-location-tracking-epidemic.
  4. Cette liste de contrôle a été adaptée de celle élaborée par le Groupe d’experts de haut niveau sur l’intelligence artificielle (2019) Lignes directrices en matière d’éthique pour une IA digne de confiance. Commission européenne, Bruxelles. Disponible à l’adresse : https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (consulté le 20 mai 2020).

 

Aller au contenu principal