Résoudre les biais
Home » IA » Exposition générale » Loyauté, diversité et non-discrimination » Dispositions du RGPD » Résoudre les biais

Il existe différentes stratégies qui peuvent aider à éviter les biais ou à les corriger. Lors de la création des bases de données qui serviront à construire un modèle d’IA, les responsables du traitementdoivent s’efforcer d’éviter les données déséquilibrées ou erronées. Lesbiais identifiables et discriminatoires doivent être supprimés dans la mesure du possible lors de la phase de création des bases de données. [1]

Si l’origine du biais est liée à l’ensemble de données de formation, le responsable du traitement doit rechercher une sélection adéquate de données à utiliser dans la phase de formation, afin d’éviter que les résultats du modèle ultérieur soient incorrects ou discriminatoires.[2] Un modèle d’IA doit “être formé à l’aide de données pertinentes et correctes et il doit apprendre quelles sont les données à privilégier. Le modèle ne doit pas mettre l’accent sur des informations relatives à l’origine raciale ou ethnique, aux opinions politiques, à la religion ou aux convictions, à l’appartenance syndicale, au statut génétique, à l’état de santé ou à l’orientation sexuelle si cela devait conduire à un traitement discriminatoire arbitraire (c’est nous qui soulignons). [3]

En outre, les personnes handicapées devraient être incluses dans le processus d’approvisionnement en données pour construire des modèles, et dans les tests, afin de créer un système plus inclusif et plus robuste. Si ce processus est réalisé de manière adéquate, le biais disparaîtra probablement. Par exemple, dans l’étude de cas sur le biais racial dans les algorithmes de santé (voir encadré 11), il a été possible de reformuler l’algorithme (dans ce cas, afin qu’il n’utilise plus les coûts comme indicateur des besoins) et d’éliminer le biais racial dans la prédiction des personnes nécessitant des soins supplémentaires. En effet, en changeant l’indicateur de santé, en passant des coûts prévus au nombre d’affections chroniques, le pourcentage de patients noirs bénéficiant de meilleurs soins est passé de 17 % à 46 %. Il s’agit d’un excellent exemple d’amélioration de la loyauté par la reformulation d’un algorithme.

Toutefois, les responsables du traitement doivent toujours garder à l’esprit que ce qui rend la lutte contre les biais particulièrement complexe, c’est que la sélection d’un ensemble de données implique de prendre des décisions et de faire des choix – ce qui peut, parfois, être fait presque inconsciemment. En revanche, le codage d’un algorithme traditionnel et déterministe est toujours une opération délibérée. En effet, les humains sont toujours l’intelligence qui se cache derrière un développement – même lorsqu’il est intégré à des algorithmes que nous pensons neutres. Quiconque construit un ensemble de données le construit, dans une certaine mesure, à son image, pour refléter sa propre vision du monde, ses valeurs ou, à tout le moins, les valeurs qui sont plus ou moins inhérentes aux données recueillies dans le passé. [4]

Dans cette optique, il est important que les équipes chargées de sélectionner les données à intégrer dans un ensemble de données soient composées de personnes qui reflètent la diversité que le développement de l’IA est censé présenter. À l’heure actuelle, il s’agit d’un défi majeur. En termes de genre, par exemple, les femmes ne représentent que 15 % du personnel de recherche en IA chez Facebook et 10 % chez Google, et il n’existe aucune donnée publique sur les travailleurs transgenres ou les autres minorités de genre. En termes de race, l’écart est encore plus marqué : seuls 2,5 % des effectifs de Google sont noirs, tandis que Facebook et Microsoft en comptent chacun 4 %.[5] Les responsables du traitement devraient tout mettre en œuvre pour que leurs équipes reflètent mieux la diversité et mettre en place des données précises qui en témoignent.

En résumé, les processus de développement des algorithmes devraient toujours inclure un contrôle minutieux des biais possibles. Les examens internes et externes devraient accorder une attention particulière à cette question. Les ensembles de données construits à des fins de validation doivent être soigneusement sélectionnés pour garantir une incorporation adéquate de données relatives à des sujets issus de différents secteurs de la société, en termes d’âge, de race, de sexe, de handicap, etc. Heureusement, il existe de nombreux outils techniques consacrés à l’éradication des biais dans les modèles d’IA.[6] La norme IEEE P7003TM pour la prise en compte des biais algorithmiques est particulièrement intéressante en ce moment. [7]

Cependant, aucun d’entre eux n’offre une solution magique, ou “solution miracle”, applicable à tous les types d’algorithmes. Dans la plupart des cas, la bonne solution dépendra des multiples variables impliquées dans l’algorithme. Les responsables du traitementdoivent s’efforcer d’éradiquer les biais autant que possible et être honnêtes quant aux résultats finaux de leurs efforts. Si des biais sont découverts, la solution d’IA doit être entraînée à nouveau. Sil n’est pas possible d’éliminer les biais injustes du modèle, son déploiement ne doit pas avoir lieu.

Liste de contrôle : partialité

☐ Le responsable du traitement a établi une stratégie ou un ensemble de procédures pour éviter de créer ou de renforcer un biais injuste dans le système d’IA, tant en ce qui concerne l’utilisation des données d’entrée que pour la conception des algorithmes.

☐ Le responsable du traitement évalue et reconnaît les éventuelles limitations découlant de la composition des ensembles de données utilisés.

☐ Le responsable du traitement a considéré la diversité et la représentativité des données utilisées.

☐ Le responsable du traitement a fait des tests pour des populations spécifiques ou des cas d’utilisation problématiques.

☐ Les responsables du traitement ont utilisé les outils techniques disponibles pour améliorer leur compréhension des données, du modèle et des performances.

☐ Le responsable du traitement a mis en place des processus pour tester et surveiller les biais potentiels pendant les phases de développement, de déploiement et d’utilisation du système d’IA.

☐ Le responsable du traitement a mis en place un mécanisme qui permet à d’autres personnes de signaler les problèmes liés aux biais, à la discrimination ou aux mauvaises performances du système d’IA.

☐ Le responsable du traitement a établi des étapes et des moyens de communication clairs sur la manière et la personne à qui ces questions peuvent être soulevées.

☐ Le responsable du traitement a pris en compte les autres personnes, potentiellement affectées indirectement par le système d’IA, en plus des utilisateurs (finaux).

☐ Le responsable du traitement a évalué s’il y a une variabilité possible de la décision qui peut se produire dans les mêmes conditions.

☐ En cas de variabilité, le responsable du traitement a mis en place un mécanisme de mesure ou d’évaluation de l’impact potentiel de cette variabilité sur les droits fondamentaux.

☐ Le responsable du traitement a mis en place une analyse quantitative ou des métriques pour mesurer et tester la définition appliquée de la loyauté.

☐ Le responsable du traitement a mis en place des mécanismes pour garantir la loyauté concernant les systèmes d’IA, et a envisagé d’autres mécanismes potentiels.

Informations complémentaires

CNIL (2017) Comment l’humain peut-il garder la main ? Les questions éthiques soulevées par les algorithmes et l’intelligence artificielle. Commission nationale de l’informatique et des libertés, Paris. Disponible sur : www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_ai_gb_web.pdf

EDPB (2019) Lignes directrices 4/2019 sur l’article 25 Protection des données par conception et par défaut (version pour consultation publique). Conseil européen de la protection des données, Bruxelles. Disponible à l’adresse : https://edpb.europa.eu/our-work-tools/public-consultations-art-704/2019/guidelines-42019-article-25-data-protection-design_es

ICO (2020) AI auditing framework : draft guidance for consultation. Information Commissioner’s Office, Wilmslow. Disponible à l’adresse : https://ico.org.uk/media/about-the-ico/consultations/2617219/guidance-on-the-ai-auditing-framework-draft-for-consultation.pdf

Mittelstadt, B. et Floridi, L. (2016) ” The ethics of big data : current and foreseeable issues in biomedical context “, Science and Engineering Ethics 22(2) : 303-341.

Autorité norvégienne de protection des données (2018) Intelligence artificielle et vie privée. Autorité norvégienne de protection des données, Oslo. Disponible à l’adresse : https://iapp.org/media/pdf/resource_center/ai-and-privacy.pdf

West, S.M., Whittaker, M. et Crawford, K. (2019) Discriminating systems : gender, race and power in AI. AI Now Institute, New York, p.3. Disponible à l’adresse : https://ainowinstitute.org/discriminatingsystems.html.

 

  1. Considérant 71 du RGPD.
  2. Pour une définition de la discrimination directe et indirecte, voir, par exemple, l’article 2 de la directive 2000/78/CE du Conseil du 27 novembre 2000, qui porte création d’un cadre général en faveur de l’égalité de traitement en matière d’emploi et de travail. Voir également l’article 21 de la Charte des droits fondamentaux de l’UE.
  3. Autorité norvégienne de protection des données (2018) Intelligence artificielle et vie privée. Autorité norvégienne de protection des données, Oslo, p.16. Disponible à l’adresse : https://iapp.org/media/pdf/resource_center/ai-and-privacy.pdf (consulté le 15 mai 2020).
  4. CNIL (2017) Comment l’humain peut-il garder la main ? Les questions éthiques soulevées par les algorithmes et l’intelligence artificielle. Commission nationale de l’informatique et des libertés, Paris, p.34. Disponible sur : www.cnil. fr/sites/default/files/atoms/files/cnil_rapport_ai_gb_web.pdf (consulté le 15 mai 2020).
  5. West, S.M., Whittaker, M. et Crawford, K. (2019) Discriminating systems : gender, race and power in AI. AI Now Institute, New York, p.3. Disponible à l’adresse : https://ainowinstitute.org/discriminatingsystems.html (consulté le 15 mai 2020).
  6. ICO (2020) AI auditing framework : draft guidance for consultation. Information Commissioner’s Office, Wilmslow, p.55-56. Disponible sur : https://ico.org.uk/media/about-the-ico/consultations/2617219/guidance-on-the-ai-auditing-framework-draft-for-consultation.pdf (consulté le 15 mai 2020).
  7. Voir : https://ethicsinaction.ieee.org/ (consulté le 17 mai 2020).

 

Aller au contenu principal