Opter pour la solution technique
Home » IA » Étape par étape » Compréhension de l’entreprise » Opter pour la solution technique

En général, les développeurs d’IA devraient toujours prévoir le développement d’algorithmes plus compréhensibles plutôt que d’algorithmes moins compréhensibles (voir la section 4.2. Dispositions du RGPD : section Transparence). Les compromis entre l’explicabilité/la transparence et les meilleures performances du système doivent être équilibrés de manière appropriée en fonction du contexte d’utilisation. Par exemple, dans le domaine des soins de santé, la précision et les performances du système peuvent être plus importantes que son explicabilité, alors que, dans le domaine du maintien de l’ordre, l’explicabilité est beaucoup plus cruciale pour justifier les comportements et les résultats de l’application de la loi. Dans d’autres domaines, comme le recrutement, la précision et l’explicabilité sont toutes deux appréciées de la même manière.[1] Si un service peut être offert à la fois par un algorithme facile à comprendre et par un algorithme opaque, c’est-à-dire lorsqu’il n’y a pas de compromis entre l’explicabilité et la performance, le responsable du traitement doit opter pour celui qui est le plus interprétable (voir la section “Licéité, loyautéet transparence” dans les “Principes” de la partie II des présentes lignes directrices).

Encadré 13 : Interprétation de l’interprétabilité

Même si l’interprétabilité semble être recommandée, il faut reconnaître que ce n’est pas un concept clair. La littérature académique montre différentes motivations pour l’interprétabilité et, plus important encore, offre une myriade de notions sur les attributs qui rendent les modèles interprétables. Ce que recouvre le terme “interprétation” n’est toujours pas clair. À première vue, il semble raisonnable de supposer que les algorithmes simples et linéaires sont plus faciles à comprendre. Cependant, “pour certains types d’interprétation post-hoc, les réseaux neuronaux profonds présentent un avantage clair. Ils apprennent des représentations riches qui peuvent être visualisées, verbalisées ou utilisées pour le regroupement. Si l’on considère les critères d’interprétabilité, les modèles linéaires semblent avoir de meilleurs résultats pour l’étude du monde naturel, mais nous ne connaissons pas de raison théorique expliquant pourquoi il en est ainsi. Il est concevable que des interprétations post-hoc puissent s’avérer utiles dans des scénarios similaires.” Il est donc difficile de formuler des recommandations spécifiques sur le type de modèles à privilégier en fonction de leur “interprétabilité”.[2]

 

  1. Projet SHERPA (2019) Lignes directrices pour le développement éthique des systèmes d’IA et de big data : une approche éthique par la conception. SHERPA, p. 26. Disponible à l’adresse : www.project-sherpa.eu/wp-content/uploads/2019/12/development-final.pdf (consulté le 15 mai 2020).
  2. Lipton, Z. C. (2017) ‘The mythos of model interpretability’, 2016 ICML workshop on human interpretability in machine learning (WHI 2016), New York, NY. Disponible à l’adresse : https://arxiv.org/pdf/1606.03490.pdf (consulté le 15 mai 2020).

 

Aller au contenu principal