Exposition générale
Home » IA » Exposition générale

IA : exigences pour les développeurs et les innovateurs

Iñigo de Miguel Beriain[1] (UPV/EHU), Felix Schaber[2] (OEAW), Gianclaudio Malgieri et Andrés Chomczyk Penedo[3] (VUB)

Remerciements : Les auteurs remercient José Antonio Castillo Parrilla, Eduard Fosch Villaronga et Lorena Perez Campillo pour leur aimable soutien dans la rédaction de ce document. Il va sans dire que toutes les erreurs sont de notre entière responsabilité.

Cette partie des lignes directrices a été revue et validée par Marko Sijan, conseiller principal spécialiste (DPA RH).

 

Introduction partie A

La première partie de ce chapitre s’articule autour des sept exigences éthiques incluses dans les recommandations publiées par le groupe d’experts de haut niveau sur l’IA ([4] ) dans son document “Ethics guidelines for trustworthy AI”.[5] Ces recommandations ont été récemment analysées dans le cadre du projet SHERPA,[6] , qui comprend une analyse approfondie des questions éthiques liées au développement d’outils adéquats pour relever ces défis. À la lumière de cet effort louable, il serait redondant d’inclure ici une analyse approfondie du même sujet (IA) du même point de vue (éthique). Au lieu de cela, ce que nous avons essayé de faire dans ce document est de fournir une analyse complémentaire. Ces lignes directrices visent à trouver le chevauchement entre les recommandations éthiques formulées par le groupe d’experts de haut niveau sur l’IA et le cadre juridique créé par le règlement général sur la protection des données (RGPD) sur les questions de protection des données.

Avant de commencer l’analyse, il est toutefois nécessaire d’inclure quelques notes préliminaires. Tout d’abord, ce rapport se concentre principalement sur les développeurs d’IA : les organisations désireuses de développer des outils d’IA. Ces organisations deviennent des responsables du traitement dès qu’elles commencent à traiter des données à caractère personnel. Dans le même ordre d’idées, les termes “outil”, “solution”, “modèle” et “développement” doivent être considérés comme synonymes dans le contexte de cette analyse.

Deuxièmement, cette partie des lignes directrices ne peut être comprise que dans le contexte de l’ensemble de l’outil (les lignes directrices). Plusieurs concepts ne sont pas abordés dans ce document, car ils sont traités dans d’autres sections des lignes directrices ; nous y avons fait référence lorsque cela était nécessaire (les références sont surlignées en jaune). À l’avenir, toutes les sections seront disponibles sur un site web, ce qui rendra les lignes directrices beaucoup plus conviviales.

Les différentes sections de cette partie du document ne contiennent que ce que nous considérons comme strictement nécessaire pour comprendre les arguments fondamentaux des questions éthiques et juridiques en jeu. Nous avons inclus des listes de contrôle qui devraient aider les responsables du traitement à déterminer s’ils abordent les questions avec précision, ainsi qu’une section de lectures complémentaires que les lecteurs pourront consulter si nécessaire. Des notes de bas de page fournissent des références supplémentaires aux déclarations les plus importantes.

Enfin, ce document a été structuré de manière à être facile à comprendre. Comme mentionné précédemment, il est basé sur les sept exigences décrites par le groupe d’experts de haut niveau sur l’IA. Nous commençons notre analyse par une brève description des principales questions éthiques en jeu, puis nous résumons les principaux problèmes et défis éthiques qui y sont liés. Ceux-ci servent de base commune sur laquelle notre analyse juridique est construite, fournissant le contexte de l’analyse juridique effectuée.

 

  1. Auteur de l’ensemble du document à l’exception des sections 2 et 7 de cette partie.
  2. Auteur de la section 2 de cette partie.
  3. Les auteurs de la section 7 de cette partie.
  4. Le groupe d’experts de haut niveau sur l’IA a été créé par la Commission européenne en 2018. Il a pour objectif général de soutenir la mise en œuvre de la stratégie européenne sur l’intelligence artificielle. Cela inclut l’élaboration de recommandations sur l’élaboration de politiques liées à l’avenir et sur les questions éthiques, juridiques et sociétales liées à l’IA, y compris les défis socio-économiques. Disponible à l’adresse : https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence (consulté le 15 mai 2020).
  5. Groupe d’experts de haut niveau sur l’IA (2019) Lignes directrices en matière d’éthique pour une IA digne de confiance, p.15 et suivantes. Bruxelles, Commission européenne, Bruxelles. Disponible à l’adresse : https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (consulté le 15 mai 2020).
  6. SHERPA (2019) Lignes directrices pour l’utilisation éthique de l’IA et des systèmes de big data. SHERPA, www.project-sherpa.eu/wp-content/uploads/2019/12/use-final.pdf (consulté le 5 mai 2020).

 

Aller au contenu principal