Mise en œuvre d’un programme de formation
Home » IA » Étape par étape » Compréhension de l’entreprise » Mise en œuvre d’un programme de formation

Cette action est l’un des conseils les plus importants à prendre en compte dès le premier moment du développement d’une entreprise d’IA. Les concepteurs d’algorithmes (développeurs, programmeurs, codeurs, data scientists, ingénieurs), qui occupent le premier maillon de la chaîne algorithmique, sont susceptibles d’ignorer les implications éthiques et juridiques de leurs actions. En outre, l’un des principaux problèmes que soulève l’IA est qu’elle utilise généralement des données personnelles incluses dans de vastes ensembles de données. Cela brouille en quelque sorte la relation entre les données et la personne concernée, entraînant des violations de la réglementation qui se produisent rarement lorsque le responsable des données et le sujet ont une relation directe.[1] Cela pourrait avoir des conséquences en termes de respect adéquat des normes de protection des données. Il est primordial que ces travailleurs clés aient la plus grande conscience possible des implications éthiques et sociales de leur travail, et du fait même que celles-ci peuvent s’étendre à des choix de société,[2] même si l’alibi de l'”ingénierie dévoyée” peut difficilement fonctionner après l’affaire Google Street View. [3]

Afin d’éviter que la mauvaise représentation des questions éthiques et juridiques ne provoque des conséquences indésirables, deux grandes lignes d’action peuvent être adoptées. Tout d’abord, les développeurs peuvent essayer de faire en sorte que les concepteurs d’algorithmes soient en mesure de comprendre les implications de leurs actions, tant pour les individus que pour la société, et qu’ils soient conscients de leurs responsabilités en apprenant à faire preuve d’une attention et d’une vigilance constantes.[4] En ce sens, une formation optimale de tous les sujets impliqués dans le projet (développeurs, programmeurs, codeurs, data scientists, ingénieurs, chercheurs) avant même qu’il ne commence pourrait être l’un des outils les plus efficaces pour économiser du temps et des ressources en termes de conformité avec la réglementation sur la protection des données. Ainsi, la mise en œuvre de programmes de formation de base qui comprennent au moins les principes fondamentaux de la Charte des droits fondamentaux, les principes exposés à l’article 5 du RGPD, la nécessité d’une base légale pour le traitement (y compris les contrats entre les parties), etc.

Cependant, il peut être difficile de former des personnes qui n’ont jamais été en contact avec les questions de protection des données. Une autre solution consiste à impliquer un expert de la protection des données et des questions éthiques et juridiques dans l’équipe de développement, de manière à créer une équipe interdisciplinaire. Pour ce faire, on peut engager un expert à cette fin (un travailleur interne ou un consultant externe) pour concevoir la stratégie et les décisions ultérieures sur les données personnelles requises par le développement des outils, avec la participation étroite du délégué à la protection des données.

Il est également fortement recommandé d’adopter des mesures adéquates pour garantir la confidentialité, l’intégrité et la disponibilité des données (voir “Mesures en faveur de la confidentialité” dans la sous-section “Intégrité et confidentialité” des “Principes” de la partie II des présentes lignes directrices).

 

 

  1. Kuyumdzhieva, A. (2018) ‘Ethical challenges in the digital era : focus on medical research’, pp. 45-62 in : Koporc, Z. (ed.) Ethics and integrity in health and life sciences research. Emerald, Bingley.
  2. CNIL (2017) Comment l’humain peut-il garder la main ? Les questions éthiques soulevées par les algorithmes et l’intelligence artificielle. Commission nationale de l’informatique et des libertés, Paris, p.55. Disponible sur : www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_ai_gb_web.pdf (consulté le 15 mai 2020).
  3. Voir, par exemple : https://www.slashgear.com/googles-rogue-engineer-street-view-excuse-blown-apart-30225200/
  4. Ibid. p. 55.

 

Aller au contenu principal