Déploiement
Home » IA » Étude de cas » Deuxième scénario : L’IA pour la prédiction et la prévention des infractions pénales » Déploiement

Description

“Le déploiement est le processus qui consiste à rendre un système informatique opérationnel dans son environnement, y compris l’installation, la configuration, l’exécution, les tests et les modifications nécessaires. Le déploiement n’est généralement pas effectué par les développeurs d’un système mais par l’équipe informatique du client. Néanmoins, même si c’est le cas, les développeurs auront la responsabilité de fournir au client des informations suffisantes pour un déploiement réussi du modèle. Cela comprendra normalement un plan de déploiement (générique), avec les étapes nécessaires pour un déploiement réussi et la manière de les réaliser, et un plan de surveillance et de maintenance (générique) pour la maintenance du système, et pour la surveillance du déploiement et de l’utilisation correcte des résultats de l’exploration de données.”[1]

Principales mesures à prendre

Remarques générales

Une fois que vous avez créé votre algorithme, vous êtes confronté à un problème important. Il se peut qu’il incorpore des données personnelles, ouvertement ou de manière cachée. Vous devez procéder à une évaluation formelle pour déterminer quelles données personnelles des personnes concernées pourraient être identifiables. Cela peut parfois être compliqué. Par exemple, certaines solutions d’IA, telles que les machines à support vectoriel (VSM), peuvent contenir des exemples de données d’entraînement dans la logique du modèle. Dans d’autres cas, des modèles peuvent être trouvés dans le modèle qui identifient un individu unique. Dans tous ces cas, des parties non autorisées peuvent être en mesure de récupérer des éléments des données d’apprentissage, ou de déduire qui s’y trouvait, en analysant la façon dont le modèle se comporte. Si vous savez ou soupçonnez que l’outil d’IA contient des données personnelles (voir la section “Achat ou promotion de l’accès à une base de données” dans “Principaux outils et actions”, Partie II), vous devez :

Enfin, vous devez prendre des mesures régulières pour évaluer de manière proactive la probabilité que des données à caractère personnel soient déduites de modèles à la lumière de l’état de la technologie, afin de minimiser le risque de divulgation accidentelle. Si ces actions révèlent une possibilité substantielle de divulgation des données, les mesures nécessaires pour l’éviter doivent être mises en œuvre (voir “Principe d’intégrité et de confidentialité” dans la partie II section “Principes” des présentes lignes directrices).

Mise à jour des informations

Si l’algorithme est mis en œuvre par un tiers, vous devez communiquer les résultats du système de validation et de suivi employé lors des phases de développement et proposer votre collaboration pour continuer à suivre la validation des résultats. Il serait également souhaitable d’établir ce type de coordination avec les tiers auprès desquels vous acquérez des bases de données ou tout autre composant pertinent dans le cycle de vie du système. Si cela implique le traitement de données par un tiers, vous devez vous assurer que l’accès est fourni sur une base légale.

Il est nécessaire d’offrir à l’utilisateur final des informations en temps réel sur les valeurs de précision et/ou de qualité des informations déduites à chaque étape (voir “Principe de précision” dans la partie II, section “Principes” des présentes lignes directrices). Lorsque les informations déduites n’atteignent pas les seuils de qualité minimum, vous devez souligner que ces informations n’ont aucune valeur. Cette exigence implique souvent que vous devez fournir des informations détaillées sur les étapes de formation et de validation. Les informations sur les ensembles de données utilisés à ces fins sont particulièrement importantes. Dans le cas contraire, l’utilisation de la solution risque d’apporter des résultats décevants aux utilisateurs finaux, qui se retrouvent à spéculer sur la cause.

Vous devez également vous assurer que toute mise en œuvre dans le monde réel est également conforme à la directive relative à l’application de la loi sur la protection des données (directive 2016/680)[2] et à leur mise en œuvre spécifique dans les différents États membres. Sachez que cela implique généralement pour les LEA des réglementations moins restrictives concernant l’utilisation des données personnelles. Dans le domaine de la justice pénale, la fourniture de preuves est souvent une activité contraignante. Il s’agit donc d’une tendance naturelle à collecter et traiter autant de données que possible qui pourraient éventuellement s’avérer utiles. Cette tendance est même renforcée par les possibilités techniques croissantes d’analyse automatique d’énormes quantités de données par des outils d’IA. Cependant, la minimisation des données est nécessaire et des contre-mesures efficaces contre la collecte et le traitement extensifs des données doivent donc être intégrées dès la conception des outils d’IA.

Le respect des droits de l’Homme et des principes éthiques exige la réalisation d’autres conditions essentielles :

“En ce qui concerne les technologies de surveillance, la charge de la preuve devrait incomber aux États et/ou aux entreprises, qui doivent faire des démonstrations publiques et transparentes, avant d’introduire des options de surveillance,

– qu’elles sont nécessaires

– qu’elles sont efficaces

– qu’elles respectent la proportionnalité (par exemple, la limitation de la finalité)

– qu’il n’existe pas de meilleures alternatives qui pourraient remplacer ces technologies de surveillance

Ces critères doivent ensuite également être soumis à une évaluation a posteriori, soit au niveau de l’analyse politique normale, soit par le biais des politiques des États membres en la matière. “[3]

 

 

  1. SHERPA, Lignes directrices pour le développement éthique des systèmes d’IA et de Big Data : Une approche d’éthique par la conception, 2020, p 13. À l’adresse : https://www.project-sherpa.eu/wp-content/uploads/2019/12/development-final.pdf Consulté le 15 mai 2020
  2. Parlement européen et Conseil, 2016, Directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, et à la libre circulation de ces données, et abrogeant la décision-cadre 2008/977/JAI du Conseil, Journal officiel <http://eur-lex.europa.eu/legal-content/EL/TXT/?uri=OJ:L:2016:119:TOC>.
  3. Groupe européen d’éthique des sciences et des nouvelles technologies. (2014). Avis n° 28 : éthique des technologies de sécurité et de surveillance (10.2796/22379). Récupéré de Luxembourg : Bruxelles : https://publications.europa.eu/en/publication-detail/-/publication/6f1b3ce0-2810-4926-b185-54fc3225c969/language-en/format-PDF/source-77404258

 

Aller au contenu principal