Cette première exigence pour le développement de l’IA repose sur trois grands principes différents : [1]
- Les droits fondamentaux. Les systèmes d’IA peuvent permettre ou entraver les droits fondamentaux. Dans ces circonstances, une évaluation de l’impact sur les droits fondamentaux devrait être entreprise avant de développer une solution d’IA.
- La capacité d’action humaine. Les utilisateurs de systèmes d’IA devraient être en mesure de prendre des décisions éclairées et autonomes à ce sujet. Les systèmes d’IA doivent aider les individus à faire des choix plus judicieux, plus éclairés et conformes à leurs objectifs. Le principe général de l’autonomie de l’utilisateur doit être au cœur de la fonctionnalité du système d’IA. Par exemple, les personnes concernées doivent savoir que leurs données pourraient être utilisées pour le profilage, si cela devait arriver. En outre, leur droit de ne pas faire l’objet d’une décision fondée uniquement sur un traitement automatisé, lorsque celui-ci produit des effets juridiques ou des effets d’une importance similaire, doit être respecté. Toutefois, il faut garder à l’esprit que cela se réfère, en général, à des fins commerciales. Il n’en va donc pas de même pour les organismes chargés de l’application de la loi qui traitent des données à caractère personnel sur une base légale et peuvent utiliser l’IA pour lutter efficacement contre différents crimes et remplir les obligations stipulées par la loi.
- Supervision humaine.Elle permet de s’assurer qu’un système d’IA ne porte pas atteinte à l’autonomie humaine ou ne provoque pas d’autres effets indésirables. Cette surveillance peut être assurée par divers mécanismes de gouvernance. Ceci étant dit, moins un humain peut exercer de surveillance sur un système d’IA, plus les tests doivent être approfondis et la gouvernance rigoureuse.
- Ibid. p.15. ↑