Principes éthiques
Home » IA » Exposition générale » Responsabilité » Principes éthiques

Auditabilité

L’auditabilité signifie permettre l’évaluation des algorithmes, des données et des processus de conception. L’évaluation par des auditeurs internes et externes, et la disponibilité de ces rapports d’évaluation, peuvent contribuer à la fiabilité de la technologie. Dans les applications affectant les droits fondamentaux, y compris les applications critiques pour la sécurité, les systèmes d’IA devraient être ouverts à un audit indépendant. Cela n’implique toutefois pas nécessairement que les informations sur les modèles commerciaux et la propriété intellectuelle liés au système d’IA doivent toujours être ouvertement disponibles.

Minimisation et notification des impacts négatifs

Il est essentiel de garantir à la fois la capacité de rendre compte des actions ou des décisions qui contribuent à un certain résultat du système, et de réagir aux conséquences d’un tel résultat. Il est particulièrement crucial d’identifier, d’évaluer, de documenter et de minimiser les impacts négatifs potentiels des systèmes d’IA pour les personnes (in)directement concernées. Les dénonciateurs, les ONG, les syndicats ou d’autres entités doivent bénéficier d’une protection adéquate lorsqu’ils font part de préoccupations légitimes concernant un système d’IA. L’utilisation d’évaluations d’impact (par exemple, le red teaming ou des formes d’évaluation d’impact algorithmique), à la fois avant et pendant le développement, le déploiement et l’utilisation des systèmes d’IA, peut contribuer à minimiser les impacts négatifs. Ces évaluations doivent être proportionnelles au risque que posent les systèmes d’IA.

Compromis

Lors de la mise en œuvre des exigences susmentionnées, des tensions peuvent apparaître entre elles, ce qui peut conduire à des compromis inévitables. Ces compromis doivent être traités de manière rationnelle et méthodologique dans le cadre de l’état de l’art. Cela signifie que les intérêts et les valeurs concernés par le système d’IA doivent être identifiés et que, en cas de conflit, les compromis doivent être explicitement reconnus et évalués en termes de risque pour les principes éthiques, y compris les droits fondamentaux. Dans les situations où aucun compromis acceptable sur le plan éthique ne peut être identifié, le développement, le déploiement et l’utilisation du système d’IA ne devraient pas se poursuivre sous cette forme. Toute décision concernant le compromis à faire doit être expliquée et correctement documentée. Le décideur doit être responsable de la manière dont le compromis approprié est fait, et doit continuellement examiner la pertinence de la décision qui en résulte afin de s’assurer que les changements nécessaires peuvent être apportés au système, le cas échéant.

Réparation

Lorsqu’un impact négatif injuste se produit, des mécanismes accessibles doivent être mis en place pour garantir une réparation adéquate. Savoir qu’il est possible d’obtenir réparation lorsque les choses tournent mal est essentiel pour garantir la confiance. Une attention particulière doit être accordée aux personnes ou groupes vulnérables.

Aller au contenu principal