Principios éticos
Home » IA » Marco general » Rendición de cuentas » Principios éticos

Auditabilidad

Auditabilidad significa permitir la evaluación de algoritmos, datos y procesos de diseño. La evaluación por auditores internos y externos, y la disponibilidad de dichos informes de evaluación, pueden contribuir a la fiabilidad de la tecnología. En las aplicaciones que afectan a los derechos fundamentales, incluidas las aplicaciones críticas para la seguridad, los sistemas de IA deben estar abiertos a auditorías independientes. Sin embargo, esto no implica necesariamente que la información sobre los modelos de negocio y la propiedad intelectual relacionada con el sistema de IA deba estar siempre disponible abiertamente.

Minimización y notificación de impactos negativos

Es esencial garantizar tanto la capacidad de informar sobre las acciones o decisiones que contribuyen a un determinado resultado del sistema, como de responder a las consecuencias de dicho resultado. Identificar, evaluar, documentar y minimizar los posibles impactos negativos de los sistemas de IA es especialmente crucial para los (in)directamente afectados. Los denunciantes de irregularidades, las ONG, los sindicatos u otras entidades deben gozar de la debida protección cuando informen de preocupaciones legítimas sobre un sistema de IA. El uso de evaluaciones de impacto (por ejemplo, red teaming o formas de evaluación de impacto algorítmico), tanto antes como durante el desarrollo, despliegue y uso de sistemas de IA, puede ayudar a minimizar los impactos negativos. Estas evaluaciones deben ser proporcionales al riesgo que plantean los sistemas de IA.

Compromisos

Al aplicar los requisitos anteriores, pueden surgir tensiones entre ellos, lo que puede dar lugar a inevitables compensaciones. Estas compensaciones deben abordarse de forma racional y metodológica dentro del estado de la técnica. Esto implica que deben identificarse los intereses y valores pertinentes implicados por el sistema de IA y que, si surge un conflicto, las compensaciones deben reconocerse explícitamente y evaluarse en función de su riesgo para los principios éticos, incluidos los derechos fundamentales. En las situaciones en las que no puedan identificarse contrapartidas éticamente aceptables, el desarrollo, despliegue y uso del sistema de IA no debe proceder de esa forma. Cualquier decisión sobre qué solución de compromiso tomar debe explicarse y documentarse adecuadamente. El responsable de la toma de decisiones debe ser responsable de la forma en que se realiza la compensación adecuada, y debe revisar continuamente la idoneidad de la decisión resultante para garantizar que se pueden realizar los cambios necesarios en el sistema cuando sea necesario.

Reparación

Cuando se produce un impacto adverso injusto, deben existir mecanismos accesibles que garanticen una reparación adecuada. Saber que es posible obtener reparación cuando las cosas van mal es clave para garantizar la confianza. Debe prestarse especial atención a las personas o grupos vulnerables.

Ir al contenido