Disposiciones GDPR: Transparencia
Home » IA » Marco general » Transparencia » Disposiciones GDPR: Transparencia

Comprender la transparencia y la opacidad

En general, la transparencia significa que los interesados reciben información clara sobre el tratamiento de datos (véase “Transparencia” en la subsección “Licitud, imparcialidad y transparencia” de los “Principios” de la Parte II de estas directrices). Deben ser informados sobre cómo y para qué fines se utiliza su información (incluidos los datos observados e inferidos sobre ellos), independientemente de si esta información se obtiene de los propios interesados o de otros.[1] Los interesados siempre deben saber cómo y por qué se ha tomado una decisión sobre ellos asistida por IA, o dónde se han utilizado sus datos personales para entrenar y probar un sistema de IA. Los responsables del tratamiento deben tener en cuenta que, en estos casos, la transparencia es aún más importante que cuando no tienen una relación directa con los interesados.

En general, la transparencia debe garantizarse utilizando una serie de herramientas complementarias. El nombramiento de un RPD, que sirva de punto de contacto único para las consultas de los interesados, es una opción excelente. Preparar registros adecuados del tratamiento para las autoridades de control, o realizar DPIA, son también medidas muy recomendables para fomentar la transparencia. Y la realización de análisis que evalúen la eficacia y accesibilidad de la información facilitada a los interesados contribuye a garantizar la aplicación eficaz de este principio.

El principal reto de la IA es que engloba una serie de técnicas muy diferentes entre sí. Algunas son muy sencillas, por lo que al controlador le resulta fácil proporcionar toda la información necesaria. Otras, como el aprendizaje profundo, adolecen de graves problemas de transparencia. Esto se conoce a menudo como el problema de la “caja negra”, que introduce el problema de la opacidad en el marco de la IA, una circunstancia que dificulta la transparencia. De hecho, la opacidad es una de las principales amenazas contra la IA justa, ya que desafía directamente la necesidad de transparencia. Existen al menos tres tipos de opacidad inherentes a la IA en mayor o menor medida: (1) como secreto empresarial o estatal intencionado; (2) como analfabetismo técnico; y (3) opacidad epistémica.

La opacidad como secreto empresarial o estatal intencionado

Este tipo de opacidad puede ser legítima al amparo de la normativa sobre secretos industriales. También puede responder a intereses legítimos, como preservar ventajas competitivas, preservar la seguridad del sistema o impedir que usuarios malintencionados jueguen con el sistema. Sin embargo, debe ser compatible con la incorporación de sistemas de certificación independientes capaces de acreditar que el mecanismo cumple los requisitos del GDPR. En la mayoría de los casos, facilitar al interesado la información que necesita para proteger sus intereses, sin revelar al mismo tiempo secretos comerciales, no debería ser problemático.[2] Ello se debe al simple hecho de que los interesados no necesitan comprender en detalle cómo funciona el sistema, sino únicamente cómo podría perjudicar sus intereses, derechos y libertades.

La opacidad como analfabetismo técnico

Este tipo de opacidad deriva de los conocimientos específicos necesarios para diseñar y programar los algoritmos, y de la capacidad de leer y escribir el código. Podríamos decir que los códigos utilizados en la IA son un misterio para la gran mayoría de la población, que carece de estos conocimientos específicos, pero esto no debe ser un impedimento para el cumplimiento de la obligación de información estipulada por el GDPR. La capacidad de comprender el lenguaje informático no debe ser un obstáculo para ofrecer una explicación comprensible de la finalidad de un sistema de IA, no solo a los interesados que son objeto de la elaboración de perfiles o de una decisión automatizada, sino a todos los demás.

Opacidad epistémica

Esta opacidad surge de las características de los algoritmos de aprendizaje automático y de la escala necesaria para aplicarlos de forma útil. Está relacionada con el hecho de que ciertos modelos algorítmicos no son interpretables por los humanos. En pocas palabras, el tránsito entre las entradas que recibe el modelo y las salidas que arroja es inescrutable en términos de comprensión humana. A nivel normativo, no está prohibido el uso de este tipo de modelos, aunque es aconsejable seguir el principio de precaución a la hora de utilizarlos, ya que la falta de interpretabilidad podría agravar las dificultades para identificar sesgos en el modelo, lo que a su vez podría dar lugar a resultados discriminatorios, o correlaciones falsas o espurias. Por supuesto, no todos los modelos de aprendizaje automático son opacos en este sentido.

La preferencia por las herramientas transparentes

En general, los controladores deben prever siempre el desarrollo de algoritmos más comprensibles en detrimento de los menos comprensibles. Las compensaciones entre la explicabilidad, la transparencia y el mejor rendimiento del sistema deben equilibrarse adecuadamente en función del contexto de uso. Por ejemplo, en la atención sanitaria, la precisión y el rendimiento del sistema pueden ser más importantes que su explicabilidad; en el ámbito policial, la explicabilidad es mucho más crucial para justificar el comportamiento y los resultados de la aplicación de la ley. En otros ámbitos, como la contratación, tanto la precisión como la explicabilidad se valoran de forma similar.[3] Si un servicio puede ofrecerse tanto a través de un algoritmo fácil de entender como de uno opaco -es decir, cuando no hay compromiso entre explicabilidad y rendimiento-, el controlador debe optar por el que sea más interpretable tabla.

Si los controladores no tienen más remedio que utilizar un modelo opaco, al menos deberían intentar encontrar soluciones técnicas a la falta de interpretabilidad. Por supuesto, es muy difícil medir con precisión en qué sentido se consigue una ampliación de la explicabilidad. Para más información, véase el apartado “Derecho a no ser objeto de una toma de decisiones automatizada” dentro de la sección “Derechos del interesado” de la Parte II de estas Directrices’. Si a los responsables del tratamiento les resulta difícil encontrar explicaciones, deberían buscar asesoramiento externo. La posibilidad de recurrir a auditorías independientes puede ser de nuevo una opción razonable.

Información adicional

SEPD (2015) Dictamen 7/2015. Afrontar los retos de los macrodatos: Un llamamiento a la transparencia, el control de los usuarios, la protección de datos desde el diseño y la rendición de cuentas. Supervisor Europeo de Protección de Datos, Bruselas. Disponible en: https://edps.europa.eu/sites/edp/files/publication/15-11-19_big_data_en.pdf

Grupo de Expertos de Alto Nivel en Inteligencia Artificial (2019) Ethics guidelines for trustworthy AI. Comisión Europea, Bruselas. Disponible en: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

ICO (2020) Explicación de las decisiones tomadas con IA. Oficina del Comisario de Información, Wilmslow. Disponible en: https://ico.org.uk/media/for-organisations/guide-to-data-protection/key-data-protection-themes/explaining-decisions-made-with-artificial-intelligence-1-0.pdf

Autoridad Noruega de Protección de Datos (2018) Inteligencia artificial y privacidad. Autoridad noruega de protección de datos, Oslo. Disponible en: https://iapp.org/media/pdf/resource_center/ai-and-privacy.pdf

SHERPA (2019) Directrices para el uso ético de la IA y los sistemas de big data. Proyecto sherpa. Disponible en: https://www.project-sherpa.eu/wp-content/uploads/2019/12/use-final.pdfwww.project-sherpa.eu/wp-content/uploads/2019/12/use-final.pdf

 

 

  1. Artículos 13 y 14 del RGPD.
  2. Autoridad Noruega de Protección de Datos (2018) Inteligencia artificial y privacidad. Autoridad Noruega de Protección de Datos, Oslo. Disponible en: https://iapp.org/media/pdf/resource_center/ai-and-privacy.pdf (consultado el 20 de mayo de 2020).
  3. SHERPA (2019) Directrices para el uso ético de la IA y los sistemas de big data. Proyecto SHERPA, p.26. Disponible en: www.project-sherpa.eu/wp-content/uploads/2019/12/use-final.pdf (consultado el 15 de mayo de 2020).

 

Ir al contenido