Despliegue
Home » IA » Estudio de casos » Primer escenario: construcción de una herramienta de IA dedicada al diagnóstico del COVID-19 » Despliegue

Descripción

“El despliegue es el proceso de conseguir que un sistema informático esté operativo en su entorno, lo que incluye la instalación, la configuración, el funcionamiento, las pruebas y la realización de los cambios necesarios. El despliegue no suele ser realizado por los desarrolladores de un sistema, sino por el equipo de IT del cliente. No obstante, incluso si este es el caso, los desarrolladores tendrán la responsabilidad de proporcionar al cliente la información suficiente para implementar con éxito el modelo. Esto incluirá normalmente un plan de despliegue (genérico), con los pasos necesarios para su éxito y cómo realizarlos, y un plan (genérico) de seguimiento y mantenimiento para el mantenimiento del sistema, y para el seguimiento del despliegue y el uso correcto de los resultados de la minería de datos.”[1]

Principales acciones a abordar

Observaciones generales

Una vez creado su algoritmo, se enfrenta a un problema importante. Puede ocurrir que incorpore datos personales, abiertamente o de forma oculta. Debe realizar una evaluación formal para determinar qué datos personales de los interesados podrían ser identificables. Esto puede ser complicado en ocasiones. Por ejemplo, algunas herramientas de IA, como las máquinas de soporte vectorial (VSM) podrían contener ejemplos de los datos de entrenamiento por diseño dentro de la lógica del modelo. En otros casos, pueden encontrarse patrones en el modelo que identifiquen a un individuo único. En todos estos casos, las partes no autorizadas pueden ser capaces de recuperar elementos de los datos de entrenamiento, o inferir quién estaba en ellos, analizando la forma en que se comporta el modelo. Si sabe o sospecha que la herramienta de IA contiene datos personales, deberá:

  • Suprimirlos o, por el contrario, justificar la imposibilidad de hacerlo, total o parcialmente por la degradación que supondría para el modelo (ver el apartado ‘Limitación de almacenamiento’ en el capítulo ‘Principios’).
  • Determinar la base jurídica legitimadora para llevar a cabo la comunicación de datos personales a terceros, especialmente si se trata de categorías especiales de datos (véase el apartado “Licitud” en la sección “Licitud, lealtad y transparencia”).
  • Informar a los interesados del tratamiento anterior.
  • Demostrar que se han aplicado las políticas de protección de datos por diseño y por defecto (especialmente la minimización de datos).
  • En función de los riesgos que pueda suponer para los interesados y teniendo en cuenta el volumen o las categorías de datos personales que se vayan a utilizar, debe considerarse la posibilidad de realizar una Evaluación de Impacto sobre la Protección de Datos (EIPD).

Por último, debe tomar medidas periódicas para evaluar de forma proactiva la posibilidad de que los datos personales se deduzcan de los modelos a la luz de la tecnología más avanzada, de modo que se minimice el riesgo de divulgación accidental. Si estas acciones revelan una posibilidad sustancial de divulgación de datos, deben aplicarse las medidas necesarias para evitarla (véase la sección “Integridad y confidencialidad” en el capítulo “Principios”).

Actualizar la información

Si el algoritmo es implementado por un tercero, debe comunicar los resultados del sistema de validación y seguimiento empleado en las fases de desarrollo y ofrecer su colaboración para continuar el seguimiento de la validación de los resultados. También sería recomendable establecer este tipo de coordinación con los terceros a los que adquiera bases de datos o cualquier otro componente relevante en el ciclo de vida del sistema. Si se trata de un tratamiento de datos por parte de un tercero, hay que asegurarse de que el acceso se realiza con una base legal.

Es necesario ofrecer información en tiempo real al usuario final sobre los valores de exactitud y/o calidad de la información inferida en cada etapa (véase el apartado Exactitud del capítulo Principios). Cuando la información inferida no alcance los umbrales mínimos de calidad, deberá destacar que esta información no tiene valor. Este requisito suele implicar que se proporcione información detallada sobre las etapas de entrenamiento y validación. La información sobre los conjuntos de datos utilizados para ello es especialmente importante. De lo contrario, el uso de la solución podría dar resultados decepcionantes a los usuarios finales, que se quedan especulando sobre la causa.

 

 

  1. SHERPA, Guidelines for the Ethical Development of AI and Big Data Systems: An Ethics by Design approach, 2020, p 13. Disponible en: https://www.project-sherpa.eu/wp-content/uploads/2019/12/development-final.pdf (Visitado el 15 de mayo de 2020)

 

Ir al contenido