IA: requisitos para desarrolladores e innovadores
Iñigo de Miguel Beriain[1] (UPV/EHU), Felix Schaber[2] (OEAW), Gianclaudio Malgieri y Andrés Chomczyk Penedo[3] (VUB)
Agradecimientos: Los autores agradecen a José Antonio Castillo Parrilla, Eduard Fosch Villaronga y Lorena Pérez Campillo su amable apoyo en la redacción de este documento. Huelga decir que todos los errores son de nuestra entera responsabilidad. |
Esta parte de la Guía ha sido revisada y validada por Marko Sijan, Asesor Senior Especialista, (HR DPA)
Introducción parte A
La primera parte de este capítulo se articula en torno a los siete requisitos éticos incluidos en las recomendaciones publicadas por el Grupo de Expertos de Alto Nivel sobre IA[4] en sus “Ethics guidelines for trustworthy AI”.[5] Estas recomendaciones fueron analizadas recientemente por el proyecto SHERPA,[6] , que incluyó un amplio análisis de las cuestiones éticas que plantea el desarrollo de herramientas adecuadas para afrontar estos retos. A la luz de este encomiable esfuerzo, sería redundante incluir aquí un extenso análisis del mismo tema (IA) desde la misma perspectiva (ética). En su lugar, lo que hemos intentado hacer en este documento es ofrecer un análisis complementario. Estas Directrices pretenden encontrar el solapamiento entre las recomendaciones éticas formuladas por el Grupo de Expertos de Alto Nivel sobre IA y el marco jurídico creado por el Reglamento General de Protección de Datos (RGPD) en materia de protección de datos.
Antes de iniciar el análisis, sin embargo, es necesario incluir algunas notas preliminares. En primer lugar, este informe se centra principalmente en los desarrolladores de IA: organizaciones dispuestas a desarrollar herramientas de IA. Estas organizaciones se convierten en responsables del tratamiento en cuanto empiezan a tratar datos personales. Del mismo modo, los términos “herramienta”, “solución”, “modelo” y “desarrollo” deben considerarse sinónimos en el contexto de este análisis.
En segundo lugar, esta parte de las Directrices sólo puede entenderse en el contexto de toda la herramienta (las Directrices). Hay varios conceptos que no se exploran en este documento, porque se abordan en otras secciones de las Directrices; hemos hecho referencia a ellos siempre que ha sido necesario (las referencias están resaltadas en amarillo). En el futuro, todas las secciones estarán disponibles en un sitio web, lo que hará que las Directrices sean mucho más fáciles de utilizar.
Las distintas secciones de esta parte del documento contienen únicamente lo que consideramos estrictamente necesario para comprender los argumentos centrales de las cuestiones éticas y jurídicas en juego. Hemos incluido listas de comprobación que deberían ayudar a los controladores a determinar si están abordando las cuestiones con precisión, así como una sección de lecturas complementarias para que los lectores puedan consultarlas en caso necesario. Las notas a pie de página ofrecen referencias adicionales a las afirmaciones más importantes.
Por último, este documento se ha estructurado para que sea fácil de entender. Como ya se ha dicho, se basa en los siete requisitos descritos por el Grupo de Expertos de Alto Nivel sobre IA. Comenzamos nuestro análisis con una breve descripción de las cuestiones éticas fundamentales que están en juego y, a continuación, resumimos los principales problemas y retos éticos relacionados con ellas. Éstos sirven de base común sobre la que se construye nuestro análisis jurídico, proporcionando el contexto para el análisis jurídico realizado.
- Autor de todo el documento excepto las secciones 2 y 7 de esta parte. ↑
- Autor de la sección 2 de esta parte. ↑
- Autores de la sección 7 de esta parte. ↑
- El Grupo deExpertos de Alto Nivel sobre IA fue creado por la Comisión Europea en 2018. Tiene como objetivo general apoyar la aplicación de la Estrategia Europea sobre Inteligencia Artificial. Esto incluye la elaboración de recomendaciones sobre el desarrollo de políticas relacionadas con el futuro y sobre cuestiones éticas, legales y sociales relacionadas con la IA, incluidos los desafíos socioeconómicos. Disponible en: https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence (consultado el 15 de mayo de 2020). ↑
- Grupo de expertos de alto nivel sobre IA (2019) Ethics guidelines for trustworthy AI, p.15 y ss. Bruselas, Comisión Europea, Bruselas. Disponible en: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (consultado el 15 de mayo de 2020). ↑
- SHERPA (2019) Directrices para el uso ético de la IA y los sistemas de big data. SHERPA, www.project-sherpa.eu/wp-content/uploads/2019/12/use-final.pdf (consultado el 5 de mayo de 2020). ↑