IA: el proceso paso a paso
Home » IA » IA: el proceso paso a paso

Iñigo de Miguel Beriain (UPV/EHU)

Agradecimientos: El autor agradece los consejos, aportaciones y comentarios sobre los borradores de Andres Chomsky, Oliver Feeney, Gianclaudio Malgieri Aurélie Pols y Marko Sijan. Ni que decir tiene que todos los errores son de mi entera responsabilidad.

Esta parte de las Directrices ha sido revisada y validada por Marko Sijan, Asesor Superior Especialista, (HR DPA)

 

Introducción part B

Esta parte de las Directrices se ha elaborado sobre la base del modelo paso a paso “step-by-step model”-, también conocido como modelo CRISP-DM. Ésta, a su vez, fue la herramienta seleccionada por el proyecto SHERPA para elaborar sus Directrices para el desarrollo ético de sistemas de IA y Big Data. Las etapas que comprende el modelo son: comprensión del negocio; comprensión de los datos; preparación de los datos; modelización; evaluación; y despliegue. No obstante, hay que destacar que algunos de los requisitos éticos y jurídicos relativos al desarrollo de la IA deben ser evaluados de forma continua. Según el artículo 25 del RGPD, esto debe hacerse a lo largo de todo el ciclo de vida de una solución de IA, tal y como también declaró en su momento el Grupo de Trabajo del Artículo 29.

Una cuestión adicional, que merece ser tenida en cuenta, es que “IA” es una etiqueta común que engloba una variedad de tecnologías diferentes. Hay que hacer una distinción fundamental entre el aprendizaje automático supervisado “supervised machine learning” (donde los datos de entrada etiquetados se proporcionan por un ser humano a un algoritmo, que luego define las reglas basándose en ejemplos que son casos validados) y el aprendizaje no supervisado (donde se proporcionan datos de entrada no etiquetados a un algoritmo que realiza su propia clasificación y que es libre de producir su propia salida cuando se le presenta un patrón o una variable). Intentamos ofrecer orientaciones válidas tanto para la IA supervisada como para la no supervisada. Somos conscientes de que es casi imposible ofrecer asesoramiento en todas las situaciones posibles. Sin embargo, esperamos poder destacar los aspectos comunes fundamentales e incluir fuentes de información adicional útiles a este fin.

Por último, entendemos perfectamente que algunos expertos podrían considerar que varias de las recomendaciones que hacemos podrían trasladarse de un paso a otro. Además, algunas de ellas podrían aplicarse a pasos diferentes. Por lo tanto, les recomendamos encarecidamente que adapten estas directrices a su mejor conveniencia y conocimiento.

La estructura del documento es fácil de seguir. En primer lugar, se introduce una cita de Colin Shearer , seguida de una descripción de las tareas que conlleva cada etapa concreta del proceso, siguiendo al mismo autor. A continuación, introducimos algunas recomendaciones que deberían aplicarse en ese momento. En el Anexo I se muestran las recomendaciones para la auditoría de las herramientas de IA elaboradas por la Agencia Española de Protección de Datos. El Anexo II es más específico, ya que se refiere al uso de la IA en el sector sanitario. Sin embargo, es una excelente guía para aquellos que quieran desarrollar una herramienta de IA en ese campo. En el futuro, intentaremos incorporar más anexos, en cuanto se produzca un mecanismo eficaz para hacerlo.

Esta parte de las Directrices fue redactada por Iñigo de Miguel Beriain (UPV/EHU). El autor agradece el asesoramiento, las aportaciones y los comentarios sobre los borradores, de Andrés Chomsky, Oliver Feeney y Gianclaudio Malgieri. La presente versión fue revisada por Aurélie Pols y Marko Sijan. No hace falta decir que todos los errores son responsabilidad del autor. La traducción al castellano ha sido realizada por Aliuska Duardo (UPV/EHU).

 

Ir al contenido