Opte por la solución técnica más trasparente
Home » IA » IA: el proceso paso a paso » Comprensión del negocio » Opte por la solución técnica más trasparente

En general, los desarrolladores de IA deben favorecer siempre el desarrollo de algoritmos más interpretables frente a los menos interpretables (véase la sección 4.2. Disposiciones del RGPD: Transparencia). Las compensaciones entre la explicabilidad/transparencia y el mejor rendimiento del sistema deben equilibrarse adecuadamente en función del contexto de uso. Por ejemplo, en la asistencia sanitaria, la precisión y el rendimiento del sistema pueden ser más importantes que su explicabilidad, mientras que, en el ámbito policial, la explicabilidad es mucho más crucial para justificar los comportamientos y los resultados de la aplicación de la ley. En otros ámbitos, como el de la contratación, tanto la precisión como la explicabilidad se valoran de forma similar. Si un servicio puede ofrecerse a través de ambos, de un algoritmo fácil de entender y de uno opaco, es decir, cuando no existe un balance entre la explicabilidad y el rendimiento, el responsable del tratamiento debe optar por el que sea más interpretable (véase la sección “Licitud, lealtad y transparencia” en el capítulo “Principios”). 

Cuadro 13: Interpretando la interpretabilidad

Aunque la interpretabilidad parece ser recomendable, hay que reconocer que no es un concepto claro. La literatura académica muestra diferentes motivaciones para la interpretabilidad y, lo que es más importante, ofrece una miríada de nociones sobre los atributos que hacen que los modelos sean interpretables. Todavía no está claro qué es lo que reúne la “interpretación”. A primera vista parece razonable suponer que los algoritmos simples y lineales son más fáciles de entender. Sin embargo, “para algunos tipos de interpretación a posteriori, las redes neuronales profundas presentan una clara ventaja. Aprenden representaciones ricas que pueden visualizarse, verbalizarse o utilizarse para la agrupación. Teniendo en cuenta los requerimientos de interpretabilidad, los modelos lineales parecen tener un mejor historial para estudiar el mundo natural, pero no conocemos una razón teórica por la que esto deba ser así. Es concebible que las interpretaciones post-hoc puedan resultar útiles en escenarios similares”. Por lo tanto, es difícil llegar a recomendaciones específicas sobre qué tipo de modelos deben preferirse en función de su “interpretabilidad”

Ir al contenido