Muchos sistemas de IA se diseñan pensando en un caso de uso concreto. Sin embargo, como se ha dicho, puede evolucionar con el tiempo y alejarse lentamente de las intenciones originales de los diseñadores. Por lo tanto, es importante documentar claramente los supuestos iniciales y las condiciones en las que se pretendía utilizar el sistema de IA. Por ejemplo, ¿espera el sistema de IA un entorno específico o contiene el conjunto de entrenamiento sesgos conocidos? Si un sistema de IA está a disposición del público, la documentación sobre su fiabilidad también debería estarlo.
Además de la fiabilidad, la reproducibilidad de los resultados de un sistema de IA es importante. La reproducibilidad no sólo es una propiedad técnica deseable de un sistema de IA (por ejemplo, para investigar la razón de los resultados defectuosos), sino que también es un requisito previo importante para la confianza. Si un resultado no puede reproducirse, su explicabilidad -y, por tanto, la confianza en el sistema de IA- puede verse afectada.