Disposiciones del RGPD
Home » IA » Marco general » Equidad, diversidad y no discriminación » Disposiciones del RGPD

Según el considerando 71 del RGPD, “el responsable del tratamiento debe utilizar procedimientos matemáticos o estadísticos adecuados para la elaboración de perfiles, aplicar medidas técnicas y organizativas apropiadas para garantizar, en particular, que se corrijan los factores que den lugar a inexactitudes en los datos personales y que se reduzca al mínimo el riesgo de errores, proteger los datos personales de forma que se tengan en cuenta los riesgos potenciales para los intereses y derechos del interesado y se eviten, entre otros, los efectos discriminatorios para las personas físicas por motivos de origen racial o étnico, opiniones políticas, religión o convicciones, afiliación sindical, estado genético o de salud u orientación sexual, o que den lugar a medidas que produzcan tales efectos.”

Este apartado está estrictamente vinculado al artículo 21 de la Carta de los Derechos Fundamentales de la UE, que establece que “[s]e prohíbe toda discriminación, y en particular la ejercida por razón de sexo, raza, color, orígenes étnicos o sociales, características genéticas, lengua, religión o convicciones, opiniones políticas o de cualquier otro tipo, pertenencia a una minoría nacional, patrimonio, nacimiento, discapacidad, edad u orientación sexual”. Por su parte, el EDPB ofrece una definición de imparcialidad en sus Directrices sobre protección de datos desde el diseño y por defecto, que establece que “[l]a imparcialidad es un principio general que exige que los datos personales no se traten de manera perjudicial, discriminatoria, inesperada o engañosa para el interesado”. [1]

La discriminación es, por tanto, una violación dramática del principio de imparcialidad. Sin embargo, en el ámbito de la IA, los prejuicios constituyen una formidable amenaza contra este principio, porque podrían conducir a una potencial estigmatización o discriminación de individuos aislados o de comunidades enteras. [2]

 

 

  1. EDPB (2019) Guidelines 4/2019 on Article 25 Data Protection by Design and by Default (versión para consulta pública). Consejo Europeo de Protección de Datos, Bruselas. Disponible en: https://edpb.europa.eu/our-work-tools/public-consultations-art-704/2019/guidelines-42019-article-25-data-protection-design_es (consultado el 20 de mayo de 2020).
  2. Mittelstadt, B. y L. Floridi, L. (2016) ‘The ethics of big data: current and foreseeable issues in biomedical context’, Science and Engineering Ethics 22(2): 303-341.

 

Ir al contenido