Le RGPD ne comprend pas de dispositions spécifiques liées au bien-être sociétal et environnemental. Toutefois, l’article 5, paragraphe 1, point b), stipule que “les données à caractère personnel sont collectées pour des finalités spécifiques, explicites et légitimes”. Par cette clause, le RGPD introduit le concept de légitimité dans le contexte de la protection des données.
Cependant, la légitimité est un concept flou qui n’est pas du tout défini par le RGPD (voir “Principe de licéité, de loyauté et de transparence” dans la section “Principes” de la partie II des présentes lignes directrices). Le groupe de travail Article 29 indique que cela “signifie que les finalités doivent être “conformes à la loi” au sens le plus large. Cela inclut toutes les formes de droit écrit et de common law, la législation primaire et secondaire, les décrets municipaux, les précédents judiciaires, les principes constitutionnels, les droits fondamentaux, les autres principes juridiques, ainsi que la jurisprudence, telle que cette “loi” serait interprétée et prise en compte par les tribunaux compétents”. Par conséquent, elle doit être comprise comme un concept très large qui englobe des considérations de bien-être social et environnemental.
Dans le “Livre blanc sur l’intelligence artificielle : une approche européenne de l’excellence et de la confiance”, les auteurs notent que “compte tenu de l’importance croissante de l’IA, l’impact environnemental des systèmes d’IA doit être dûment pris en compte tout au long de leur cycle de vie et dans l’ensemble de la chaîne d’approvisionnement, par exemple en ce qui concerne l’utilisation des ressources pour la formation des algorithmes et le stockage des données”. [1]
D’autres recommandations concrètes pour le développement de l’IA, orientées vers le bien-être sociétal et environnemental, figurent dans le “Rapport de la Commission au Parlement européen, au Conseil et au Comité économique et social européen : rapport sur les implications de l’intelligence artificielle, de l’internet des objets et de la robotique en matière de sécurité et de responsabilité”.[2] Ce type de recommandations éthiques devrait être soigneusement examiné par les développeurs d’IA avant de traiter des données personnelles, car elles sont clairement liées à leur légitimité.
- Commission européenne (2020) Livre blanc sur l’intelligence artificielle : une approche européenne de l’excellence et de la confiance. Commission européenne, Bruxelles, p.3. Disponible sur : https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf (consulté le 26 mai 2020). ↑
- Commission européenne (2020) Rapport de la Commission au Parlement européen, au Conseil et au Comité économique et social européen : rapport sur les implications en matière de sécurité et de responsabilité de l’intelligence artificielle, de l’internet des objets et de la robotique. Commission européenne, Bruxelles. Disponible à l’adresse : https://ec.europa.eu/info/sites/info/files/report-safety-liability-artificial-intelligence-feb2020_en_1.pdf (consulté le 26 mai 2020). ↑