Skip to main content
Article
Discrimination, intelligence artificielle et décisions algorithmiques
Council of Europe (2018)
  • Frederik Zuiderveen Borgesius, Radboud University Nijmegen
Abstract
Le présent rapport, préparé à l’intention du Service anti-discrimination du Conseil de l’Europe, porte sur la discrimination issue des décisions algorithmiques et d’autres formes d’intelligence artificielle (IA). Cette dernière permet d’atteindre des buts importants (efficacité, santé, croissance économique, par exemple). Mais elle peut aussi avoir des effets discriminatoires, par exemple lorsque l’apprentissage du système se fonde sur des décisions humaines biaisées.

Des organisations publiques et privées peuvent fonder sur l’IA des décisions lourdes de conséquences pour des personnes. Dans le secteur public, l’IA peut par exemple être utilisée dans la prévention policière (police prédictive) ou dans les décisions de versement de pensions, d’aides au logement ou d’allocations de chômage. Dans le privé, elle peut servir par exemple à sélectionner des candidats à un emploi. Les banques peuvent l’utiliser pour accorder ou non un crédit à un consommateur et fixer le taux d’intérêt correspondant. De plus, un grand nombre de décisions de moindre poids peuvent à elles toutes avoir de larges conséquences. La différenciation des prix par l’IA pourrait par exemple aboutir à ce que certains groupes sociaux paient systématiquement plus cher.

Les principaux instruments juridiques permettant de réduire les risques de discrimination par l’IA sont la réglementation anti-discrimination et la réglementation relative à la protection des données. Effectivement appliquées, elles pourraient contribuer à la lutte contre la discrimination illicite. Les États membres du Conseil de l’Europe, les organes de surveillance du respect des droits de l’homme (comme la Commission européenne contre le racisme et l’intolérance) et les organismes de promotion de l’égalité devraient travailler à ce que le respect des normes anti-discrimination en vigueur soit mieux garanti.

Mais l’IA ouvre également sur de nouvelles formes de différenciations injustifiées (que certains qualifieraient de discriminatoires), que n’envisage pas le droit existant. La plupart des textes anti-discrimination ne s’appliquent qu’à la discrimination fondée sur des caractéristiques protégées, comme la couleur de la peau. Ils ne couvrent pas les nouvelles catégories (non corrélées avec des caractéristiques protégées) que peut créer un système d’IA pour différencier des groupes de population. Ces différenciations n’en pourraient pas moins être injustes, par exemple si elles renforcent des inégalités sociales.

Il sera probablement nécessaire de compléter la réglementation pour protéger la justice et les droits de l’homme dans le domaine de l’IA. Mais il ne convient pas de chercher à réglementer l’ensemble de ce dernier par un dispositif unique, car les applications des systèmes d’IA sont trop variées. Les valeurs sous-jacentes et les problèmes changent d’un secteur à l’autre. Il faudra donc envisager des règles sectorielles. D’autres recherches et débats sont encore nécessaires.
Disciplines
Publication Date
2018
Citation Information
Frederik Zuiderveen Borgesius. "Discrimination, intelligence artificielle et décisions algorithmiques" Council of Europe (2018)
Available at: http://works.bepress.com/frederik-zuiderveenborgesius/12/