Catégories
Handicap & Soutien

Biais du handicap dans les outils de recrutement d'IA et la protection juridique

Auteur: Juyoun Han et Patrick Lin(je) : Contact: EandBLaw.com

Publié: 2020-11-25

Synopsis et points clés:

Le biais de l'intelligence artificielle (IA) dans l'embauche et le recrutement des emplois est préoccupant en tant que nouvelle forme de discrimination dans l'emploi.

Malgré sa commodité, l'IA peut également être biaisée en raison de la race, du sexe et du statut de handicap, et peut être utilisée de manière à exacerber la discrimination systémique en matière d'emploi.

Un exemple courant d'IA peut être trouvé sur LinkedIn, un site Web qui relie les demandeurs d'emploi aux employeurs et aux recruteurs.

Résumé principal

Les personnes handicapées sont confrontées à des désavantages importants sur le marché du travail. Selon l'Equal Employment Opportunity Commission (EEOC) des États-Unis (1), parmi toutes les affaires de discrimination dans l'emploi déposées en 2019, les plaintes les plus courantes concernaient une discrimination fondée sur le handicap (33,4%), suivie de près par la discrimination raciale et sexuelle. Aujourd'hui, une nouvelle forme de discrimination dans l'emploi est préoccupante: le biais d'intelligence artificielle («IA»).

Qu'est-ce que l'intelligence artificielle?

L'intelligence artificielle (2) est une branche de l'informatique qui développe des ordinateurs et des machines pour imiter le comportement humain intelligent. Des exemples généraux d'IA dans notre vie quotidienne peuvent inclure «Siri» ou «Alexa». L'IA est également intégrée à des technologies d'assistance telles que Seeing AI, AVA, Voiceitt et les fauteuils roulants intelligents, pour n'en nommer que quelques-unes.

Comment l'intelligence artificielle est-elle utilisée dans l'embauche et comment cela affecte-t-il les personnes handicapées?

L'IA est également largement utilisée dans l'embauche et le recrutement pour des emplois. Selon Glassdoor, les outils de recrutement de l'IA (3) sont largement utilisés dans différents secteurs, de «Allstate à Hilton en passant par Five Guys Burgers». Un exemple courant d'IA peut être trouvé sur LinkedIn, un site Web qui relie les demandeurs d'emploi aux employeurs et aux recruteurs. Aux employés, l'IA de LinkedIn (4) suggère un emploi qui pourrait les intéresser en fonction de leur profil et de leur expérience professionnelle et suggère également des liens avec des employeurs potentiels. D'autres exemples d'outils de recrutement d'IA incluent la technologie de recherche de texte qui examine de grands volumes de candidatures, la technologie d'analyse faciale qui scanne les expressions faciales et le langage corporel des candidats lors d'entretiens vidéo, et la technologie de balayage vocal qui évalue le discours, le ton et le mot d'un candidat les choix.

Cependant, malgré sa commodité, l'IA peut également être biaisée en raison de la race, du sexe et du statut de handicap, et peut être utilisée de manière à exacerber la discrimination systémique en matière d'emploi. Par exemple, les chercheurs ont constaté que l'évaluation des mouvements du visage et de la voix dans les applications peut «  faire une discrimination massive (e) contre de nombreuses personnes handicapées (5) qui affectent considérablement l'expression faciale et la voix: des handicaps tels que la surdité, la cécité, les troubles de la parole et survivre à un accident vasculaire cérébral." De plus, les tests de personnalité en ligne et les jeux de neurosciences en ligne utilisés dans les outils de recrutement d'IA peuvent éliminer les personnes atteintes de maladie mentale. (6)

En règle générale, les outils de recrutement d'IA sont programmés pour identifier les caractéristiques préférées d'un employeur en fonction du bassin d'employés existant de l'employeur. Cela signifie que si les personnes handicapées ne sont pas représentées dans le bassin actuel d'employés de l'employeur, l'outil de recrutement AI peut apprendre à éliminer les candidats handicapés. Essentiellement, l'IA traiterait «les traits sous-représentés comme des traits indésirables». En conséquence, "les personnes handicapées – comme les autres groupes marginalisés – risquent d'être exclues", déclare Alexandra Givens (7), présidente-directrice générale du Center for Democracy & Technology. Pour surmonter les préjugés, les outils de recrutement d'IA doivent être formés avec des données plus diversifiées incluant les employés handicapés. Actuellement, les personnes handicapées sont sous-représentées sur le marché du travail et, sans surprise, la technologie imite ce phénomène. «Si les données d'entraînement d'un algorithme manquent de diversité, cela peut enraciner les modèles d'exclusion existants de manière profondément néfaste», a écrit Givens dans un article pour Slate. (8)

Recherche de solutions grâce au plaidoyer juridique

L'ADA limite la capacité d'un employeur à faire des demandes de renseignements sur le handicap au stade du recrutement. Les outils de recrutement d'IA qui permettent aux employeurs d'obtenir des informations sur le handicap d'un candidat et d'éliminer les candidats qualifiés seraient passibles de la responsabilité en vertu de l'ADA ainsi que des lois nationales et locales sur les droits de l'homme. Selon Bloomberg, la US Equal Employment Opportunity Commission enquête déjà sur au moins deux réclamations (9) et poursuites potentielles impliquant des décisions discriminatoires d'un outil d'IA en matière d'embauche, de promotion et d'autres décisions sur le lieu de travail.

Les gouvernements des États et locaux proposent et promulguent des lois qui réglementent l'utilisation des outils de recrutement d'IA et examinent tous les effets discriminatoires que ces outils peuvent causer. L'Illinois a été le pionnier de l'AI Video Interview Act, qui oblige les employeurs à notifier, expliquer et obtenir le consentement des candidats à un emploi concernant son utilisation des outils de recrutement d'IA. La ville de New York examine un projet de loi (10) qui obligerait les vendeurs des outils de recrutement d'IA à se soumettre à un «audit des biais» annuel. Alors que nous attendons que les législateurs promulguent des lois pour promouvoir la responsabilité de l'IA, les défenseurs chercheront à agir devant les tribunaux pour lutter contre la discrimination découlant des outils de recrutement d'IA. (11)

Juyoun Han est avocat chez Eisenberg & Baum LLP et dirige le département Artificial Intelligence Fairness & Data Privacy du cabinet. En tant qu'avocat plaidant, Juyoun a représenté des clients sourds et malentendants devant les tribunaux de tout le pays, plaidant pour que les personnes handicapées soient traitées de manière égale sur le lieu de travail, dans les hôpitaux, dans les forces de l'ordre et dans les prisons. Patrick Lin est étudiant en deuxième année en droit à la Brooklyn Law School, où il est vice-président de Legal Hackers et membre du personnel de la Brooklyn Law Review. Avant la faculté de droit, Patrick a travaillé sur la gestion des données et la conformité réglementaire en tant que consultant en technologie.

  • 1 – https://www.eeoc.gov/newsroom/eeoc-releases-fiscal-year-2019-enforcement-and-litigation-data
  • 2 – https://www.merriam-webster.com/dictionary/artificial%20intelligence
  • 3 – https://www.washingtonpost.com/technology/2019/10/22/ai-hiring-face-scanning-algorithm-increasingly-decides-whether-you-deserve-job/
  • 4 – https://engineering.linkedin.com/blog/2018/10/an-introduction-to-ai-at-linkedin
  • 5 – https://benetech.org/wp-content/uploads/2018/11/Tech-and-Disability-Employment-Report-November-2018.pdf
  • 6 – https://www.abajournal.com/news/article/do_job_personality_tests_discriminate_eeoc_probes_lawyers_complaint_filed_o
  • 7 – https://cdt.org/staff/alexandra-reeve-givens/
  • 8 – https://slate.com/technology/2020/02/algorithmic-bias-people-with-disabilities.html
  • 9 – https://news.bloomberglaw.com/daily-labor-report/punching-in-workplace-bias-police-look-at-hiring-algorithms
  • 10 – https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=4344524&GUID=B051915D-A9AC-451E-81F8-6596032FA3F9
  • 11 – https://www.eandblaw.com/services/a-i-fairness-and-data-privacy/
  • 12 – https://www.eandblaw.com/services/a-i-fairness-and-data-privacy/

(je)Source / Référence: Juyoun Han et Patrick Lin. Disabled World ne fait aucune garantie ou représentation à cet égard. Le contenu peut avoir été modifié pour son style, sa clarté ou sa longueur.

Documents connexes


Important:

Disabled World est strictement un site Web d'actualités et d'informations fourni à des fins d'information générale uniquement et ne constitue pas un avis médical. Les documents présentés ne sont en aucun cas destinés à se substituer aux soins médicaux professionnels dispensés par un praticien qualifié et ne doivent pas être interprétés comme tels. Toute offre ou publicité de tiers sur disabled-world.com ne constitue pas une approbation par Disabled World. Veuillez nous signaler des informations obsolètes ou inexactes.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *