- Imprimer
- Partager
- Partager sur Facebook
- Share on X
- Partager sur LinkedIn
Intelligence Artificielle, Biais et Acceptabilité dans le Recrutement
Le thème du recrutement assisté par l’Intelligence Artificielle (IA dans la suite du document) aussi appelé "recrutement prédictif" s’intègre dans le domaine plus général des outils analytiques au service de la gestion des ressources humaines (HR analytics), dont les avantages et les limites sont de plus en plus discutés (Angrave et al., 2016). Nous ne sommes pas encore en présence d'un champ de recherche stabilisé, et il existe un écart important entre la place prise par ces outils dans les pratiques des entreprises et les travaux publiés dans les revues académiques (Marler & Boudreau, 2017; Woods et al., 2019). Sur le terrain, toutes les étapes des processus RH sont concernées par l'introduction d'algorithmes basés sur l'IA, et les solutions se développent de manière exponentielle. Selon les données recueillies en France, 50% des professionnels RH utilisaient en 2019 au moins un outil intégrant des algorithmes d’IA (ex: logiciel de gestion automatique des candidatures). Le marché du recrutement prédictif est en croissance rapide, sous l'impulsion de startups spécialisées (Esayrecrue, Kudoz, Goshaba,...). Les arguments principaux avancés par les promoteurs des outils de recrutement prédictif sont qu'ils permettent un process de sélection plus rapide, plus efficace et plus inclusif (exempt de biais discriminatoires), en raison de leur "objectivité" et de leur capacité à éliminer les biais de jugement humain interpersonnels liés par exemple à l'activation de stéréotypes. Pourtant, force est de constater que les études sur la validité et les impacts des outils d’IA appliqués au recrutement restent très rares. Alors, que les enjeux sont importants et particulièrement sensibles notamment dans le cadre de la promotion de la diversité et la lutte anti-discrimination. Cette lutte correspond non seulement à un impératif éthique mais aussi à une obligation légale, dont les contours sont précisés dans le code du travail. La loi précise que les recruteurs sont tenus d’utiliser des méthodes de sélection objectives et pertinentes et doivent être capables si besoin de justifier leurs choix.
Le projet IAB@R a pour objectif de combler en partie cet écart entre promesses affichées et manque d’information sur l’efficacité, la pertinence et l’objectivité des solutions de recrutement prédictif. Cet objectif s’insère dans une interrogation plus globale sur l’impact des recommandations algorithmiques sur la prise de décision. Dans le domaine des sciences de gestion, les algorithmes de recrutement prédictif constituent un exemple-type d’ "outil de gestion" (Vaujany, 2006), dont le déploiement et l’appropriation a un impact sur les attitudes et les comportements des acteurs dans les organisations, et ce presque indépendamment de leur efficacité. Dans ce cadre, nous souhaitons nous intéresser à la fois à l’aspect psychologique (efficacité perçue par les utilisateurs) et à l’aspect instrumental (capacité de l’instrument à opérer une sélection exempte de biais discriminatoires). Le projet vise concrètement à répondre à deux questionnements majeurs.
- Quelles sont les réactions des utilisateurs confrontés aux solutions de recrutement prédictif ?
- Quelle est la capacité technique des solutions de recrutement prédictif à réduire les biais discriminatoires?
Le projet IAB@R est un projet transversal : il repose sur des questionnements issus des sciences de gestion (gestion et instrumentation du recrutement), de la psychologie des organisations (réaction d’utilisateurs face à des recommandations algorithmiques), mais également des statistiques (efficacité des modèles prédictifs en matière de sélection du personnel). Une première étude exploratoire menée en 2019 par le porteur du projet a permis, via une analyse de littérature transversale, de dresser un panorama des biais liés au recrutement algorithmique (Lacroux & Martin-Lacroux, à paraitre). Cette étude a permis d’isoler, parmi les nombreuses questions de recherche celles dont les enjeux économiques et sociaux apparaissent comme les plus importants, à savoir le problème des "boites noires", c’est-à-dire les enjeux liés à l’explicabilité des décisions algorithmiques (Villani et al., 2018) et la question de l’appropriation des solutions algorithmiques d’aide à la décision dans le domaine de la gestion des ressources humaines.
Porteurs du projet
Christelle Martin-Lacroux (CERAG)
Vincent Brault (SVH-LJK)
- Imprimer
- Partager
- Partager sur Facebook
- Share on X
- Partager sur LinkedIn