Intelligence artificielle : arme de discrimination massive ?

Plébiscitée par les professionnels des ressources humaines pour faciliter les processus de recrutement, l’intelligence artificielle se présente comme un véritable pharmakon, capable autant de remédier aux discriminations que d’en distiller le poison.

Plébiscitée par les professionnels des ressources humaines pour faciliter les processus de recrutement, l’intelligence artificielle se présente comme un véritable pharmakon, capable autant de remédier aux discriminations que d’en distiller le poison.

L’intelligence artificielle (IA) occupe une place grandissante dans la fonction RH en général, dans le recrutement en particulier. 76% des recruteurs interrogés dans le cadre de l’étude Linkedin Global Recruiting Trends de 2018, estiment que l’IA a un impact important sur la qualité des candidats et des embauches et qu’elle apporte une plus grande diversité dans les recrutements. "Bien paramétrés, confirme Adrien Moreira, fondateur de Bruce, les algorithmes renforcent la qualité des processus de recrutement dans des contextes où le temps comme les moyens manquent". Ils prendraient même de meilleures décisions que les humains. Selon une étude de la Havard Business Review, ils augmenteraient en effet de 25% les chances de choisir le candidat en meilleure adéquation avec le poste et l’entreprise. 

Des biais inévitables

Mais, la grande promesse de l’IA réside surtout dans sa capacité à lutter contre les biais cognitifs qui viennent perturber le processus de recrutement. Avoir le même parcours universitaire, la même expérience d’expatriation ou les mêmes goûts musicaux crée une connivence que des algorithmes partant des compétences peuvent déjouer. "La majeure partie des discriminations, explique Adrien Moreira, sont non conscientes". Les algorithmes sont d’autant plus à même de contrecarrer ce biais culturel et de se détacher des "profils types" qu’ils parviennent à passer en revue des milliers de candidatures là où un recruteur n’en retiendra que quelques-unes, écartant peut-être les candidats dont les noms ne sonnent pas bien à son oreille… 

Les biais des algorithmes "s’appliquent de manière automatique et pourraient systématiser les discriminations".

Cependant, de biais les algorithmes ne sont pas exempts. Contrairement aux biais cognitifs qui varient en fonction des circonstances et ne se traduisent pas toujours en pratiques discriminatoires, les leurs "s’appliquent de manière automatique et pourraient systématiser les discriminations". Cela fait craindre au Défenseur des droits "un risque majeur de renforcer ‘essentialisation’ et ‘stéréotypes’". En effet, confirme Jean-Gabriel Ganascia, professeur d’informatique à la faculté des sciences de Sorbonne Université et Président du comité d’éthique du CNRS, "une machine n’est pas nécessairement objective, mais systématique si"

Vers une responsabilité algorithmique des entreprises

Les biais algorithmiques possèdent, cependant, un avantage sur les biais cognitifs : il est plus facile d’agir sur eux. Dans un rapport consacré au sujet, l’Institut Montaigne recommande, à l’instar des études cliniques réalisées sur les médicaments, de tester les algorithmes avant leur utilisation. Il propose également d’adopter une "équité active". Une telle approche permettrait d’utiliser les "variables sensibles" comme l’âge, la religion ou le genre dans le seul but de "mesurer les biais et d’évaluer les algorithmes". Chez Bruce, "les équipes sont formées aux risques que présentent l’IA". "Les données utilisées pour entraîner les algorithmes sont, quant à elles, sans cesse enrichies". La startup mise également sur la diversité, convaincue que "les problèmes pourront être anticipés et résolus si et seulement si des personnes issues de milieux différents s’y affrontent". La question de la transparence s’avère, en revanche, plus délicate."Pour qu’un processus de recrutement digitalisé fonctionne, il faut dire comment cela fonctionne". Mais, reconnaît Adrien Moreira, "tout en ne se mettant pas en difficulté vis-à-vis de ses concurrents". Mission impossible ? 

"Justifier les raisons pour lesquelles telles personnes ont été écartées au profit de telle autre" plutôt qu’entrer dans la boîte noire des algorithmes.

Pas vraiment, répond Jean-Gabriel Ganascia. "Si la transparence consiste à révéler les secrets de fabrication de telle ou telle machine, cela ne sert pas à grand-chose". La transparence revêt tout son sens dès l’instant où "elle nous aide à comprendre pourquoi on a pris telle décision plutôt qu’une autre" ou, dans le cadre d’un recrutement, permet de "justifier les raisons pour lesquelles telles personnes ont été écartées au profit de telle autre". Il s’agit, en d’autres termes, "de ne pas demander aux machines d’assumer notre responsabilité". Aussi, la lutte contre les discriminations dépend d’une responsabilité sociale et algorithmique assumée par les développeurs, les entreprises, les recruteurs et les citoyens. 

Marianne Fougère

Vous avez apprécié cet article ? Likez Magazine Décideurs sur Facebook !

Dossier spécial : ces directeurs formation qui innovent

Dossier spécial : ces directeurs formation qui innovent

Bras droits des directions des ressources humaines, au premier plan pour accompagner l’évolution des métiers, les directeurs de la formation se sont i...

Patrick Benammar (groupe Renault), fédérateur de communautés

Patrick Benammar (groupe Renault), fédérateur de communautés

Arrivé chez Renault en 2018, Patrick Benammar y dirige les activités de formation et de développement des compétences et anime une large communauté d’...

Vincent Gailhaguet (Engie), générateur d’esprits agiles

Vincent Gailhaguet (Engie), générateur d’esprits agiles

Vincent Gailhaguet a accompagné la transformation de différentes sociétés telles Scor, Vivendi, EDF, Le Monde dans des postes RH avant de rejoindre GD...

Franck Gaillard (Alstom), du classroom training au digital

Franck Gaillard (Alstom), du classroom training au digital

Global learning director chez Alstom depuis cinq ans et chez Alstom depuis treize, les projets en digital learning de Franck Gaillard ont retenu l’att...

Ilhem Alleaume (L'Oréal), apprenante continue

Ilhem Alleaume (L'Oréal), apprenante continue

Arrivée chez L’Oréal en avril 2020, Ilhem Alleaume est convaincue que la flamme de l’apprentissage doit être entretenue. Forte de 23 années d’expérien...

Bérengère Vuaillat (Canal +), de l’IT au L&D

Bérengère Vuaillat (Canal +), de l’IT au L&D

Learning & development manager au sein de Canal+, Bérengère Vuaillat a été sélectionnée par la rédaction de Décideurs RH pour figurer parmi les st...

Jean-Roch Houllier (Safran), créateur de passerelles

Jean-Roch Houllier (Safran), créateur de passerelles

Après une quinzaine d’années passées dans la conduite de projets, Jean-Roch Houllier a rejoint le département formation de Thales. En 2020, il intègre...

Adilson Borges (Carrefour), le Growth Mindset

Adilson Borges (Carrefour), le Growth Mindset

Du Brésil à la France, en passant par les États-Unis et l’Asie, Adilson Borges cumule plus de vingt-cinq ans d’expérience entre monde de l’entreprise...

Lire plus d'actualités

Newsletter savoir pour agir

N'avancez plus à l'aveugle

Ne plus afficher ce message