Intelligence artificielle : arme de discrimination massive ?

Plébiscitée par les professionnels des ressources humaines pour faciliter les processus de recrutement, l’intelligence artificielle se présente comme un véritable pharmakon, capable autant de remédier aux discriminations que d’en distiller le poison.

Plébiscitée par les professionnels des ressources humaines pour faciliter les processus de recrutement, l’intelligence artificielle se présente comme un véritable pharmakon, capable autant de remédier aux discriminations que d’en distiller le poison.

L’intelligence artificielle (IA) occupe une place grandissante dans la fonction RH en général, dans le recrutement en particulier. 76% des recruteurs interrogés dans le cadre de l’étude Linkedin Global Recruiting Trends de 2018, estiment que l’IA a un impact important sur la qualité des candidats et des embauches et qu’elle apporte une plus grande diversité dans les recrutements. "Bien paramétrés, confirme Adrien Moreira, fondateur de Bruce, les algorithmes renforcent la qualité des processus de recrutement dans des contextes où le temps comme les moyens manquent". Ils prendraient même de meilleures décisions que les humains. Selon une étude de la Havard Business Review, ils augmenteraient en effet de 25% les chances de choisir le candidat en meilleure adéquation avec le poste et l’entreprise. 

Des biais inévitables

Mais, la grande promesse de l’IA réside surtout dans sa capacité à lutter contre les biais cognitifs qui viennent perturber le processus de recrutement. Avoir le même parcours universitaire, la même expérience d’expatriation ou les mêmes goûts musicaux crée une connivence que des algorithmes partant des compétences peuvent déjouer. "La majeure partie des discriminations, explique Adrien Moreira, sont non conscientes". Les algorithmes sont d’autant plus à même de contrecarrer ce biais culturel et de se détacher des "profils types" qu’ils parviennent à passer en revue des milliers de candidatures là où un recruteur n’en retiendra que quelques-unes, écartant peut-être les candidats dont les noms ne sonnent pas bien à son oreille… 

Les biais des algorithmes "s’appliquent de manière automatique et pourraient systématiser les discriminations".

Cependant, de biais les algorithmes ne sont pas exempts. Contrairement aux biais cognitifs qui varient en fonction des circonstances et ne se traduisent pas toujours en pratiques discriminatoires, les leurs "s’appliquent de manière automatique et pourraient systématiser les discriminations". Cela fait craindre au Défenseur des droits "un risque majeur de renforcer ‘essentialisation’ et ‘stéréotypes’". En effet, confirme Jean-Gabriel Ganascia, professeur d’informatique à la faculté des sciences de Sorbonne Université et Président du comité d’éthique du CNRS, "une machine n’est pas nécessairement objective, mais systématique si"

Vers une responsabilité algorithmique des entreprises

Les biais algorithmiques possèdent, cependant, un avantage sur les biais cognitifs : il est plus facile d’agir sur eux. Dans un rapport consacré au sujet, l’Institut Montaigne recommande, à l’instar des études cliniques réalisées sur les médicaments, de tester les algorithmes avant leur utilisation. Il propose également d’adopter une "équité active". Une telle approche permettrait d’utiliser les "variables sensibles" comme l’âge, la religion ou le genre dans le seul but de "mesurer les biais et d’évaluer les algorithmes". Chez Bruce, "les équipes sont formées aux risques que présentent l’IA". "Les données utilisées pour entraîner les algorithmes sont, quant à elles, sans cesse enrichies". La startup mise également sur la diversité, convaincue que "les problèmes pourront être anticipés et résolus si et seulement si des personnes issues de milieux différents s’y affrontent". La question de la transparence s’avère, en revanche, plus délicate."Pour qu’un processus de recrutement digitalisé fonctionne, il faut dire comment cela fonctionne". Mais, reconnaît Adrien Moreira, "tout en ne se mettant pas en difficulté vis-à-vis de ses concurrents". Mission impossible ? 

"Justifier les raisons pour lesquelles telles personnes ont été écartées au profit de telle autre" plutôt qu’entrer dans la boîte noire des algorithmes.

Pas vraiment, répond Jean-Gabriel Ganascia. "Si la transparence consiste à révéler les secrets de fabrication de telle ou telle machine, cela ne sert pas à grand-chose". La transparence revêt tout son sens dès l’instant où "elle nous aide à comprendre pourquoi on a pris telle décision plutôt qu’une autre" ou, dans le cadre d’un recrutement, permet de "justifier les raisons pour lesquelles telles personnes ont été écartées au profit de telle autre". Il s’agit, en d’autres termes, "de ne pas demander aux machines d’assumer notre responsabilité". Aussi, la lutte contre les discriminations dépend d’une responsabilité sociale et algorithmique assumée par les développeurs, les entreprises, les recruteurs et les citoyens. 

Marianne Fougère

Vous avez apprécié cet article ? Likez Magazine Décideurs sur Facebook !

F. Jacquey et P.O. Martin (Roche Diabetes Care) : "Réinventer l'organisation au travail grâce à l'intelligence collective"

F. Jacquey et P.O. Martin (Roche Diabetes Care) : "Réinventer l'organisation au travail grâce à l'in...

Filiale d’un groupe de santé reconnu mondialement, Roche Diabetes Care France allie passion et réactivité pour avancer dans l’intérêt des patients dia...

Patrick Blethon (Saur) : "En France, on ne connaît pas le prix de l’eau"

Patrick Blethon (Saur) : "En France, on ne connaît pas le prix de l’eau"

Président de Saur depuis un an et demi, Patrick Blethon déroule son plan stratégique. Au menu : s’internationaliser, se rapprocher de ses clients et s...

Chasseurs de têtes : les stars des codir

Chasseurs de têtes : les stars des codir

Avec efficacité et discrétion, ils distillent leurs conseils aux patrons des grand groupes français et internationaux...

T. Gomes, (WeUp Learning) : "La formation mixte est devenue une alternative incontournable"

T. Gomes, (WeUp Learning) : "La formation mixte est devenue une alternative incontournable"

Agence digitale, WeUp Learning propose toutes les solutions afin d’accompagner la digitalisation de la formation. Thomas Gomes, son directeur, nous li...

E. Lepoutre (Lepoutre & Partners) : "Je signe mes recrutements avec mon sang"

E. Lepoutre (Lepoutre & Partners) : "Je signe mes recrutements avec mon sang"

Avocat aux barreaux de Paris, Barcelone, Madrid et New York, Emeric Lepoutre travaillait chez Gide lorsqu’il a été approché par l’un de ses clients po...

La revanche du conseil RH

La revanche du conseil RH

Influenceurs, chasseurs de têtes, bâtisseurs d’empire, ils murmurent à l’oreille des comex et codir. Pourquoi les acteurs de l’univers RH ont-ils réus...

A.Feld (LHH) : "Être utile et me rendre inutile"

A.Feld (LHH) : "Être utile et me rendre inutile"

Quelques mois seulement après avoir pris la direction générale de la filiale française de LHH, Aurélie Feld en est devenue la présidente en mai 2021...

É.Beaudouin (Oasys): " “Sois lucide”, voilà mon conseil  aux personnes en transition"

É.Beaudouin (Oasys): " “Sois lucide”, voilà mon conseil aux personnes en transition"

Pour le président et fondateur du cabinet Oasys spécialiste des évolutions professionnelles et des transformations des organisations, rien n’est plus...

Lire plus d'actualités

Newsletter savoir pour agir

N'avancez plus à l'aveugle

Ne plus afficher ce message

Ce site utilise des cookies. En continuant la navigation, vous acceptez nos conditions d'utilisation des cookies.
Plus d'informations

J'accepte