« L’IA peut amplifier le phénomène des biais en recrutement »

Marie-Sophie Zambeaux, fondatrice de ReThink RH et autrice de deux ouvrages sur les biais cognitifs, alerte sur l’importance d’apprendre à les maîtriser, d’autant plus à l’ère de l’IA.

Tendance 2026 - Marie-Sophie Zambeaux_biais et IA
« Un recruteur humain peut discriminer dix candidats en une journée ; un algorithme biaisé peut en discriminer 10 000 en une heure. » © Hellowork

En quoi le sujet des biais à l’ère de l’IA générative va prendre toute son importance en 2026 ?

Marie-Sophie Zambeaux : Parce qu’on ne pourra plus se cacher derrière l’argument du « je ne savais pas » ! Les biais cognitifs existent depuis toujours en recrutement : effet de halo, biais de confirmation, syndrome du scarabée… Mais l’IA générative change la donne, car elle accélère et amplifie le phénomène. Un biais humain peut affecter une dizaine de décisions, un biais algorithmique mal calibré peut en impacter des milliers en quelques secondes.

Ce qui va rendre la question incontournable, c’est la double pression réglementaire et sociale. D’abord, le règlement européen sur l’IA, l’IA Act, qui entre progressivement en vigueur, classe le recrutement comme « à haut risque ». Cela signifie qu’en 2026, les entreprises devront être en mesure de démontrer la transparence, la traçabilité et la robustesse de leurs outils dès lors qu’ils intègrent de l’IA. Ensuite, la pression des candidats et de l’opinion publique grandit. Un algorithme qui écarte systématiquement les femmes ou les seniors au-delà d’un certain âge sur certains postes sera immédiatement dénoncé. Enfin, il y a une dimension business : l’IA mal maîtrisée devient un risque concurrentiel autant qu’éthique.

Cette interview est extraite du livre blanc « 10 tendances qui vont changer le recrutement en 2026 »

Télécharger le livre blanc

Les biais humains ont toujours été présents dans le recrutement. En quoi l’IA modifie-t-elle cette dynamique ?

M-S. Z. : Un biais cognitif est un raccourci mental inconscient qu’utilise notre cerveau et qui peut nous induire en erreur en accordant une importance démesurée à certaines informations ou bien en en occultant d’autres complètement. Dans le recrutement, les biais peuvent porter atteinte à la qualité, à l’objectivité, à la pertinence et à la performance des prises de décision, par exemple celle de recruter tel ou tel candidat.

Avec l’IA, la dynamique change complètement. D’un côté, cette technologie peut nous aider à réduire certains biais, en structurant l’évaluation ou en détectant des formulations excluantes dans les offres. Mais de l’autre, elle peut les amplifier à grande échelle : si un algorithme est entraîné sur des données biaisées, il va reproduire et même systématiser ces biais.

La différence clé, c’est donc l’échelle et la vitesse. Un recruteur humain peut discriminer dix candidats en une journée ; un algorithme biaisé peut en discriminer 10 000 en une heure. Et l’effet est d’autant plus pernicieux qu’il est masqué derrière une apparence de neutralité technologique.

À découvrir

Dans L’intelligence artificielle au service des RH, Marie-Sophie Zambeaux et Boussad Addad explorent le potentiel de l’IA dans les pratiques RH, et mettent notamment en lumière un enjeu non moins important : celui des biais. L’ouvrage décrypte la façon dont les biais humains peuvent se transférer, voire s’amplifier, dans les outils algorithmiques, et propose des solutions concrètes pour les identifier, les questionner et les maîtriser.

 

L’intelligence artificielle au service des RH. Pour ne rien rater d’une révolution humaine, de Boussad Addad et Marie-Sophie Zambeaux, 2025, 233 p.

De nouveaux biais émergent-ils sous l’influence de l’IA ?

M-S. Z. : Je parlerais plutôt de biais de « deuxième ordre ». L’IA ne crée pas de préjugés qui n’existaient pas, mais elle introduit de nouvelles déclinaisons techniques et algorithmiques de biais anciens. Par exemple, le biais d’interface ou de temps, qui consiste à pénaliser un délai de réponse qui n’a rien à voir avec les compétences, mais avec la qualité d’une connexion ou des besoins d’accessibilité. On retrouve aussi le biais de style, c’est-à-dire valoriser un registre d’écriture perçu comme « idéal », parfois proche d’un texte généré par IA.

Ces biais ne sont donc pas « magiquement nouveaux », mais ils constituent des artefacts techniques qui s’ajoutent à nos biais humains. Et leur particularité, c’est qu’ils sont souvent invisibles pour les recruteurs : l’algorithme fonctionne, mais sur des bases inéquitables. C’est pour cela qu’il faut les anticiper, tester et auditer régulièrement : ce n’est pas parce qu’un outil est sophistiqué qu’il est automatiquement pertinent ou équitable.

Quelles peuvent être les conséquences pour une entreprise qui ne prend pas activement en charge les biais, qu’ils soient humains ou algorithmiques, dans son processus de recrutement ?

M-S. Z. : Les conséquences sont multiples et se jouent sur trois niveaux. D’abord, un recrutement biaisé, c’est une perte de talents. À l’heure où la pénurie de talents est une réalité, exclure inconsciemment certains profils est une erreur stratégique autant qu’éthique. Ensuite, cela peut avoir des conséquences sur la réputation et la marque employeur de l’entreprise en question, si un candidat qui se sent discriminé partage son expérience en ligne, par exemple. Enfin, c’est un enjeu de conformité et de responsabilité légale. Avec l’IA Act, les entreprises vont devoir identifier les risques de biais dans le recrutement et prendre des mesures pour les corriger. À défaut, elles s’exposent à des sanctions financières et à une perte de confiance de la part des candidats, mais aussi des collaborateurs et des investisseurs. Ignorer les biais n’est donc plus une option : c’est un risque économique, juridique et réputationnel. Et avec l’IA, ce risque passe d’un niveau artisanal à un niveau industriel.

Les réglementations comme l’IA Act peuvent-elles suffire à réduire les biais dans le recrutement ?

M-S. Z. : L’IA Act est une avancée majeure. Pour la première fois, un cadre juridique européen classe les systèmes de recrutement comme des usages à haut risque. Cela oblige les entreprises et les éditeurs d’outils à garantir transparence (informer les candidats lorsqu’une IA intervient), traçabilité (auditer et documenter les modèles) et mécanismes de contrôle humain. C’est un progrès réel. Jusqu’ici, la régulation reposait surtout sur le RGPD, qui ne traitait pas directement la question des biais algorithmiques. Mais il serait naïf de croire que la loi suffira.

Plusieurs zones d’ombre subsistent. D’abord, sur la mise en œuvre : comment vérifier concrètement la représentativité des données d’entraînement ? Qui contrôle, et avec quels moyens ? Ensuite, la responsabilité. En cas de biais, qui est responsable ? L’éditeur de l’algorithme, l’entreprise qui l’utilise ou les deux ? L’IA Act clarifie ce point : l’éditeur doit garantir la conformité technique, l’entreprise, la conformité d’usage. Mais entre la théorie juridique et la pratique des contrôles, il y a encore un décalage. Enfin, la granularité : certains biais subtils (biais de style, d’interface) échappent aux catégories prévues par la loi. Et les modèles génératifs évoluent si vite que la régulation risque toujours d’avoir un temps de retard.

De plus, l’IA Act et le RGPD créent une ligne de base indispensable, mais ils ne dispensent pas les entreprises d’une vigilance proactive. La conformité légale est le minimum, l’enjeu est d’aller plus loin pour garantir une équité réelle. Car la confiance des candidats ne se gagne pas avec une clause juridique, mais avec des pratiques tangibles.

Quelles actions concrètes les entreprises peuvent-elles mettre en place pour limiter tous ces biais ?

M-S. Z. : J’utilise souvent une analogie pour parler de l’IA dans le recrutement : c’est un peu comme une voiture de course. Pour fonctionner, la voiture a besoin d’un bon carburant et d’un bon pilote. Le bon carburant représente des données fiables, et le bon pilote la supervision humaine. Sans l’un ou l’autre, le risque de sortie de route est réel, et c’est précisément ce qui fait du recrutement un usage à haut risque.

Pour limiter les biais, il est possible d’agir sur le plan humain ainsi que sur le plan technologique.

  • Sur le plan humain, il faudrait former les recruteurs et les managers aux biais cognitifs, non pas pour les supprimer, car c’est impossible, mais pour les reconnaître et mettre en place des garde-fous. Il est également important de structurer ses entretiens, avec des grilles d’évaluation standardisées, des trames de questions identiques pour tous les candidats… Il est aussi nécessaire de diversifier les regards et les méthodes en associant plusieurs évaluateurs aux décisions, avec des profils complémentaires pour réduire l’effet de subjectivité individuelle. Enfin, il est important de travailler les offres d’emploi et la communication RH pour éviter les formulations excluantes ou stéréotypées.
  • Sur le plan technologique, limiter les biais passe par un audit des outils et des algorithmes qu’ils utilisent, par exemple en testant leur performance sur différents groupes (genre, âge, origine, handicap…). Il est également important de mettre en place des garde-fous réglementaires, pour par exemple informer clairement les candidats sur l’utilisation de l’IA. Enfin, les entreprises devraient collaborer en écosystème en associant des data scientists, des recruteurs, mais aussi des éthiciens ou des juristes, afin de croiser différents angles de vigilance.

Envie de découvrir les autres tendances qui vont marquer le recrutement en 2026 ?

Téléchargez notre livre blanc

 

 

 

10 tendances qui vont changer le recrutement en 2026

Hellowork recruteur dévoile son nouveau livre blanc : 10 tendances qui vont transformer le recrutement en 2026, analysées par 10 experts RH.
Voir le guide
visuel guide
Visuel promo

Bien s’équiper pour bien recruter