L’IA peut-elle aider les RH à prendre de meilleures décisions ?
Olivier Sibony, professeur à HEC, livre son point de vue sur l’influence de l’IA sur la qualité des décisions RH.
Amplificatrice ou réductrice des biais humains ? Garantie d’objectivité ou vectrice de discriminations ? On lit tout et son contraire sur l’IA appliquée au recrutement et aux décisions RH. Alors même que le recrutement a été identifié comme cas d’usage à haut risque par l’IA Act, il convient de s’interroger sur les opportunités et les limites de cette technologie. Les RH peuvent-ils se fier à l’IA et à quelles conditions ? Nous avons posé la question à Olivier Sibony, professeur à HEC, spécialiste des techniques de prise de décision et de résolution de problèmes, rencontré à l’occasion de la dernière édition du HR Technologies, fin janvier à Paris.
Quelle IA choisir pour prendre une décision RH éclairée (sélection d’un candidat, choix d’un CV, promotion, augmentation…) ?
Olivier Sibony : De manière générale, l’IA peut nous aider à prendre de meilleures décisions, dès lors qu’elle est faite pour cela. Si on demande à un LLM (large language model) de choisir, parmi 3 CV, le candidat le plus qualifié pour un poste que l’on doit pourvoir, on n’est pas en train d’utiliser un bon système d’aide à la décision. Et ce, pour trois raisons :
- le LLM ne sait pas ce que le recruteur veut ;
- il n’a pas été entraîné et construit spécifiquement pour cette tâche ;
- quand vous lui posez deux fois la même question, vous pouvez obtenir deux réponses différentes, car il n’est pas fait pour vous fournir une réponse stable, mais la plus probable à un instant donné.
Il faut donc choisir un système conçu pour prendre des décisions RH. Par exemple, une solution de pré-screening de CV, pour trier efficacement les candidatures.
Une fois que l’on a choisi le bon système, comment s’assurer de sa fiabilité ?
O.S. : Il est nécessaire d’avoir une validation sérieuse, indépendante et qualifiée du modèle que vous utilisez par une autorité tierce compétente. Quand vous allez à l’épicerie et que vous pesez vos tomates sur une balance électronique, vous savez qu’elle a été vérifiée par le service des poids et mesures. C’est pour cela que, quand elle affiche qu’il y a 800g de tomates dans votre sac, vous savez qu’il n’y en a pas 300g. Vous lui faites confiance, car quelqu’un en qui vous avez confiance a validé cet instrument. C’est la même chose avec les systèmes d’aide à la décision à base d’IA.
Ensuite, il est essentiel de comprendre comment l’IA prend ses décisions. Je regrette que beaucoup de gens, dont les RH, se disent qu’ils peuvent utiliser un système d’aide à la décision sans savoir précisément comment il fonctionne, parce qu’ils se disent qu’ils vont le superviser et qu’ils ont d’ailleurs l’obligation de le faire. Mais ce n’est pas suffisant.
Quels leviers les recruteurs ont-ils à leur disposition pour s’assurer que les recommandations de candidats faites par l’IA soient optimales ?
O.S. : Si on ne dit pas à un modèle ce que l’on cherche, il ne peut pas le trouver. Les recruteurs doivent être en mesure de dire à l’IA quelles sont les caractéristiques précises qu’ils recherchent chez les candidats. L’IA n’aura jamais que les informations que vous lui donnez et ne fera jamais que les choix que vous lui demandez de faire. Et si vous imaginez qu’elle va prendre de meilleures décisions que vous parce qu’elle va lire dans vos pensées, vous vous trompez.
Le grand danger de cette étape, c’est la tentation de laisser un modèle apprendre sur la base de nos décisions passées, se berçant de l’illusion que tous nos choix passés étaient nécessairement excellents. C’est une erreur de raisonner ainsi. D’abord parce que les choix que nous avons faits et ceux que nous n’avons pas faits n’étaient pas forcément optimaux.
Que faire en cas de désaccord avec les recommandations de candidats faites par l’IA ?
O.S. : La plupart des recruteurs se disent : « Je vais regarder, au cas par cas, les propositions faites par l’IA : quand je suis d’accord avec elle, je suivrai ses recommandations, et quand je ne suis pas d’accord avec elle, je dirai que ses recommandations ne sont pas bonnes et je n’irai pas dans son sens. » Mais si on y réfléchit, cette manière de penser est absurde : si vous êtes face à un système qui prend des meilleures décisions que vous, c’est bien parce que, en moyenne, sur la majorité des décisions prises, c’est l’IA qui a raison et vous qui avez tort. Par conséquent, si à chaque fois que vous n’êtes pas d’accord avec elle, vous reprenez la main et suivez votre opinion, vous n’êtes pas en train d’améliorer votre décision, vous détériorez la sienne.
Au contraire, ce qu’il faut faire, c’est choisir un système d’aide à la décision suffisamment bon et digne de confiance, et décider, une bonne fois pour toutes, que lorsqu’il va vous faire une recommandation, vous allez la suivre. Et ça, ça demande de s’être vraiment assuré auparavant qu’on peut avoir confiance dans le système.