Intelligence artificielle et recrutement : un cadre législatif européen pour protéger les droits humains

La Commission européenne a dévoilé une proposition de loi encadrant l’usage de l’intelligence artificielle. Un texte qui aura un impact sur les technologies utilisées par les recruteurs. Décryptage.

Certaines systèmes d'IA utilisés pour le recrutement devront désormais être évalués avant d'être mis sur le marché.
Pour encadrer strictement les usages de ces technologies, le texte prévoit différentes dispositions en fonction du niveau de risque des systèmes d’IA © Golden Sikorka/stock adobe.com

Intéressé par deux profils pré-sélectionnés par son algorithme, le chargé de recrutement leur envoya un mail automatique en un clic afin de leur proposer un entretien avec un robot. Ceci n’est pas un début de roman de science-fiction mais un petit aperçu de solutions RH basées sur l’intelligence artificielle (IA) et qui existent déjà. Au fil des ans, ces algorithmes, vecteurs d’efficacité redoutables, investissent de plus en plus la sphère des ressources humaines.

Mais ces nouvelles technologies sont parfois scrutées avec méfiance car elles sont porteuses de risques : atteinte à la vie privée, déshumanisation des relations, clonage des profils, discrimination… Pour limiter ces dérives, la Commission européenne a planché sur un projet ambitieux de réglementation de l’IA. Une première mondiale ! Avant d’expliquer comment cette proposition de loi compte mieux protéger les droits humains, revenons d’abord sur ce qu’est l’IA et sur ses usages RH.

Intelligence artificielle : de quoi parle-t-on ?

On nomme intelligence artificielle l’ensemble des programmes informatiques conçus pour simuler certains traits de l’intelligence humaine. Conceptualisée par le mathématicien Alan Turing dans les années 1950, cette notion englobe toutes les machines programmées pour effectuer une action ou prendre une décision. Au fil des données collectées, la machine « apprend » et s’améliore en continu.

Comment peut-on l’utiliser dans le cadre d’un processus de recrutement ?

Selon une étude de l’APEC, publiée en octobre 2020, l’IA est principalement utilisée par les équipes RH dans les premières phases du recrutement (mise en relation, sourcing, présélection) mais peut aussi être déployée pour réaliser des premiers entretiens ainsi que pour d’autres tâches dévolues aux RH (mobilité interne, organisation du travail, etc.).

Dans le catalogue de solutions RH offertes par l’IA, ce sont les chatbots et les outils de matching qui sont les plus utilisés par les recruteurs. Des outils jugés de plus en plus incontournables par les professionnels RH si l’on en croit l’enquête Asys Consultants réalisée en 2019 : 77 % des RH interrogés estiment que l’intelligence artificielle peut leur permettre d’améliorer le matching entre candidats et postes à pourvoir. Ils sont même 61 % à considérer que l’IA va leur permettre de recruter de meilleurs candidats.

4 choses que l’IA va changer (en bien) dans la vie des RH

Côté sourcing, l’IA propose des algorithmes de filtrage permettant de mieux cibler les candidats sur le web, qu’ils soient passifs ou actifs. Pour ce qui est de la gestion des candidatures, les recruteurs peuvent s’appuyer sur des chatbots ou agents conversationnels qui connaissent les questions les plus fréquemment posées par les candidats et peuvent leur répondre automatiquement.

Pratique plus marginale, le recours aux entretiens vidéo différés agrémentés d’IA a conquis certains recruteurs. Le principe ? Le candidat répond face à sa webcam à une série de questions et la machine analyse en temps réel ses expressions faciales, les intonations de sa voix, la richesse de son vocabulaire etc. L’objectif étant d’aider le recruteur à sélectionner les meilleurs profils, car c’est bien à l’humain que revient la décision finale.

Quels sont les risques de ces technologies appliquées au recrutement ?

Malgré tout, une certaine méfiance demeure vis-à-vis de ces technologies, côté recruteurs, comme côté candidats. En cause, la crainte d’une substitution de la machine à l’Homme, d’une déshumanisation du recrutement, voire d’un clonage des profils.

Certains redoutent même de voir les discriminations à l’embauche renforcées par les biais de l’algorithme. A titre d’exemple, une société australienne, Appen, vient d’être pointée du doigt pour avoir demandé à des candidats, via un questionnaire, de préciser la couleur de leur peau. L’entreprise a prétendu avoir posé cette question pour éliminer les biais causés par l’intelligence artificielle car les algorithmes auraient du mal à reconnaître des visages noirs.

L’IA dans le processus de recrutement : vers une déshumanisation de la relation avec les candidats ?

Que prévoit le texte européen pour encadrer l’IA ?

Mercredi 21 avril, la Commission européenne a dévoilé son projet de réglementation de l’intelligence artificielle. Une proposition de loi qui vise à ce que les systèmes d’IA utilisés dans l’Union européenne soient « sûrs, transparents, éthiques, impartiaux et sous contrôle humain ».

« Un cadre stratégique de l’UE basé sur les valeurs de l’UE donnera aux citoyens la confiance nécessaire pour accepter des solutions basées sur l’IA, tout en encourageant les entreprises à les développer et à les déployer », peut-on lire sur le site de l’Union européenne.

Pour encadrer strictement les usages de ces technologies, le texte prévoit différentes dispositions en fonction du niveau de risque des systèmes d’IA. Ces derniers sont donc classés en quatre catégories : « inacceptable », « haut risque », « risque limité », « risque minimale ». Tous les programmes d’IA classés dans la première catégorie, à savoir notamment les systèmes de notation sociale par les pouvoirs publics ou les jouets à assistance vocale incitant les enfants à adopter des comportements dangereux, seront purement et simplement interdits au sein de l’UE.

Les systèmes d’IA concernés par la catégorie « haut risque » sont ceux qui pourraient nuire gravement aux droits des citoyens, dont certaines solutions RH de recrutement comme les logiciels de tri des CV. La proposition de loi prévoit qu’elles soient soigneusement évaluées avant d’être mises sur le marché et tout au long de leur cycle de vie.

Concrètement, tous les système d’IA à « haut risque » devront faire l’objet d’une évaluation de conformité par un organisme indépendant. Ce dernier vérifiera notamment que le système d’IA n’intègre « aucun biais intentionnel ou involontaire » pouvant mener à une discrimination. Les systèmes autonomes d’IA seront ensuite inscrits dans une base de données de l’UE et ne pourront être commercialisés que lorsqu’une déclaration de conformité aura été signée et que la technologie portera la marquage CE (conformité européenne). Pour chaque nouveauté introduite dans le système, celui-ci devra repasser un test de conformité.

Les chatbots sont, quant à eux, considérés comme porteurs de « risques limités ». Ils seront soumis à des règles de transparence minimale : informer les personnes qui interagissent avec eux qu’ils ne sont pas des êtres humains afin que l’utilisateur puisse décider de continuer ou d’arrêter d’utiliser l’application.

La proposition de loi européenne prévoit également des sanctions jusqu’à 20 millions d’euros ou 6% du chiffre d’affaires pour les entreprises ne respectant pas ces nouvelles règles. Avant d’entrer en application, le texte doit d’abord être adopté par le Parlement européen puis par le Conseil. Recruteurs, tenez-vous prêts !

Par Maïté Hellio

Reporter tout terrain et pianiste, aime quand les mots et les notes sonnent juste !

Ajouter un commentaire

Votre adresse email ne sera pas publiée.

L'actu RH

dans votre boite mail

Recevez l’essentiel de l’actualité RH

En cliquant sur « S'inscrireOk », vous acceptez les CGU et la politique de traitement de vos données personnelles.