IA Act : les obligations visant le recrutement reportées à fin 2027
La Commission européenne a annoncé un délai supplémentaire pour la mise en conformité des systèmes d’intelligence artificielle « à haut risque », dont ceux appliqués au recrutement.
Changement de calendrier pour l’IA Act. Alors que les entreprises qui avaient recours à des systèmes d’IA « à haut risque », dont fait partie le recrutement, avaient jusqu’à août 2026 pour se mettre en conformité, la Commission européenne vient de leur octroyer un délai supplémentaire, en présentant son projet de loi Digital Omnibus, mercredi 19 novembre. Elles auront désormais jusqu’à fin 2027 pour se mettre en règle.
Un assouplissement demandé à la fois par les entreprises du secteur, dont le mastodonte américain OpenAI, par Washington et par les gouvernements français et allemand. L’argument de Bruxelles est double : réduire les coûts administratifs pour les entreprises, et notamment les PME, et favoriser l’innovation en simplifiant les règles encadrant l’intelligence artificielle, les données et la cybersécurité.
« Se débarrasser de l’encombrement réglementaire »
« Nos règles ne doivent pas être un fardeau, mais une valeur ajoutée. D’où la nécessité de prendre des mesures immédiates pour se débarrasser de l’encombrement réglementaire », a déclaré Henna Virkkunen, vice-présidente de la Commission chargée du numérique.
Cette nouvelle échéance s’applique donc aux systèmes d’IA utilisés dans le cadre du recrutement, catégorisé à « risque élevé » ou « haut risque » par l’annexe III du règlement européen adopté en mai 2024. Ce niveau de risque englobe les modèles qui peuvent présenter des risques pour la santé, la sécurité et les droits fondamentaux des citoyens.
Ainsi, toute solution qui intègre l’IA dans l’orientation ou l’automatisation d’une décision de recrutement (tri de candidatures dans un ATS, analyse vidéo d’entretien, procédure d’évaluation des candidats, préqualification par un agent IA…) devra donc, d’ici fin 2027, démontrer qu’elle ne porte pas atteinte aux droits fondamentaux des candidats et demeure systématiquement supervisée par un humain.
Quelles obligations pour les modèles « à haut risque » en 2027 ?
Pour répondre aux exigences de l’IA Act, les entreprises ayant recours à cette technologie au cours de leurs processus de recrutement devront notamment :
- Réaliser une analyse d’impact de leur système d’IA sur les droits fondamentaux et mettre en place une procédure de gestion des risques ;
- S’assurer que les données sur lesquelles s’entraîne l’IA sont représentatives, documentées et aussi exemptes de biais et d’erreurs que possible ;
- Communiquer en toute transparence auprès des utilisateurs sur les usages de l’IA ;
- Permettre une surveillance humaine efficace des décisions automatisées ;
- Produire et rendre accessible au grand public une documentation technique sur le modèle IA et notifier ce système dans une base de données de l’UE.
Ces obligations s’appliquent également à toute utilisation de l’IA pour évaluer la performance des collaborateurs et décider d’attribuer des promotions ou des augmentations à tel ou tel salarié.
Les propositions législatives du Digital Omnibus doivent, à présent, être soumises au Parlement européen et aux Etats membres de l’Union européenne pour adoption. Un épilogue qui pourrait durer de longs mois, car les eurodéputés sont profondément divisés. Si une large partie de la droite, et notamment la première force de l’hémicycle, le Parti populaire européen, salue ces mesures, le groupe social-démocrate, les Verts et les libéraux condamnent fermement ce virage.