7 conseils pour créer votre charte d’utilisation de l’IA

France Travail a été le premier acteur européen à concevoir et à publier une charte éthique de l’IA.

Le mode d'emploi en sept étapes !
Le mode d'emploi en sept étapes ! © redgreystock/stock adobe.com

« Nos réflexions autour de l’intelligence artificielle ont débuté en 2018, date à laquelle nous avons lancé un grand programme de développement de l’IA à la fois à destination de nos collaborateurs, des recruteurs et des demandeurs d’emploi », souligne Stéphane Campion, responsable des relations externes IA et Data chez France Travail.

Pourquoi créer une charte éthique d’utilisation de l’IA ?

« Nous avons abordé le sujet par le prisme de l’éthique : l’important était de mettre au point un programme auquel on pouvait faire confiance, rapporte Stéphane Campion. Car, dès le départ, le déploiement de l’IA a eu un côté anxiogène, pour nos collaborateurs (‘’L’IA va-t-elle me remplacer ?’’) mais aussi pour les demandeurs d’emploi (biais dans la recommandation d’offres, traitement inéquitable des candidatures…). »

Pour Jacques Tessier, responsable du pôle éthique de l’IA chez France Travail, une telle charte est un cadre qui doit répondre, en pratique, à trois enjeux :

  • « Monter en maturité sur la technologie et les risques éthiques en acquérant les compétences en interne pour ne pas être dépendants d’autres acteurs externes ;
  • Construire des outils d’évaluation de la conformité des usages de l’IA au sein de l’entreprise ;
  • Embarquer tous nos usagers et nos collaborateurs pour leur permettre de garder la maîtrise des nouveaux outils. »

Comment élaborer votre propre charte ?

1.      Se renseigner sur la réglementation

« Cela passe notamment par le fait d’informer les utilisateurs des usages qui sont faits de leurs données personnelles », précise Stéphane Campion.

« L’entrée en vigueur du règlement européen IA Act [qui se fera progressivement à partir de février 2025] facilitera cela, car il précisera le cadre, les différents niveaux de risques associés à chaque modèle d’IA et les précautions à prendre en conséquence », complète Jacques Tessier.

2.      Définir les piliers de sa charte

« Les piliers de la charte doivent être définis au regard du périmètre, des valeurs et de l’image de l’entreprise », avance Stéphane Campion, qui rappelle aussi l’importance de rendre cette charte compréhensible par vos collaborateurs, mais aussi par vos partenaires externes.

A titre d’illustration, la charte éthique de France Travail repose sur sept piliers :

  • La finalité et la légitimité des algorithmes
  • L’humain au centre
  • L’équité et la non-discrimination (limiter les biais algorithmiques)
  • La liberté de choix (éclairer les choix humains sans les contraindre)
  • La transparence
  • La sécurité
  • L’impact environnemental

« L’un des grands principes qui guide notre utilisation de l’IA est qu’elle doit être au service de l’humain. Aucune tâche n’est et ne sera entièrement automatisée par de l’intelligence artificielle. L’IA effectue des propositions, des suggestions que le collaborateur est en droit d’accepter ou de refuser. C’est essentiel, pour nous, de conserver une action humaine à chaque étape afin de valoriser l’expertise métier de nos conseillers. »

« Un autre pilier central est la notion de transparence et d’explicabilité. Plus on est capable d’expliquer comment fonctionne l’algorithme, plus on limite les risques de discrimination », explique Stéphane Campion. « Cette charte influence notamment nos choix de modèle d’IA, développe Jacques Tessier. On ne se tournera pas forcément vers le modèle le plus performant, mais vers celui dont on peut le plus facilement expliquer le fonctionnement. »

3.      Associer toutes les parties prenantes

La charte de France Travail a été construite par un groupe de travail pluridisciplinaire auquel ont été associés des conseillers, des recruteurs et des demandeurs d’emploi. « Faire participer à ces travaux tous ceux qui seront confrontés à ces futurs systèmes d’IA est essentiel pour créer un cadre de confiance », souligne Jacques Tessier.

Avant de rendre sa charte accessible à tous, France Travail l’a d’abord communiquée auprès de ses collaborateurs pour recueillir leurs avis. Celle-ci a également été le fruit de discussions avec les représentants du personnel. Pour aller plus loin, l’opérateur public de l’emploi a prévu de créer, cet automne, un comité interne sur l’usage de l’IA auquel prendront part les IRP (instances représentatives du personnel).

4.      S’appuyer sur un comité éthique externe

France Travail a fait le choix de se doter d’un comité consultatif éthique externe sur l’IA, composé de 11 membres, dont les mandats sont renouvelables tous les trois ans, sur la base du volontariat. « Nous lui partageons nos cas d’usage afin qu’il nous alerte, de son prisme, sur des risques que nous n’aurions pas forcément identifiés en première phase. Par exemple, sur des tâches de ciblage ou de profiling de candidats, l’IA peut s’appuyer sur des paramètres discriminants. Le rôle du comité éthique est de nous alerter sur ces potentiels biais. »

5.      Rendre cette charte opérationnelle

« La charte a permis de densifier la matrice d’évaluation des cas d’usages pour nos équipes : lorsque l’équipe produit fabrique un nouveau produit ou service, elle doit prouver que celui-ci atteint le seuil minimal éthique de la charte avant de le déployer. Dans le cas d’un algorithme, elle doit veiller, notamment, à ce que les données en entrée et en sortie ne soient pas discriminantes », explique Stéphane Campion.

« Dès la phase de réflexion sur de nouveaux cas d’usage, on intègre les principes de la charte éthique. Par exemple, lorsqu’on modifie les interfaces utilisateurs, on pense toujours aux notions de transparence et d’explicabilité », illustre Jacques Tessier.

6.      Aider les collaborateurs à s’approprier la charte

« Nous avions beaucoup communiqué après de l’ensemble des équipes lors du lancement de la charte, mais nous avons encore un grand chantier autour de la conduite du changement à mener, du fait du passage à l’échelle supérieure induit par la création de France Travail. Pour ce faire, nous avons travaillé avec les RH sur de petites capsules IA qui intègrent le sujet éthique, accessibles sur notre e-université, et nous organisons des sessions de formation sur l’utilisation de l’IA », poursuit le responsable du pôle éthique de l’IA.

7.      Faire évoluer la charte au même rythme que les usages

Les progrès de l’IA générative sont fulgurants, votre charte doit s’adapter en continu aux nouvelles possibilités offertes par la technologie. « Si l’objectif de garder l’humain en posture de maîtrise de tous les processus ne changera pas, on peut imaginer d’autres manière de faire, estime Jacques Tessier. Nous sommes d’ailleurs en cours de réflexion avec le comité éthique externe pour amender notre charte courant 2025. »

Visuel promo

Bien s’équiper pour bien recruter