Les datas RH parmi les infos sensibles les plus partagées avec l’IA
Une étude américaine met en garde les entreprises sur les risques à partager avec l’IA des informations concernant employés et candidats.
 
					
				
				
					Peut-on tout dire à ChatGPT ? Non, bien évidemment. Mais les comportements à risque augmentent dans les entreprises à mesure que l’usage de l’IA se massifie. Et les RH et les recruteurs ne sont pas épargnés. Selon l’étude « AI Adoption and Risk Report » publiée par Cyberhaven, société américaine spécialisée dans la cybersécurité, 34,8% des données d’entreprise que les employés partagent avec des outils d’IA sont classées comme sensibles. Un chiffre en nette croissance : en 2024, il était de 27,4%, et de 10,7% en 2023.
Les données sensibles les plus partagées avec l’IA
Parmi ces données sensibles partagées avec ChatGPT ou avec d’autres outils d’IA comme Claude, Copilot ou Perplexity, 4,8% concernent des informations en lien avec les ressources humaines, y compris des informations sur les employés. C’est la 6e catégorie de données d’entreprise sensibles partagées avec l’IA. En tête, des codes source (18,7%), des données liées à la R&D (17,1%), aux ventes et au marketing (10,7%), des emails professionnels (10,7%) ou encore des données médicales (7,4%). Parmi les autres données sensibles partagées dans les entreprises avec l’IA, des éléments graphiques (3,8%) et des données financières (1,6%).
Dans le domaine des RH, « l’IA est de plus en plus utilisée pour rédiger des évaluations de performance et gérer des questions confidentielles liées au personnel », pointe le rapport. Tous domaines confondus, Cyberhaven ajoute : « Les implications en matière de risques deviennent encore plus évidentes lorsqu’on examine la destination de ces données sensibles. Pas moins de 83,8 % des données d’entreprise saisies dans des outils d’IA sont transmises à des plateformes classées comme présentant un risque moyen, élevé ou critique. »
Usage croissant de l’IA dans les entreprises
Ces risques augmentent avec l’usage croissant de l’IA dans les entreprises alors que toutes n’ont pas (encore) mis en place de formation dans ce domaine. D’après l’étude de Cyberhaven, la fréquence d’utilisation de l’IA au travail a été multipliée par 4,6 ces 12 derniers mois, et par 61 en deux ans.
Ce sont les employés de niveau intermédiaire qui utilisent le plus l’IA au quotidien dans les entreprises, avec une moyenne de 28 tâches quotidiennes, contre 8 tâches pour les managers, 4 pour les employés débutants, 2 pour les directeurs et seulement 1 pour les dirigeants.
Encadrement des IA à haut risque en Europe
En Europe, l’entrée en application de l’IA Act va permettre d’encadrer un certain nombre de pratiques, notamment dans le domaine du recrutement. D’ici août 2026, toutes les entreprises européennes devront en effet se mettre en conformité avec les règles imposées pour les IA dites à haut risque, dont le recrutement fait partie.
Seront concernés à cette date les systèmes d’IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, par exemple pour publier des offres d’emploi ciblées, pour analyser et filtrer les candidatures et pour évaluer les candidats. Entrent également dans ce champ des IA à haut risque, les systèmes d’IA voués à prendre des décisions concernant les conditions des relations de travail, la promotion ou la résiliation des relations contractuelles liées au travail, à attribuer des tâches sur la base du comportement individuel ou de traits ou caractéristiques personnelles, ou à surveiller et évaluer les performances et le comportement des personnes dans le cadre de ces relations.
