L’intelligence artificielle (IA) s’insinue progressivement au cœur des pratiques RH : recrutement automatisé, analyse de parcours, gestion prédictive des compétences, mobilité interne...
Mais l’année 2025 marque un véritable tournant : l’Union européenne vient de déployer l’IA Act, le premier cadre réglementaire mondial dédié aux systèmes d’IA.
Ce texte inédit impose de nouvelles exigences : classification des usages à risque, documentation renforcée, supervision humaine, transparence algorithmique. Autant d’éléments qui bouleversent la manière dont les directions RH conçoivent, utilisent et gouvernent leurs outils.
Pour les DRH, il ouvre une zone d’incertitude : s’agit-il d’une contrainte réglementaire supplémentaire ou d’une opportunité stratégique ?
La réponse dépendra avant tout de la capacité des organisations à anticiper, comprendre et intégrer ces exigences dans leurs pratiques quotidiennes.
L’AUDIT : IDENTIFIER LES ZONES À RISQUE
L’IA Act confronte d’abord les DRH à un exercice trop souvent négligé : regarder avec lucidité leurs usages technologiques.
Aujourd’hui, la plupart des logiciels de recrutement, d’évaluation ou de gestion des compétences intègrent déjà de l’IA, souvent à travers des modules standards proposés par les éditeurs.
L’audit constitue à la fois le point de départ de la mise en conformité et un moyen de comprendre l’étendue réelle de ces usages dans les solutions RH. Trop souvent, leurs logiques internes échappent aux métiers qui en dépendent.
L’IA Act oblige désormais à comprendre le fonctionnement de ces outils et à évaluer leur niveau de risque. Le texte distingue quatre catégories - minimal, limité, élevé ou interdit - qui exigent un niveau de vigilance spécifique.
Quelques exemples, non exhaustifs, illustrent la diversité des situations :
- Interdit : l’analyse des émotions (voix, visage) en entretien, jugée intrusive, devra être abandonnée.
- Haut risque : le scoring automatique de candidats sans explicabilité. Ces modèles devront être documentés, auditables et régulièrement évalués.
- Sous surveillance : les IA susceptible de reproduire des biais. Les DRH devront prouver que les décisions ne discriminent pas selon le genre, l’âge ou l’origine.
En réalisant un audit, on dresse un état des lieux précis :
- Quels outils reposent sur des algorithmes ?
- Quelles décisions sont partiellement ou totalement automatisées ?
- Quels modèles influencent, sans supervision humaine directe, des choix de recrutement, de mobilité ou d’évaluation ?
Cette cartographie des usages doit reposer sur un principe simple : plus un système influence directement une décision sur une personne, plus il doit être explicable et contrôlable.
Mais l’audit met aussi en lumière les angles morts du texte : certaines zones d’interprétation demeurent floues, les démarches administratives sont lourdes, et la dépendance aux éditeurs non européens peut complexifier la mise en conformité.
Loin d’être un frein, cette prise de conscience est une opportunité : mieux connaître ses outils, c’est aussi mieux maîtriser ses décisions, renforcer sa crédibilité et sécuriser ses pratiques.
L’audit devient alors un acte de souveraineté RH, indispensable pour construire une IA éthique, utile et conforme.
LA GOUVERNANCE : CO-CONSTRUIRE UNE IA RH RESPONSABLE
Pour éviter que la complexité ne reprenne le dessus, identifier les risques ne suffit pas : il faut définir clairement les responsabilités. L’IA Act invite les organisations à repenser leur gouvernance et à partager les responsabilités entre équipes RH, IT, juridiques et data. C’est un véritable changement de culture.
La gestion des algorithmes ne relève plus seulement de la technique : elle devient un sujet stratégique, transversal et profondément humain.
Pour la rendre opérationnelle, les organisations doivent instaurer un dialogue structuré entre les différents acteurs. La mise en place de comités IA–RH - réunissant l’ensemble des parties prenantes - permet de piloter les décisions automatisées et de clarifier les responsabilités.
Mais ces instances n’ont de portée réelle que si elles s’appuient sur un cadre robuste, fondé sur des repères clairs, des méthodes communes et des règles partagées. C’est cette architecture de gouvernance qui garantit la cohérence des pratiques et l’ancrage des principes dans la durée.
Une gouvernance IA efficace et durable repose sur plusieurs fondations incontournables :
- Processus de validation et d’audit des modèles réguliers
- Documentation complète et traçable de chaque outil et de ses usages
- Responsabilités partagées entre métiers opérationnels et fonctions support
- Procédures formalisées de détection, gestion et correction d’incidents ou de biais dans les algorithmes.
Cette approche "ethical by design" intègre la responsabilité et la transparence dès le départ plutôt que de corriger a posteriori. Les collaborateurs gagnent en confiance, les décisions peuvent être expliquées, et la culture de l’entreprise s’en trouve renforcée.
Mettre en place cette gouvernance suppose des moyens et une coordination nouvelle - souvent un défi pour les PME et ETI - mais c’est aussi une occasion de progresser collectivement et de renforcer la maîtrise de l’IA.
L’ACCOMPAGNEMENT DES EQUIPES : DU TEXTE À L’USAGE
La conformité ne se décrète pas. Elle doit vivre et se traduire, chaque jour, dans les pratiques et décisions RH.
L’accompagnement devient donc la clé de voûte de la démarche. Il doit relier la règle à l’action et s’adapter à la maturité de chaque organisation, en combinant formation, sensibilisation et mise en œuvre opérationnelle :
- formations à la lecture et à l’évaluation des algorithmes RH,
- ateliers d’appropriation autour des notions de biais, transparence et équité,
- feuilles de route opérationnelles avec indicateurs de suivi et plans d’action à 6–12 mois.
L’enjeu n’est pas juste de « cocher une case », mais de créer une culture commune de l’IA, où chacun comprend son rôle : du recruteur qui s’appuie sur un modèle de scoring au juriste qui en vérifie la traçabilité.
Peu à peu, les équipes développent un même langage, une même exigence de preuve et une vraie capacité d’arbitrage.
Oui, l’IA Act est exigeant. Mais il crée aussi une formidable opportunité d’apprentissage. Il ne s’agit plus seulement de se protéger de l’IA, mais de l’apprivoiser.
En capitalisant sur les compétences, les entreprises gagnent en réactivité, crédibilité et attractivité. L’humain reste au cœur des décisions : la technologie devient donc un partenaire, pas un substitut.
AGIR DÈS MAINTENANT, C’EST GAGNER EN TEMPS ET CRÉDIBILITÉ
Les bénéfices à être proactif sont immédiats :
- Réduction des risques juridiques et financiers
- Sécurisation des outils avant les contrôles
- Décisions plus robustes et explicables
- Relations de confiance renforcées avec les collaborateurs et partenaires sociaux
- Avantage compétitif en appels d’offres grâce à une conformité maîtrisée
À l’inverse, attendre revient à s’exposer : sanctions, retraits d’outils, coûts de correction élevés, perte de crédibilité…
Chez ACT-ON GROUP, nous voyons dans l’IA Act bien plus qu’une contrainte : c’est l’occasion de redonner aux directions RH toute leur place dans la transformation des organisations.
Grâce à la combinaison de nos expertises RH, data et juridiques, nous accompagnons les organisations à chaque étape : de l’audit des outils à la gouvernance, jusqu’à la mise en œuvre opérationnelle et la formation des équipes.
Notre approche intégrée permet de transformer la conformité en maîtrise, et la maîtrise en performance.
Anticiper. Comprendre. Agir.
L’IA Act offre aux DRH l’occasion de construire une fonction RH plus responsable, confiante et performante.
Une question ? Un projet ? Contactez les experts ACT-ON GROUP dès maintenant !
À lire également
Abonnez-vous
pour recevoir nos actualités
« * » indique les champs obligatoires


