AI Act RH : ce que vous devez vraiment comprendre (sans jargon)
- il y a 4 heures
- 6 min de lecture
Le règlement européen sur l'intelligence artificielle est entré en vigueur. Et pourtant, dans la plupart des services RH, on en parle encore comme d'une contrainte lointaine, réservée aux juristes ou aux DSI. C'est une erreur qui pourrait coûter cher. Parce que l'IA Act n'est pas une norme technique incompréhensible — c'est un cadre de responsabilité. Et la responsabilité, en RH, c'est votre territoire.
Pas besoin d'être ingénieure en IA ni de maîtriser les textes du droit européen pour être concernée. Il vous suffit de pouvoir répondre à trois questions. Trois questions que tout DRH, toute responsable RH ou tout dirigeant devrait pouvoir formuler clairement dès aujourd'hui.
Voici ce que l'IA Act dit vraiment — et ce qu'il vous demande concrètement:
L'IA Act, c'est quoi exactement ?
Définition simple pour les RH
L'IA Act (règlement européen sur l'intelligence artificielle, entré en application progressive depuis août 2024) est le premier cadre légal mondial encadrant l'usage des systèmes d'intelligence artificielle. Il s'applique à toute organisation qui utilise, déploie ou met sur le marché des outils d'IA sur le territoire européen — y compris les entreprises qui ne développent pas elles-mêmes ces outils, mais qui les utilisent.
Ce point est crucial : vous n'avez pas besoin d'avoir créé l'algorithme pour être responsable de son usage.
L'IA Act classe les systèmes d'IA en 4 niveaux de risque, auxquels s'ajoute une catégorie spécifique pour les modèles d'IA à usage général (GPAI) — comme les grands modèles de langage (GPT, Claude, Gemini) :
Niveau | Qualification | Exemples concrets |
🔴 1 — Risque inacceptable | Interdit | Notation sociale des citoyens, manipulation subliminale |
🟠 2 — Risque élevé | Encadrement strict obligatoire | Recrutement, évaluation des collaborateurs, gestion RH automatisée |
🟡 3 — Risque limité | Obligations de transparence | Chatbots RH, contenus générés par IA |
🟢 4 — Risque minimal | Usage libre | Filtres anti-spam, outils de planification basiques |
🔵 + GPAI | Obligations spécifiques | Grands modèles de langage intégrés dans vos outils RH |
À retenir : La majorité des outils d'IA utilisés en RH — notamment ceux qui trient des CV, évaluent des performances ou orientent des décisions RH — sont classés à risque élevé. Ce n'est pas une opinion, c'est la loi. Et si vos outils intègrent un modèle GPAI (comme un assistant IA générative dans votre SIRH), une couche d'obligations supplémentaires s'applique.
Les 3 questions que l'AI Act vous pose (vraiment)
L'AI Act RH ne vous demande pas d'être parfait. Il vous demande d'être consciente et traçable. En pratique, cela se traduit par trois questions auxquelles vous devez être capable de répondre à tout moment :
1. Où l'IA est-elle utilisée dans vos processus RH ?
Faites le recensement.
Pas seulement l'outil de recrutement "officiel".
Pensez au :
module d'analyse prédictive dans votre SIRH
chatbot d'onboarding
outil d'analyse des entretiens annuels
scoring de candidats de votre ATS
recommandations de formation générées automatiquement
assistants IA génératifs intégrés à vos logiciels du quotidien
Beaucoup d'organisations utilisent de l'IA sans le savoir, embarquée dans des logiciels métier.
L'ignorance ne protège plus.
2. Quels sont les risques humains associés ?
C'est ici que la dimension RH devient centrale.
L'IA Act pose explicitement la question des droits fondamentaux des personnes concernées : vos collaborateurs et vos candidats.
Pour chaque outil recensé, demandez-vous :
Cet outil peut-il produire une discrimination indirecte (de genre, d'âge, d'origine) ?
Les décisions prises avec cet outil sont-elles contestables par la personne concernée ?
Y a-t-il une supervision humaine réelle, ou la décision est-elle déléguée à l'algorithme ?
À retenir : Un algorithme de recrutement entraîné sur des données historiquement biaisées reproduit les inégalités à grande échelle. Ce n'est pas un bug — c'est un risque systémique que le règlement vous demande d'anticiper.
3. Qui est responsable ?
Nommer un responsable n'est pas une formalité administrative. C'est le cœur de la gouvernance IA. Dans votre organisation, cela signifie :
Qui valide l'usage d'un nouvel outil IA en RH ?
Qui peut décider de le suspendre si un risque est identifié ?
Qui documente les usages, les alertes, les décisions ?
Quel est le lien entre la DRH, la DSI et le juridique sur ces sujets ?

Le vrai danger : ne rien avoir formalisé
On entend souvent cette phrase rassurante : "On n'est pas à 100 % conforme, mais on fait de notre mieux."
C'est une posture compréhensible.
Mais ce n'est pas ce que l'IA Act sanctionne en priorité.
Ce que le règlement sanctionne, c'est l'absence de démarche.
Pas d'inventaire, pas d'analyse de risques, pas de responsable désigné, pas de traçabilité des décisions.
En cas d'incident ou d'audit, c'est ce vide documentaire qui constitue la faute.
Les amendes prévues par l'AI Act peuvent atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial pour les cas les plus graves. Mais au-delà des sanctions financières, c'est la confiance de vos équipes — et votre réputation employeur — qui sont en jeu.
Par où commencer concrètement ?
4 actions prioritaires pour les DRH
Pas besoin d'un projet de conformité de 18 mois pour commencer.
Voici quatre actions actionnables dès maintenant :
Cartographiez vos outils IA — Listez tous les logiciels RH avec une composante algorithmique ou d'IA (ATS, SIRH, outils d'évaluation, chatbots, assistants génératifs)
Qualifiez le niveau de risque — Pour chaque outil, demandez au fournisseur : "Votre solution est-elle concernée par l'IA Act ?" et "Quelle documentation de conformité proposez-vous ?"
Désignez un référent IA RH — Cette personne n'a pas besoin d'être technicienne. Elle doit comprendre les enjeux humains et être l'interlocutrice entre DRH, DSI et Juridique.
Documentez vos pratiques actuelles — Même imparfaites

AI Act et RH responsable : une opportunité, pas seulement une contrainte
Il serait dommage de réduire l'IA Act à une liste de cases à cocher. Le règlement européen porte en lui une vision : celle d'une IA au service de l'humain, transparente, auditable, respectueuse des droits fondamentaux.
Pour les DRH qui croient en une IA éthique, c'est une opportunité de formaliser des pratiques déjà vertueuses et de renforcer la confiance de leurs équipes dans les outils numériques.
L'IA responsable en RH, ce n'est pas une contrainte imposée de l'extérieur. C'est la condition pour que vos collaborateurs et vos candidats puissent faire confiance aux décisions qui les concernent.
FAQ — Les questions que tout DRH se pose sur l'AI Act
L'AI Act s'applique-t-il aux PME ? | Oui, dès lors qu'elles utilisent ou déploient des systèmes d'IA sur le territoire européen. Des obligations allégées existent pour les très petites entreprises (moins de 10 personnes), mais l'obligation de ne pas utiliser d'IA à risque élevé sans encadrement s'applique à toutes. |
Quand l'AI Act entre-t-il en vigueur ? | Les dispositions relatives aux systèmes à haut risque (dont la plupart des outils RH) s'appliquent pleinement à partir du 2 août 2026. Il reste un peu de temps, mais la préparation doit commencer maintenant. |
Si mon fournisseur de logiciel RH est conforme, suis-je automatiquement couverte ? | Non. Vous êtes co-responsable en tant que déployeuse de l'outil. La conformité du fournisseur ne vous exonère pas de vos propres obligations d'usage, de supervision et de documentation. |
Doit-on informer les collaborateurs qu'une IA est utilisée dans les décisions RH ? | Oui. L'AI Act impose des obligations de transparence. Les personnes concernées doivent savoir qu'une IA intervient dans des décisions qui les affectent, et disposer d'un droit à explication. |
Qu'est-ce qu'un modèle GPAI et en quoi cela me concerne en RH ? | Un modèle GPAI (General Purpose AI) est un grand modèle d'IA entraîné sur des données massives et utilisable pour de multiples tâches — comme les assistants intégrés à vos logiciels RH. Si votre outil embarque ce type de modèle, des obligations spécifiques s'appliquent, notamment en matière de transparence sur les données d'entraînement et les capacités du modèle. |

Prêt·e à passer à l'action ?
L'IA Act ne demande pas la perfection. Il demande la conscience et la démarche.
Rejoignez le Club IA RH® Responsable — la communauté des professionnels RH qui prennent l'IA éthique au sérieux : décryptages réglementaires accessibles, partage de ressources pratiques, retours d'expérience concrets, formation, mise en place et boîte à outils pour avancer dans votre organisation, à votre rythme et être accompagné pendant 1 an.
La 1ère communauté française de se type, 10 entreprises maximum.
.png)
.png)