L’intelligence artificielle s’impose aujourd’hui dans presque tous les secteurs : recrutement, finance, santé, marketing, industrie ou encore service client.
Mais cette adoption rapide soulève des enjeux importants en matière de sécurité, de transparence et de respect des droits fondamentaux.
Pour encadrer ces usages, l’Union européenne a adopté l’AI Act, la première réglementation complète au monde dédiée à l’intelligence artificielle.
Même si la Suisse ne fait pas partie de l’UE, cette loi concerne directement de nombreuses entreprises suisses, notamment celles qui travaillent avec des clients européens ou utilisent des outils d’IA dans leurs processus internes.
Dans cet article nous faisons le point sur ce que prévoit l’AI Act, pourquoi les entreprises européennes et suisses sont concernées et enfin pourquoi et comment les équipes RH doivent particulièrement anticiper ces nouvelles obligations.
Transparence salariale : une obligation qui redéfinit les pratiques RH
Qu'est-ce que l'AI Act européen ?
L’AI Act est un règlement européen visant à encadrer le développement, la commercialisation et l’utilisation des systèmes d’intelligence artificielle.
Son objectif est double :
- protéger les droits fondamentaux des personnes
- permettre le développement d’une IA fiable et responsable
Contrairement à d’autres réglementations, l’AI Act ne vise pas à interdire l’intelligence artificielle, mais à adapter les obligations selon le niveau de risque du système.
Le texte s’applique à :
- fournisseurs de solutions IA
- entreprises utilisatrices
- distributeurs
- fabricants de produits intégrant de l’IA
- organisations dont les systèmes sont utilisés dans l’Union européenne
Cela signifie que des entreprises situées hors UE peuvent être concernées.
Pourquoi l’Europe a créé une réglementation sur l’intelligence artificielle
L’usage de l’intelligence artificielle s’est fortement accéléré ces dernières années et s’est imposé dans de nombreux domaines. Ces technologies évoluées permettent d’automatiser des décisions, d’analyser de grandes quantités de données et d’améliorer la productivité, mais elles soulèvent aussi des questions importantes en matière de transparence, de responsabilité et de protection des personnes.
Certains systèmes peuvent produire des décisions difficiles à expliquer, reproduire des biais présents dans les données ou utiliser des informations sensibles sans que cela soit toujours visible. Face à ces risques, les règles existantes, notamment en matière de protection des données, ne suffisaient plus à encadrer les usages spécifiques de l’intelligence artificielle.
L’Union européenne a donc adopté l’AI Act, un cadre juridique destiné à fixer des règles communes pour le développement et l’utilisation de l’IA.
L’objectif est de garantir des systèmes fiables et respectueux des droits fondamentaux, tout en permettant aux entreprises de continuer à innover dans un cadre clair et sécurisé.
Calendrier de l’AI Act : les dates à connaître
L’application du règlement est progressive.
| Date | Étape |
|---|---|
| Avril 2021 | Proposition de la Commission européenne |
| Mars 2024 | Adoption par le Parlement |
| Mai 2024 | Validation par le Conseil |
| Août 2024 | Entrée en vigueur |
| Février 2025 | Interdiction des pratiques à risque inacceptable |
| Août 2025 | Règles pour les modèles d’IA généraux |
| Août 2026 | Obligations pour les systèmes à haut risque |
| Août 2027 | Conformité complète pour certains produits |
Les entreprises doivent donc anticiper dès maintenant.
Pourquoi les entreprises suisses sont aussi concernées
Même si la Suisse n’est pas membre de l’Union européenne, l’AI Act peut s’appliquer à une entreprise suisse lorsque ses systèmes d’intelligence artificielle sont utilisés sur le marché européen.
C’est le principe d’extraterritorialité.
Une entreprise peut être concernée si :
- elle vend un produit ou un service dans l’UE
- elle fournit un logiciel utilisé par un client européen
- elle traite des données de personnes dans l’UE
- ses résultats sont utilisés dans l’Union européenne
Par exemple, un SaaS suisse accessible en France, un outil RH utilisé par une filiale européenne ou un chatbot disponible en ligne peuvent entrer dans le périmètre du règlement.
La Suisse prépare par ailleurs sa propre approche réglementaire, avec une stratégie progressive et compatible avec les standards européens.
Dans la pratique, beaucoup d’entreprises suisses choisissent déjà de suivre les règles européennes afin de sécuriser leur accès au marché.
Les 4 niveaux de risques définis par l'AI Act
L’AI Act repose sur un principe simple :
plus un système d’intelligence artificielle présente de risques, plus les obligations sont strictes.
| Niveau de risque | Description | Exemples | Conséquence |
|---|---|---|---|
| 🔴 Risque inacceptable | Interdit | notation sociale, manipulation, identification biométrique en temps réel | usage interdit |
| 🟠 Risque élevé | Fortement réglementé | recrutement, scoring, santé, justice, infrastructures | obligations strictes |
| 🟡 Risque limité | Transparence obligatoire | chatbots, IA générative, deepfakes | informer l’utilisateur |
| 🟢 Risque minimal | Pas d’obligation spécifique | filtres spam, recommandations | bonnes pratiques |
Parmi les systèmes classés à haut risque, ceux utilisés dans les ressources humaines occupent une place importante.
AI Act et recrutement : ce que doivent savoir les DRH en 2026
L’IA dans les ressources humaines est considérée comme à haut risque
L’AI Act classe certains usages de l’intelligence artificielle dans la catégorie des systèmes à haut risque.
C’est notamment le cas des outils utilisés pour le recrutement, l’évaluation des candidats ou la gestion des salariés.
La raison est simple : ces systèmes peuvent avoir un impact direct sur la carrière, l’accès à l’emploi ou la situation professionnelle d’une personne.
Un outil de tri de CV, par exemple, peut exclure certains profils sans que la décision soit facilement explicable.
Quels outils RH sont concernés
De nombreux outils utilisés aujourd’hui en ressources humaines peuvent entrer dans le périmètre du règlement.
Par exemple :
- logiciels de tri automatique de CV
- matching candidats / postes
- scoring de candidats
- IA d’évaluation de performance
- outils d’entretien automatisé
- assistants RH
- IA générative utilisée dans le recrutement
Même lorsque l’IA ne prend pas seule la décision, le système peut être considéré comme à haut risque s’il influence fortement le processus.
Les obligations pour les entreprises utilisant de l'IA en recrutement
Lorsque l’IA est classée à haut risque, plusieurs obligations peuvent s’appliquer :
- supervision humaine obligatoire
- documentation du fonctionnement
- tests pour éviter les biais
- traçabilité des décisions
- information des candidats
- contrôle de la qualité des données
- conformité RGPD / LPD
L’objectif n’est pas d’interdire l’IA, mais de garantir qu’elle reste maîtrisée.
Exemple concret de tri de CV automatique
Un logiciel qui classe automatiquement les candidatures peut être considéré comme à haut risque.
Dans ce cas, l’entreprise doit notamment :
- vérifier que l’algorithme n’est pas discriminant
- pouvoir expliquer les critères utilisés
- garder un contrôle humain
- documenter le système
- informer les candidats
Ce type d’usage est très courant, ce qui explique pourquoi les RH sont particulièrement concernées par l’AI Act.
Checklist AI Act : comment se mettre en conformité
Checklist AI Act : les actions à mettre en place
Pour se préparer à l’AI Act, les entreprises doivent adopter une approche structurée.
Étape 1 : cartographier les systèmes d’IA
🔲 Identifier tous les outils IA
🔲 Inclure les SaaS et outils externes
🔲 Documenter les usages
Étape 2 : classifier le niveau de risque
🔲 déterminer le niveau
🔲 documenter
🔲 revoir régulièrement
Étape 3 : planifier la conformité
🔲 prioriser
🔲 définir un calendrier
🔲 allouer des ressources
Étape 4 : conformité des systèmes à haut risque
🔲 gestion des risques
🔲 documentation
🔲 supervision humaine
🔲 tests de biais
🔲 logs
🔲 cybersécurité
🔲 déclaration de conformité
Étape 5 : obligations de transparence
🔲 informer pour les chatbots
🔲 indiquer contenu généré
🔲 marquer deepfakes
🔲 notifier reconnaissance émotionnelle
Anticiper l'AI Act : un avantage pour les entreprises
L’AI Act ne doit pas être vu uniquement comme une contrainte.
Les entreprises qui anticipent :
- sécurisent leurs usages de l’IA
- évitent des sanctions
- gagnent la confiance des clients
- facilitent leur accès au marché européen
- prennent de l’avance sur leurs concurrents
Dans un contexte où l’IA devient centrale dans les processus RH, marketing et opérationnels, se préparer dès maintenant est la meilleure stratégie.












FR expand_more
ENG