Intelligence artificielle au travail : ce que les employeurs et employeuses doivent savoir

20 juin 2025 par
Beci Community

L’intelligence artificielle (IA) transforme en profondeur les modes de travail, les interactions humaines et la prise de décision dans l’entreprise. Qu'en dit la loi ?

Que ce soit via des outils de rédaction automatique, des systèmes d’analyse de performance ou encore des assistants de recrutement, l’Intelligence artificielle est déjà omniprésente dans notre quotidien professionnel. Mais que dit la législation ? Et quelles sont les précautions à prendre pour les employeurs, employeuses et leurs équipes ?

Une révolution silencieuse… mais déjà active

De nombreuses entreprises utilisent aujourd’hui des outils d’IA sans forcément les identifier comme tels. Résumés automatiques de courriels, suggestions de réponses dans les messageries, traduction de documents ou encore génération de contenus : autant de fonctionnalités intégrées à des logiciels connus (Microsoft 365 Copilot, Notion AI, ChatGPT, etc.). Ces outils peuvent augmenter la productivité, automatiser des tâches répétitives et libérer du temps pour des missions à plus forte valeur ajoutée.

Mais ces avancées posent aussi de nombreuses questions en matière de responsabilité, de transparence et de protection des données.

L’AI Act : un cadre juridique européen en voie d’application

L’Union européenne s’est dotée d’un cadre réglementaire ambitieux avec le règlement établissant des règles harmonisées concernant l’intelligence artificielle (AI Act), qui entre progressivement en vigueur depuis 2025. Ce règlement a pour objectif de créer un espace de confiance autour de l’intelligence artificielle tout en favorisant l’innovation.

Il distingue quatre niveaux de risques :

  • Risque inacceptable : IA interdite (ex. : manipulation comportementale, scoring social).
  • Risque élevé : usage réglementé de manière stricte, notamment en matière de RH (ex. : systèmes de recrutement automatisés, évaluation de performance).
  • Risque limité : obligation d’informer les utilisateurs (ex. : chatbots, contenus générés par IA).
  • Risque minimal : peu ou pas de contraintes (ex. : correcteurs orthographiques, filtres antispam).

Tout·e employeur·euse utilisant un outil d’IA à haut risque devra respecter des obligations documentaires, assurer la transparence du système et offrir des voies de recours aux travailleurs et travailleuses.

Bonnes pratiques pour les employeurs et employeuses

Dans ce contexte, les entreprises doivent anticiper leur mise en conformité et encadrer l’usage de ces technologies par leurs collaborateur·ices. Voici quelques conseils utiles :

  1. Cartographier les outils d’IA utilisés en interne, qu’ils soient intégrés à des logiciels commerciaux ou développés sur mesure.
  2. Informer et former les travailleurs·euses sur les capacités, limites et risques liés à l’IA.
  3. Éviter les abus de surveillance : les outils de monitoring automatisés peuvent rapidement devenir intrusifs et contreproductifs.
  4. Vérifier la conformité RGPD : l’IA ne dispense pas des obligations en matière de protection des données personnelles.
  5. Mettre en place une politique interne d’usage de l’IA, clarifiant les responsabilités, les outils autorisés, les usages proscrits et les mécanismes de validation.

Conclusion

L’intelligence artificielle ne relève plus de la science-fiction. Elle est déjà au cœur des outils utilisés quotidiennement dans l’entreprise, parfois à l’insu même des utilisateur·ices. Si elle constitue un levier puissant d’innovation et d’efficacité, elle ne peut être déployée sans encadrement. L’AI Act offre un socle réglementaire qui impose à chacun·e – employeur·euses, développeurs·euse, utilisateur·ices – une vigilance renforcée. Pour les entreprises bruxelloises, il est temps de se préparer, d’auditer leurs pratiques et de former leurs équipes pour évoluer en confiance dans ce nouvel environnement technologique.


Par Nicolas Tancredi – Avocat associé – DWMC




Partager cet article
Archiver