L’intelligence artificielle générative s’impose dans les entreprises. Mais lorsque son utilisation entraîne une erreur, une discrimination ou une fuite d’informations, jusqu’où la responsabilité de l’employeur peut-elle être engagée ?
L’IA générative s’invite dans le travail quotidien
Rédaction d’e-mails, création de contenus, analyse de données ou automatisation de tâches : les outils d’intelligence artificielle générative se diffusent rapidement dans les organisations. Leur utilisation peut améliorer la productivité et simplifier certaines activités.
Mais cette adoption soulève aussi des questions juridiques nouvelles. Lorsqu’un·e salarié·e utilise un outil d’IA dans le cadre de son travail et que celui-ci produit une erreur, un contenu inapproprié ou une information incorrecte, qui en porte la responsabilité ?
L’employeur reste responsable de l’organisation du travail
En droit du travail, l’employeur assume une responsabilité importante dans l’organisation et le contrôle du travail. Cette responsabilité ne disparaît pas parce que certaines tâches sont désormais assistées par une intelligence artificielle.
Si un outil d’IA est mis à disposition par l’entreprise ou utilisé dans le cadre des missions confiées au salarié, l’employeur doit veiller à ce que son utilisation soit encadrée et conforme aux obligations légales. Cela concerne notamment la protection des données, la non-discrimination ou encore le respect de la vie privée.
Autrement dit, l’IA ne constitue pas un « écran juridique » permettant de transférer la responsabilité vers la machine ou vers le travailleur ou la travailleuse.
L’importance des règles internes et de la formation
Face à ces nouveaux risques, de plus en plus d’entreprises mettent en place des règles internes relatives à l’usage de l’intelligence artificielle. Ces politiques peuvent préciser, par exemple, les outils autorisés, les types de données pouvant être introduits dans ces systèmes ou encore les contrôles à effectuer avant d’utiliser un contenu généré.
La formation des travailleur·euses joue également un rôle essentiel. Un·e salarié·e qui utilise un outil qu’il/elle ne comprend pas ou dont il/elle ignore les limites peut, malgré lui ou elle, exposer l’entreprise à des risques juridiques ou réputationnels.
Une responsabilité partagée et évolutive
L’utilisation de l’intelligence artificielle ne supprime pas les responsabilités existantes, mais elle les transforme. L’employeur doit encadrer l’usage des outils, informer les travailleur·euses et mettre en place des garde-fous adaptés.
Dans un environnement technologique en évolution rapide, la meilleure stratégie consiste souvent à anticiper les risques plutôt qu’à gérer les conséquences d’une utilisation mal maîtrisée.
Par Nicolas Tancredi, (Avocat associé, DWMC)
Pour aller plus loin, participez à notre formation : Transformation digitale : pourquoi la préparation juridique est indispensable.