Peut-on sanctionner un salarié pour une erreur commise par une IA ?

22 janvier 2026 par
Beci Community

© DC Studio - Freepik

L’intelligence artificielle s’invite dans le quotidien des entreprises. Mais lorsqu’un outil d’IA se trompe, la responsabilité disciplinaire du travailleur ou de la travailleuse peut-elle être engagée ?

De plus en plus d’employé·es utilisent des outils d’intelligence artificielle générative pour rédiger des textes, analyser des données ou automatiser certaines tâches. Gain de temps, efficacité accrue, réduction des erreurs humaines : les promesses sont nombreuses. Mais que se passe-t-il lorsqu’une décision erronée, un document fautif ou une information inexacte résulte d’un recours à l’IA ? L’employeur peut-il sanctionner le travailleur ou la travailleuse qui s’est appuyé·e sur cet outil ? La réponse est plus nuancée qu’il n’y paraît.

L’IA reste un outil, pas un responsable

En droit du travail, la responsabilité disciplinaire repose sur le comportement du travailleur ou de la travailleuse. Une intelligence artificielle, aussi sophistiquée soit-elle, ne dispose ni de personnalité juridique ni de responsabilité propre. Dès lors, l’utilisation d’une IA ne dispense pas le ou la salarié·e de son devoir de prudence, de loyauté et de diligence. Un travail livré reste, en principe, sous sa responsabilité, même lorsqu’il a été partiellement ou totalement généré par un outil automatisé.

Faute disciplinaire : tout dépend du contexte

Toute erreur liée à l’IA ne justifie pas automatiquement une sanction. L’employeur devra apprécier selon le degré d’autonomie laissé au/à la salarié·e dans l’utilisation de l’outil, l’existence (ou non) de directives internes encadrant l’usage de l’IA, la nature de la fonction exercée et le niveau d’expertise attendu, le caractère prévisible ou non de l’erreur…

Un·e salarié·e qui suit les procédures établies et utilise un outil validé par l’entreprise ne se trouve pas dans la même situation que celui qui recourt, sans autorisation, à une IA non maîtrisée pour des décisions sensibles.

Le rôle clé des règles internes et de la formation

La question de la sanction renvoie inévitablement à celle de la gouvernance de l’IA en entreprise. Sans politique claire, sans formation adéquate et sans balises précises, il sera difficile pour un employeur de reprocher à un·e travailleur·euse une erreur commise via un outil dont l’usage est toléré, voire encouragé. À l’inverse, des règles internes explicites, connues et proportionnées renforcent la sécurité juridique tant pour l’employeur que pour les salarié·es.


L’erreur commise par une IA n’exonère pas automatiquement les salarié·es de toute responsabilité, mais elle ne justifie pas non plus une sanction systématique. Dans un contexte de transformation numérique accélérée, l’enjeu principal n’est pas tant de sanctionner que d’encadrer, former et responsabiliser l’usage de l’intelligence artificielle au sein de l’entreprise.


Par Nicolas Tancredi.

 

Partager cet article