BLOG

Intelligence artificielle et DUER - Risques Psychosociaux
ChatGPT dans les bureaux, Copilot dans les e-mails, algorithmes d’évaluation dans les RH… L’IA générative s’est installée discrètement dans vos entreprises. Mais contrairement aux risques physiques — facilement visibles et mesurables — les risques psychosociaux qu’elle génère sont insidieux, progressifs et souvent invisibles jusqu’à l’accident. Et votre Document Unique, dans la grande majorité des cas, n’en dit pas un mot.

📊 Une réalité qui a déjà devancé vos procédures

L’intelligence artificielle n’est pas un risque futur. Elle est active, maintenant, dans vos unités de travail. Les dernières données disponibles dressent un portrait saisissant du décalage entre l’usage réel et l’accompagnement des employeurs.

59%

des salariés utilisent des outils d’IA générative au travail, dont 63 % fréquemment

Great Insights 2026 — enquête Toluna pour Great Place To Work France, 4 246 actifs, déc. 2025
41%

des salariés ont déjà connu un burn-out ou un épuisement professionnel

Great Insights 2026, Great Place To Work France, janv. 2026
32%

des salariés identifient l’IA comme le principal risque lié à leur travail

Great Insights 2026 / Helloworkplace, janv. 2026
70%

des salariés n’ont reçu aucune formation sur les outils IA déployés dans leur entreprise

Inforisque, 2025

Ces chiffres convergent vers un constat que nous posons chez Jurisphera avec clarté : l’IA est d’abord un facteur de risque psychosocial avant d’être un risque physique. Elle modifie l’organisation du travail, la charge mentale, les relations professionnelles et le sens que les salariés donnent à leur mission — les quatre dimensions historiques de l’évaluation des RPS.

🧠 Pourquoi l’IA génère-t-elle des RPS ? Le mécanisme expliqué

Le paradoxe documenté par des chercheurs de Stanford et de Harvard en 2025 est révélateur : l’IA n’allège pas la charge de travail — elle la transforme et souvent l’intensifie. Les collaborateurs étendent leur périmètre d’action, perçoivent initialement cette polyvalence comme gratifiante… puis s’effondrent.

Ce que les chercheuses Aruna Ranganathan et Xingqi Maggie Ye ont observé pendant 8 mois dans une entreprise tech : des journées régulièrement à 12 heures, un multitâche constant, et une vérification fréquente des productions de l’IA qui génèrent une fatigue cognitive croissante et difficilement verbalisable. La productivité mesurée monte. La santé mentale réelle, elle, décroche.

La particularité insidieuse : contrairement aux facteurs classiques de pénibilité mentale, l’intensification induite par l’IA est perçue comme auto-imposée — le salarié l’adopte volontairement. Ce qui rend l’identification des signaux faibles bien plus difficile sans une démarche d’évaluation structurée.

😰 Anxiété de remplacement

1 salarié sur 2 se dit préoccupé pour son emploi à cause de l’IA (Owl Labs, 2025). Ce stress chronique, souvent non verbalisé, est un facteur RPS à évaluer par unité de travail.

🧠 Surcharge cognitive

L’IA augmente le volume d’informations à traiter, l’obligation d’apprentissage continu et la fréquence de vérification des outputs. Elle crée une fatigue mentale que les indicateurs classiques ne captent pas.

🎯 Perte de sens et d’autonomie

Lorsque les décisions ou évaluations sont automatisées, les salariés perdent la perception du « pourquoi » de leur mission. Facteur directement lié au risque de burn-out profond.

👁️ Surveillance algorithmique

Analyse en temps réel des performances, micro-indicateurs de comportement… Cette surveillance diffuse crée un sentiment de contrôle permanent générateur de tension chronique.

🚫 Fracture numérique interne

Les managers adoptent l’IA à 71 % contre 46 % pour les non-managers (Great Insights 2026). Ces inégalités créent des tensions et un sentiment d’injustice organisationnelle bien documenté en RPS.

🔌 Hyperconnexion aggravée

L’IA efface les frontières entre temps de travail et vie privée. Le droit à la déconnexion devient très difficile à faire respecter quand les outils sont disponibles 24h/24.

⚖️ L’obligation légale : ce que dit le Code du travail

Si le Code du travail ne mentionne pas encore l’IA nommément, son déploiement entre pleinement dans les obligations générales de prévention. L’employeur doit, aux termes de l’article L.4121-1, prendre les mesures nécessaires pour assurer la sécurité et protéger la santé physique et mentale des travailleurs.

⚠️ Obligation de mise à jour du DUERP Le Ministère du Travail et l’INRS sont formels : toute modification importante des conditions de travail ou l’introduction d’une nouvelle technologie justifie une actualisation du DUERP. Dès lors que l’usage de l’IA modifie les tâches, les responsabilités ou la charge mentale, l’employeur doit évaluer les RPS associés et les intégrer au DUERP et au PAPRIPACT.
⚠️ Consultation obligatoire du CSE L’article L.2312-8 du Code du travail impose une consultation obligatoire du CSE lors de l’introduction de nouvelles technologies. Si vous avez déployé des outils IA sans consulter vos représentants du personnel, vous êtes déjà en infraction — indépendamment de tout accident.
⚖️ Ce que la jurisprudence SST enseigne La Cour de cassation a rappelé à plusieurs reprises (chambre sociale, 2025) que l’obligation de sécurité de l’employeur ne se limite pas aux risques physiques : elle englobe la santé mentale. Dès que l’employeur a ou aurait dû avoir connaissance d’une situation susceptible de générer un risque psychosocial, il doit agir et en documenter les mesures. L’absence d’évaluation dans le DUERP constitue un manquement pouvant fonder une faute inexcusable.

🔍 Comment évaluer concrètement les RPS liés à l’IA ?

C’est ici que la méthode compte. Les risques physiques se mesurent souvent à la simple observation du poste de travail. Les RPS liés à l’IA ne se voient pas — ils se vivent, ils se ressentent, et ils ne peuvent être objectivés que par une démarche d’évaluation structurée incluant l’interrogation directe des salariés.

🛡️ La démarche Jurisphera : l’annexe RPS au DUERP avec questionnaires salariés

Chez Jurisphera, nous réalisons une annexe RPS dédiée au DUERP, distincte de l’évaluation des risques physiques. Cette annexe repose sur des questionnaires remis aux salariés — anonymes, structurés selon les six familles de facteurs de risque (modèles KARASEK, SIEGRIST, référentiel INRS) — pour produire une analyse objective et défendable juridiquement.

C’est précisément cette démarche qu’il faut adapter aux risques IA : intégrer dans les questionnaires des axes spécifiques sur la charge cognitive liée aux outils numériques, le sentiment de contrôle face à l’automatisation et l’anxiété de remplacement. Sans interrogation des salariés, vous n’avez pas d’évaluation RPS — vous avez une intuition.

Cette approche par questionnaire présente un triple avantage : elle objectivise les risques ressentis, elle implique les salariés dans la démarche (ce que le Code du travail valorise), et elle constitue une preuve documentaire solide en cas de contrôle de l’inspection du travail ou de contentieux prud’homal.

🇪🇺 L’AI Act : une échéance réglementaire qui arrive vite

Par-dessus le Code du travail, le Règlement (UE) 2024/1689 dit « AI Act » classe les systèmes d’IA par niveaux de risque et impose des obligations aux entreprises qui les déploient — notamment dans les processus RH.

✅ 2 février 2025 — Applicable
Interdictions absolues : reconnaissance d’émotions sur le lieu de travail, manipulation comportementale, notation sociale des salariés
✅ 2 août 2025 — Applicable
Obligations sur les modèles d’IA à usage général (GPAI)
🔴 2 août 2026 — DEADLINE CRITIQUE
Systèmes d’IA à haut risque : les outils RH de recrutement, d’évaluation des performances et de surveillance des salariés doivent être conformes — transparence, documentation, supervision humaine obligatoire.
2 août 2027
Extension aux dispositifs intégrés (machines industrielles, équipements médicaux connectés…)
📌 Ce que ça signifie pour vous Si vous utilisez un logiciel d’IA pour recruter, noter ou évaluer vos salariés, vous êtes déployeur d’un système à haut risque. Ce cadre réglementaire ne vient pas remplacer vos obligations SST — il s’y ajoute. Le non-respect des deux peut se cumuler en cas de contentieux.

✅ Ce que vous devez faire maintenant

  • Cartographier les usages IA dans chaque unité de travail — Quels outils ? Par qui ? Pour quelles tâches ? À quelle fréquence ? Cette cartographie est le préalable indispensable.
  • Actualiser le DUERP en intégrant l’IA comme nouvelle technologie modifiant l’organisation du travail, conformément aux préconisations INRS / Ministère du Travail.
  • Réaliser une annexe RPS dédiée avec questionnaires anonymes remis aux salariés — les seuls à pouvoir témoigner objectivement des effets de l’IA sur leur charge mentale.
  • Consulter le CSE sur l’introduction de ces technologies (art. L.2312-8) — si ce n’est pas encore fait, documentez et régularisez sans attendre.
  • Intégrer les mesures de prévention dans le PAPRIPACT : formation à l’usage de l’IA, charte d’usage interne, droit à la déconnexion renforcé, accompagnement managérial.
  • Vérifier vos outils RH IA au regard de la deadline AI Act du 2 août 2026 — recrutement algorithmique, scoring, évaluation automatisée.
  • Former vos managers à détecter les signaux faibles d’épuisement cognitif souvent masqués par une apparente hausse de productivité.
  • Dater et conserver chaque version du DUERP mis à jour — obligation de conservation 40 ans (loi Santé au travail 2021).

L’IA est déjà dans vos entreprises. Elle modifie chaque jour la charge de travail, les relations, le sens du métier et la santé mentale de vos salariés. Ne pas l’évaluer dans le DUERP, c’est cumuler deux fautes : une faute de prévention SST et une absence de documentation défendable.

La bonne nouvelle : une démarche d’évaluation RPS bien conduite — avec questionnaires salariés, analyse objective et plan d’action documenté — vous permet à la fois de protéger vos équipes et de construire le bouclier juridique que tout employeur devrait avoir face à la montée en puissance du contentieux santé-travail.

🛡️ Votre DUERP intègre-t-il les risques RPS liés à l’IA ?

Jurisphera réalise votre évaluation RPS avec questionnaires salariés, annexe dédiée au DUERP et plan d’action intégré — une démarche complète, documentée et juridiquement solide.

Évaluation RPS → Mise à jour DUERP →
📚 Sources : Great Insights 2026, enquête Toluna pour Great Place To Work France (4 246 actifs, déc. 2025), publiée le 20 janvier 2026 — Helloworkplace, « Ce que les salariés attendent de leur entreprise en 2026 », janv. 2026 — Inforisque, « IA générative au travail : une promesse pour la charge mentale ? », 2025 — Ranganathan & Ye, étude Stanford / Harvard 2025 — Owl Labs, « State of Hybrid Work », 2025 — CERFOS, « IA au travail : quels enjeux pour la prévention ? », mars 2026 — Règlement (UE) 2024/1689 dit AI Act — Code du travail art. L.4121-1 et L.2312-8 — INRS / Ministère du Travail, préconisations DUERP et nouvelles technologies.

Cet article est rédigé à titre informatif et pédagogique. Il ne constitue pas un avis juridique personnalisé.

#IA #DUER #SST #Santé #Sécurité #Travail #Entreprise

Plus d’informations sur les risques psychosociaux en cliquant ici

CATEGORIES:

Actualités