📊 Une réalité qui a déjà devancé vos procédures
L’intelligence artificielle n’est pas un risque futur. Elle est active, maintenant, dans vos unités de travail. Les dernières données disponibles dressent un portrait saisissant du décalage entre l’usage réel et l’accompagnement des employeurs.
des salariés utilisent des outils d’IA générative au travail, dont 63 % fréquemment
Great Insights 2026 — enquête Toluna pour Great Place To Work France, 4 246 actifs, déc. 2025des salariés ont déjà connu un burn-out ou un épuisement professionnel
Great Insights 2026, Great Place To Work France, janv. 2026des salariés identifient l’IA comme le principal risque lié à leur travail
Great Insights 2026 / Helloworkplace, janv. 2026des salariés n’ont reçu aucune formation sur les outils IA déployés dans leur entreprise
Inforisque, 2025Ces chiffres convergent vers un constat que nous posons chez Jurisphera avec clarté : l’IA est d’abord un facteur de risque psychosocial avant d’être un risque physique. Elle modifie l’organisation du travail, la charge mentale, les relations professionnelles et le sens que les salariés donnent à leur mission — les quatre dimensions historiques de l’évaluation des RPS.
🧠 Pourquoi l’IA génère-t-elle des RPS ? Le mécanisme expliqué
Le paradoxe documenté par des chercheurs de Stanford et de Harvard en 2025 est révélateur : l’IA n’allège pas la charge de travail — elle la transforme et souvent l’intensifie. Les collaborateurs étendent leur périmètre d’action, perçoivent initialement cette polyvalence comme gratifiante… puis s’effondrent.
Ce que les chercheuses Aruna Ranganathan et Xingqi Maggie Ye ont observé pendant 8 mois dans une entreprise tech : des journées régulièrement à 12 heures, un multitâche constant, et une vérification fréquente des productions de l’IA qui génèrent une fatigue cognitive croissante et difficilement verbalisable. La productivité mesurée monte. La santé mentale réelle, elle, décroche.
La particularité insidieuse : contrairement aux facteurs classiques de pénibilité mentale, l’intensification induite par l’IA est perçue comme auto-imposée — le salarié l’adopte volontairement. Ce qui rend l’identification des signaux faibles bien plus difficile sans une démarche d’évaluation structurée.
1 salarié sur 2 se dit préoccupé pour son emploi à cause de l’IA (Owl Labs, 2025). Ce stress chronique, souvent non verbalisé, est un facteur RPS à évaluer par unité de travail.
L’IA augmente le volume d’informations à traiter, l’obligation d’apprentissage continu et la fréquence de vérification des outputs. Elle crée une fatigue mentale que les indicateurs classiques ne captent pas.
Lorsque les décisions ou évaluations sont automatisées, les salariés perdent la perception du « pourquoi » de leur mission. Facteur directement lié au risque de burn-out profond.
Analyse en temps réel des performances, micro-indicateurs de comportement… Cette surveillance diffuse crée un sentiment de contrôle permanent générateur de tension chronique.
Les managers adoptent l’IA à 71 % contre 46 % pour les non-managers (Great Insights 2026). Ces inégalités créent des tensions et un sentiment d’injustice organisationnelle bien documenté en RPS.
L’IA efface les frontières entre temps de travail et vie privée. Le droit à la déconnexion devient très difficile à faire respecter quand les outils sont disponibles 24h/24.
⚖️ L’obligation légale : ce que dit le Code du travail
Si le Code du travail ne mentionne pas encore l’IA nommément, son déploiement entre pleinement dans les obligations générales de prévention. L’employeur doit, aux termes de l’article L.4121-1, prendre les mesures nécessaires pour assurer la sécurité et protéger la santé physique et mentale des travailleurs.
🔍 Comment évaluer concrètement les RPS liés à l’IA ?
C’est ici que la méthode compte. Les risques physiques se mesurent souvent à la simple observation du poste de travail. Les RPS liés à l’IA ne se voient pas — ils se vivent, ils se ressentent, et ils ne peuvent être objectivés que par une démarche d’évaluation structurée incluant l’interrogation directe des salariés.
Chez Jurisphera, nous réalisons une annexe RPS dédiée au DUERP, distincte de l’évaluation des risques physiques. Cette annexe repose sur des questionnaires remis aux salariés — anonymes, structurés selon les six familles de facteurs de risque (modèles KARASEK, SIEGRIST, référentiel INRS) — pour produire une analyse objective et défendable juridiquement.
C’est précisément cette démarche qu’il faut adapter aux risques IA : intégrer dans les questionnaires des axes spécifiques sur la charge cognitive liée aux outils numériques, le sentiment de contrôle face à l’automatisation et l’anxiété de remplacement. Sans interrogation des salariés, vous n’avez pas d’évaluation RPS — vous avez une intuition.
Cette approche par questionnaire présente un triple avantage : elle objectivise les risques ressentis, elle implique les salariés dans la démarche (ce que le Code du travail valorise), et elle constitue une preuve documentaire solide en cas de contrôle de l’inspection du travail ou de contentieux prud’homal.
🇪🇺 L’AI Act : une échéance réglementaire qui arrive vite
Par-dessus le Code du travail, le Règlement (UE) 2024/1689 dit « AI Act » classe les systèmes d’IA par niveaux de risque et impose des obligations aux entreprises qui les déploient — notamment dans les processus RH.
✅ Ce que vous devez faire maintenant
- Cartographier les usages IA dans chaque unité de travail — Quels outils ? Par qui ? Pour quelles tâches ? À quelle fréquence ? Cette cartographie est le préalable indispensable.
- Actualiser le DUERP en intégrant l’IA comme nouvelle technologie modifiant l’organisation du travail, conformément aux préconisations INRS / Ministère du Travail.
- Réaliser une annexe RPS dédiée avec questionnaires anonymes remis aux salariés — les seuls à pouvoir témoigner objectivement des effets de l’IA sur leur charge mentale.
- Consulter le CSE sur l’introduction de ces technologies (art. L.2312-8) — si ce n’est pas encore fait, documentez et régularisez sans attendre.
- Intégrer les mesures de prévention dans le PAPRIPACT : formation à l’usage de l’IA, charte d’usage interne, droit à la déconnexion renforcé, accompagnement managérial.
- Vérifier vos outils RH IA au regard de la deadline AI Act du 2 août 2026 — recrutement algorithmique, scoring, évaluation automatisée.
- Former vos managers à détecter les signaux faibles d’épuisement cognitif souvent masqués par une apparente hausse de productivité.
- Dater et conserver chaque version du DUERP mis à jour — obligation de conservation 40 ans (loi Santé au travail 2021).
L’IA est déjà dans vos entreprises. Elle modifie chaque jour la charge de travail, les relations, le sens du métier et la santé mentale de vos salariés. Ne pas l’évaluer dans le DUERP, c’est cumuler deux fautes : une faute de prévention SST et une absence de documentation défendable.
La bonne nouvelle : une démarche d’évaluation RPS bien conduite — avec questionnaires salariés, analyse objective et plan d’action documenté — vous permet à la fois de protéger vos équipes et de construire le bouclier juridique que tout employeur devrait avoir face à la montée en puissance du contentieux santé-travail.
🛡️ Votre DUERP intègre-t-il les risques RPS liés à l’IA ?
Jurisphera réalise votre évaluation RPS avec questionnaires salariés, annexe dédiée au DUERP et plan d’action intégré — une démarche complète, documentée et juridiquement solide.
Évaluation RPS → Mise à jour DUERP →Cet article est rédigé à titre informatif et pédagogique. Il ne constitue pas un avis juridique personnalisé.
#IA #DUER #SST #Santé #Sécurité #Travail #Entreprise
Plus d’informations sur les risques psychosociaux en cliquant ici

