IA et Santé Mentale : Performance Durable et Risques Réels

Faire de l’IA un levier de performance durable : ce que le déploiement ne peut pas ignorer

Par Nathalie Bardouil, Docteure en Psychologie, Présidente d’OPUS Fabrica

Le déploiement de l’IA en entreprise s’accélère. Les gains de productivité sont réels, mesurables, documentés. Mais dans la plupart des organisations, on déploie, on forme à l’usage, on mesure l’adoption et on découvre les effets humains en cours de route, quand ils sont déjà installés.

L’engagement des collaborateurs, la performance durable, la santé au travail : ces enjeux ne s’ajustent pas après coup. Ils se construisent, ou s’érodent, au moment même des choix de déploiement. Ce déséquilibre entre vitesse technologique et anticipation humaine n’est pas une fatalité. C’est une décision souvent implicite, que les dirigeants et managers peuvent choisir de revisiter.

Déployer l’IA en entreprise : l’erreur de catégorie qui coûte cher

La plupart des stratégies de déploiement commettent ce que j’appellerais une erreur de catégorie : elles traitent l’IA comme un outil amélioré. On forme à l’usage. On encadre la donnée. On définit des process. Et on considère que le travail est fait.

Mais l’IA n’est pas un outil. Les économistes de l’innovation lui donnent un autre nom : une technologie à usage général, au même titre que la machine à vapeur, l’électrification ou l’imprimerie. Ces technologies ne s’ajoutent pas au travail existant. Elles le reconfigurent entièrement : les métiers, les organisations et … les équilibres de pouvoir.

Les ergonomes et psychologues du travail vont plus loin encore : ce n’est pas une simple délégation de tâches à la machine, c’est une redistribution de l’intelligence même du travail. Ce qui constituait le cœur de l’expertise humaine (le jugement, l’analyse, la décision) devient un espace contesté. Et elle touche à quelque chose de profondément identitaire.

IA et travail réel : ce que le déploiement ampute en silence

En psychologie du travail, nous distinguons deux réalités : le travail prescrit, ce qui est écrit, formalisé, mesurable, et le travail réel, ce que les femmes et les hommes font vraiment pour que ça marche.

Ces deux réalités ne coïncident jamais. Et c’est dans cet écart que vit l’intelligence humaine. C’est là que le professionnel adapte, invente, compense, coopère, décide face à l’imprévu. C’est là que réside l’expertise réelle, celle qui ne figure dans aucun manuel.

Or l’IA excelle dans le prescrit. Mais le travail réel vit dans l’écart. Quand le déploiement de l’IA réduit cet espace, il risque d’amputer la zone d’expression de l’intelligence humaine. Et c’est là que les risques psychosociaux commencent.

Quatre figures peuvent illustrer ces risques :

L’expert qui doute en silence. Son expertise constituait la valeur centrale de l’équipe. L’IA produit en quelques secondes ce qu’il mettait des heures à construire. Il sait que son jugement reste indispensable. Mais il n’est plus aussi sûr que son entourage le sache encore.

Le travailleur invisible à qui on ne demande plus rien. L’algorithme lui dit quand bouger, où aller, combien de temps s’arrêter. Ce qu’il ressent est simple et brutal : un corps qui exécute, dans un espace où plus rien ne lui appartient.

Le manager à qui on n’a pas donné les clés. Formé à l’outil. Pas à la transformation identitaire qu’il induit. Comment évaluer un travail dont on ne sait plus quelle part est humaine ? Il improvise, seul, dans le doute constant.

Le collectif qui se fragmente. L’IA répond vite, sans jugement, sans humeur. Elle devient l’interlocuteur naturel: on lui pose la question qu’on aurait posée au collègue, à l’expert. Ce glissement est imperceptible au quotidien. Mais progressivement, les savoirs tacites ne se transmettent plus. Ce qu’on perd, ce n’est pas seulement du lien. C’est le sentiment d’efficacité collective, cette conviction partagée qu’une équipe peut faire face ensemble aux situations complexes. Et c’est l’un des prédicteurs les plus robustes de la performance durable.

 

Intelligence artificielle et engagement : ce que l’IA menace sans qu’on le voie

L’engagement d’un collaborateur repose sur une disposition fondamentale : se sentir utile, capable d’agir, reconnu. Ce qu’en psychologie nous appelons le pouvoir d’agir, un déterminant central de la santé mentale et de la performance au travail.

Le pouvoir d’agir s’exerce à travers six dimensions : pouvoir faire, décider, débattre, coopérer, se développer, donner du sens. Ce qui est remarquable, et inquiétant, c’est qu’une IA mal déployée fragilise ces six dimensions simultanément. Pas l’une après l’autre. Toutes en même temps.

Il n’y a pas de pouvoir d’agir sans capacité de penser. Une étude du MIT Media Lab (2025) documente jusqu’à 55 % de réduction de connectivité neuronale chez des jeunes utilisant l’IA pour écrire. 83 % d’entre eux ne se souvenaient pas de ce qu’ils venaient de produire. En France, 42 % des jeunes utilisent déjà les IA génératives quotidiennement. Ce sont vos futurs collaborateurs. Certains sont déjà dans vos équipes. Ce que ces chiffres mesurent, ce n’est pas de la paresse. C’est quelque chose de plus insidieux : quand on délègue la pensée, on cesse progressivement de la pratiquer.

La Boétie, au XVIe siècle, s’étonnait déjà que des hommes libres acceptent volontairement d’être dominés, non par la force, mais par le confort de ne plus avoir à décider. Erich Fromm, au XXe siècle, parlait de la peur de la liberté : la liberté est exigeante, incertaine, responsabilisante. La délégation soulage.

L’IA présente toutes les caractéristiques du Maître idéal : omnisciente en apparence, infaillible, disponible 24h/24, non jugeante et même flatteuse. Ce soulagement est réel, et c’est précisément ce qui le rend stratégiquement dangereux. Tout est en place pour créer une nouvelle addiction, d’autant que le terrain a été préparé par les réseaux sociaux. Et il n’est jamais aisé de se libérer d’une addiction.

ROI de l’IA : la colonne que les organisations oublient

Il y a un raisonnement que certaines organisations font en ce moment. Il est séduisant, rationnel en apparence, et dangereux dans ce qu’il oublie.

L’IA fait gagner du temps. Le temps, c’est de l’argent. Donc l’IA fait gagner de l’argent.

Sauf que ce calcul oublie la deuxième colonne.

Si l’IA prend en charge les tâches qui constituaient le cœur d’expertise de vos collaborateurs, qu’adviendra-t-il de cette expertise dans dix ans ? Si les juniors n’ont plus de tâches formatives, qui seront vos experts de demain ? Si les collectifs cessent de délibérer ensemble, qui portera la mémoire vivante de votre organisation ?

Harvard Business School documente aujourd’hui une durée de vie moyenne des compétences inférieure à cinq ans. Dans certains domaines, moins de deux ans et demi. La vraie question n’est donc pas « combien l’IA nous fait-elle gagner cette année ? ». C’est : quel est le coût de ce que nous sommes en train de laisser s’atrophier ?

Risques psychosociaux et IA : trois erreurs organisationnelles récurrentes

Trois erreurs organisationnelles reviennent fréquemment dans les déploiements IA :

La substitution sans accompagnement: introduire l’IA sans préparer ce que les collaborateurs perdent dans leurs missions, érode le sentiment d’utilité. 

L’injonction sans chemin: demander d’adopter sans donner les moyens de comprendre, installe la culpabilité. 

L’absence d’espace de vulnérabilité: ne pas créer de lieux où l’on peut dire ce qu’on ne maîtrise pas, détruit la sécurité psychologique.

Le Project Aristotle, vaste programme de recherche interne conduit par Google, a identifié cette sécurité psychologique comme le premier facteur discriminant des équipes performantes : la conviction partagée que l’on peut prendre des risques interpersonnels sans en subir les conséquences. Dire ce qu’on ne comprend pas. Signaler une erreur. Exprimer un désaccord. Un déploiement IA qui préserve ces espaces ne fait pas que protéger la santé. Il construit activement les conditions d’une performance durable.

Faire de l’IA un levier d’engagement durable : quatre mouvements concrets

L’objectif n’est pas de ralentir le déploiement. C’est d’aller plus loin, et plus durablement. Quatre mouvements permettent de poser les fondations d’une transformation qui préserve et renforce, le capital humain.

Comprendre, avant d’agir, regarder la réalité en face. Analyser l’impact psychosocial par métier et par type d’IA, en partant du travail réel, pas de l’outil. Car l’IA est très probablement déjà dans vos organisations, que vous l’ayez décidé ou non. Le Shadow AI, ces usages non déclarés que vos collaborateurs ont développés seuls, est la réalité silencieuse de la plupart des organisations en 2026. Ne pas avoir défini le cadre ne signifie pas que l’IA n’est pas là. Ça signifie qu’elle est là sans reconnaissance, sans débat, et sans bénéfice collectif. Le LaborIA l’établit clairement : quand l’IA soutient partiellement la décision humaine, elle renforce l’autonomie et l’engagement. Quand elle s’y substitue totalement, elle les détruit progressivement. Ce curseur doit être défini avec les équipes. C’est une décision humaine, pas technique.

Construire, délibérément, collectivement. Créer des espaces de pratique partagée où l’on challenge ensemble les productions de l’IA, où l’on confronte ses usages à ceux des collègues. Préserver les moments de transmission et de compagnonnage que l’IA tend à court-circuiter. Investir dans le manager de proximité, non comme relais du déploiement, mais comme architecte de la sécurité psychologique de l’équipe. Amy Edmondson l’établit dans ses travaux les plus récents. Trois gestes suffisent : cadrer l’enjeu, inviter proactivement et répondre productivement. Ces gestes ne prennent pas des heures. Ils changent le climat d’une équipe.

Cultiver, dans la durée, avec humilité. Rendre visible le travail invisible, car quand l’IA produit l’output, l’effort humain qui a guidé, orienté, contextualisé disparaît. Valoriser les compétences que l’IA ne peut pas remplacer : l’analyse dans l’incertitude, la décision éthique, la créativité, la relation, la négociation. Ce qu’on appelait autrefois « soft skills » sont devenus, à l’ère de l’IA, les compétences les plus stratégiques. Les nommer, les évaluer, les développer n’est plus optionnel.

Gouverner, décider explicitement ce qu’on ne délèguera pas. Créer des espaces de délibération réelle sur les usages, par métier, avec les personnes concernées. En France, le Règlement européen sur l’IA est pleinement applicable depuis 2026. Mais les organisations les plus avancées ne s’arrêtent pas à la conformité. Elles font du dialogue social sur l’IA une décision stratégique, parce qu’elles savent que le sentiment de ne pas avoir de prise est précisément ce qui génère le désengagement.

 

Capital humain et performance durable : vingt ans de terrain

Chez OPUS Fabrica, nous avons une conviction forgée en vingt ans d’accompagnement des organisations : la performance durable ne repose pas sur l’augmentation des individus. Elle repose sur la capacité des collectifs à intégrer leurs vulnérabilités pour en faire une force.

L’IA bien déployée peut servir cette conviction. Elle peut libérer du temps, enrichir l’analyse, élargir les possibles. Mais seulement si nous choisissons délibérément ce que nous refusons de lui déléguer , les jugements qui engagent des vies humaines, les liens qui font tenir une équipe, les décisions qui dessinent ce que nous voulons être.

Dirigeants, managers : la question n’est pas de savoir si l’IA sera dans vos organisations. Elle y est déjà, que vous l’ayez décidé ou non.

La question est : au service de quoi et de qui l’aurez-vous mise ?

 

Nathalie Bardouil est Docteure en Psychologie et Présidente d’OPUS Fabrica, cabinet spécialisé en psychologie du travail, prévention des risques psychosociaux et transformation organisationnelle. Elle intervient sur les enjeux d’engagement, de santé au travail et d’intelligence collective dans des organisations de tous secteurs.

→ Pour approfondir ces questions dans votre organisation : contact@opus-fabrica.fr

Publications similaires

Illustration de couverture Opus Explora présentant une boussole stylisée et technique sous le titre "I.A & Santé Mentale" avec la mention "Explorons, Innovons, Transformons".
Sens & Engagement / Stratégie & Raison d’être
IA et Santé Mentale : Performance Durable et Risques Réels
OPUS Fabrica
31 March 2026
Macarons officiels Décideurs RH 2025 classant le cabinet de conseil Opus Fabrica "Forte Notoriété" en Prévention des Risques Psychosociaux (RPS) et "Excellent" en Conseil RH régional pour l'Occitanie et la Nouvelle-Aquitaine.
RPS & QVCT
Opus Fabrica parmi les meilleurs cabinets RH & RPS 2025
OPUS Fabrica
9 March 2026