Préparer un feedback délicat, reformuler un mail trop abrupt, relire un message avant de l’envoyer à son manager, apaiser un conflit entre services… Derrière les usages visibles de l’intelligence artificielle, une autre réalité émerge : celle d’un recours à l’IA comme appui relationnel. Ces pratiques, rarement déclarées, illustrent l’essor d’un “shadow AI” (IA caché) au service des interactions professionnelles. 

Pour Martin Pavanello, CEO de Mister IA, qui accompagne plus de 1 000 entreprises dans l’appropriation de l’intelligence artificielle, l’outil peut améliorer la qualité des échanges… à condition de rester un assistant d’analyse et non un arbitre des relations humaines. Entretien. 

On parle beaucoup des gains de productivité liés à l’IA. Mais y a-t-il des usages plus relationnels dans les entreprises ?

Il y en a plusieurs, et certains sont assez surprenants. Le premier concerne le gain de confiance en soi. Beaucoup de salariés, notamment les plus jeunes, utilisent l’IA pour corriger un mail, reformuler un message ou vérifier la manière dont ils s’adressent à leur manager. Derrière ces usages, il y a souvent la peur de mal faire, d’être jugé ou d’envoyer un message maladroit.

Pour certaines personnes, cela leur permet de s’exprimer avec davantage d’assurance. L’IA devient ainsi une forme d’intermédiaire : l’outil signale des fautes, propose des formulations plus adaptées ou aide à clarifier une idée, ce qui permet aux salariés d’être plus à l’aise dans leurs échanges professionnels.

Quelles sont les situations où l’IA est un soutien relationnel ?  

On le voit notamment dans la gestion des tensions ou des désaccords. Certains collaborateurs s’en servent pour reformuler un message écrit sous le coup de l’agacement, lisser un ton ou adapter leur manière de dire les choses. L’objectif n’est pas forcément de modifier le fond, mais d’éviter qu’une formulation trop abrupte n’envenime une relation de travail.

Dans les échanges interservices, un phénomène intéressant apparaît : l’IA peut aider à mieux comprendre les contraintes, les logiques ou le vocabulaire propres à un autre métier. Elle contribue ainsi à fluidifier la collaboration en réduisant certaines incompréhensions liées aux différences de culture professionnelle. Mais cette médiation n’est pas sans ambiguïté : elle peut aussi susciter des tensions, notamment lorsque certains acteurs ont le sentiment que leur périmètre d’expertise est contourné ou partiellement réapproprié par d’autres fonctions.

Le management semble être un terrain particulièrement propice à ces usages relationnels. Comment l’IA est-elle utilisée ? 

Très clairement, les managers figurent parmi les plus gros utilisateurs de l’IA, mais aussi parmi ceux qui l’assument le moins. Sans doute parce qu’ils ont le sentiment que leurs missions relèvent davantage de l’humain, et qu’il serait mal perçu de dire qu’ils s’appuient sur un outil.

Dans les faits, l’IA est déjà utilisée pour préparer des entretiens annuels, structurer des feedbacks, rédiger des comptes-rendus ou réfléchir à la manière d’aborder une relation complexe avec un collaborateur. Certains vont décrire une situation, rappeler les faits marquants de l’année et demander des pistes pour structurer l’échange, identifier les points à valoriser ou à recadrer, ou clarifier la formulation de certains messages.

Plus un manager est récent dans sa fonction, plus ce type d’appui peut être utile. L’IA joue alors un rôle d’assistant de préparation, qui permet de prendre du recul avant un échange potentiellement sensible. Ces pratiques relèvent souvent d’un shadow AI, c’est-à-dire d’usages peu visibles ou peu déclarés, car ils touchent à des dimensions considérées comme très humaines du travail.

Peut-on alors parler “d’un tiers neutre” ?

Non, justement. L’IA n’est pas neutre. Elle reflète les données avec lesquelles elle a été entraînée, donc des biais, des représentations et une certaine culture. Il faut être très clair là-dessus. Le principal risque n’est pas tant de lui demander de reformuler un texte ou de comparer des options. Le risque apparaît lorsqu’on lui demande son opinion sur une situation humaine. Par exemple, on peut lui demander : “Compare objectivement deux options”, “Liste les avantages et les inconvénients d’une manière de gérer un conflit”, ou encore “Quelles sont les bonnes pratiques documentées dans ce type de situation ?”. Dans ce cas, l’IA produit de la matière à réflexion.

En revanche, lui demander : “Qui a raison ?”, “Comment dois-je interpréter ce qu’il m’a dit ?” ou “Quelle décision dois-je prendre dans cette relation ?” pose davantage problème. L’IA peut aider à structurer un raisonnement, à comparer des éléments ou à faire émerger des angles morts. Mais elle ne doit pas devenir un arbitre des relations humaines.

Observez-vous des formes de dépendance, notamment affective ou cognitive, à ces outils ?

Concernant la dépendance affective, nous ne l’observons pas encore réellement dans les usages professionnels. Les outils ne sont pas encore suffisamment personnalisés pour créer ce type de relation. Mais ils évoluent rapidement vers des formes d’assistance plus individualisées, donc la question pourrait se poser à l’avenir. En revanche, il existe déjà une forme de dépendance à la productivité. Lorsqu’on a pris l’habitude de travailler avec une IA, il devient difficile de revenir en arrière. L’outil s’intègre dans le quotidien et devient un prolongement de certaines activités professionnelles.

Les entreprises doivent-elles commencer à intégrer ces usages relationnels dans leur gouvernance IA ?

Oui, car on observe aujourd’hui une porosité croissante entre les usages professionnels et personnels. Lorsqu’une entreprise fournit une licence d’IA, une partie des collaborateurs l’utilise aussi pour des sujets personnels. Ce phénomène est plus marqué que pour d’autres outils professionnels. Il devient donc nécessaire de poser un cadre : ce qui est autorisé, ce qui ne l’est pas, ce qui relève de la confidentialité, ou encore ce que l’on attend en matière de discernement dans l’utilisation de l’outil. L’objectif n’est pas de tout contrôler, mais de sensibiliser aux risques et d’accompagner des usages responsables, notamment lorsque l’IA commence à être utilisée comme soutien émotionnel ou comme substitut à certaines discussions.

Quelles sont, selon vous, les trois bonnes pratiques à retenir pour utiliser l’IA de manière saine dans les relations de travail ?

La première consiste à choisir des outils adaptés au contexte culturel dans lequel on évolue. Tous les modèles n’intègrent pas les mêmes références. Lorsqu’il s’agit de communication ou de situations relationnelles, cette dimension peut avoir un impact.

La deuxième est de former les collaborateurs. Beaucoup d’usages inefficaces viennent d’une mauvaise compréhension de ce que l’IA sait faire, et de ce qu’elle ne sait pas faire. Avant d’utiliser ces outils dans des situations sensibles, il est important d’en connaître les limites.

La troisième consiste à conserver une distance critique. L’IA peut aider à comparer des options, structurer des idées ou formuler des hypothèses. Mais elle ne doit pas se substituer au jugement humain. Elle peut éclairer une décision, mais elle ne doit pas décider à la place de la personne.

Pour ne rater aucune actualité en matière de qualité de vie au travail, inscrivez-vous à la newsletter de My Happy Job.

A lire aussi :
5 impacts de l’IA sur votre bien-être au travail

Article précédentCes 5 signaux faibles montrent que vous tirez trop sur la corde au travail
Diplômée de l’ESC Reims, Laure Girardot a 10 ans d’expérience en tant que consultante en change management, communication et ressources humaines. Aujourd’hui, elle est journaliste indépendante travail, RH et management.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici