L’arrivée de l’intelligence artificielle dans le management RH franchit une nouvelle étape. Chez Orange, les téléconseillers se retrouvent désormais évalués par un algorithme, ce qui provoque la colère des organisations syndicales. Cette pratique, qui se développe dans plusieurs entreprises, soulève des questions sur l’avenir du travail et la place de l’humain dans les processus d’évaluation.
Un algorithme pour surveiller les conversations téléphoniques
Le système mis en place par Orange analyse les échanges entre téléconseillers et clients. L’IA passe au crible le ton de la voix, le choix des mots, le temps de réponse et même les silences. À partir de ces données, elle attribue une note qui pèse dans l’évaluation annuelle des salariés.
Cette technologie repose sur le traitement automatique du langage et l’analyse émotionnelle. Elle promet d’objectiver l’évaluation en s’appuyant sur des critères quantifiables. Mais les syndicats y voient surtout un outil de pression supplémentaire sur des équipes déjà sous tension.
Les centres d’appels fonctionnent depuis longtemps avec des indicateurs de performance : nombre d’appels traités, durée moyenne, taux de résolution. L’IA ajoute une couche d’analyse qualitative qui scrute jusqu’aux nuances du discours. Un paramètre qui peut sembler abstrait devient alors une statistique froide.
Les craintes des organisations syndicales
Une déshumanisation du management
Pour les représentants du personnel, cette automatisation de l’évaluation pose un problème de fond. Comment un algorithme peut-il saisir les subtilités d’une relation client ? Un silence peut traduire de l’empathie, une hésitation peut révéler une recherche de solution adaptée. L’IA ne fait pas toujours la différence.
Les syndicats dénoncent aussi le risque d’une standardisation excessive. Si tous les téléconseillers cherchent à coller aux critères de l’algorithme, on perd en spontanéité et en authenticité. Le service client se transforme en performance calibrée, au détriment de la relation humaine.
Un manque de transparence
Autre sujet d’inquiétude : l’opacité du système. Les salariés ne savent pas toujours précisément quels critères sont analysés ni comment ils sont pondérés. Cette boîte noire algorithmique complique la contestation d’une évaluation jugée injuste.
Les organisations syndicales réclament :
- Une information claire sur le fonctionnement de l’IA et les critères d’évaluation
- Le maintien d’une évaluation humaine prépondérante, l’IA ne devant servir que d’outil d’aide
- Un droit d’opposition pour les salariés refusant ce type de surveillance
- Une négociation collective sur les conditions d’usage de ces technologies
Une tendance qui dépasse Orange
Le géant français des télécommunications n’est pas un cas isolé. Dans le secteur bancaire, l’assurance ou la vente en ligne, les algorithmes gagnent du terrain dans l’évaluation des performances. Certaines entreprises analysent même les courriels internes pour mesurer l’engagement ou détecter les risques de démission.
Aux États-Unis, Amazon a longtemps utilisé un système automatisé pour gérer la productivité de ses préparateurs de commandes. Le système pouvait déclencher des licenciements sans intervention humaine, jusqu’à ce que les critiques et les recours juridiques forcent l’entreprise à revoir ses pratiques.
En France, le cadre légal reste flou. Le RGPD impose des garde-fous sur l’usage des données personnelles, mais les entreprises jouent sur les zones grises pour déployer ces outils. La question de l’évaluation automatisée mériterait probablement une réglementation spécifique.
Quel équilibre trouver entre technologie et humanité ?
Les arguments des employeurs
Les défenseurs de l’IA dans l’évaluation mettent en avant l’objectivité. Un manager peut avoir des biais conscients ou inconscients, l’algorithme serait neutre. Il permettrait aussi de traiter de gros volumes de données que l’humain ne pourrait analyser seul.
Certains y voient un moyen d’identifier les besoins de formation ou d’accompagnement. Si l’IA détecte qu’un téléconseiller peine sur certains types de questions, elle peut orienter vers des modules de formation ciblés.
Les limites de l’automatisation
Mais cette prétendue neutralité est trompeuse. Les algorithmes sont entraînés sur des données qui reflètent les choix et les priorités de ceux qui les conçoivent. Ils reproduisent parfois des discriminations ou privilégient des critères discutables.
Un téléconseiller qui prend le temps d’écouter un client âgé en difficulté sera pénalisé sur la durée d’appel. L’IA valorise-t-elle la performance commerciale au détriment de la qualité de service ? Ces arbitrages restent flous.
L’humain apporte du contexte, de la nuance, de la compréhension. Un bon manager sait qu’une baisse de performance peut s’expliquer par des circonstances personnelles temporaires. L’algorithme, lui, se contente de compter et de comparer.
Vers une régulation du management algorithmique ?
Le cas Orange pourrait faire jurisprudence. Les syndicats envisagent de saisir les instances représentatives du personnel et de porter le débat sur la place publique. Ils espèrent une prise de conscience collective sur les dérives possibles de l’IA au travail.
Dans d’autres pays européens, des initiatives émergent. L’Espagne a introduit un droit à la déconnexion et encadre strictement l’usage des algorithmes dans la gestion du personnel. L’Union européenne travaille sur un règlement qui pourrait imposer des obligations de transparence.
La question dépasse le seul secteur des télécoms. Avec la généralisation du télétravail, les outils de surveillance et d’évaluation automatisés se multiplient. Entre productivité et respect de la vie privée, l’équilibre reste à trouver. Et ce n’est pas un algorithme qui pourra trancher cette question profondément humaine.






