L’essor de l’intelligence artificielle (IA) conduit à des projections souvent alarmantes en matière d’impact sur l’emploi et le travail. La France a notamment lancé le programme LaborIA, centre de ressources d’expérimentations sur l’IA dans le milieu professionnel[1]. Cet article présente un outil en cours d’élaboration, « MAIAT » (Mesure de l’Acceptabilité sociale de l’IA au Travail), pour qualifier, évaluer et accompagner la construction sociale de la confiance entre un SIA (système d’IA) et ses utilisateurs dans différents métiers et organisations. Il propose deux familles de trois critères basés sur des indicateurs à suivre tout au long du processus d’intégration que nous qualifions de « processus de socialisation », à savoir l’appropriation progressive d’une technique par un métier, une communauté professionnelle fondée sur le partage de valeurs, de normes, de pratiques, d’une identité[2].
1. Les effets des SIA sur le bien-être au travail
La première famille de points de vigilance touche le bien-être des travailleurs. Le bien-être met l’accent sur la perception personnelle et collective des situations et des contraintes de la sphère professionnelle. Il fait référence à un sentiment général de satisfaction et d’épanouissement dans et par le travail qui dépasse l’absence d’atteinte à la santé. MAIAT traite du bien-être suivant trois critères : la reconnaissance, les relations sociales et la surveillance.
Au travail, la reconnaissance prend la forme de revendications de salaires, de statuts, mais surtout d’une demande plus générale qui porte sur la personne elle-même, sur le « respect » et la dignité que chacun estime dus. L’IA au travail peut fragiliser directement les quatre formes de reconnaissance au travail[3] : elle peut élever la substituabilité des travailleurs en déplaçant la valeur vers la machine, exécute les tâches ou renforce le caractère procédurier du travail, facilite le travail, rend illisible la contribution propre au travailleur.
En matière de relations sociales, l’intermédiation technologique n’est pas sans incidence[4]. Or, de nombreux SIA automatisent ou interfèrent dans des tâches sociales, c’est-à-dire des tâches qui se basent essentiellement sur une communication humaine. Certains SIA lui substituent des relations machine-machine, humain-humain via des machines, ou humain-machine. Ces dernières peuvent être source de satisfaction et leur part peut croître au détriment des relations humaines. Les chatbots, par exemple, ont pour eux leur disponibilité, leur immédiateté, l’homogénéité de leur réponse, leur stabilité émotionnelle et n’implique pas de réciprocité. France Stratégie pointe sur un risque de désengagement relationnel[5]. La communication pourrait en effet être appauvrie par les stratégies de dialogue standardisées des machines qui déterminent les réponses et parfois même les questions à partir d’architectures de choix.
Dans l’imaginaire collectif, les machines sont associées à des systèmes de surveillance et de contrôle. Dans certaines situations, non seulement l’employeur peut, mais doit surveiller l’activité du salarié, lorsque la finalité est de protéger des installations comportant un risque élevé d’explosion ou de diffusion de matières dangereuses ou de détournement de celles-ci par des tiers non autorisés, et d’assurer la protection de personnes exposées à des risques particuliers en raison de ces activités. En dehors de ces situations spécifiques, ce droit est soumis à un contrôle de proportionnalité : il doit être justifiable par les intérêts légitimes de l’employeur. Or, les données collectées par les SIA peuvent concerner directement les travailleurs et être exploitées en vue d’évaluer leur productivité. Plusieurs technologies sont en ce sens dédiées à « la mesure de soi » (quantified self) en collectant et en analysant des données individuelles. Ces méthodes sont par exemple largement déployées dans les entrepôts : nombre de commandes, d’articles par commande, temps écoulé…
Le SIA peut également solliciter une identification pour des raisons de sécurité, de paramétrage individuel ou de traçabilité des problèmes rencontrés par la machine. Quel que soit l’usage prévu de ces données, elles peuvent être exploitées pour surveiller ou contrôler le travailleur, du moins peut-il le ressentir ainsi. La Réglementation Générale des Données Personnelles (RGPD) limite l’utilisation des données à une finalité unique et précise et impose des principes de transparence sur la collecte, l’utilisation et la conservation des données personnelles. Mais peu de travailleurs (et de citoyens en général) maîtrisent ce cadre.
2. Les effets des SIA sur l’engagement au travail
Pour générer l’engagement au travail, il est communément admis que les motivations autodéterminées ou intrinsèques sont bien plus efficaces que les motivations extrinsèques ou contrôlées. Elles correspondent au fait d’accomplir une ou plusieurs tâches au travail par intérêt, par plaisir ou encore par satisfaction et renvoient aux aspirations des individus à se réaliser via leur travail, que Clot attribue essentiellement à la liberté qu’accorde l’organisation pour assurer un travail de qualité[6]. Notre outil aborde l’engagement au prisme de trois critères : l’autonomie, le savoir-faire et la responsabilité.
Tout projet d’automatisation d’une activité porte en germe une réduction de l’espace d’autonomie du travailleur (mais peut, à termes, en générer un nouveau). Pour une machine, l’autonomie est la capacité d’opérer indépendamment d’un opérateur humain dans un environnement dynamique complexe. Cette diminution des interventions réduit l’espace d’autonomie des travailleurs. Consécutivement, les SIA modifient la répartition de l’« intelligence » du travail[7]. Pour un salarié, l’importance de l’activité de réflexion dans sa tâche délimite son autonomie dans l’organisation du travail, c’est-à-dire son pouvoir, sa valeur marchande, l’intérêt du travail, la maîtrise de son itinéraire professionnel et, partant, de son avenir personnel. Les SIA portent toutefois un risque de « paternalisme technologique » aux multiples visages - alertes, recommandations, aides à la décision, rappels à l’ordre, blocages, interdictions qui placerait progressivement le travailleur dans une situation de dépendance. Le SIA peut ainsi dégrader la flexibilité cognitive du travailleur.
Concernant le savoir-faire, les SIA sont potentiellement porteurs de quatre tendances corrélées entre elles :
- La valeur du travail pourrait se déplacer, être moins dans le faire, fonction de l’IA, que dans le contrôle, la vérification, l’approbation et la validation,
- Le SIA généralise des savoir-faire, c’est-à-dire baisse le niveau d’expertise nécessaire à l’exécution de tâches, les rendant plus accessibles et consécutivement moins distinctives,
- Le SIA réduit l’espace des pratiques au profit des process, la capacité d’agir des travailleurs se limitant à suivre des instructions sans aucune autre finalité. Le SIA peut ainsi coloniser le travail réel, soit en automatisant les pratiques antérieures, soit en éteignant son expression par l’injonction managérial à suivre l’algorithme.
- Si le travailleur n’est plus autorisé à mettre en œuvre ce qu’il estime nécessaire pour effectuer un travail de qualité[8], celle-ci peut alors s’en trouver « empêchée ». Limités dans la possibilité de mobiliser leurs savoir-faire, les travailleurs s’exposent à une déqualification, souvent appelée « ubérisation » quand elle est occasionnée par des algorithmes.
Enfin, l’intégration de machines intelligentes peut affecter la distribution des responsabilités suivant six mécanismes :
- Une fragmentation des responsabilités entre le travailleur et la machine intelligente,
- Il devient de plus en plus difficile de définir la distribution des responsabilités entre toutes les parties-prenantes (concepteur, ingénieur, programmeur, fabricant, vendeur, utilisateur),
- Une emprise des processus qui réduit la liberté : l’emprise des algorithmes sur la pratique pourrait délier moralement le travailleur de son activité.
- Un effacement du travailleur devant l’autorité machinique,
- L’automatisation d’une tâche peut conduire à son invisibilisation,
- Le problème de l’explicabilité des algorithmes d’apprentissage automatique dont l’effet de « boîte noire » est considéré un obstacle majeur à l’acceptabilité sociale des SIA.
Nous insistons sur le fait que MAIAT est d’abord un outil de réflexivité collective. Celui-ci pose les questions et permet d’encadrer une discussion, sans vouloir imposer de diagnostic qui émerge s’abord de la qualité de la discussion. Notre objectif est de permettre l’étude de l’acceptabilité sociale de l’intégration de l’IA au travail à travers une interface elle-même… acceptable. MAIAT est un outil d’accompagnement de la construction sociale de la confiance dans un SIA dédié au travail. Son expérimentation dans le cadre du programme Confiance AI a débuté en avril 2022 avec des résultats encourageants qui plaident en faveur de l’intérêt d’une approche structurée pour aborder les effets sociaux des SIA. La matrice de MAIAT est également à l’étude par le LaborIA[9]. Enfin, elle pourrait s’enrichir de deux nouvelles familles de critères : organisationnel car l’organisation est l’environnement à l’intérieur duquel se construit la nouvelle configuration capital/travail ; managérial, car le manager, en tant que travailleur, est également interpellé dans ses pratiques, transformation qui aura des conséquences sur ses collaborateurs.
[1]- A lire le rapport de la recherche-action du LaborIA in Jean Condé, Yann Ferguson, « Rapport d’enquête usages et impacts de l’IA sur le travail, au prisme des décideurs », mars 2023, https://travail-emploi.gouv.fr/IMG/pdf/enquete_laboria.pdf [2]- Cet article est construit à partir de Yann Ferguson, Charly Pecoste, « L’IA au travail : propositions pour outiller la confiance », octobre 2022 (avec la collaboration d’Antoire Leblanc et de Philippe Crespin). [3]- Cf. J.-P. Brun, N. Dugas, « La reconnaissance au travail : analyse d’un concept riche de sens », Gestion, volume 30, numéro 2, pp. 79-88, été 2005. [4]- Cf. M.-E. Bobillier Chaumon, M.E., « Acceptation située des TIC dans et par l’activité : Premiers étayages pour une clinique de l’usage », Psychologie du Travail et des Organisations, Vol. 22(1), pp. 4-21, 2016. [5]- Anticiper les impacts économiques et sociaux de l’Intelligence Artificielle, 2016. [6]- S. Tisseron, Le jour où mon robot m’aimera. Vers l’empathie artificielle, Albin Michel, 2015. [7]- M., Freyssenet, Le processus de déqualification-surqualification de la force de travail, Paris, CSU, 1974. [8]- Y. Clot, Le travail à cœur. Pour en finir avec les risques psychosociaux, La Découverte, 2015. [9]-https://www.inria.fr/fr/laboria-laboratoire-intelligence-artificielle-travail-bilan