À cet égard, l’automatisation des tâches pourrait aboutir au cours des vingt prochaines années dans les pays membres à la disparition de 14% des emplois, près d’un tiers (31,6%) des postes devant être profondément transformés par la robotisation d’après l’OCDE[2]. Centrées sur l’impact de l’IA générative et des grands modèles de langage (GML), certaines études estiment que 19% des emplois verraient 50% de leurs tâches impactées par ces technologies[3].
D’autres études examinent l’impact de l’IA sur des questions sociales corollaires, comme par exemple l’instauration d’un revenu universel et la détermination de son niveau et de son périmètre d’attribution[4]. Certaines prospectives publiées sur l’impact de l’IA essaient de définir les compétences requises pour occuper les emplois créés dans les dix prochaines années à partir des évolutions probables des tâches et des métiers resitués dans un environnement numérique et les implications en termes de dispositifs de formation[5].
Les travaux récemment menés sur une base empirique des cas d’usage de l’IA mettent en évidence que plusieurs facettes de l’expérience vécue au travail peuvent être impactées lorsqu’un SIA est introduit dans un métier ou dans une structure : la fragilisation de la reconnaissance du travail effectué; un sentiment de dépossession de l’identité professionnelle, un risque de « prolétarisation » des savoirs et/ou des savoir-faire, un désengagement relationnel, le renforcement du contrôle et de la surveillance, la perte d’autonomie, voire la déresponsabilisation.
En France comme dans d’autres économies avancées, les usages de l’IA couvrent d’ores et déjà une grande diversité de secteurs d’activité : administration, aéronautique, banque, consulting, commerce en ligne, édition, métallurgie, transports publics. On y rencontre différents types d’application des systèmes d’intelligence artificielle (SIA) comme les robots conversationnels utilisés dans la relation-client et le télémarketing, les systèmes linguistiques de traduction automatique (par exemple, NTEU la plus grande ferme de moteurs de traduction neuronale pour les administration publiques en Europe), des systèmes de recherche ou de classification de l’information (pour exploiter les bases de données documentaires), les systèmes de détection de pannes et d’anomalies (pour la détection de spams, la priorisation des demandes de service ou la gestion de réseaux), les systèmes de prédiction et d’aide à la prise de décision (par exemple, ceux utilisés pour le pilotage d’installations complexes comme les centrales nucléaires, ou des systèmes de reconnaissance des formes (par exemple, pour le diagnostic basé sur l’imagerie médicale).
Conditionnant la pertinence et l’efficacité des systèmes d’IA, de nouveaux métiers émergent en relation avec leur insertion dans les organisations[6] pour prendre en charge des activités de supervision, ou d’interprétation, en particulier lors des phases d’apprentissage nécessaires pour « socialiser » leurs algorithmes[7], générant une demande accrue d’opérateurs externalisés pour annoter des données et entraîner les algorithmes des IA. Ce processus s’opère au sein de réseaux internationaux de sous-traitance[8] dont l’activité est invisibilisée et les résultats produits généralement peu valorisés[9].
La logique gestionnaire orientée par les objectifs technico-économiques peut entrer en conflit avec l’éthique professionnelle portée par les salariés sur la base de situations de terrain traitées par ou avec l’IA. Par exemple, en mars 2016 sollicitant ses salariés pour alimenter Watson, le robot conversationnel d’IBM, le Crédit Mutuel - CIC suscite une levée de boucliers de la part des syndicats inquiets des conséquences à terme sur la pérennité de certaines catégories d’emplois.
Des tensions peuvent également apparaître entre les besoins professionnels exprimés par les agents et les attendus de systèmes d’IA dont la technologie peut sembler inutilement sophistiquée voire inopérante, notamment dans les métiers de supports. Ainsi, dans le secteur de l’édition numérique, les professionnels de la recherche documentaire ont exprimé des réticentes initiales à la mise en œuvre d’IA génératives comme ChatGPT, s’opposant à leur direction soucieuse de s’assurer une rente de compétitivité.
Alors que les promoteurs de la rationalité gestionnaire imposent souvent une approche descendante dans le processus d’appropriation des systèmes d’IA, les tenants de la logique professionnelle revendiquent que la mise en œuvre et parfois la conception des systèmes d’IA puissent s’inspirer des pratiques des utilisateurs finaux observés sur le terrain des expérimentations. Il en résulte des incompréhensions et des raidissements dans la confrontation entre le niveau managérial et le niveau opérationnel pour la mise en place des systèmes d’IA. Les stratégies oscillent alors entre mise en scène, explication des enjeux, formation à l’IA, mais aussi dissimulation des systèmes d’IA derrière certaines fonctionnalités socio-techniques.
Ainsi, la compatibilité sociotechnique avec les outils déjà utilisés au sein d’organisations souvent complexes constitue un défi majeur de « sociabilisation algorithmique » des systèmes d’IA. Les capacités d’apprentissage des machines sont alors confrontées à la complexité des normes et de l’articulation des tâches dans des environnements évolutifs habités par les « routines professionnelles » des communautés de métier. Les gestionnaires des systèmes d’IA peinent à relever ce défi s’ils ne disposent pas de l’appui méthodologique des concepteurs d’application pour la délimitation du champ d’intervention et la distribution des tâches au sein d’une nouvelle organisation du travail fondamentalement repensée en amont de leur déploiement.
Les systèmes d’IA peuvent être considérés par certains professionnels comme des assistants serviles à qui sont déléguées les tâches les plus routinières mais aussi parfois dans les mêmes contextes d’application comme des concurrents par d’autres catégories de personnel menacés sur le terrain de leurs savoir-faire professionnels. Par exemple, dans les filières éditoriales, le métier de rédacteur indépendant apparaît explicitement menacé par les IA génératives comme GPT4 pour la rédaction de textes relativement courts ne supposant pas du rédacteur une expertise particulière. Ainsi, l’intégration des systèmes d’IA dépend-t-elle de l’appropriation consensuelle ou conflictuelle réalisée par l’intermédiaire des différentes grilles de lecture, aliénantes ou affranchissantes, de leurs capacités et fonctions.
Il apparaît donc nécessaire que la conception et l’implantation de projets applicatifs de systèmes d’IA puissent être soumises aux interrogations éthiques des utilisateurs finaux, des personnels chargés de leur mise en oeuvre de façon à pouvoir anticiper d’éventuelles interrogations éthiques (responsabilité sociétale, biais d’apprentissage, responsabilité juridique, conformité à la réglementation, dépendance technologique, etc.) ou conflits d’intérêts susceptibles d’impacter leur réception en milieu professionnel. En prenant conscience de l’expertise parfois tacite des personnels et des limites intrinsèques de certaines approches de l’IA, les concepteurs des projets applicatifs de l’IA en viennent parfois à reconsidérer les attributions et le périmètre d’intervention des systèmes d’IA.
Cependant, la génération d’économies grâce aux systèmes d’IA via l’accroissement de productivité de la main d’œuvre peut se retourner contre les salariés contestés dans leur utilité socialie ou leur compétitivité économique : c’est le « paradoxe de la performance ». Entre le rejet conflictuel, la mise à distance, le désengagement voire l’ignorance complète, plusieurs lignes de défense sont alors susceptibles d’être adoptées par les salariés concernés afin de préserver leurs attributions.
Les configurations homme-machine du processus de production entraînant une perte de contrôle du travail et de conscience des résultats obtenus sont aliénantes pour les travailleurs qui y sont soumis. Elles résultent le plus souvent d’un manque d’intégration entre acteurs du projet de conception et d’application des systèmes d’IA utilisés, en signant parfois son échec.
Interférant avec la communication humaine dans le cours des tâches socialisées au profit d’interactions standardisées, le déploiement d’un système d’IA peut fragiliser les collectifs de travail en les désorganisant par une déshumanisation des pratiques et l’appauvrissement des interactions, via un remplacement même partiel du travail humain, engendrant ainsi le risque du désengagement relationnel.
La standardisation des tâches, l’appauvrissement des interactions et le désengagement professionnel peuvent occasionner des pertes de compétences et conduire à la régression de savoir-faire, menaçant l’expertise spécifique des opérateurs humains. Elles posent alors d’autres défis en matière d’évolution des savoir-faire et de transfert de compétences, invisibilisant davantage l’expertise implicite des opérateurs les plus expérimentés et perturbant l’apprentissage des plus novices.
L’intégration de systèmes d’IA au sein du travail humain sert parfois de masque à la surveillance et au contrôle des activités professionnelles. Combinés à des mesures de l’activité, les algorithmes incorporés aux systèmes d’IA, sont alors utilisés pour estimer la productivité des travailleurs. Cette surveillance algorithmique conduit alors à un contrôle individuel étroit des temporalités et des performances hors de proportionnalité avec les nécessités professionnelles, qui s’avère souvent antinomique avec le respect de la vie privée.
La rationalité gestionnaire dans la mise en œuvre des systèmes d’IA peut appauvrir les pratiques professionnelles au profit d’une combinaison de processus standardisés, dépossédant les personnels du sens de leur travail. La transition souvent brutale vers une organisation du travail plus rigide, déconnectée des ajustements en situation, compromet alors l’adaptabilité aux aléas de production. L’excès de prudence ou, à l’opposé, l’excès de confiance en les systèmes d’IA, conduit à la passivité, à la perte d’expertise et d’autonomie, et ainsi à une dépendance accrue envers l’outil applicatif, amenuisant la conscience sociale des salariés.
L’arrivée d’un système d’IA au sein d’une organisation est susceptible selon les configurations soit d’atténuer, soit d’amplifier la responsabilité professionnelle soulevant des questions sur le régime de responsabilité applicable en cas d’incident. En créant un voile d’ignorance, la délégation au système d’IA déresponsabilise les opérateurs du fait du manque de compétences, ou de leur désengagement. Cette démission des professionnels peut aussi provenir d’une confiance indue dans le système d’IA. À l’inverse, certaines configurations d’interactions avec le système d’IA peuvent induire une responsabilisation excessive d’agents humains, soumis à un contrôle renforcé de leurs comportements professionnels qui pourrait s’avérer aliénant.
Les systèmes d’IA demeurent souvent au stade expérimental au sein de nombreuses organisations ou entreprises, initiés en tant que projet pilote ou preuve de concept[10]. Selon une enquête quantitative menée sous l’égide conjointe du ministère du Travail et de l’Inria[11], les expérimentations entreprises peuvent limiter la perception des impacts négatifs des systèmes d’IA auprès des salariés en balisant le sentier d’innovation d’alertes sur d’éventuels conflits de rationalité entre logique gestionnaire et logique professionnelle. Elles peuvent également conduire à faire émerger des synergies d’interaction homme-machine susceptibles de renforcer les compétences des salariés. Parmi les recommandations de cette étude, les premières d’entre elles invitent à « intégrer les systèmes d’IA à partir du travail réel » et appellent à « une co-conception en continu » de ces systèmes. Ces deux recommandations nous apparaissent comme cardinales pour aboutir à une introduction de l’IA au sein des entreprises et organisations susceptible d’être négociée au bénéfice de l’intérêt général.
De ce point de vue, le cadre juridique est essentiel. Adopté par le Parlement européen en mars 2024 et promulgué le 21 mai 2024 par le Conseil de l’Union européenne, l’Artificial Intelligence Act (Acte IA) régule dorénavant les systèmes d’IA afin de favoriser leur développement en Europe tout en limitant les éventuelles dérives ou effets pervers. Parmi ses dispositions juridiques, des règles spécifiques aux IA génératives s’appliqueront pour vérifier la qualité des données utilisées dans la mise au point des algorithmes et le respect des droits d’auteur. Les sons, images et textes générés artificiellement devront être identifiés afin d’empêcher les tentatives de manipulations de l’opinion.
L’Acte IA sera pleinement applicable 24 mois après son entrée en vigueur, mais certaines parties s’appliqueront avec des délais plus courts : six mois pour l’interdiction des systèmes d’IA présentant des risques inacceptables ; neuf mois pour les codes de bonne pratique ; 12 mois pour les règles relatives aux systèmes d’IA à usage général devant se conformer à des exigences de transparence. Les rares interdictions concernent les applications contraires aux valeurs européennes, comme la notation citoyenne, la police prédictive basée sur le profilage, la surveillance de masse, ou la catégorisation selon des critères sexuels, religieux et raciaux. Malgré la complexité de ce règlement à trois niveaux (droits humains fondamentaux, réglementation des produits et prévention des risques systémiques), la protection des droits fondamentaux des humains confrontés aux systèmes d’IA offerte par l’Acte IA semble fournir une base juridique suffisamment stable et transversale pour servir d’instrument à des recours contentieux en matière de droit du travail.
[1]- Generative AI and Jobs: A global analysis of potential effects on job quantity and quality, 2023 [2]- L’avenir du travail, 2019. [3]- J. Hatzius, The Potentially Large Effects of Artificial Intelligence on Economic Growth, Briggs/Kodnani, 2023 et T. Eloundou, S. Manning, P. Mishkin, D. Rock, Gpts are gpts : An early look at the labor market impact potential of large language models, arXiv, 2023. [4]- M. Cholbi, M. Weber, The Future of Work, Technology, and Basic Income, Routledge, 2020. [5]- A. Davies, D. Fidler, M. Gorbis, Future work skills 2020, Institute for the Future, University of Phoenix Research Institute, 2020. [6]- P. Neirotti, D. Pesce, D. Battaglia, Algorithms for operational decision-making: An absorptive capacity perspective on the process of converting data into relevant knowledge, in Technological Forecasting and Social Change 17, 2021 [7]- J.-S. Vayre, Les machines apprenantes et la (re) production de la société : les enjeux communicationnels de la socialisation algorithmique, in Les Enjeux de l’information et de la communication 1: 93-111, 2018 [8]- C. Le Ludec, M. Cornet, A-A.. Casilli, The problem with annotation. Human labour and outsourcing between France and Madagascar, Big Data & Society 10.2, 2023 [9]- A.-A. Casilli, En attendant les robots. Enquête sur le travail du clic. Média Diffusion, 2019. [10]- H. Benbya, T. H. Davenport, S. Pachidi, Artificial intelligence in organizations. Current state and future opportunities, MIS Quarterly Executive 19:4, 2020 [11]- S. Borel, Étude des impacts de l’IA sur le travail, in Rapport d’enquête LaborIA Explorer, Y. Ferguson (dir.), Inria, ministère du Travail, 2024.