La Covid‑19 a accéléré la transformation de la société vers plus de digital sans guère de débat démocratique. Elle a fourni une occasion d’introduire des modes d’achat pratiquement à 100% numériques dans le commerce ou de nouvelles formes d’intelligence artificielle (IA) dans les grands groupes industriels comme EDF, Total ou Airbus. Elle a permis aux banques, assurances et services publics, de relier discrètement leurs chatbots à des e‑mails, des foires aux questions, ou des rappels à date inconnue au lieu de les rediriger vers des conseillers dont le nombre s’était amenuisé. Elle a « encouragé » les magasins à créer des caisses automatiques à scannettes plutôt que de garder des caissiers. Elle a constitué une opportunité pour tous les réseaux de télécommunications saturés de textos, d’e‑mails ou de vidéos, de se sécuriser, grâce à des algorithmes plutôt qu’avec l’aide d’ingénieurs et de techniciens. Dans l’entreprise, la Covid‑19 a été à l’origine d’une explosion des systèmes de contrôle et de télétravail, organisation qui devrait perdurer. Bref, elle a donné à la technologie la possibilité d’imprimer un tournant radical à nos liens sociaux et à nos vies, sans véritable anticipation, ni discussion. Comme évoqué par Cécile Dejoux dans la préface, si l’on définit l’IA au regard de ses usages, elle est une technologie numérique qui peut accomplir des tâches cognitives humaines dans les domaines de la parole et du langage, de la reconnaissance visuelle, de la robotique et de l’automatisation des processus et des connaissances à travers l’analyse, les recommandations et la prévision. Pourtant, l’utilisation de l’IA, compte tenu des caractéristiques spécifiques de cette technologie – l’opacité, la complexité, la dépendance à l’égard des données, le comportement autonome –, peut porter atteinte à un certain nombre de droits fondamentaux des personnes. La CFDT Cadres estime qu’une prise de conscience est nécessaire et qu’un dialogue doit s’engager sur ces sujets aux conséquences lourdes sur nos existences. En particulier, elle réclame un dialogue interne et externe aux lieux de travail sur l’introduction de l’intelligence artificielle, afin que cette technologie soit pour tout citoyen et travailleur un moyen d’émancipation et non un outil d’asservissement.
Pourquoi un guide sur l’intelligence artificielle ? Un guide sur l’intelligence artificielle est bel et bien du ressort d’un syndicat, car l’IA regroupe des technologies que les travailleurs côtoient au quotidien. C’est l’intelligence artificielle qui aide au recrutement, propose un parcours de formation, traduit automatiquement des textes, classe des e‑mails, sélectionne des jurisprudences et aide à la décision… C’est elle qui nous répond au téléphone. C’est encore elle qui calcule le niveau de pesticides dans un champ, évalue nos possibilités d’emprunt. Dans le domaine médical, elle peut sauver nos vies. Au cœur de technologies comme la robotique, la reconnaissance faciale ou vocale, la connexion des objets, elle vient assister, suppléer, voire dépasser efficacement un certain nombre de facultés cognitives humaines à la fois sur le plan technique mais aussi économique. Elle intervient dans les processus de production du secteur de l’automobile, dans l’assistance à des opérateurs humains dans le pilotage d’installations à risques, ou dans l’intermédiation de la distribution ou des services à la personne.
D’autre part, l’IA crée des attentes par rapport aux droits des salariés dans la gestion des ressources humaines et des droits des citoyens dans les domaines de la justice, des services financiers, des transports, de l’agriculture, des soins de santé et des services publics. Ces nouveaux droits sont opposables aux systèmes d’IA : le droit de ne pas être l’objet d’une décision prise exclusivement par un algorithme (par exemple, la décision de ne pas être recruté ou celle de se voir refuser un crédit bancaire), le droit à l’oubli, le droit à l’explicabilité des décisions prises par la machine… À la base de l’intelligence artificielle, c’est l’algorithme. Celui-ci se nourrit d’immenses quantités des données. La qualité de ces données détermine ses résultats. Si les données sont biaisées, l’algorithme reproduit, en les amplifiant, des discriminations. Les systèmes sont extrêmement complexes : un des derniers modèles d’IA de Google contient 175 milliards de paramètres, c’est dire si l’humain est incapable d’expliciter son fonctionnement, de le rendre transparent ou de le tracer ! C’est pour faire face à cette complexité et à cette opacité des systèmes d’intelligence artificielle, pour en éviter les errances, pour créer une confiance bénéfique aux citoyens, que l’Europe, premier continent dans le monde, propose une régulation de l’intelligence artificielle. La France, présidant l’Union européenne à partir du 1er janvier 2022, peut l’appuyer. Le propos de ce guide consiste, d’une part, à développer et à élargir les connaissances sur l’intelligence artificielle, ses impacts dans le monde du travail et plus largement sur la société afin de contribuer à un débat éclairé et équilibré, qui évite les écueils des scénarios catastrophe ou d’une relativisation à outrance ;
d’autre part, à fournir la possibilité d’agir à travers des droits individuels et collectifs, sur cette technologie.

La nécessité d’un dialogue social et sociétal

En France, le débat a rebondi sur les lieux d’hébergement des données (surtout celles concernant la santé), sur le rôle des lanceurs d’alerte et sur le contrôle à distance des travailleurs pendant le confinement. Le projet des parlementaires d’une taxation de Google, Amazon, Facebook et Apple s’est vu repris dans un impôt minimum mondial qui reste à mettre en musique.
Technologie fortement perturbatrice s’il en est, aux profonds impacts sur nos vies, l’utilisation de l’IA nécessite d’être appréhendée, questionnée et débattue largement dans les lieux de travail et dans la société. Dans les lieux de travail, des législations françaises et européennes prévoient que l’introduction de nouvelles technologies donne lieu à une information-consultation des représentants des travailleurs. Le dialogue social est le moyen qui permet d’interroger la finalité et le fonctionnement des systèmes d’intelligence artificielle utilisés dans les ressources humaines, de limiter les dérives d’un contrôle et d’une surveillance illimités des travailleurs, d’éviter les atteintes à leur vie privée ainsi que les pratiques discriminatoires ou l’utilisation abusive des données personnelles et du profilage. Une formation accessible sur l’IA ainsi que des débats citoyens sur son introduction et ses finalités contribuent sans doute à améliorer la conscience des enjeux et à protéger nos vies et nos démocraties.
S’assurer que l’humain reste aux commandes : surveillance, recrutement, biais et discriminations
Le contrôle des salariés en télétravail : des techniques très puissantes doivent relever d’un choix managérial
La Covid 19 a été un grand accélérateur de l’utilisation massive des technologies numériques et d’une généralisation du télétravail. La CFDT Cadres constate que des moyens de contrôle intrusifs et puissants sur le travail ont été mis en place sans que cela ait fait l’objet d’une concertation collective, et parfois même à l’insu des directions.
En 2020, le score d’intention Aberdeen d’achat d’outils de surveillance à distance des salariés (ISG Research) aux États-Unis est passé de 1 à plus de 53 en huit semaines dans 2 000 grandes entreprises, après le début du premier confinement. La CFDT Cadres a par exemple été alertée du cas d’un centre français d’appels à dimension internationale, qui avait implanté un logiciel permettant la surveillance en temps réel et en permanence de l’écran du télévendeur par le superviseur. Cette surveillance est interdite par la Cnil depuis novembre 2020. Pour ce qui est de la surveillance des corps, elle a aussi été informée d’un logiciel utilisé pour faire respecter la distanciation sociale dans les entrepôts d’Amazon. Ce logiciel a été appréhendé comme une pratique déshumanisante, puis retiré.
Parmi les choix de management qui se dissimulent derrière l’IA, il peut être tentant d’utiliser parfois les systèmes d’IA de surveillance et de traçage des travailleurs, qui permettent de répartir les tâches sans intervention humaine, d’évaluer et de prévoir le potentiel et les performances des personnes dans les situations d’embauche et de licenciement. Des logiciels de contrôle comme Doctor, Sneek, Vericlock, Desktime, ActivTrack, Hubstaff, Clevercontrol, Teramind… fleurissent et permettent plus de « tracking » sur le travail et sa mesure.
La fonctionnalité de ces programmes s’est élargie : géolocalisation, enregistreur de frappe du clavier, temps passé en ligne sur des sites « productifs » ou « non productifs », durée de connexion sur les serveurs de l’entreprise, nombre de courriels envoyés, identité des destinataires sont au menu. D’autres logiciels opèrent des captures d’écran des ordinateurs toutes les cinq ou dix minutes, ou révèlent un « comportement digital », pour déceler d’éventuelles anomalies. Ce comportement, ramené à grande échelle par l’intelligence artificielle, peut permettre d’opérer un contrôle beaucoup plus large. Ainsi, le contrôle des heures de connexion et de déconnexion ainsi que les scores de productivité se sont intensifiés depuis les confinements de 2020 et 2021.
L’utilisation de ces outils doit être discutée avec les managers, dont la responsabilité, la marge de manœuvre et le pouvoir de décision peuvent se trouver fortement limités par cette utilisation. Et bien évidemment, comme la Cnil le souligne, la communauté de travailleurs et leurs représentants doivent être informés et consultés sur cette utilisation.
Passer d’une culture du contrôle et du présentisme à celle des résultats et de la confiance
La Cnil considère que si elles veulent garder la confiance de leurs salariés, les entreprises courent de grands risques à surveiller ces derniers au moyen de logiciels, présentés souvent comme des outils anodins de gestion administrative ou d’aide à la productivité. Ces logiciels servent, en théorie, à rationaliser l’activité de l’entreprise, notamment en rendant visibles les déséquilibres internes de charges de travail et l’état d’avancement des projets. Ils assurent pour l’employeur un filtrage, afin que les salariés ne puissent pas naviguer en ligne sur certains sites internet ou une sécurité afin qu’ils ne puissent extraire des données ou informations sensibles. Mais la plupart de ces logiciels de traçage de l’activité sont invisibles pour les salariés qui sont sujets à une surveillance de plus en plus intrusive, ce qui pose logiquement la question de leur légalité.
Pendant la Covid 19 et le télétravail « contraint », un engouement des dispositifs du contrôle de la productivité
Lors de la crise de la pandémie de la Covid 19, après le premier déconfinement, les employeurs des entreprises testées ont montré un intérêt 500 fois supérieur pour les dispositifs qui mesurent la productivité des salariés, une augmentation inédite qui soulève quelques inquiétudes sur l’avenir managérial[1]. En France, cette pression a été si intense que la Cnil a dû publier une « question-réponse » sur le contrôle de l’activité des salariés. La Cnil fait état d’une augmentation des plaintes transmises dans le domaine de la surveillance des travailleurs en 2020.
Ce document souligne que les systèmes de collecte et de traitement permanent de données, qui permettent d’identifier et de surveiller à distance l’activité des télétravailleurs, doivent faire l’objet d’une déclaration préalable auprès d’elle. Dans le cas où les formalités déclaratives ne sont pas remplies, le dispositif de surveillance ou de contrôle est illicite.

Les dispositifs de contrôle de l’intelligence artificielle en France

Une loi qui protège les lanceurs d’alerte

 

La France avait jusqu’au 17 décembre 2021, pour le secteur public et les entreprises de plus de 249 travailleurs pour le secteur privé, pour transposer la directive UE 2019/1937 du 23 octobre 2019 sur la protection des personnes qui signalent des violations du droit de l’Union. Cette directive permet aux lanceurs d’alerte de passer par une autorité externe pour dénoncer les faits, alors qu’en France, ces derniers doivent saisir, sauf danger grave et imminent, d’abord leur hiérarchie interne. Elle conforte aussi le droit de tout travailleur, dans sa procédure d’alerte, à être défendu par un représentant du personnel ou un syndicat. Si la loi Sapin II a représenté une législation pionnière en France, à l’origine d’un réel progrès en matière de protection des lanceurs d’alerte, des syndicats et des associations de défense des droits ont pu relever des carences responsables d’incertitudes et d’insécurité juridique :
une procédure de signalement complexe, peu protectrice, voire dissuasive par sa longueur et ses coûts, lorsqu’elle adopte une tournure judiciaire. Pour l’essentiel, la loi Sapin II a défini qu’« un lanceur d’alerte est une personne physique qui révèle ou signale, de manière désintéressée et de bonne foi, un crime ou un délit, une violation grave et manifeste d’un engagement international régulièrement ratifié ou approuvé par la France, d’un acte unilatéral d’une organisation internationale pris sur le fondement d’un tel engagement, de la loi ou du règlement, ou une menace ou un préjudice grave pour l’intérêt général, dont elle a eu personnellement connaissance ». Par exemple, un travailleur peut alerter immédiatement l’employeur s’il estime, de bonne foi, que les produits ou procédés de fabrication utilisés ou mis en oeuvre par l’établissement font peser un risque grave sur la santé publique ou l’environnement.
L’alerte est consignée par écrit dans des conditions déterminées par la loi. L’employeur informe le lanceur d’alerte de la suite qu’il réserve à celle-ci. Aucun salarié ne peut être sanctionné, licencié ou faire l’objet d’une mesure discriminatoire pour avoir témoigné des agissements définis aux articles
L. 1132‑1 et L. 1132‑2 ou pour les avoir relatés. Le texte européen, dans ses considérants, reconnaît notamment aux lanceurs d’alerte un rôle utile en ce qui concerne la sécurité des produits mis sur le marché européen. Il considère que les entreprises qui participent à la chaîne de fabrication et de distribution sont la principale source de collecte d’éléments de preuve, ce qui rend les signalements des lanceurs d’alerte très opportuns. En fait, ceux-ci sont beaucoup plus proches de la source d’éventuelles pratiques déloyales et illicites de fabrication, d’importation ou de distribution de produits dangereux. Cela justifie l’introduction de la protection des lanceurs d’alerte en relation avec les exigences de sécurité applicables à la fois aux produits et dans le domaine de la protection de la vie privée, et les données à caractère personnel.

 

Des audits pour les algorithmes

 

Différents organismes auditent les algorithmes. La certification des systèmes d’intelligence artificielle ou leur validation est une tâche titanesque. Depuis 2016, le gouvernement français a confié à l’institut de recherche Inria la charge du développement de la plateforme Transalgo dont l’objet est d’évaluer la transparence des algorithmes, de recenser et de définir des normes de transparence. Transalgo doit vérifier que les systèmes d’IA sont conçus de manière qu’ils n’excluent ni ne désavantagent personne dans le domaine des droits humains et sociaux. Des dérapages peuvent se produire parce que le machine learning est piloté par des hommes blancs, issus souvent du même milieu. Transalgo doit encoder l’égalité et anticiper les possibles biais, pour que les stéréotypes disparaissent des algorithmes. De son côté, l’Afnor a lancé une commission de normalisation « miroir » pour relayer ses travaux et défendre les positions des acteurs de l’Hexagone dans les projets de textes. Cette nouvelle structure a comme projet de développer des normes volontaires nationales, susceptibles d’être portées par la suite au niveau international ou européen. Enfin, la Cnil recommande de former à l’éthique tous les maillons de la « chaîne algorithmique » (concepteurs, professionnels, citoyens).

 

Le combat entre sécurité et respect des libertés fondamentales : la reconnaissance faciale de masse

 

Au niveau européen, quelle que soit la version du projet de loi adoptée par le Parlement européen, il est probable que le texte donne lieu à une épreuve de force avec le Conseil de l’Europe. Notamment, les exceptions prévues pour les forces de l’ordre sont susceptibles de plaire aux pays soucieux de sécurité (la France, la Suède ou l’Allemagne intègrent déjà certains systèmes d’intelligence artificielle comme la reconnaissance faciale dans leur dispositif de sécurité). En France, certains parlementaires ont été séduits par une surveillance aéroportée des manifestations avant que le Conseil constitutionnel français ne s’y oppose. D’autres élus ont été conquis par les dispositifs de surveillance de masse destinés aux services de renseignements, contenus dans le projet de loi « relatif à la prévention d’actes de terrorisme et au renseignement ». D’ores et déjà, même si ces systèmes sont déployés pour combattre le terrorisme, la Cour européenne a considéré que ces utilisations n’étaient pas suffisamment encadrées par des garanties. Le 25 mai 2021, la Cour européenne des droits de l’homme a condamné le Royaume-Uni et la Suède pour des abus commis sur l’interception des données, ce qui ne va pas sans souligner les risques pour nos sociétés démocratiques.