Résolution de la CES pour une directive européenne sur les systèmes algorithmiques au travail
Adoptée lors du Comité exécutif du 6 décembre 2022.
Messages clés :
- Les systèmes algorithmiques, et singulièrement l’IA (Intelligence Artificielle), ont une influence significative sur le travail du futur. Afin d’améliorer les conditions de travail et éviter les effets négatifs, l’utilisation de tels systèmes sur le lieu de travail doit être mieux et effectivement réglementée ;
- La législation sur l’IA ne convient pas pour réglementer son utilisation sur le lieu de travail. Une directive européenne sur les systèmes algorithmiques au travail basée sur l’article 153 TFUE devrait définir les normes européennes minimums pour la conception et l’utilisation de systèmes algorithmiques dans le contexte de l’emploi ;
- Un élément clé de la nouvelle directive est le renforcement et l’application des droits des syndicats en matière de négociation collective ainsi que des droits à l’information, la consultation et la participation des représentants des travailleurs ;
- Les systèmes algorithmiques au travail doivent être transparents et explicables. Les travailleurs et leurs représentants doivent avoir le droit d’être informés dans un langage clair et compréhensible à propos des applications utilisées ;
- Les syndicats et les représentants des travailleurs devront pouvoir profiter d’une expertise externe ;
- Une évaluation d’impact algorithmique des changements dans les conditions de travail, y compris une évaluation d’impact sur les droits fondamentaux et l’égalité, doit être menée par l’employeur avec la pleine participation des syndicats et des représentants des travailleurs avant toute mise en œuvre d’un système ; elle devra être régulièrement répétée après cette mise en œuvre ;
- Les applications intrusives devraient être interdites dans le contexte de l’emploi. Les applications destinées à contrôler les travailleurs ne pourront être autorisées que si leur utilisation est négociée avec et approuvée par les syndicats et/ou les représentants des travailleurs ;
- Les systèmes algorithmiques et l’IA devraient aider les travailleurs dans le cadre de leur travail. Le principe de l’humain aux commandes doit être défini et les droits des preneurs de décision humains doivent être protégés ;
- Les travailleurs auront le droit de contrôler et de réviser les décisions algorithmiques.
Les systèmes algorithmiques, et singulièrement l’IA (Intelligence Artificielle), présentent d’immenses opportunités pour l’amélioration des lieux de travail – par exemple des opportunités pour renforcer l’efficacité, l’équité et la sécurité des travailleurs. L’utilisation croissante de systèmes d’IA[1] sur le lieu de travail ouvre la voie à une nouvelle vague de numérisation qui diffère significativement de la précédente. Celle-ci était principalement caractérisée par des innovations technologiques telles que l’informatisation, l’automation et la robotisation et était basée sur des processus automatisés selon des règles explicites et des programmes informatiques écrits manuellement. Les expériences des travailleurs avec ce type de numérisation ont été mitigées. Toutefois, là où les syndicats et les représentants des travailleurs ont contribué à la mise en œuvre de la numérisation sur le lieu de travail, le cadre négocié nécessaire a été créé pour garantir l’implication et le contrôle des travailleurs dans l’exécution des tâches numériques ainsi que pour assurer les qualifications supplémentaires et la formation nécessaires au fonctionnement des robots.
L’IA est différente. Elle est très perturbante, autoformatrice et capable d’indépendamment trouver des connexions et de prendre des décisions. Alors que les étapes de la logique « si… alors » étaient compréhensibles jusqu’à présent, l’IA peut déclencher des processus de décision qui, après un certain temps, ne peuvent plus être expliqués par les programmeurs eux-mêmes ni anticipés par les développeurs. Le risque de déshumanisation des processus de prise de décision est déjà une amère réalité, en particulier lorsqu’ils interviennent dans des domaines tels que les ressources humaines, par exemple pour recruter des travailleurs, contrôler le travail, analyser les comportements voire même mettre fin à un emploi.
Lorsqu’elle n’est pas réglementée, l’IA entraîne d’énormes risques pour les travailleurs.[2] En plus d’une surveillance massive, elle peut être utilisée pour identifier des sentiments et évaluer les travailleurs sans tenir compte du contexte ou de la performance. Des exemples classiques sont les applications capables de reconnaître l’humeur et les émotions dans les conversations des agents de centres de contact et de les évaluer dans le cadre du contrôle de performance. Le fait que le travailleur concerné soit dans une situation personnelle stressante (par ex. la mort d’un proche) n’est pas pris en compte dans l’évaluation. Les outils qui recourent à l’IA peuvent ainsi rapidement créer une sorte de déshumanisation du travailleur, le/la transformant en un produit purement économique. L’IA peut également faire des prévisions de performance d’un travailleur. Une promotion ou même un licenciement peut donc être basé, au moins en partie, sur une prévision de performance future du travailleur et non sur sa performance réelle. Plus dangereux encore, de tels systèmes peuvent être utilisés pour prédire des attitudes politiques, les préférences en matière de grossesse ou encore l’affiliation à un syndicat.
L’IA et la gestion algorithmique auront aussi un impact considérable sur le travail du futur : les activités individuelles liées aux profils de fonction changeront ou disparaîtront tout simplement ; l’organisation du travail et les relations de travail changeront également, ce qui aura d’importantes implications en matière d’environnement de travail, de temps de travail et de santé et de sécurité.
La CES a donc été impliquée à un stade précoce dans les discussions sur la réglementation de l’IA. Sur base d’un travail et de données scientifiques[3], la CES a décrit, dès juillet 2020, la nécessité d’une stratégie réglementaire complète dans sa résolution sur les stratégies européennes en matière d’intelligence artificielle et de données[4]. Dans son livre blanc sur l’intelligence artificielle – Une approche européenne axée sur l'excellence et la confiance[5], la Commission européenne elle-même soulignait l’impact sur le monde du travail : « Compte tenu de son importance pour les particuliers et de l’acquis de l’UE sur l’égalité en matière d’emploi, l’utilisation d’applications d’IA dans les procédures de recrutement et dans des situations ayant une incidence sur les droits des travailleurs serait toujours considérée
comme étant « haut risque » [...], l’utilisation d’applications d’IA à des fins d’identification biométrique à distance et pour d’autres technologies de surveillance intrusive serait toujours considérée comme étant « haut risque» » [...] ».
Comparée aux exigences de la CES, la proposition de la Commission européenne sur le projet de législation sur l’IA[6] est plus que décevante du point de vue des travailleurs. Bien que la Commission ait qualifié les systèmes d’IA utilisés pour le recrutement, les promotions ou les licenciements comme étant à haut risque, ces systèmes ne doivent être soumis qu’à une autoévaluation dans laquelle le fournisseur du logiciel ne garantit que la conformité avec la législation et les normes qui doivent encore être définies. Ni les syndicats, ni les travailleurs n’ont la possibilité d’être informés et consultés. Les travailleurs ne bénéficient pas non plus de la moindre forme de protection ou de sauvegarde. Une autoévaluation ne suffit pas à protéger les droits des travailleurs. Afin de la compléter, une évaluation de la conformité par une tierce partie, avec une implication syndicale, est nécessaire. Des droits à la transparence sont uniquement accordés aux utilisateurs finaux, c.-à-d. les employeurs dans le contexte de l’emploi.
Outre un système uniquement basé sur l’autoévaluation, la Commission européenne a externalisé la conception d’ensemble, allant des critères spécifiques aux directives ethniques et aux organisations privées de fixation de normes, permettant ainsi à des organisations commerciales d’acquérir de l’influence et dès lors de rendre le processus favorable aux seules entreprises.
La base juridique, l’article 114 du TFUE, exclut, par définition, la réglementation de questions concernant les droits et intérêts des travailleurs. Cela ne devrait en principe pas être un problème si la Commission européenne s’était limitée à réglementer la mise sur le marché dans le cadre d’une simple directive sur la sécurité d’un produit mais pas également, et en même temps, sur l’utilisation de l’IA. La Commission indique clairement dans le préambule 1 de son projet de législation sur l’IA que les réglementations nationales pouvant limiter l’utilisation de systèmes d’IA sont à éviter : [...] Le présent règlement poursuit un objectif justifié par un certain nombre de raisons impérieuses d’intérêt général, telles que la nécessité d’un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux, et il garantit la libre circulation transfrontière des biens et services fondés sur l’IA, empêchant ainsi les États membres d’imposer des restrictions concernant le développement, la commercialisation et l’utilisation de systèmes d’IA, sauf autorisation expresse du présent règlement. »
La CES est très critique par rapport à cette approche car elle est susceptible de limiter les droits des travailleurs. Dans leur formulation générale, par exemple, les réglementations nationales concernant la santé et la sécurité au travail ou les réglementations sur la participation des travailleurs qui limitent l’utilisation de l’IA sur le lieu de travail pourraient enfreindre le droit européen. La CES demande donc avec force que le processus législatif actuel garantisse que soient respectées les réglementations nationales relatives à la protection des droits des travailleurs, tels que les droits à l’information, la consultation et la participation ou les réglementations sur la santé et la sécurité au travail.
Bien que le processus législatif applicable au projet de réglementation sur l’IA ne soit pas encore arrivé à terme, il est clair que cette législation ne conviendra pas pour garantir la protection effective des travailleurs dans le contexte de l’emploi en raison de sa base juridique et de son faible niveau de protection. La CES plaide dès lors en faveur d’un lex specialis pour l’utilisation de systèmes algorithmiques au travail.
Dans sa proposition de directive sur le travail de plateforme[7], la Commission a présenté des arguments en faveur de davantage de participation des travailleurs et de transparence dans l’utilisation de systèmes de surveillance et de prise de décision automatisés mais en limitant cela au champ d’application de la directive. Toutefois, les systèmes de gestion automatisés sont largement utilisés en dehors de l’économie de plateforme. Des exemples classiques sont les commerces de détail en ligne qui utilisent de tels systèmes de manière intensive et exploitable dans leurs entrepôts. Une nouvelle directive sur les systèmes algorithmiques au travail devrait s’inspirer de la directive sur le détachement des travailleurs en comblant les lacunes restantes et en l’appliquant à tous les travailleurs.
Pour une directive européenne sur les systèmes algorithmiques au travail [8]
Une directive européenne sur les systèmes algorithmiques au travail, fondée sur l’article 153 TFUE devrait définir les normes européennes minimums pour la conception et l’utilisation de systèmes algorithmiques dans le contexte de l’emploi. Le champ d’application de la directive devrait couvrir les systèmes algorithmiques avec et sans IA[9], être aussi large que possible en faisant référence à « tous les systèmes algorithmiques traitant les données personnelles de travailleurs et concernant les travailleurs dans les relations de travail ou dans les questions de formation ou d’éducation continue ».
Il va sans dire qu’une simple directive ne peut résoudre tous les problèmes. Il faudrait qu’elle aborde les questions les plus importantes liées à l’utilisation de systèmes algorithmiques au travail. De plus, il faut bien sûr que l’acquis social soit adapté aux nouveaux défis numériques, que ce soit à travers le droit à la déconnexion ou une directive urgente sur les risques psychosociaux.
Le principe directeur de la nouvelle directive sur les systèmes algorithmiques doit être de préserver la dignité des travailleurs et de contrer la déshumanisation au travail. La CES croit que l’outil le plus efficace est de renforcer la négociation collective des syndicats ainsi que les droits à l’information, la consultation et la participation des représentants des travailleurs. C’est la seule façon d’assurer que l’utilisation des systèmes algorithmiques ait un impact positif sur les conditions de travail et les qualifications des travailleurs. Par conséquent, il ne faut pas que la nouvelle directive parte d’une page blanche mais plutôt qu’elle s’appuie sur l’acquis européen existant en matière d’information, de consultation et de participation. Il faut toutefois qu’elle veille à l’application de ces droits et qu’elle garantisse que les syndicats et les représentants des travailleurs soient effectivement informés, consultés et impliqués en temps opportun dans les décisions relatives au développement, à l’achat, au déploiement, à la configuration et à l’évaluation/révision des systèmes algorithmiques.
Idéalement, l’implication des syndicats et des représentants des travailleurs devrait débuter au stade de la conception et du développement des systèmes d’IA. Les développeurs de systèmes algorithmiques devraient tenir compte des questions de santé et de sécurité au travail et de protection des droits des travailleurs dès le stade de l’écriture du code, suivant donc une bonne approche du travail dès la conception. Il serait dès lors nécessaire que les développeurs de ces systèmes disposent d’une connaissance, d’une sensibilisation et d’une formation préalables, non seulement sur les sujets liés à l’IA mais aussi en matière d’éthique afin d’éviter les biais de programmation. De plus, un travailleur ou une travailleuse et/ou son/sa représentant(e) doivent être en mesure d’amender une décision prise par un algorithme ou un système d’IA afin de corriger de tels biais Il faut en outre s’assurer que les systèmes algorithmiques utilisés dans le contexte de l’emploi ont été soumis à une évaluation indépendante de leur impact sur les droits fondamentaux et l’égalité, ce qui inclut explicitement la non-discrimination et la protection des droits des travailleurs. Un examen indépendant et des mécanismes de plaintes doivent garantir la conformité avec les exigences spécifiques du lieu de travail.
Les droits à la participation doivent être conçus d’une manière axée sur les processus. Les syndicats et les représentants des travailleurs doivent avoir le droit d’examiner régulièrement le système d’IA et de réclamer des ajustements ou des limitations. Dans ce but, l’employeur a l’obligation de mener une évaluation d’impact algorithmique des changements dans les conditions de travail, y compris une évaluation d’impact sur les droits fondamentaux et l’égalité, en coopération et avec la pleine participation des syndicats et des représentants des travailleurs avant la mise en œuvre du système. L’évaluation d’impact sur les droits fondamentaux et l’égalité devra être régulièrement répétée après cette mise en œuvre[10]
Afin d’assurer une consultation significative des représentants des travailleurs et des syndicats, les employeurs devraient avoir l’obligation légale de fournir une vue d’ensemble du système algorithmique en question, y compris :
- les données sur lesquelles il est basé,
- les données qu’il traite,
- comment les données sont traitées,
- où, pourquoi et pour combien de temps les données sont conservées,
- qui a accès aux données,
- quels processus et lieux de travail sont concernés directement ou indirectement et sous quelle forme,
- comment les conditions et profils de stress liés aux emplois changent,
- les mesures de qualification sont-elles nécessaires et suffisamment de temps leur sont-elles consacrées,
- de nouveaux risques psychologiques ou physiologiques apparaissent-ils,
- le système est-il non-discriminatoire.
Si nécessaire, les syndicats et les représentants des travailleurs doivent en permanence avoir plein accès aux données et aux informations relatives au système. De plus, ils doivent pouvoir également avoir accès à ces données à travers une expertise externe financée par l’employeur. Le droit de désigner des experts externes doit être inscrit dans la directive.
Transparence et explicabilité sont essentielles dans les systèmes algorithmiques. La CES estime que la directive devrait stipuler que l’employeur doit informer les travailleurs, dans un langage clair et à un stade le plus précoce possible, concernant l’utilisation de systèmes algorithmiques tels que l’IA. Cela devrait inclure, sans se limiter, aux informations portant sur la nature, le rôle et le champ d’application des systèmes, quelles données sont traitées, quels résultats sont produits et quelles sont les conséquences. L’information devrait également inclure une référence à l’implication humaine et les données relatives à l’organe compétent en matière de plaintes.
La CES est convaincue qu’une directive sur les systèmes algorithmiques au travail doit aborder les différentes relations de pouvoir entre employeur et travailleur. On ne peut supposer que le consentement individuel du travailleur constitue une base suffisante pour l’utilisation de tels systèmes sur le lieu de travail. Une négociation collective avec le syndicat et/ou les représentants des travailleurs concernés est nécessaire.
La minimisation des données est un principe clé de la législation européenne sur la protection des données et doit être appliquée aux systèmes algorithmiques dans le contexte de l’emploi. En même temps toutefois, les systèmes d’IA devraient être non-discriminatoires et exempts de biais. Le règlement général sur la protection des données (RGPD) est déjà une ressource efficace. Les syndicats et les représentants des travailleurs devraient pleinement profiter des possibilités qu’il offre, y compris le droit universel à l’explicabilité concernant les systèmes algorithmiques à haut risque et le droit de demander une explication personnalisée. La directive sur les systèmes algorithmiques pourrait concrétiser ce qui peut être considéré comme étant des « règles spécifiques » selon l’article 88 du RGPD et pourrait servir de base pour la mise en œuvre de cet article dans tous les États membres. S’agissant de l’article 8 du RGPD, les dispositions législatives que les États membres ont intégrées pour garantir la protection des droits et libertés liés au traitement des données personnelles des travailleurs sur le lieu de travail, en particulier aux fins de recrutement de personnel et d’exécution du contrat de travail, devraient être révisées et adéquatement incluses. Néanmoins, même si les possibilités sont pleinement exploitées, il y a encore des lacunes en matière de protection des données relatives à l’emploi. La CES est donc favorable à l’inclusion dans la directive sur les systèmes algorithmiques d’éléments concernant la protection des données des travailleurs.
L’interdiction faite aux employeurs de collecter certaines données des travailleurs doit être effectivement appliquée. Cela comprend, par exemple, les données en dehors des heures et/ou du lieu de travail, les données collectées en lien avec des conversations privées, particulièrement les conversations avec les représentants des travailleurs, ou dans des locaux privés qui ne devraient pas être collectées ni traitées par l’employeur. Une stricte interdiction s’applique aussi à la collecte ou au traitement de toute donnée posant un risque pour la dignité humaine ou les droits fondamentaux. Cela concerne en particulier les données sur l’état émotionnel ou psychologique.
Les systèmes algorithmiques, singulièrement l’IA, peuvent être détournés dans le but de contrôler et surveiller les travailleurs de près. Les formes de surveillance abusive doivent être interdites. Compte tenu de l’importance croissante du télétravail, il faut en particulier veiller à ce que vie professionnelle et vie privée ne soient pas mélangées. L’intimité, surtout dans sa propre maison, doit être préservée en toutes circonstances. L’employeur ne peut être autorisé d’utiliser des systèmes algorithmiques de surveillance au travail, et surtout pas ceux basés sur l’IA. Si un intérêt justifié peut être démontré, une convention collective et/ou un accord d’entreprise avec les syndicats et/ou avec les représentants des travailleurs peut en décider autrement.
La CES plaide pour que certains systèmes d’IA très intrusifs soient en principe interdits dans le contexte de l’emploi. Cela inclut en particulier les applications visant à faire des prévisions, et qui donc violent les droits fondamentaux des travailleurs comme le droit d’adhérer à un syndicat, ou d’être jugés sur base de leur affiliation ou de leur participation politiques. Les décisions entièrement automatisées affectant la relation de travail d’un travailleur devraient également être interdites. Les systèmes algorithmiques peuvent tout au plus être utilisés comme systèmes d’aide. Les décisions doivent être prises par un humain suivant une série de critères transparents et proportionnés approuvés par les syndicats et/ou les représentants des travailleurs. Une simple référence au résultat fourni par un logiciel n’est pas suffisante.
La directive doit définir un processus de décision axé sur l’humain. Elle doit également veiller à la nécessaire protection de la personne prenant la décision au cas où celle-ci déciderait de ne pas suivre le résultat fourni par un système algorithmique. Les employeurs doivent être tenus pour responsables de la mise en place de procédures efficaces pour lutter contre les « biais d’automatisation » des preneurs de décision humains.[11] Cela inclut, entre autres, s’assurer que le superviseur humain reçoive la formation nécessaire et ait l’autorité requise pour remplir son rôle. A cet égard, il est essentiel que les syndicats et les représentants des travailleurs soient déjà impliqués dans le processus de sélection. Dans ce cadre, la directive pourrait rappeler et spécifier le recours à l’article 22 du RGPD dans le contexte de l’emploi.
Selon la CES, une directive sur les systèmes algorithmiques doit également aborder la question de la qualification des travailleurs et de leurs représentants. La directive doit donc permettre aux travailleurs et leurs représentants de se sentir à l’aise avec l’IA : bien que cela soit nécessaire, acquérir des compétences techniques et les appliquer au travail ne suffit pas et sert surtout les intérêts de l’employeur. Se sentir à l’aise avec l’IA veut dire être capable de comprendre de manière critique le rôle de l’IA et son impact sur son travail et sa profession et être capable d’anticiper la manière dont l’IA transformera sa carrière et son rôle. Utiliser les systèmes d’IA de manière passive ne présente pas d’avantages pour les travailleurs eux-mêmes – une certaine distance doit être établie pour qu’ils puissent réaliser l’influence d’ensemble de l’IA.[12] La nouvelle directive devrait accorder aux représentants des travailleurs le droit à l’information, la consultation et la participation concernant l’initiation et l’application de formations internes ainsi que le développement de qualifications professionnelles. La directive doit en même temps accorder aux représentants des travailleurs le droit à une formation financée par l’employeur sur l’utilisation des systèmes algorithmiques et de l’IA. De plus, les employeurs devraient être formés aux questions éthiques liées à l’IA et au danger que l’introduction d’un système d’IA pourrait représenter sur le lieu de travail.
La directive doit prévoir des sanctions effectives et dissuasives et inclure une clause de non-régression effective ainsi qu’une clause préférentielle. Elle doit aussi tenir compte des différents systèmes de marché du travail et autoriser une flexibilité nationale si nécessaire.
[1] Dans un but de lisibilité, cette résolution utilise les termes « IA » ou « système d’IA » sans spécifier si « IA » fait référence à l’apprentissage machine, à des systèmes (de gestion) algorithmiques ou à une autre technologie.
[2] Nations Unies (2021) : Le droit à la vie privée à l’ère du numérique. Rapport du Haut-Commissariat des Nations Unies aux droits de l’homme, Conseil des droits de l’homme, 84ème session, Points 2 et 3 de l’ordre du jour
[3] Ponce Del Castillo, A. (2020). Le travail à l’ère de l’IA : pourquoi la réglementation est nécessaire pour protéger les travailleurs. ETUI Note de prospective; Ponce Del Castillo, A. (2018): Quand l'intelligence artificielle redistribue les cartes du monde du travail. ETUI Note de prospective
[4] Résolution de la CES sur les stratégies européennes en matière d’intelligence artificielle et de données
[5] Commission européenne (2020), Livre blanc sur l’intelligence artificielle – Une approche européenne axée sur l'excellence et la confiance, COM(2020)65, p. 18
[6] Commission européenne (2022), Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union COM(2021)206
[7] Commission européenne (2021), Proposition de directive du Parlement européen et du Conseil relative à l’amélioration des conditions de travail dans le cadre du travail via une plateforme, COM/2021/0762
[8] Dans un but de lisibilité, « IA » et « système d’IA » font référence aux systèmes algorithmiques en général indépendamment du degré réel d’IA.
[9] Pour décrire la nécessité de réglementation et les exigences de la CES, le fait qu’un système algorithmique de gestion utilise ou non une réelle IA n’est pas pertinent. Toutefois, le niveau concret de protection du travailleur peut varier en fonction du degré d’utilisation d’une réelle IA.
[10] Adams-Prassel, Jeremias et all. (2021): Regulating Algorithmic Management, The Blueprint Proposals, non-paper
[11] Les biais d’automatisation font référence à la tendance des preneurs de décisions humains de croire les ordinateurs et leurs conseils.
[12] Ponce Del Castillo, A (2022), Artificial intelligence: filling the gaps, Social Europe