La RSE, une boussole pour les usages de l’intelligence artificielle ?
De grandes mutations du travail s’annoncent, venant amplifier celles qui sont déjà à l’œuvre depuis la crise sanitaire de 2020. Face à cette rupture technologique, une régulation est demandée pour adapter le cadre juridique et garder le contrôle. Dans le cadre de sa stratégie numérique, l’UE se veut d’ailleurs pionnière -comme souvent- sur le plan de la réglementation au niveau international, avec le projet de règlement sur l’intelligence artificielle (AI Act) prévu pour fin 2023. Celui-ci viendrait classer les SIA par niveau de risque (schématiquement : risque inacceptable = régime d’interdiction / risque élevé = régime d’évaluation et d’enregistrement / risque limité et IA génératives = exigences de transparence).
En attendant, l’approche sous l’angle de la responsabilité sociale et environnementale des entreprises (RSEE) doit permettre de trouver des équilibres pour éviter les dérives et usages irraisonnés :*A noter que cela s’articule avec la réglementation UE sur la sécurité des produits, ainsi qu’avec le nouveau règlement « machines » n° 2023/1230 du 14 juin 2023 afin d’intégrer les nouveaux risques et contraintes technologiques liés notamment à l’IA.
- IA et RSE : réflexions sur le volet social
- Un facteur de progrès (ex : aide à la prévention des risques professionnels, voire à leur prédiction (?) ; aide à la prise de décision ; réduction des tâches ingrates ; amélioration de la productivité ; détection des anomalies et correction d’erreurs ; robot d’assistance numérique des opérateurs, etc.) ;
- Un facteur de risque pour les travailleurs (RPS ; surveillance ; prise de décision automatisée dans la relation de travail du recrutement au départ ; adaptation permanentes et accélérée aux évolutions d’outils ou d’usages ; etc.).
- Les orientations stratégiques de l’entreprise ;
- La formation ;
- La gestion prévisionnelle des emplois et compétences et des parcours professionnels (quels seront notamment les besoins en termes de nouvelles compétences) ;
- La fonction managériale et les méthodes de management (reporting, évaluation, contrôle, coordination, coopérations, etc.) ;
- Les conditions de travail.
Sur ce dernier volet, rappelons que légalement, les principes généraux de prévention (PGP) imposent notamment à l’employeur d’« adapter le travail à l'homme, en particulier en ce qui concerne la conception des postes de travail ainsi que le choix des équipements de travail et des méthodes de travail et de production, en vue notamment de limiter le travail monotone et le travail cadencé et de réduire les effets de ceux-ci sur la santé » (C. Trav., L4121-2, 4°)
Dans de nombreux métiers on peut justement imaginer le risque de devoir s’adapter à la machine si le changement n’est pas suffisamment bien pensé en amont.
D’expérience, il faut s’attendre à ce que le déploiement de tels outils crée de la défiance, et soit en conséquence très surveillé par l’administration (notamment dans le cadre du contrôle des PSE – Conseil d’Etat 21 mars 2023, n° 460660 et n° 450012) ainsi que par les tribunaux en cas de contentieux.
Il existe ainsi de nombreux précédents jurisprudentiels autour de contentieux de la réorganisation en lien avec des projets de mise en place de nouveaux logiciels, pouvant confronter la direction à des risques de litiges avec les représentants du personnel :- Dans le cadre de consultations obligatoires du CSE en lien avec l’introduction de nouvelles technologies (ex. suspension d’un projet de logiciel « SmartRH » : Cass. Soc. 26 février 2020, n° 18-24758) ;
- Sur le terrain d’expertises du CSE fondées sur l’existence d’un projet important modifiant les conditions de travail (ex. projet d’IA dédié à l’assistance de chargés de clientèle : Cass. Soc. 12 avril 2018, n° 16-27866), voire d’un risque grave constaté dans l’établissement.
Dans ce registre, il conviendra de veiller à passer le projet de déploiement du SIA au crible de l’évaluation des risques professionnels (mise à jour du DUERP et pour les 50+, des mesures du PAPRIPACT si nécessaire – cf. C. Trav., R4121-2).
- Cela peut même conduire à des actions visant à enjoindre l’arrêt d’un projet de nature à compromettre la santé (mentale notamment) des salariés (cf. Cass. Soc. 5 mars 2008, n° 06-45888, solution fondée à l’époque en référence à l’obligation de sécurité « de résultat », mais qui paraît toujours applicable dans son principe).
- IA et RSE : réflexions sur le volet environnemental
Tout cela milite pour une politique de sobriété dans les usages.
Mais il existe à l’inverse des usages pour lesquels l’IA présente un levier en termes de réduction d’impacts : par exemple, elle est indispensable pour piloter finement les besoins et optimiser les consommations de ressources ainsi que les émissions et rejets, dans une démarche de sobriété. S’agissant de l’adaptation au changement climatique, l’IA est également incontournable pour les prévisions météorologiques et plus généralement pour la prévention des risques naturels. A relier au domaine social, c’est aussi certainement un domaine où les greens skills vont pouvoir se développer et être créatrices sinon de nouveaux emplois, au moins de nouveaux besoins en compétences « vertes ».- IA et RSE : réflexions sur le volet gouvernance des outils et des données
* L’article 47 de la loi informatiques et libertés ajoute également qu’« aucune décision de justice impliquant une appréciation sur le comportement d'une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de la personnalité de cette personne. »
Dit autrement, il faut de manière générale un « numérique responsable », ce qui n’est pas incompatible avec le fait de promouvoir les filières de recherche et de soutenir les acteurs dans ce domaine.
Bien au contraire, c’est la condition pour la légitimité et l’acceptabilité de ces évolutions disruptives. A côtés des usages de l’IA, des garanties paraissent donc indispensables au stade de la conception et du développement de ces outils, afin d’éviter les biais, ainsi que les risques cyber.Alors que le codage lui-même peut désormais être délégué à une IA, cela suppose plus que jamais une gouvernance des algorithmes.
L’humain doit pouvoir garder le contrôle, ce qui nécessite au plus haut niveau que les entités qui développent ou utilisent ces technologies se dotent d’une politique de vigilance et de moyens adaptés sur le plan organisationnel, humain, financier et technique.
La mise en place de chartes et de process internes contraignants peut s’avérer nécessaire.Au final, l’enjeu est celui de la responsabilité pour les entreprises, aussi bien en termes d’image que sur le plan juridique (prenons par exemple le risque pour l’entreprise en cas de violation des droits de propriété intellectuelle via l’utilisation d’un SIA).
Ajoutons à ce panorama que dans le cadre du déploiement progressif de la Directive CSRD, les entreprises concernées par les nouvelles obligations en matière de reporting de durabilité, devront prendre en compte dans leur analyse de « double matérialité » d’impact les éventuelles stratégies d’IA au regard des nouveaux critères environnementaux, sociaux et de gouvernance (ESG – cf. notamment référentiel de normes ESRS S1 « main d’œuvre » et S2 « travailleurs de la chaîne de valeur »).