Prévenir les risques psychosociaux liés à l’introduction de l’IA dans l’entreprise

19 août 20258 min

Comme toute technologie, l’introduction d’outils basés sur l’intelligence artificielle dans l’entreprise n’est pas sans risques. Dans le cadre de l’IA Act et du RGPD, l’employeur doit respecter certaines obligations, notamment afin de prévenir les risques psychosociaux.

AI interface showing prompt error warning and system alert. AI prompt failure can lead to incorrect output or hallucination. Managing AI prompt error is crucial in safe AI deployment.

L’Union européenne a élaboré le premier cadre légal de l’IA dans le monde : le Règlement communautaire (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024[1] établissant des règles harmonisées concernant l’intelligence artificielle ou « AI Act ». Ce dernier est entré en vigueur le 1er août 2024. La philosophie de l’AI Act est claire : « Considérant ce qui suit : (…) (6) Il est indispensable que l’IA soit une technologie axée sur l’humain. Elle devrait servir d’outil aux personnes, dans le but ultime d’accroître le bien-être des humains ».

[1] Règlement communautaire (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n°300/2008, (UE) n°167/2013, (UE) n°168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle), (texte présentant de l’intérêt pour l’EEE). JOUE 12.7.2024.

Des risques pour la société et l’humanité

La crainte que l’IA suscite se manifeste, en mars 2023, par une lettre ouverte signée par plus de 1000 chercheurs appelant à mettre le développement de l’IA en mode « pause » compte tenu des « profonds risques pour la société et l’humanité ». De mai à septembre 2023, la grève des scénaristes américains visait notamment la nécessité d’encadrer l’IA, capable d’écrire des scenarii ou encore de cloner la voix ou l’image des acteurs. En juillet 2024 démarrait une nouvelle grève, cette fois celle des acteurs de jeux vidéo refusant d’être « des données » pour l’IA : à San Diego, 2600 acteurs grévistes, qui assurent habituellement le doublage de jeux vidéo ou dont les mouvements servent à animer des images de synthèse. Des études évoquent aussi l’utilisation, en augmentation constante au sein de l’Union européenne, des logiciels de surveillance et de gestion des ressources humaines fondés sur l’IA. Lorsque ces outils répartissent les tâches, horaires, équipes et surveillent l’exécution du travail, les risques psychosociaux (RPS) augmentent, faisant ressortir de plus fortes contraintes de gestion du temps, une surcharge de travail ainsi qu’une réduction de l’autonomie dans le travail et des problèmes de communication au sein de l’organisation.

Transport routier et risque de somnolence

La question de la surveillance des salariés « pour leur bien » suscite également des interrogations. Le règlement UE 2019/2144 précise que les dispositifs d’avertisseurs de somnolence et de perte d’attention du conducteur sont nécessaires pour les véhicules de transport et installés dans les nouveaux véhicules depuis l’été 2024. Les caméras embarquées dans les cabines de conducteurs routiers utilisant l’IA pour vérifier l’état de somnolence et lancer l’alerte, peuvent générer du risque psychosocial et des atteintes à la vie privée.

Ces systèmes doivent donc fonctionner en circuit fermé sans permettre l’identification du conducteur. Si l’employeur souhaite installer des caméras équipées d’intelligence artificielle permettant de détecter en temps réel la fatigue, la distraction, la Commission nationale de l’informatique et libertés (Cnil) pose le principe que l’installation doit être justifiée par l’intérêt légitime de l’employeur et des impératifs de sécurité, que les intéressés doivent disposer d’un droit d’accès et qu’une analyse préalable d’impact des données (AIPD) s’impose compte tenu du RGPD, avec en outre la nécessité impérieuse d’informer et de consulter le CSE (Comité social et économique) du projet d’installation de caméras équipés d’IA.

Surveillance excessive des salariés

« Des salariés filmés (image) et enregistrés (son) en permanence, via un logiciel comptabilisant les périodes « d’inactivité » informatiques (absence de mouvement sur le clavier ou absence de mouvement de la souris pouvant faire l’objet d’une retenue sur le salaire si supérieure à 15 minutes) avec des captures d’écrans des ordinateurs des salariés entre 3 et 15 minutes ».

Ce n’est pas de la fiction, mais le résumé d’une décision de la Cnil du 19 décembre 2024 qui a sanctionné l’employeur, une agence immobilière, par une amende de 40.000,00 € pour atteinte disproportionnée à la vie privée, aux intérêts et droits fondamentaux des salariés (article 6 RGPD), manquement à l’obligation d’information écrite des intéressés (articles 12 et 13 RGPD), manquement à l’obligation d’assurer la sécurité des données (article 32 RGPD) et manquement à l’obligation de réaliser une étude d’impact (AIPD – article 35 du RGPD).

IA et prévention des risques psychosociaux

L’AI Act précise que « l’employeur doit interroger le fournisseur sur la conformité de son SIA (Système d’intelligence Artificielle) au RGPD (…). Dans le cadre de ses obligations en matière de transparence, il doit être en mesure d’informer les salariés des traitements de leurs données à caractère personnel relatifs au déploiement du système d’IA et de veiller à la formation et à la sensibilisation de ces derniers ».

L’utilisation d’outils d’IA permettant la surveillance constante des salariés, la réduction de leur autonomie dans le travail, l’augmentation des exigences de rendement, de l’intensité du travail avec une réduction, voire une absence de décision humaine, l’isolement, la déshumanisation, le manque d’information ainsi qu’un manque de protection des données personnelles, sont de nature à générer du risque psychosocial surtout si les salariés ne participent pas à la conception et à la mise en place des outils. La prévention des RPS passe par une évaluation des risques, une communication claire et transparente, la préservation de l’autonomie des salariés, la prise de décision humaine ainsi qu’une sensibilisation aux conséquences, sur la santé mentale, de la gestion des salariés fondée sur l’IA.

La consultation du CSE

L’utilisation de SIA nécessite d’informer et de consulter le CSE (à partir de 50 salariés) en application de l’article L.2312-8 Code du travail sur toutes les questions intéressant l’organisation, la gestion et la marche générale de l’entreprise, notamment dans le cadre de projet d’introduction de nouvelles technologies, ce qui s’avère précisément être le cas de l’IA. La question du calendrier de cette consultation a été posée le 14 février 2025 devant le juge des référés du tribunal judiciaire de Nanterre : un employeur avait mis en œuvre, sans attendre l’avis du CSE, de nouveaux outils informatiques intégrant l’IA. Le CSE a demandé au juge des référés d’ordonner à l’employeur de suspendre toute mise en œuvre du projet, sous astreinte, dans l’attente de sa consultation. L’employeur argumentait sur le fait que les outils informatiques étaient en phase pilote et donc non encore mis en œuvre.

L’ordonnance de référé du 14 février 2025 tranche ainsi : « Il ressort par ailleurs des pièces du dossier que le déploiement des outils informatiques (…) est en phase pilote pour certains d’entre eux depuis plusieurs mois. (…) La phase pilote implique l’utilisation des nouveaux outils, au moins partiellement, par l’ensemble des salariés concernés. Cette phase ne peut dès lors être regardée comme une simple expérimentation nécessaire à la présentation d’un projet suffisamment abouti, mais s’analyse au contraire comme une première mise en œuvre des applicatifs informatiques soumis à consultation. Or il est constant que le comité n’a pas encore rendu son avis sur ces outils. Leur déploiement anticipé constitue dès lors un trouble manifestement illicite.

Il convient en conséquence d’ordonner la suspension de leur mise en œuvre jusqu’à la clôture de la consultation (..) sous astreinte de mille euros par infraction constatée pendant une durée de quatre-vingt-dix jours ». On ignore à ce stade si cette décision a fait l’objet d’un recours.

Errare humanum est ?

Autre interrogation susceptible de générer des RPS : dans l’hypothèse d’une erreur produite par l’IA et reproduite par un salarié, est-ce une faute ou une insuffisance professionnelle du salarié ? Cela dépendra si le salarié a, ou non, « la main », le contrôle, sur le SIA. L’IA Act imposant aux employeurs de conserver les journaux générés par les SIA à haut risque, cette traçabilité est susceptible d’établir des fautes du salarié en documentant un éventuel dossier disciplinaire et/ou de licenciement. Enfin, l’obligation de former les salariés aux nouveaux outils s’impose à l’employeur, qui assure l’adaptation des salariés à leur poste de travail (article L.6321-1 Code du travail). La prévention des RPS passera aussi par une formation efficace des salariés à ces nouveaux outils.

À lire également

Notre interview de Nina Tarhouny, docteure en droit et préventeure, spécialiste des risques psychosociaux : “IA et SST : «Il faut absolument faire une étude d’impact»”, publiée également dans le notre n° 605 (janvier-février 2025).

Partagez cet article !

Avatar femme pour signature

Maître Catherine Suter

Avocate spécialisée en Droit du travail, inscrite au Barreau de Meaux

---

Les plus lus…

Icône newsletter 2024

Inscrivez-vous
à notre
newsletter

Recevez toutes les actualités et informations sûreté, incendie et sécurité.

Logo WhatsApp 538px

Rejoignez notre
chaîne WhatsApp