Se connecter
Service & Contact Securex.be
Se connecter

Quelles sont les implications du règlement sur l’intelligence artificielle pour les employeurs et les travailleurs ?

Vos travailleurs utilisent ChatGPT dans le cadre de leur fonction ou vous envisagez de sélectionner les candidats à l’aide de IA ? Depuis février 2025, une réglementation européenne stricte est en vigueur. Le règlement sur le IA interdit certains systèmes et exige que les travailleurs maîtrisent le IA. Quelles sont les règles ?

En résumé, depuis ce mois-ci, l’Union européenne exige des employeurs une attitude proactive dans le cadre de l’utilisation de l’intelligence artificielle au sein de leur organisation. Cela signifie essentiellement qu’ils doivent former leurs travailleurs à l’intelligence artificielle afin que ceux-ci comprennent son fonctionnement et puissent l’utiliser de manière responsable.

De plus, il est important de mettre en place une politique claire en matière d’intelligence artificielle qui doit prévoir les systèmes d’intelligence artificielle que les travailleurs sont autorisés à utiliser dans le cadre de leur travail, les modalités d’utilisation de ces systèmes et la manière dont la maîtrise de l’intelligence artificielle est actualisée.

Quatre niveaux de risque en matière d’intelligence artificielle

Le règlement sur l’intelligence artificielle (en anglais : AI Act) impose des règles à toutes les organisations qui utilisent, développent ou commercialisent des systèmes d’intelligence artificielle au sein de l’Union européenne. Élément particulièrement important pour vous en tant qu’employeur : dès lors que vos travailleurs utilisent des outils d’intelligence artificielle, tels que ChatGPT, Claude, Gemini ou Copilot, dans le cadre de leur fonction, vous avez, conformément au règlement, le rôle de déployeur. Dans ce cas, vous devez satisfaire à certaines obligations.

Avant de se pencher sur les obligations, il est important de savoir que le règlement sur l’intelligence artificielle définit quatre niveaux de risque :

  1. risque minimal : la plupart des systèmes d’intelligence artificielle, comme les filtres anti-spam et les jeux vidéo d’intelligence artificielle, ne relèvent pas du règlement. Les entreprises peuvent toutefois prévoir des codes de conduite supplémentaires sur une base volontaire ;
  2. risque nécessitant de la transparence : les systèmes, comme les chatbots d’intelligence artificielle, doivent informer l’utilisateur qu’il communique avec une machine et le contenu généré par l’intelligence artificielle doit être clairement identifié comme tel ;
  3. risque élevé : les systèmes d’intelligence artificielle à haut risque, comme les logiciels d’intelligence artificielle utilisés dans le secteur médical ou pour le recrutement, doivent répondre à des exigences strictes comme une atténuation des risques, une surveillance, une grande qualité des ensembles de données, des informations claires à l’égard de l’utilisateur et un contrôle humain ;
  4. risque inacceptable : les systèmes d’intelligence artificielle qui représentent une menace pour les droits de l’homme, tels que des systèmes permettant une notation sociale par le gouvernement ou les entreprises, sont interdits.

Investir dans la maîtrise de l’intelligence artificielle

Depuis le 2 février 2025 vous devez vous assurer que tous vos travailleurs – non seulement les travailleurs permanents, mais aussi les freelances et les intérimaires – qui utilisent des systèmes d’intelligence artificielle ont une maîtrise suffisante de celle-ci.

Ce que l’on entend exactement par « maîtrise suffisante » dépend de la situation. Une personne qui travaille de manière intensive avec l’intelligence artificielle doit en savoir plus qu’une personne qui l’utilise occasionnellement. L’impact sur les autres joue également un rôle : l’utilisation de l’intelligence artificielle a-t-elle potentiellement des répercussions pour les clients ou les collègues ? Si c’est le cas, la personne doit bien connaître le fonctionnement du système et savoir quelles sont les conséquences possibles.

Notre conseil

Investissez dans des formations qui permettent aux membres de votre équipe d’apprendre à utiliser l’intelligence artificielle de manière responsable et efficace dans leur travail quotidien. À cette fin, vous devez faire une distinction entre les différentes fonctions : tout le monde ne doit pas tout savoir, mais chaque collaborateur doit savoir ce qui est important pour son rôle et les outils qu’il utilise.

Mettez en place une politique interne en matière d’intelligence artificielle

Pour répondre à votre obligation dans le cadre de la maîtrise de l’intelligence artificielle, il est indiqué de mettre en place pour votre organisation une politique en matière d’intelligence artificielle qui prévoit des points clairs, tels que :

  • qui est autorisé à utiliser quelles applications d’intelligence artificielle au sein de l’organisation ;
  • la manière dont l’organisation veille à ce que tous les travailleurs maîtrisent en permanence l’intelligence artificielle de manière suffisamment efficace dans le cadre de nouveaux développements ou de changements d’outils ;
  • la manière dont la maîtrise de l’intelligence artificielle est garantie si les travailleurs changent de fonction.

Il est important de préciser qui est responsable de quoi et de travailler en étroite collaboration avec le service informatique et le service juridique, sans perdre de vue les règles du RGPD.

Notre conseil

Pour respecter les obligations du règlement sur l’intelligence artificielle à partir de février 2025, mieux vaut établir une politique en matière d’intelligence artificielle dès aujourd’hui. Les experts de Securex ont élaboré pour vous un modèle que vous pouvez obtenir en envoyant un e-mail à l’adresse suivante : consultinglegal@securex.be.

Intelligence artificielle pour le recrutement : la prudence et la transparence sont de mise

Systèmes interdits

Les systèmes d’intelligence artificielle présentant un risque inacceptable, c’est-à-dire des systèmes qui violent les droits européens fondamentaux, comme l’interdiction de la discrimination, sont proscrits, et ce également à partir du 2 février 2025. C’est la raison pour laquelle il n’est par exemple pas autorisé de sélectionner les candidats à l’aide de systèmes d’intelligence artificielle qui tentent de reconnaître les émotions sur la base des expressions faciales ou de l’intonation de la voix.

Systèmes à haut risque

La sélection de CV et de candidats ou la publication d’offres d’emploi avec un logiciel d’intelligence artificielle n’est pas interdite en tant que telle par l’Europe, mais elle entre dans la catégorie des risques élevés. À partir d’août 2026, des règles sévères seront introduites pour de tels systèmes.

Si vous utilisez ce type d’outils en tant qu’employeur, vous devez répondre à des exigences strictes et satisfaire à des obligations en matière de transparence afin de garantir que votre recrutement et votre sélection sont équitables, transparents et non discriminatoires. Les employeurs doivent entre autres garantir :

  • la transparence : les candidats doivent être informés que l’intelligence artificielle est utilisée pour la sélection de leur CV ;
  • la non-discrimination : les systèmes d’intelligence artificielle utilisés doivent être conçus, formés et testés de manière à ne pas prendre de décisions discriminatoires fondées, par exemple, sur l’âge, le sexe ou l’origine ;
  • le contrôle humain : un contrôle humain doit toujours être possible pour évaluer les décisions de l’intelligence artificielle et les rectifier si nécessaire.

Notre conseil

N’attendez pas l’introduction de règles plus strictes d’août 2026 et lancez-vous dès maintenant sur la voie de la transparence afin que les utilisateurs de vos outils sachent toujours quand ils ont affaire à un système d’intelligence artificielle.

Quelles sanctions les entreprises encourent-elles ?

Le règlement sur l’intelligence artificielle prévoit de lourdes amendes en cas d’infraction. L’amende administrative peut atteindre 35 millions d’euros si des systèmes d’intelligence artificielle interdits sont utilisés. Pour les entreprises, l’amende peut aller jusqu’à 7 % du chiffre d’affaires annuel mondial total de l’exercice précédent si ce montant est plus élevé.

Source