Samengevat verlangt de EU sinds deze maand een proactieve houding van werkgevers rond AI-gebruik in hun organisatie. Dat betekent vooreerst dat je jouw medewerkers moet opleiden over AI, zodat ze begrijpen hoe het werkt en hoe ze het verantwoord kunnen gebruiken.
Verder is het belangrijk om een duidelijk AI-beleid op te stellen ten aanzien van jouw medewerkers. Hierin moet staan welke AI-systemen ze voor het werk mogen gebruiken, op welke manier ze mogen gebruikt worden, en hoe hun AI-geletterheid actueel wordt gehouden.
Vier AI-risiconiveaus
De AI-verordening (in het Engels: AI Act) legt regels op aan alle organisaties die AI-systemen gebruiken, ontwikkelen of op de markt brengen binnen de Europese Unie. Voor jou als werkgever is vooral belangrijk: zodra je medewerkers al tools als ChatGPT, Claude, Gemini of Copilot gebruiken voor hun werk, beschouwt de wet jou als “gebruiksverantwoordelijke”. Je moet dan aan bepaalde verplichtingen voldoen.
Voor we inzoomen op de verplichtingen, is het belangrijk om te weten dat de AI Act vier risiconiveaus definieert:
- Minimaal risico: De meeste AI-systemen, zoals spamfilters en AI-videogames, vallen niet onder de verordening. Bedrijven kunnen echter vrijwillig extra gedragscodes opstellen.
- Beperkt risico: Systemen zoals AI-chatbots moeten gebruikers informeren dat ze met een machine communiceren, en AI-gegenereerde inhoud moet duidelijk als zodanig worden aangeduid.
- Hoog risico: AI-systemen met een hoog risico, zoals medische AI-software of AI-systemen voor werving, moeten voldoen aan strikte eisen zoals risicobeperking, monitoring, datasets van hoge kwaliteit, duidelijke gebruikersinformatie en menselijk toezicht.
- Onaanvaardbaar risico: AI-systemen die een bedreiging vormen voor de mensenrechten zijn verboden. Denk aan systemen die ‘sociale scoring’ door de overheid of bedrijven mogelijk maken.
Investeer in AI-geletterdheid
Sinds 2 februari 2025 moet je zorgen dat al je medewerkers – niet alleen je vaste werknemers, maar ook je freelancers en uitzendkrachten – die AI-systemen gebruiken, voldoende kennis hebben van AI.
Wat 'voldoende' precies betekent, hangt af van de situatie. Iemand die intensief met AI werkt, moet er meer van weten dan iemand die het af en toe gebruikt. Ook de impact op anderen speelt een rol: gebruikt iemand AI met een mogelijke impact voor klanten of collega's? Dan moet diegene goed begrijpen hoe het systeem werkt en wat de gevolgen kunnen zijn.
Onze tip
Investeer in opleidingen voor je team, waarin men leert om AI verantwoord en effectief te gebruiken in het dagelijkse werk. Maak daarbij onderscheid tussen verschillende functies: niet iedereen hoeft alles te weten, maar iedereen moet wel weten wat belangrijk is voor hun rol en de tools die ze gebruiken.
Stel een intern AI-beleid op
Om tegemoet te komen aan je verplichtingrond AI-geletterheid, kan je best een AI-beleid uitwerken voor je organisatie. Daarin neem je dan duidelijke richtlijnen op, zoals:
- Wie mag welke AI-toepassingen gebruiken binnen de organisatie?
- Hoe zorgt je organisatie ervoor dat alle medewerkers voldoende AI-geletterd blijven bij nieuwe ontwikkelingen of veranderingen aan tools?
- Hoe wordt de AI-geletterheid gewaarborgd als werknemers van functie veranderen?
Het is belangrijk om duidelijk te maken wie waarvoor verantwoordelijk is en om goed samen te werken met de IT-afdeling, de juridische afdeling en de GDPR-regels niet uit het oog te verliezen.
Onze tip
Om in orde te zijn met de verplichtingen van de AI Act sinds februari 2025, stel je best vandaag nog een AI-beleid op. Onze Securex-experts hebben een model voor jou uitgewerkt, dat je kan verkrijgen via een e-mail naar consultinglegal@securex.be.
AI bij sollicitaties? Wees voorzichtig en transparant
Verboden systemen
AI-systemen met een onaanvaardbaar risico zijn verboden, ook met ingang van 2 februari 2025. Het gaat om systemen die de Europese grondrechten schenden, zoals het verbod op discriminatie. Om die reden is het bijvoorbeeld verboden om sollicitanten te screenen met AI-systemen die emoties proberen te herkennen op basis van gezichtsuitdrukkingen of stemintonatie.
Systemen met een hoog risico
Het screenen van cv’s en kandidaten of het plaatsen van vacatures met AI-software werd niet als dusdanig verboden door Europa, maar valt wel onder de categorie ‘hoog risico’. Vanaf augustus 2026 komen er strenge regels voor dit soort systemen.
Maak je van dit soort tools gebruik als werkgever? Dan moet je voldoen aan strenge eisen en transparantieverplichtingen, om ervoor te zorgen dat je werving en selectie eerlijk, transparant en niet-discriminerend verloopt. Werkgevers moeten onder meer zorgen voor:
- Transparantie: Kandidaten moeten geïnformeerd worden dat AI wordt gebruikt bij het screenen van hun cv's.
- Non-discriminatie: De gebruikte AI-systemen moeten zo ontworpen, getraind en getest zijn dat ze geen discriminerende beslissingen nemen op basis van bijvoorbeeld leeftijd, geslacht, of afkomst.
- Menselijk toezicht: Er moet altijd een menselijke controle mogelijk zijn om de beslissingen van de AI te beoordelen en te corrigeren indien nodig.
Onze tip
Wacht niet op de strengere regels vanaf augustus 2026, maar zet nu al in op transparantie. Zo weten gebruikers van jouw tools altijd wanneer ze met een AI-systeem te maken hebben.
Welke sancties riskeren bedrijven?
De AI Act koppelt zware boetes aan overtredingen. Bij gebruik van verboden AI-systemen kan de administratieve boete tot 35 miljoen euro bedragen. Voor bedrijven kan de boete zelfs oplopen tot 7% van de totale wereldwijde jaaromzet van het voorgaande boekjaar, als dat bedrag hoger is.
Bron