AI in de arbeidsrelatie: wat zijn de juridische risico's?

De opkomst en het toenemend gebruik van kunstmatige intelligentie (AI) rondom de arbeidsovereenkomst is een nieuwe technologische ontwikkeling op de arbeidsmarkt. Steeds meer werkgevers maken gebruik van AI bij het aannemen, beoordelen en soms zelfs ontslaan van werknemers.

Deze ontwikkeling biedt duidelijke voordelen: AI werkt efficiënt en lijkt op het eerste gezicht objectief. Tegelijkertijd brengt het juridische risico’s met zich mee. Als werkgever moet dan ook bewust met AI-toepassingen te werk gaan.

AI-toepassingen in de arbeidsrelatie

AI wordt in de arbeidsrelatie steeds vaker ingezet: bij de werving en selectie van nieuwe werknemers, het beoordelen van prestaties tijdens het dienstverband en in sommige gevallen zelfs bij ontslagbesluiten.

In sollicitatieprocedures maken organisaties bijvoorbeeld gebruik van chatbots die vragen stellen, systemen die sollicitatievideo’s analyseren of algoritmen die kandidaten automatisch rangschikken op basis van kenmerken van eerder succesvol aangenomen sollicitanten.

Ook tijdens het dienstverband wordt AI in toenemende mate toegepast. Werkgevers zetten systemen in om prestaties te meten en gedrag te analyseren, wat ook wel algoritmisch management wordt genoemd. AI kijkt bijvoorbeeld naar productiviteit, responstijden of andere werkgerelateerde gegevens en koppelt daar scores of zelfs beloningen aan.

Hoewel er in Nederland nog weinig voorbeelden zijn, kan AI ook worden ingezet bij ontslagbesluiten. Dit gebeurt bijvoorbeeld bij bedrijven waar AI-systemen afwijkend gedrag of lage prestaties signaleren en automatisch voorstellen doen voor maatregelen, zoals ontslag. In sommige internationale gevallen is dit zelfs gebeurd zonder menselijke beoordeling.

In Nederland speelde een zaak bij het hof Amsterdam waarin ABN AMRO een medewerker op staande voet ontsloeg na meldingen van ongebruikelijk gedrag door een AI-systeem. Na drie automatische waarschuwingen werd een intern onderzoek gestart, wat leidde tot ontslag van een werknemer met een dienstverband van 34 jaar. De kantonrechter wees het verzoek tot ontbinding in eerste aanleg af, maar het hof oordeelde dat het ontslag wel rechtsgeldig was. Volgens het hof had ABN AMRO het AI-systeem zodanig ingericht dat er geen sprake was van bewust risico op fouten.

Dergelijke toepassingen van AI kunnen een aanzienlijke tijdsbesparing opleveren en beloven objectiviteit bij de besluitvorming, maar brengen ook de nodige risico’s met zich mee.

 

Wat zijn de grootste juridische risico’s en hoe kunnen deze beperkt worden?

Uit een analyse van het gebruik van AI binnen de arbeidsrelatie blijkt dat zich twee grote risico’s voordoen:

  • Kans op discriminatie (ongelijke behandeling)
    AI kan onbedoeld bepaalde groepen benadelen. Dit kan komen door bias in het ontwerp van het model, bias in de keuze van kenmerken of bias in de trainingsdata. Een bekend voorbeeld deed zich voor bij Amazon, dat een AI-systeem ontwikkelde voor personeelswerving. Het algoritme gaf lagere scores aan cv’s waarin vrouwelijke termen voorkwamen, omdat het was getraind op historische gegevens waarin mannelijke sollicitanten oververtegenwoordigd waren. Uiteindelijk besloot Amazon het systeem stop te zetten.
  • Gebrek aan transparantie
    Vaak is onduidelijk hoe een algoritme precies werkt. Werkgevers kunnen niet altijd uitleggen op welke gronden een besluit is genomen. Dit kan voor procesrechtelijke problemen zorgen en maakt het moeilijk voor werknemers om besluiten aan te vechten.

Bovendien vermindert het toenemende gebruik van AI op de werkvloer de menselijke tussenkomst in de besluitvorming. AI-systemen houden niet altijd rekening met omstandigheden die prestaties beïnvloeden, de onderliggende beoordelingscriteria zijn niet altijd duidelijk en er is minder ruimte voor persoonlijke afweging of dialoog.

 

Wat kan de werkgever doen om deze risico's te beperken?

Werkgevers die AI inzetten bij werving, beoordeling of ontslag, doen er dan ook goed aan om zich bewust te zijn van deze risico’s en passende maatregelen te treffen om deze te beperken.

Mogelijke maatregelen ter voorkoming van discriminatie:

  • Toetsing op non-discriminatoire werking door interne of externe deskundigen;
  • Uitsluiting of neutralisering van risicovolle variabelen in de dataset;
  • Periodieke heranalyse van het systeem op discriminatie;
  • Controle op representativiteit van de trainingsdata.

 

Mogelijke maatregelen ter bevordering van transparantie:

  • Inzet van uitlegtechnieken om inzicht te geven in de besluitvorming, zoals:
    • Chain-of-thought prompting, waarbij het systeem stap voor stap toelicht hoe een besluit tot stand is gekomen;
    • Retrieval-augmented generation, waarbij het AI-systeem externe, relevante informatie zoals personeelsbeleid of cao-bepalingen verwerkt in de uiteindelijke uitleg, zodat besluiten worden onderbouwd met herkenbare bronnen die beter begrijpbaar zijn;
  • Inrichting van menselijke tussenkomst bij ingrijpende besluiten;
  • Voorafgaande en begrijpelijke informatieverstrekking aan werknemers over de werking, doeleinden en gevolgen van het systeem.

 

Voor verder advies over dit onderwerp kunt u contact met mij opnemen. Ik help u graag verder.