
Kunstmatige intelligentie of op z’n Engels AI is binnen werving en selectie bezig aan een opmars. Voorbeelden zijn er legio. Van games waarmee je zonder bias kandidaten selecteert tot computerprogramma’s die cv’s lezen en begrijpen. Met AI kun je vacatureteksten screenen op onbewuste voorkeuren en zo inclusiever maken. Je kunt verschillende databases aan elkaar knopen en daarmee kandidaten zoeken die anders buiten beeld zouden blijven.
Europese wetgeving
Systemen worden almaar slimmer. Ze leren op basis van data voorspellingen te doen of beslissingen te nemen. Dan bepaalt niet langer de recruiter of de HR-professional, maar het algoritme wie een vacature ziet, of welke kandidaat het beste uit de online test komt. Aan dat soort zelfstandig opererende systemen kleven gevaren. Om die reden is Europese wetgeving in de maak. Die gaat vooral over hoog-risicosystemen zoals luchtvaartapparatuur, maar ook systemen voor beoordeling en selectie vallen eronder.
Definitie van AI
AI-expert Evert Haasdijk werkt als senior manager bij Deloitte. Hij legt om te beginnen uit dat het begrip AI voor velerlei uitleg vatbaar is. ‘Een echte definitie is er niet. We plakken het op computerprogramma’s waarvan we veronderstellen dat er menselijke intelligentie bij nodig is. Maar dat verschuift. Toen ik begon met AI dertig jaar geleden vonden we een routeplanner kunstmatige intelligentie, nu allang niet meer.’
Bij HR is kunstmatige intelligentie vooral aan de orde bij matchen en selecteren, waarbij de algoritmes steeds slimmer en zelfstandiger worden. Die algoritmes snappen gaat volgen Haasdijk een brug te ver, maar je moet wel kritisch zijn.
Een model kan bias versterken
Partijen als LinkedIn claimen dat hun algoritmes sneller én onbevooroordeelder selecteren. Maar precies het tegenovergestelde kan ook gebeuren, weet Haasdijk. ‘Je haalt de vooroordelen van de recruiters eruit. Maar de vraag is welke je ervoor terugkrijgt.’
Een van de risico’s van selecteren met AI is dat je veronderstellingen die je er onbewust instopt dubbel en dwars terugkrijgt, legt hij uit. ‘Computersystemen leren namelijk om beslissingen te nemen op basis van datapatronen uit het verleden.’ Hij wijst op het bekende voorbeeld van Amazon, met veel techfuncties, waar vooral mannen werken. Hun recruitingsysteem wierf kandidaten op basis van succesvolle medewerkers die er al werkten. Het zocht daarom uitsluitend naar mannen. Het systeem gooide alle vrouwen bij voorbaat uit de selectie. ‘Die bias kun je corrigeren, maar je moet daar wel alert op zijn.’
Een model maakt altijd fouten
We verwachten van een computersysteem feilloosheid. Van de computer staan we minder fouten toe dan van mensen. Dat is een verkeerde verwachting, zegt Haasdijk. ‘Hoe goed een model ook is, geen enkele tool of systeem is 100% betrouwbaar. Je moet dus rekening houden met fouten. Het risico is bovendien dat als er bijvoorbeeld bias insluipt, dat die structureel wordt wanneer de technologie opschaalt.’
Een systeem mag niet leiden tot hardvochtigheid
Bij de invoering van AI is het volgens Haasdijk essentieel om de keuzes zorgvuldig af te wegen, zeker in combinatie met de kans op fouten. ‘Denk aan de toeslagenaffaire. Nog even los van hoe de risicobeoordeling is gegaan; het echte probleem is geweest dat de maatregelen te hardvochtig zijn doorgevoerd. Je moet een systeem zo inrichten dat je fouten altijd soepel en snel kunt oplossen.’
Menselijke beoordeling blijft altijd nodig
De input van mensen blijft in elk systeem belangrijk, vervolgt hij. ‘Al was het maar omdat computers niet goed raad weten met afwijkingen. Bij afwijkende situaties of uitzonderingen wil je mensen de mogelijkheid geven hun verhaal te doen. Daarvoor blijft menselijke tussenkomst nodig.’ Dat is overigens ook een verplichting vanuit de EU. Selectie van werknemers mag nooit volledig gebeuren door automatisering.
Controleer hoe het wervingssysteem werkt
‘Meestal koop je als HR dat soort systemen in of je gaat in zee met een werving- en selectiebureau of een partij als LinkedIn. Laat je overtuigen dat het model netjes is. Vraag of er onderzoek is gedaan naar bias. Je kunt als eis stellen dat deze advertentie zo gelijk mogelijk wordt aangeboden. De Europese regelgeving die er nu aankomt, stelt dit soort eisen. Die leggen de verantwoordelijkheid voor een systeem bij de gebruiker, dus het bedrijf dat LinkedIn inhuurt bijvoorbeeld.’
Denk na over wat je vastlegt en hoe
Als je als bedrijf werkt met AI, is het technisch gezien makkelijk om een model te controleren op bias, volgens Haasdijk. ‘Het probleem zit ‘m erin dat je niet altijd voldoende gegevens hebt vastgelegd om dat te kunnen checken. Als je bijvoorbeeld wil weten of een systeem onderscheid maakt naar mannen of vrouwen, moet je de gender wel hebben vastgelegd. Meestal is dat bij gender niet zo’n probleem. Bij kenmerken als seksuele voorkeur of religie ligt dat anders. Die leg je normaal gesproken nooit vast in personeelssystemen. Daarop kun je dan vervolgens ook niet controleren. Gelukkig worden de methodes steeds beter om gevoelige data te onderzoeken zonder de data zelf vast te leggen.’
Checklist voor HR-professionals
Een systeem gebaseerd op AI dient inzichtbaar, controleerbaar en systematisch te zijn. Maar hoe controleer je dat als werkgever? Hoe kun je uitsluiting en discriminatie als HR-professional voorkomen? Het College van de Rechten van de Mens heeft een checklist gemaakt. Belangrijke punten om op te letten zijn:
- Verspreid vacatures via meerdere kanalen.
- Verifieer wat verschillende kanalen opleveren aan (diversiteit van) kandidaten.
- Wees je ervan bewust dat zelf actief zoeken naar kandidaten via online platforms ook kan leiden tot (onbewuste) uitsluiting van kandidaten.
- Wees kritisch bij gericht online adverteren.
De volledige checklist, met aandachtspunten voor werkgevers die algoritmes willen inzetten om nieuwe mensen te werven en te selecteren, kun je hier>> downloaden
Lees hier meer artikelen in het thema Werving en selectie.
Bron: Shutterstock