Lees verder
Niessen, Meijer en Neumann (2019) leveren kritiek op de werkwijze van selectiepsychologen. Deze (en clinici) zouden zichzelf nog steeds superieur achten in het stellen van diagnosen (bezwaar 1) en ze zouden hun heil zoeken in een overdaad aan irrelevante informatie waardoor hun voorspellingen eerder slechter dan beter worden (bezwaar 2). Wim Bloemers legt uit dat Niessen et al. een verkeerd en te beperkt beeld hebben van de assessmentpraktijk –Bloemers spreekt liever van assessmentpsychologen dan van selectiepsychologen. Zij houden geen rekening met de principiële ontoereikendheid van machinale principes bij zoiets als het bepalen van ‘menselijke kwaliteit’ (Hofstee, 1985) en negeren het krachtenveld van de alledaagse praxis van de assessmentpsycholoog. Ten slotte geeft Bloemers een aantal voorzetten hoe de A&O-psychologie tot betere assessmentbeslissingen kan komen, iets waarmee vooral de samenleving gebaat is. Niessen en collega’s dienen hem van repliek.
Wim Bloemers, Susan Niessen

Formules niet allesbepalend

De kern van het eerste bezwaar van Niessen et al. (2019) is dat de assessmentpsycholoog op basis van een aantal instrumentuitslagen zelf tot een beslissing voorspelling komt over een kandidaat. Dat is inderdaad de gangbare situatie als iemand een (uitgebreid) assessment doet.1 Het betreft hier de klassieke vorm van klinische predictie, in tegenstelling tot een mechanische voorspelling gebaseerd op een (multiple) regressievergelijking. En voor individuele assessments is die ‘klinische’ uitkomst ook allang bekend, die ligt rond de .35 (Schmidt & Hunter, 1998; Schmidt, Oh & Shaffer, 2016). Dat is namelijk de uitkomst van de predictieve validiteit van een individuele assessment center procedure. Die validiteit is trouwens een stuk lager dan de predictieve validiteit van toepassing van een enkele intelligentietest, die is al rond de .65 (Schmidt, Oh & Shaffer, Ibid.). Doe je er relevante dimensies van een goede persoonlijkheidsvragenlijst bij, dan komt de .80 in zicht (ibid.).

Je betaalt bij een uitgebreid individueel assessmentcenter-procedure een paar duizend euro meer voor allerlei toeters en bellen en je krijgt in psychometrisch opzicht veel minder

Vreemd toch, je betaalt bij een uitgebreid individueel assessmentcenter- procedure een paar duizend euro meer voor allerlei toeters en bellen en je krijgt in psychometrisch opzicht veel minder. Hoe dat kan? Wel, we zitten nu volop in het vaarwater van Niessen et.al. In veel individuele assessments worden zogenaamde tailor made dingen gedaan met kandidaten, en die zijn erg duur (competentie-onderzoek), naast het feit dat ze vaak irrelevant zijn en veel overlap vertonen. Soms worden er geen cognitieve tests gebruikt, vooral niet bij hogere en topkader-functies. De keuze voor in te zetten methoden en instrumenten wordt dan vooral bepaald door status en macht, ook die van kandidaten en door de situatie op de arbeidsmarkt.

Dan is er de bekende wash up, waar meerdere HR-managers, eventueel onder begeleiding van een psycholoog, samen tot een eindoordeel komen (Overal Assessment Rating). Ook bij zo’n discussie kunnen allerlei irrelevante belangen een rol spelen omdat managers zo hun eigen voorkeuren hebben voor bepaalde kandidaten. Al deze tailor made contaminerende rituelen kosten heel veel geld (uren) en verlagen de predictieve validiteit met zo’n 50%. Leuk toch? Maar ja, dat wisten we al sinds 1998. En dat weten assessmentpsychologen ook, is mijn standpunt. Zie ook Latham & Whyte (1994) en Rynes, Colbert & Brown (2002) over de problemen om het bedrijfsleven tot een meer effectievere vorm van selectie te krijgen.

Waardoor komt het dat de gemiddelde ZZP-assessment-psycholoog zoveel mogelijk probeert zichzelf in te schakelen door middel van al deze tailor made toevoegingen bij selectie en assessmentprocedures? Niet door de vermeende eigen A&O-superioriteit zoals Niessen c.s. volgens mij suggereren. Psychologen zijn over het algemeen juist veel te bescheiden. Ze houden in principe niet van manipuleren en marchanderen. Psychologen willen in het algemeen mensen helpen autonoom te worden. Weleens een psycholoog in de politiek gezien? Maar je moet jezelf als A&O-psycholoog wel verkopen in een markt die vooral uit gunnen bestaat. Dat betekent dat je met de eisen van een opdrachtgever te maken hebt, en dat het tijd kost om opdrachtgevers op een verantwoord spoor te krijgen. Niessen et. al. hebben met hun eerste bezwaar formeel een punt, maar het is een kunstmatig aandoend argument wat geen recht doet aan de praxis van het werk van assessmentpsychologen. Zij testen een auto op de psychometrische rollerbank en gebruiken die uitkomst als overkoepelend kwaliteitsoordeel, maar ze vergeten dat auto’s hun ecologische waarde pas krijgen bij daadwerkelijke aanschaf en gebruik in het verkeer. En dan heb je te maken met een veelheid aan variabelen waarvan technische kwaliteit er één is.

Daarnaast kunnen assessments misschien nog rationeler (goedkoper) worden ingekleed, al zijn we met de web-based-toepassingen in dat opzicht al vergevorderd. Maar je moet je afvragen of een instrumentele assessmentindustrie, waarin mensen uitsluitend worden beoordeeld door een formule, een wenselijke situatie is. Van belang is dat een assessment fair en uitdagend is, en dat opdrachtgevers en kandidaten er iets van kunnen leren. Daarvoor blijven psychologen onmisbaar. Enerzijds als gesprekspartner voor de beslissers om te onderzoeken wat de toegevoegde waarde (kwaliteit) van een kandidaat is voor een organisatie (zie Hofstee, 1985). Volgens Hofstee moet de kwaliteit van een kandidaat bepaald worden door een panel van beoordelaars, en dus niet door een regressieformule. Alleen een panel van beoordelaars is in staat om verantwoorde beslissingen te nemen die te maken hebben met de toekomst van een organisatie (ibid., p.469). Als compromis kun je bij selectie dus in eerste instantie een regressieformule hanteren, maar voor de eindbeslissing blijft klinische inbreng van menselijke beoordelaars noodzakelijk.

Anderzijds is diezelfde ‘klinische’ inbreng ook noodzakelijk voor de toekomst van de kandidaat. Terugkoppeling van de uitkomst van een assessmentprocedure zou moeten gebeuren middels een loopbaanadviesgesprek met een psycholoog, zodat kandidaten iets kunnen leren van de assessmentuitkomsten. Dat alles kost geld, ja. Maar wat voor samenleving willen we uiteindelijk? Iedereen kan een geautomatiseerde test of vragenlijst afnemen, maar lang niet iedereen is bijvoorbeeld in staat te bepalen met wat voor medewerkers een organisatie werkelijk gebaat is. En slechts weinigen zijn vervolgens in staat een goed (gestructureerd) interview te houden of een zinnig adviesgesprek te voeren waardoor mensen hun autonomie kunnen vergroten. In dit soort gevallen blijft klinische inbreng van psychologen noodzakelijk. Vergelijk dit bijvoorbeeld ook met de situatie in het onderwijs, waar een combinatie van cijfers en het oordeel van de leerkracht vaak de beste voorspelling leveren (Lek & Van der Schoot, 2019). Kortom, formules zijn nuttig, maar ze moeten niet allesbepalend worden en daar waar het om ‘kwaliteit’ gaat kunnen ze zelfs schadelijk zijn en doen ze geen recht aan de ‘werkelijke’ criteria die op het spel staan: de toekomst van organisaties en kandidaten (Hofstee, ibid.).

Sociale aanpak

Het tweede bezwaar van Niessen c.s. – de neiging om veel (irrelevante) informatie te zoeken om een beslissing te kunnen nemen – is zeker voor A&O-psychologen die opgegroeid zijn met het hypothese- toetsend model (De Bruyn et al., 2003) bekend terrein. Maar ook hier is het marktwerking en het geloof van de opdrachtgever in situationele specificiteit die leiden tot gebruik van ‘unieke’ competenties. Daardoor ontstaat zeer veel afhankelijke contaminerende informatie in een assessmentprocedure. Een goede en simpele Big Five-vragenlijst moet van de opdrachtgever vaak worden vertaald in tientallen zogenaamd praktische en overlappende competenties. Assessmentpsychologen weten dat je bij voorkeur meerdere en vooral onafhankelijke predictoren moet inzetten. Anders voeg je weinig tot niets toe en krijg je suppressor-effecten.

Weleens een psycholoog in de politiek gezien?

Het feit dat er (nog steeds) beslissingen genomen worden waarbij irrelevante info wordt gebruikt, is in de A&O-psychologie vooral een businesspraxis gegeven, iets waar je in eerste instantie met een opdrachtgever niet onderuit kunt. Het heeft niets met domheid of onwetendheid of zelfoverschatting te maken, zoals Niessen c.s. suggereren. Met verhalen over predictieve validiteit en rendement bereik je weinig bij een opdrachtgever (Latham & Whyte, 1994; Rynes, Colbert & Brown, 2002). Opdrachtgevers willen bijna altijd een speciale aanpak die recht doet aan hun wensen en de zogenaamde unieke situatie in hun bedrijf (Schmidt & Hunter, 1977). Daarbij zijn ze in hoge mate beïnvloedbaar en gevoelig voor trends als ‘serious games’. Het kost nu eenmaal tijd om mensen van hun overtuiging af te brengen, richting ‘kwaliteit’. Veel adviesbureaus hanteren eigen competentiematrixen, waarbij een opdrachtgever kan aangeven wat het beste strookt met zijn of haar wensen. U vraagt, wij draaien – en dus veel overleg. Ondernemers of managers mogen zelf ook meedoen in het assessmentproces, want ze moeten wel het idee hebben dat ze zelf in control zijn (zie ook Hofstee, 1985, p. 469; vgl. Niessen et al., 2019, p.54). Daar gaat de potentiële validiteitswinst.

Vacuümpsychometrie

Hoe erg is dit alles? Zijn sommige assessmentbureaus inderdaad ‘onethisch’ omdat ze suboptimale methoden blijven gebruiken tegen beter weten in, zoals Niessen et.al. beweren, geïnspireerd door Dawes (2005)? Ja, in een aantal gevallen wel. Al is het de vraag of de visie van Niessen et al. op dit punt consistent is, daar hun selectievisie zelf aanvechtbaar is. Maar het kost tijd om opdrachtgevers zover te krijgen dat ze vanuit wetenschappelijk en menselijk oogpunt een ‘ideale’ procedure willen gebruiken – vooropgesteld dat de wetenschap het eens is over wat een ‘ideale’ procedure inhoudt. Daar zijn naast wetenschappelijke, ook maatschappelijke en politieke krachten voor nodig. Verregaande instrumentalisering en medicalisering liggen voortdurend op de loer, zoals het gebruik van serious games, gebruik van DNA en gezichtsexpressiekenmerken en gebruik van web-data van kandidaten (Chamorro-Premuzic et al., 2016). Een gerenommeerd bureau probeert momenteel goede sier te maken met de ontwikkeling van een interviewrobot. Tip: gebruik een panel van robot-beoordelaars en kijk of er iets ontstaat in de richting van werkelijk kwalitatief waardevolle output door middel van double en triple loop learning! (Van Doorn & Lingsma, 2017).

Ik ken echter geen assessmentpsycholoog die in de eerste trap van een selectieprocedure geen gebruik maakt van een intelligentietest en iets van een Big Five- of Big Six-vragenlijst (bijv. Ryan et al., 2015), ook al wordt dat soms niet expliciet aangegeven. Hofstee (1985, p. 470) maakte dit punt al veel eerder, en hij pleitte ervoor om objectieve selectoren als marginale, primaire screeningsinstrumenten te gebruiken. De ‘ware’ validiteit wordt gedekt door een klinische procedure, waarbij een panel van experts tot overeenstemming komt over de mogelijke bijdrage van een kandidaat aan een organisatie. In termen van Hofstee begint hier pas de echte diagnostiek, gericht op het klinisch bepalen van de meerwaarde van een kandidaat voor een organisatie – iets wat volgens Hofstee per definitie niet te formaliseren valt.

Juist dat inzicht in het combineren van psychometrische en klinische procedures ontbreekt bij Niesen c.s. door hun eenzijdige objectief-psychometrische benadering van de assessmentpraktijk. Onder het kopje ‘Er is meer dan validiteit’ (p.52) worden alleen mogelijke spurieuze instrumenten genoemd en het belang van autonomie bij psychologen om ze in psychometrisch opzicht over de streep te trekken. Zaken als marktwerking en machtsfactoren, de realiteit van de dagelijkse assessmentpraxis, autonomie en belangen van opdrachtgevers en kandidaten, dat alles ontbreekt bij Niessen et al. (2019). Hun artikel neigt daardoor te veel naar vacuümpsychometrie, die voorbijgaat aan de werkzame krachten in de assessmentpraxis en de noodzaak van menselijke inbreng om vernieuwend en verrassend te kunnen zijn. Het zal de weerstand tegen het toepassen van meer valide psychometrische procedures eerder vergroten, vrees ik, dan verkleinen.

Adviezen

Wat kan de A&O-psychologie daadwerkelijk doen? Laat zij zien dat zij begrijpt waar de problemen liggen? In een zichzelf respecterende samenleving is zonder verstehen geen erklären helaas. Ik heb hier eerder in ‘De assessmentpsycholoog als nowhere man’ (Bloemers, 2019) al een voorzet voor gegeven.

  • Bedrijven en organisaties zouden veel beter moeten worden voorgelicht over allerlei aspecten, werking en gevolgen van assessments. Zorg dat je precies weet waar je als A&O’er voor ingehuurd wordt en waaraan je je medewerking gaat verlenen (fase 1 van de diagnostische cyclus). Zo voorkom je ethisch dubieuze praktijken. Ethiek is tegenwoordig een standaard onderdeel van veel diagnostiekcursussen. Maak daar een zwaartepunt van. En als je een deel van je ‘harde’ validiteitswerk over laat aan geautomatiseerde procedures, kun je via consultancy-activiteiten jezelf als assessmentpsycholoog veel nuttiger maken. Het is ook veel leuker om adviseur te zijn dan selecteur.
  • Zorg voor betere scholing van HRM-mensen en lijnmanagers als het gaat om aspecten en opbrengsten van selectieprocedures. Die laten zich nu vaak inpakken door allerlei colporteurs en bedriegers met ik weet niet wat voor achterlijke verkooppraatjes. Laat zien waar de winst van een meer wetenschappelijke aanpak ligt, niet alleen voor de business maar ook psychometrisch en maatschappelijk. Waarschuw voor hypes en gadgets als serious games (Chamorro-Premuzic, Winsborough et al. 2016) die nog niet onderzocht zijn, maar waarbij iedereen bang is de boot te missen en die gebruikt worden voor preselectie (‘Als Unilever het doet kunnen wij niet achterblijven’). Ontwikkel een gedragscode voor het gebruik van Big Data bij assessments.
  • In het verlengde hiervan moet bijvoorbeeld ook de COTAN de marketing-mentaliteit van bureaus bij assessments en assessmentinstrumenten harder aanpakken. Publiceer niet alleen de scores van instrumenten op de zeven criteria, maar geef gewoon een duidelijk gebruiksadvies: mag een instrument vanuit oogpunt van valide, respectvolle en faire selectie wel/niet gebruikt worden? Geef ook aan wat er moet gebeuren om het instrument wel acceptabel te maken. Geef een overzicht van en oordeel over (het gebruik van) serious games.
  • Focus als A&O meer op de cultuur binnen organisaties, in plaats van alle problemen met selectie te willen oplossen. Feedback is een belangrijk middel voor gedragsverandering; zorg dat in een organisatiecultuur ook feedback gegeven kan worden en dat mensen er open voor staan. Minimaliseer machtsverschillen en stel desnoods onafhankelijke ‘adviseurs’ in voor zaken als onethisch gedrag van wie dan ook, A&O-adviseurs die een mandaat hebben. Er zou bijvoorbeeld een nationaal fonds kunnen komen van waaruit deze adviseurs betaald worden om ze onafhankelijk te houden. Alleen door onafhankelijkheid kun je onethisch gedrag minimaliseren. Vertrouwenspersonen zijn leuk om bij uit te huilen, maar ze veranderen niets binnen een organisatie.
  • Focus vooral ook op hoger management en eventueel zelfs op politici. Vooral op hoge posities kan een verkeerde kandidaat heel veel schade aanrichten. Voorbeelden bij de Nationale Politie en uit de politiek te over. Dus focus op intelligentie, integriteit en/of consciëntieusheid als objectieve en psychometrisch verantwoorde voorselectie-indicatoren. Geen recruiters en headhunters de markt laten afromen. Geen serious games. Democratiseren en een professioneel assessment er tegenaan gooien. Heldere en faire eisen formuleren. Met op het einde een panel van beoordelaars/psychologen, of tenminste op de achtergrond. Als een kandidaat te veel eisen gaat stellen weet je meteen dat die niet integer genoeg is. En als potentiële ‘big shots’ niet willen inzien dat ze iets kunnen leren van een goed uitgevoerd assessment, en vluchten in externalisering, dan zijn ze per definitie niet in staat om goed leiding te geven. En laat ze ook verplicht dat discriminatierollenspel doen.
  • Ga van selectie naar advies; dan maak je van een selectieassessment een loopbanadvies en voorkom je louter instrumentaliteit. Zo blijft contact met het kwaliteitscriterium gewaarborgd. Zorg dat kandidaten altijd iets kunnen leren uit een selectietraject, het moet geen toets zijn maar een middel tot inzicht. Leg veel meer verant- woordelijkheid bij de kandidaat en wijs op het belang van zelfselectie. Als je voorselectie als organisatie goed werkt (Realistic Job Preview), is verdere selectie veelal overbodig: je krijgt voornamelijk geïnteresseerde en gemotiveerde kandidaten. Wees realistisch, open en fair in je benadering van kandidaten; zorg dat je werving alle mogelijke geïnteresseerden ook daadwerkelijk bereikt. Neem kandidaten vooral serieus: what you give is what you get. En werkt het allemaal toch niet, dan kun je altijd nog open hiring tot algemeen principe verheffen.

Vertrouwenspersonen zijn leuk om bij uit te huilen, maar ze veranderen niets binnen een organisatie

Tot besluit

Als we kijken naar het artikel van Niessen et al. (2019), en de bijdragen op het recente COTAN jubileumcongres, dan valt er weinig te vieren maar nog heel veel te leren. De conclusie dat als we het beter kunnen we het ook beter moeten doen, geldt dan niet alleen voor het inrichten van selectieprocedures, maar vooral ook voor de fase die daaraan voorafgaat (assessmentpraxis) en voor het begeleiden van kandidaten in die procedures. In alle gevallen gaat het om het scheppen van een kwalitatief hoogwaardig en humaan toekomstperspectief. En daarvoor is het menselijk oordeel onontbeerlijk.


Reactie

Meer misverstanden over selectie

Leuk een reactie te ontvangen van een collega met een achtergrond in de praktijk. Hoewel we het over een aantal zaken eens zijn, vinden we het jammer om ook weer een aantal veelvoorkomende misvattingen te lezen. Laten we beginnen met de overeenkomsten. Bloemers (2020) begint met een bespreking van bevindingen waaruit inderdaad blijkt dat de gangbare praktijk van holistische ‘individuele assessments’ zelfs een lagere validiteit oplevert dan het gebruik van een enkele test (zie ook Morris et al., 2015). Ook stelt hij, net als wij, voor om, als compromis tussen een mechanische en holistische aanpak, te beginnen met een formule maar de klinische blik aan het einde toch een rol te geven. Het ontbreekt ons dus ook niet aan inzicht in de mogelijke manieren waarop de mechanische en de klinische benadering gecombineerd kunnen worden. Daarnaast stelt hij, net als wij, voor om de kennis over dit onderwerp te vergroten, om de meerwaarde van goede selectie te laten zien (echter zonder erop in te gaan hoe dat zou kunnen) en ziet hij hier ook een belangrijke rol voor professionele organisaties zoals de COTAN en het NIP. Onder dankzegging van deze steunbetuigingen dan nu de misvattingen in het stuk van Bloemers.

Misverstand 1: Noodzaak van de klinische blik

Bloemers stelt dat mechanische procedures principieel ontoereikend zijn voor het bepalen van menselijke kwaliteit. Een panel van menselijke beoordelaars zou dat wel kunnen (op holistische wijze, nemen wij aan). Als onderbouwing wordt een artikel van Hofstee (1985) aangehaald. Daarover kunnen we kort zijn: Hofstee heeft ongelijk. Hofstee baseert zijn stelling op een rekenvoorbeeld waarin hij een hypothetisch ongestructureerd interview vergelijkt met een hypothetische gestandaardiseerde test. Dit rekenvoorbeeld is destijds al zorgvuldig bekritiseerd door Sijtsma et al. (1987). Bovendien haalt Hofstee hiermee de manier waarop informatie wordt verzameld (een interview of test) en de manier waarop informatie wordt gecombineerd (holistisch of mechanisch) door elkaar: testscores kunnen holistisch gebruikt worden en ook bij mechanische procedures kunnen beoordelingen uit een (gestructureerd) interview worden meegenomen (zie Meijer et al., 2020). Hofstee levert verder geen empirische onderbouwing voor de superioriteit van holistische beslissingen gemaakt door een panel van menselijke beoordelaars en spreekt zichzelf tegen in de theoretische onderbouwing daarvan (zie Sijtsma et al., 1987). Intussen is bovendien onderzoek beschikbaar dat de stelling van Hofstee ontkracht; beoordelingen op basis van dergelijke panelbesprekingen hebben een lagere validiteit dan beoordelingen op basis van een simpele formule met gelijke gewichten voor de verschillende relevant geachte componenten (Arthur et al., 2003; Dilchert & Ones, 2009; Highhouse & Brooks, 2017). Verder definieert Bloemers menselijke kwaliteit als de toegevoegde waarde van een kandidaat voor de organisatie. Hoewel dat momenteel aan het veranderen is (bijv. Chiaburu et al., 2011; Sackett et al., 2017), is het inderdaad zo dat onderzoek naar predictieve validiteit te sterk gericht is op het voorspellen van technische kwaliteiten (task performance in de literatuur). Daaruit volgt echter niet dat mechanische procedures bij uitstek geschikt zijn voor het voorspellen van technische kwaliteiten, terwijl het holistisch oordeel geschikter zou zijn voor het voorspellen van bredere maar abstractere zaken zoals ‘toegevoegde waarde’. Ten eerste bestaat voor een dergelijke conclusie geen enkele evidentie. Ten tweede is dit hoogst onwaarschijnlijk, gezien de mechanismen die ten grondslag liggen aan de betere voorspellende waarde van mechanische procedures (vergeleken met het holistisch oordeel): het inconsistent en inaccuraat wegen van informatie (Karelaia & Hogharth, 2008). Er is geen enkele reden om aan te nemen dat menselijke beoordelaars niet inconsistent en inaccuraat zouden wegen als zij bredere en abstractere uitkomsten voorspellen, of dat inconsistent en inaccuraat wegen in dat geval geen probleem zouden vormen.

Misverstand 2: Verklaringen voor de kloof tussen praktijk en wetenschap

Bloemers stelt dat we in het zoeken naar een verklaring voor het gat tussen wetenschap en praktijk te weinig oog hebben gehad voor de selectiepraxis. In onze verklaring besteedden we vooral aandacht aan het vertrouwen van professionals in hun eigen beoordelingsvermogen, de behoefte aan autonomie, en een gebrek aan kennis over dit onderwerp (de term ‘domheid’, zoals gebruikt door Bloemers, hebben wij niet gebezigd). Onze verklaringen worden ondersteund door empirisch onderzoek (Dietvorst et al., 2018; Kausel et al., 2016; Lievens et al., 2005; Nolan & Highhouse, 2014; Sieck & Arkes, 2005). Bloemers stelt daartegenover dat de verklaring vooral te vinden is in de wensen van opdrachtgevers, die nu eenmaal vaak om bepaalde (niet evidencebased) zaken vragen. Dat past goed bij onze veronderstelling dat er in de praktijk meer is dat ertoe doet dan validiteit. Bloemers schetst echter een beeld waarin assessmentpsychologen voornamelijk een ‘u vraagt, wij draaien-mentaliteit’ hanteren, waarin psychologen wel ‘beter’ weten, maar daar omwille van de commercie niet naar handelen. We onderkennen dat de aansluiting bij de wensen van opdrachtgevers vaak niet gemakkelijk is (zie ook Nolan et al., 2016), maar hopen en gaan ervan uit dat de weergave van Bloemers geen recht doet aan de houding van de meeste assessmentpsychologen. Als dit wel zo zou zijn, is dit het failliet van de assessmentpsychologie als toegepaste wetenschappelijke discipline. Wel is de aansluiting bij de wensen van opdrachtgevers een duidelijk voorbeeld van een knelpunt waar de praktijk en de wetenschap samen oorzaken en oplossingen voor kunnen onderzoeken.

Misverstand 3: De rol van bescheidenheid

We zijn het met Bloemers eens dat bescheidenheid van psychologen waarschijnlijk een rol speelt in het bestaan van de kloof tussen wetenschap en praktijk. Onzes inziens zijn we als psychologen echter vaak bescheiden over de verkeerde dingen (zie ook Drenth, 2008). We zijn vaak erg bescheiden over de bruikbaarheid van instrumenten die we als vakgebied hebben ontwikkeld, zoals psychologische tests en beslisprocedures. Veel psychologen laten geen gelegenheid voorbijgaan om de imperfecte betrouwbaarheid en validiteit van deze instrumenten te benoemen. Die kritische houding is op zichzelf positief en motiveert ons om onze instrumenten doorlopend te verbeteren. Daar staat tegenover dat we ook wel wat meer aandacht mogen besteden aan wat we wel kunnen met deze instrumenten, zeker in vergelijking met het alternatief van holistische indrukken en ‘gut feelings’. Tegelijkertijd zien we zelden een dergelijke mate van bescheidenheid als het aankomt op ons eigen beoordelingsvermogen. Juist daarover zouden we wel wat bescheidener mogen zijn. De twee voorbeelden die Bloemers aanhaalt in zijn aanbevelingen (veeleisende kandidaten zijn niet integer genoeg en ‘big shots’ die de waarde van een assessment niet inzien kunnen niet goed leidinggeven) zijn uitstekende voorbeelden van een sterk geloof in persoonlijke indrukken en theorieën waarvoor geen enkele empirische evidentie bestaat.

Misverstand 4: Doelstellingen van selectieassessments

Bloemers stelt dat assessments in eerste plaats fair en uitdagend moeten zijn en dat kandidaten en organisaties er iets van moeten kunnen leren. Wat ons betreft heeft feedback inderdaad een belangrijke functie in selectieprocedures. Mechanische procedures lenen zich daar juist uitstekend voor; ze zijn transparant voor de kandidaat en bieden voor organisaties volop mogelijkheden om procedures te evalueren. Veel meer dan wanneer ‘black box’ holistische oordelen gebruikt worden. Daarnaast dienen we selectieassessments te onderscheiden van ontwikkel-assessments. Voor beide kan (deels) wel dezelfde informatie gebruikt worden. Om feedback en tips voor de ontwikkeling van de kandidaat te kunnen geven, is het echter niet noodzakelijk om de klinische blik te gebruiken voor het maken van prestatievoorspellingen en selectiebeslissingen. Die twee doeleinden kunnen uitstekend naast elkaar bestaan, en zouden wat ons betreft niet door elkaar moeten lopen. Als alternatief voor een focus op selectie stelt Bloemers voor dat de A&O psychologie zich meer kan richten op de cultuur en het leren binnen organisaties, en op open hiring en zelfselectie. Aandacht voor deze zaken juichen we toe. Dat neemt echter niet weg dat er in de meeste organisaties toch selectiebeslissingen gemaakt moeten worden en dat dit op een eerlijke en valide manier zal moeten gebeuren. Een verschuiving van de focus is daarom geen oplossing voor het bestaande probleem

Ten slotte

We hebben ons artikel geschreven omdat we in de selectiepraktijk veel misverstanden tegenkomen en we de academische psychologie en de praktijk sterker willen verbinden. De reactie van Bloemers illustreert het bestaan van deze misverstanden nog eens. Dit artikel is bovendien niet bedoeld als aanklacht tegen de praktijk. Er zijn logische en begrijpelijke redenen voor de kloof tussen wetenschap en praktijk op dit gebied, die bovendien ook niet uniek zijn voor de (assessment) psychologie. Ervan uitgaande dat een eerlijke en valide selectiepraktijk zowel de doelstelling van professionals als van wetenschappers is, zullen we samen aan deze kloof moeten werken. Nuttige stappen daarin zijn onderzoek met en ook over de selectiepraktijk. Daar zijn we dan ook volop mee bezig. We nodigen assessmentpsychologen van harte uit om contact op te nemen en samen te werken.

 

Beeld: Chiara Arkesteijn

1. Tegenwoordig zijn veel ‘assessments’ web-based. Ik weet niet of daarbij een predictieformule wordt gebruikt, naast aftest- grenzen, maar het is een weerspiegeling van de mechanische predictiesituatie, waaraan geen psycholoog te pas komt. Het wordt vaak als pré-selectiemiddel gebruikt.