Lees verder
Moeten we gezien de razendsnelle ontwikkelingen in artificiële intelligentie (AI) en Big Data vrezen voor het einde van de psychologie, wellicht zelfs van de mensheid? Dat was de insteek van een tweegesprek tussen Caspar van Lissa (37) en Wouter Schoonman (67) onlangs op het Nederlands Instituut van Psychologen (NIP). ‘Als je psychologische vraagstukken vertaalt naar een soort engineeringsproblemen, mis je de behoefte van psychologen om gedrag te begrijpen.’
Vittorio Busato

Als ik iets weet, kan ik iets voorspellen; kan ik niets voorspellen, dan weet ik niets.

A.D De Groot, 1961, Methodologie, P.20
Caspar van Lissa

Het kan bijna geen toeval zijn. Caspar van Lissa, universitair hoofddocent social data science bij de afdeling Statistiek en Methodologie van Tilburg University, en testpsycholoog Wouter Schoonman zitten op het Nederlands Instituut van Psychologen (AI.) in een vergaderkamer waar een groot portret van methodoloog Adriaan de Groot (1914-2006) aan de muur hangt. Zeker oudere generaties studenten sociale wetenschappen zijn opgevoed met zijn empirische cyclus van wetenschappelijk onderzoek. Die cyclus begint met observatie: empirisch feitenmateriaal systematisch verzamelen en hypothesen vormen. De tweede fase is die van inductie: hypothesen preciezer formuleren. Dan volgt de fase van deductie: toetsbare voorspellingen afleiden. Die voorspellingen worden vervolgens getoetst aan nieuw empirisch materiaal. De uitkomsten worden daarna, als vijfde fase, geëvalueerd op theoretische geldigheid. Waarna de cyclus weer opnieuw begint.

Bij de kennismaking vertelt Van Lissa dat zijn werk sterk is geïnspireerd door dat van De Groot. Zelf studeerde hij sociale psychologie aan de Vrije Universiteit Amsterdam en promoveerde op het onderwerp ouder-kindconflictoplossingen aan de Universiteit Utrecht. Sindsdien is hij naar methoden van onderzoek opgeschoven, om zich te specialiseren in machinelearning. Van Lissa: ‘Mijn onderzoek richt zich vooral op wat we via slimme algoritmes kunnen leren over menselijk gedrag. Dat pas ik bijvoorbeeld toe in onderzoek naar welke pubers risico lopen op het ontwikkelen van emotionele problemen. Waar veel psychologen zich in de empirische cyclus vaak focussen op de theorie toetsende helft, houd ik me bezig met de theorievormende, inductieve helft. Mijn stelling is dat je middels machinelearning patronen in data kunt vinden die op een inductieve manier iets nieuws vertellen over gedrag. En dat helpt weer bij theorievorming.’

Wouter Schoonman

De gepensioneerde Schoonman, die als consultant in het bedrijfsleven veel en makkelijk geld heeft verdiend met assessments – ‘een eenvoudig kunstje’ –, is al sinds zijn studietijd in Groningen overtuigd van de nadruk die De Groot legde op voorspellen. ‘Voorspellen zie ik als belangrijkste taak van de psychologie. Daarmee help je mensen ook: als ik dit doe, dan gebeurt er dat.’

Algoritmes voorspellen tegenwoordig veel beter gedrag dan psychologen dat kunnen, vervolgt Schoonman. ‘Zoals ik elders in dit nummer betoog heeft de klassieke testpsycholoog zijn langste tijd gehad. Overigens zei Johannes Linschoten in Idolen van de psycholoog al dat psychologen zich moesten beperken tot het verzamelen van data over gedrag bij mensen.2 Dat kunnen ze wel. Het betekenisvol combineren en afleiden van voorspellingen daarvan konden ze maar beter overlaten aan algoritmes.’

Doemscenario

De toon is gezet. Van Lissa en Schoonman gaan met elkaar in discussie over ontwikkelingen in artificiële intelligentie (AI) en big data en wat die kunnen betekenen voor de psychologie in het algemeen en de mensheid en menselijkheid in het bijzonder.

Schoonman is daar somber over. ‘Als mensheid zorgen we niet goed voor onze leefomgeving. Die maken we door oorlogen en vervuiling vooral slechter, een conclusie die computers voorzien van enig redeneervermogen en data eveneens kunnen trekken. De menselijke soort, hoe ingenieus ook, raakt rationeel gezien overbodig en zal volgens Darwinistische principes uitsterven.’

Zo mistroostig ziet Van Lissa het niet in. ‘Ik ben zeker niet naïef over zorgen over vooral ethische kanten en beheersbaarheid van AI. Maar door de geschiedenis heen zijn er constant technologische innovaties geweest, AI is er een van. Ik vind het juist veelbelovend te kijken naar hoe we als psychologen algoritmes en AI kunnen inzetten om ons handelen in de praktijk te verbeteren.’

Daarbij zullen we voor lief moeten nemen, vervolgt hij, dat AI onvoorziene ontwikkelingen teweeg gaat brengen. ‘Wat Wouter inbrengt, is prikkelend. Maar ik zie dat vooral als een doemscenario. Heeft AI vergelijkbare belangen zoals wij? Gaat AI met ons als mensheid concurreren om de beperkte aardse hulpbronnen? Het lijkt me sterk.’

Realistischer is, denkt Van Lissa, dat AI-dingen gaat doen volgens eigen waardensystemen. ‘Daarom ben ik voor strenge AI-wetten in Europa en Nederland. Politiek leeft dat helaas nog weinig. We krijgen nu in Europa wel iets van gebruiksvoorschriften van AI, maar in de laatste verkiezingsprogramma’s van de politieke partijen hier heb ik er niets van teruggezien. Probleem met AI is ook: je kunt niet alles controleren. Dat AI de wereld enorm verandert, staat vast. Maar wat ons precies te wachten staat?’

Juist voor eigen waarden die AI mogelijk gaat ontwikkelen, is Schoonman bevreesd. ‘Neem de robotgrasmaaier. Die zoekt zelf naar een stopcontact als zijn accu leeg raakt. Dat kun je zien als overleven. De volgende stap zal zijn dat computers zichzelf kunnen voortplanten, daarmee zijn al talloze techneuten bezig. Zie hier de twee waarden die mensen en dieren hebben: overleven en voortplanten. Nog een klein stapje en computersystemen doen precies hetzelfde als wij mensen.’

Die stellingname vindt Van Lissa te reductionistisch. Beiden zijn het wel eens dat de crux van AI en machinelearning is betere voorspellingen te doen over menselijk gedrag. ‘Maar met voorspellen is de kous niet af,’ benadrukt Van Lissa. ‘Als je psychologische vraagstukken vertaalt naar een soort engineeringsproblemen, mis je de behoefte van psychologen om gedrag te begrijpen. Ook bijvoorbeeld selectiebureaus willen weten hoe psychologen denken dat iemand zal functioneren. Met als doel meer begrip.’

‘Mijn opdrachtgevers maakte het weinig uit wat ik deed met al die testjes en oefeningen,’ riposteert Schoonman. ‘Die wilden weten of ze een kandidaat moesten aannemen of niet. Naar wat daar verder achter zat, waren ze niet nieuwsgierig.’

Nog een klein stapje en computerssystemen doen precies hetzelfde als wij mensen

Bevooroordeelde algoritmes

Artificiële intelligentie en psychologen

Artificiële intelligentie (AI) is een breed begrip dat verwijst naar systemen die in staat zijn om cognitieve taken uit te voeren die normaal gesproken alleen door mensen kunnen worden uitgevoerd, zoals het leren, redeneren en beslissingen nemen. In de afgelopen jaren is AI snel gegroeid en heeft het zijn weg gevonden naar tal van toepassingen, waaronder spraak- en beeldherkenning, zelfrijdende voertuigen en chatbots.

Voor psychologen is AI van belang om verschillende redenen. Ten eerste kan AI worden gebruikt om psychologische tests te ontwikkelen en te valideren. Bijvoorbeeld, door middel van machine learning-technieken kunnen psychologen automatisch patronen identificeren in gedrag dat anders misschien niet zou worden opgemerkt. Dit kan leiden tot het ontwikkelen van betere diagnostische instrumenten voor mentale aandoeningen en het beter begrijpen van de mentale processen die daarbij een rol spelen.

Daarnaast kan AI ook worden gebruikt om behandelingen te ontwikkelen en te personaliseren. Bijvoorbeeld, door middel van natural language processing (NLP) kan AI worden gebruikt om te helpen bij het interpreteren van de taal die tijdens therapiesessies wordt gebruikt, wat kan leiden tot een meer gerichte en effectievere behandeling.

Verder kan AI ook worden ingezet om mentale gezondheid te bevorderen door middel van preventie en vroegtijdige interventie. Bijvoorbeeld, door middel van spraak- en beeldherkenning kan AI worden gebruikt om te helpen bij het detecteren van mentale gezondheidsproblemen op vroege stadia, wat kan leiden tot een snellere en effectievere behandeling.

Een andere toepassing van AI in de psychologie is het ontwikkelen van virtuele therapeuten of ‘chatbots’. Deze systemen kunnen worden gebruikt om mensen te helpen met het behandelen van mentale gezondheidsproblemen op een manier die gemakkelijk toegankelijk is en anoniem is. Dit kan vooral nuttig zijn voor mensen die geen toegang hebben tot traditionele behandelingen of die liever geen gebruik maken van deze behandelingen.

Tot slot kan AI ook worden gebruikt om psychologische theorieën te testen en te versterken. Door middel van experimenten en simulaties kunnen psychologen AI gebruiken om hun ideeën over mentale processen te onder…

En hier hield de tekst op. Bovenstaande is in zijn geheel online gegenereerd – en niet door mensen aangepast – door het AI-taalmodel GPT-3. Het duurde zeven seconden om de gehele tekst te maken. De gegeven input was: ‘Schrijf een artikel over alle aspecten van artificiële intelligentie relevant voor psychologen.’

De discussie spitst zich toe op hoe algoritmes, bijvoorbeeld bij assessments en in wervingsprocedures, als rekenregels bevooroordeeld kunnen raken. Een bekend voorbeeld is Google, brengt Schoonman in. ‘Dat bedrijf wilde weten wie over de jaren heen hun beste werknemers waren. Op basis van de verzamelde data kwam daar een jonge, hoopopgeleide, witte man uit. Het bestuur van Google realiseerde zich dat ze die kant niet op moesten. Als je daarop personeel blijft selecteren, volg je immers blind een algoritme, met alle risico vandien op vooroordelen en discriminatie.’

Het Google-voorbeeld illustreert volgens Van Lissa het gevaar van selectie-effecten. ‘Algoritmes leren patronen op basis van beschikbare data, niet met data die er niet zijn. Zo raken algoritmes bevooroordeeld. Bekende voorbeelden waar zulke algoritmes hun funeste werk konden doen, zijn de Toeslagenaffaire en het risicodetectiesysteem RADAR van de politie dat aanmoedigde vooral te patrouilleren in wijken waar in het verleden veel mensen waren gearresteerd.’

Daarom is het zo belangrijk dat psychologen scherp op de (door)ontwikkeling van algoritmes leren toezien, meent Van Lissa. ‘Laat ze een soort hoeders van algoritmes worden. Als we algoritmes zien als zaligheid brengende rekenregels, slaan we de plank mis. Maar als we algoritmes voeden met diverse data en controleren op vooroordelen, komen we dicht bij zeer nuttige toepassingen.’

Goed punt, reageert Schoonman. ‘Tegelijk vraag ik me af of de vergelijking van psychologen als hoeders klopt. Neem schaakcomputers. Die kennen de regels. Na Deep Blue, die toenmalig wereldkampioen Gary Kasparov versloeg, kwam Alpha Zero. Dat programma kreeg de opdracht een dag tegen zichzelf te schaken. Vervolgens schaakte het beter dan de beste schaakcomputer ooit door mensen gemaakt. Punt is: computers maken zulke ingewikkelde neurale netwerken, we weten niet waarom ze welke beslissing maken. Krijg daar als “hoeder” maar eens de vinger achter.’

Dit schaakvoorbeeld maakt vooral duidelijk waartoe zogeheten interpretable AI in staat is, meent Van Lissa. ‘Het schaakspel is niet de werkelijkheid. Heel veel problemen los je niet op die manier op, niet in de laatste plaats psychologische problemen.’

Daarom, gaat Van Lissa verder, is het zo belangrijk echte data te verzamelen over gedrag en psychologische variabelen, om daarmee algoritmes te voeden en realistischer te maken. ‘Toegespitst op het selectieprobleem: beschikbare data zitten vaak vol met een type kandidaat dat altijd werd geselecteerd. Wat je mist zijn data over andere geschikte kandidaten die in het verleden niet zijn geselecteerd. Daarom moet er actief worden gekeken hoe meer diverse selecties kunnen worden toegepast. Geef meer mensen een kans en kijk dan wat algoritmes bijleren.’

‘Het aloude probleem van de false negatives,’ beaamt Schoonman. ‘Van mensen die we afwijzen, weten we niet hoe ze het gedaan zouden hebben.’

Van Lissa: ‘Kennis over wie de juiste kandidaat is, verandert ook met de tijd. Daarom ben ik voor het zoveel mogelijk openlijk delen hoe algoritmes tot stand komen. Dan kunnen ze ook worden geüpdatet en voor bredere selectiedoelen ingezet. En dan kunnen psychologen hun taak als hoeder van algoritmes ook beter invullen.’

Datadonatie

Probleem is wel dat het verzamelen van data voor wetenschappers steeds lastiger wordt, weet Van Lissa uit ervaring. ‘Universiteiten moeten vanwege ethische overwegingen aan strengere regels voldoen, en terecht. Maar bijvoorbeeld Google, Instagram en Facebook beschikken wel over heel veel data over menselijk gedrag. Mensen geven die gewoon weg, vaak zonder dat ze zich daarvan bewust zijn.’

Graag zou Van Lissa zien dat het eigendomsrecht van die data niet bij die techbedrijven ligt maar bij mensen zelf. ‘Een collega van me, Eiko Fried, ontwikkelt aan de Universiteit Leiden een app die als een soort buienradar voor depressies moet gaan fungeren. Met zogeheten hoogfrequente data over stemmingen wil hij voorspellen wanneer mensen een terugval in depressie gaan meemaken.’

Als je de hele bevolking wilt gaan screenen op depressie, loop je echter tegen een beperking aan, legt Van Lissa uit: ‘Je beschikt alleen over data van mensen die, al dan niet aangemoedigd door hun psycholoog, die app hebben geïnstalleerd. Maar techbedrijven kunnen op grote schaal vergelijkbare data verzamelen en zullen zo’n app mogelijk uit commerciële overwegingen nabouwen.’

De macht van de techbedrijven gaat wel verder, vult Schoonman aan. ‘ING wilde een aantal jaar terug alle data over betalingsverkeer verkopen aan wie maar wilde. Gelukkig is daarvoor een stokje gestoken. Maar supermarkten of zorgverzekeraars hadden daarmee hun voordeel kunnen doen. Als uit die data zou blijken dat iemand dagelijks twee flessen wijn koopt bij de supermarkt, kan een zorgverzekeraar die persoon bijvoorbeeld weigeren als klant. Algoritmes en big data kunnen precies voorspellen met wie het goed gaat en met wie minder. Is geen psycholoog meer voor nodig.’

Dat geldt overigens niet alleen in kapitalistische samenlevingen, vervolgt Schoonman. ‘Totalitaire regimes doen precies hetzelfde. Die verzamelen bijvoorbeeld via camera’s data van mensen om emoties te herkennen en hen voor bepaalde doeleinden nader te monitoren. For the good or the worse.’

Het zijn ontwikkelingen waartoe we ons als mensheid zullen moeten verhouden en waarin we ook stelling zullen moeten nemen, benadrukt Van Lissa. ‘Ik vind het niet wenselijk dat grote techbedrijven en overheidsinstellingen zoveel over ons weten.’

Het liefst ziet hij daarom dat mensen eigendom hebben over hun data. ‘Bedrijven kunnen dan verzoeken doen toegang te krijgen tot jouw data, bijvoorbeeld tegen betaling of in ruil voor diensten waarvan je gebruik kunt maken. Of dat onderzoekers jou vragen of je je data wilt doneren voor een bepaald onderzoeksproject. Zo houden mensen zelf de regie over wat er met hun data gebeurt.’

Toekomstbestendige opleiding

Schoonman stipt een ander thema aan: A. lijkt de wereld steeds minder echt te maken. Foto’s kunnen naar hartenlust worden bewerkt. Films kunnen met deep-fake-technieken worden gemanipuleerd. Is jouw stem drie seconden opgenomen, dan kan een algoritme je willekeurig welke tekst laten uitspreken. Schoonman: ‘Wat is nog waarheid? Toegespitst op studenten: een werkstuk is geen werkstuk meer. ChatGTP had binnen twee maanden tijd honderd miljoen gebruikers. Docenten hebben steeds minder een idee of een werkstuk is geschreven door een mens of een systeem.’

Van Lissa weet dat hij zich daarmee niet bij al zijn collegadocenten even geliefd zal maken, maar dat maakt hem niet uit. ‘Wij onderwijzen studenten die straks werkzaam zijn in een wereld die wordt ondersteund door algoritmes, zoals ChatGPT en binnenkort door vast nog veel geavanceerdere toepassingen. Als studenten een productieve manier vinden daarmee hun voordeel te doen, moedig ik dat alleen maar aan. Waarvoor willen we onze studenten opleiden? Voor een werkveld van tien jaar geleden? Of voor de toekomst?’

Een kernwaarde op de universiteit is leren zelfstandig kritisch na te denken, werpt Schoonman op. ‘En dat ook laten zien in bijvoorbeeld werkstukken.’

Van Lissa: ‘Bij de ouderwetse manier van lesgeven wordt dat amper gestimuleerd. Stel dat studenten hun essays schrijven met behulp van ChatGPT. Dat produceert lang niet altijd steekhoudende essays. Studenten zullen moeten nagaan of de argumentatiestructuur overtuigend is, of er geen onzin en fouten in staan. Zo’n essay zullen ze echt kritisch moeten bewerken, alvorens ze hun fiat eraan geven.’

Schoonman: ‘Maar zeg je dan tegen een student “dit essay is onvoldoende, want je hebt onvoldoende gebruikgemaakt van de mogelijkheden van het algoritme”? In hoeverre beoordeel je de student zelf dan nog?

Van Lissa: ‘Een interessantere vraag vind ik wat studenten mogen gebruiken en wat wij hen willen leren. Stel, de volgende versie van ChatGPT is ook feitelijk perfect. Dan heeft het weinig zin studenten daarmee te laten concurreren.’

Schoonman: ‘Hierin steun ik je. Toen ik aan mijn studie begon, moesten we een rekenmachine aanschaffen. Dat was heel wat! Factoranalyses deed je nog met de hand. Maar zie je ChatGPT als een grote bedreiging voor het onderwijs?’

Van Lissa: ‘Daar ben ik eerlijk gezegd wel klaar mee. ChatGPT is er nu, dus we moeten kijken wat studenten nu moeten leren. Maar even terugkomend op AI en de bedreiging van de rol van psycholoog. Als je als psycholoog vindt dat je ethisch verplicht bent het beste te doen voor je cliënt, dan kun je beargumenteren dat als algoritmes betere diagnoses stellen en persoonsgerichte behandelplannen opstellen, je ethisch verplicht bent van die techniek gebruik te maken.’

Schoonman: ‘Maar is de psycholoog nog nodig dan?’

Van Lissa: ‘Jazeker. Psychologen zullen niet vervangen worden door algoritmes. Ze moeten begrijpen wat algoritmes doen en hoe ze tot voorspellingen komen. Ze zullen er veel kritischer naar moeten leren kijken. Een algoritme weet niet alles. De interpretatie blijft mensenwerk.’

Schoonman: ‘Maar nu de praktijk. Er komt een cliënt bij een klinisch psycholoog. Die neemt een testje af met een automatisch expertsysteem erachter. “O, u heeft dit en dit.” En het systeem zegt: “U kunt het beste deze therapie doen.” Hup, volgende cliënt. Wat is dan de toegevoegde waarde van de psycholoog op dat moment?’

Van Lissa: ‘Dan veronderstel je dat die psycholoog in kwestie niet is opgeleid om dat algoritme en expertsysteem kritisch te beoordelen. Dat relateert heel erg aan de vraag wat we studenten willen leren. Ik zou het toejuichen als in de psychologische praktijk veel meer kennis over algoritmes wordt overgebracht.’

Schoonman: ‘Een nieuwe opleiding voor de beroepspraktijk van psychologen?’

Van Lissa: ‘Ja, een voor de toekomst. Als universiteiten daarin niet met hun tijd meegaan, dan krijg je straks commerciële partijen die dat gat opvullen.’

Artificiële empathie

(Voorlopig) laatste gespreksonderwerp. Is er een toenemende behoefte te verwachten aan artificiële empathie, aan AE¸ als soort van tegenhanger voor AI? Schoonman herinnert zich het computersysteem ELIZA3 van Joseph Weizenbaum van het Massachusetts Institute of Technology (MIT) uit de jaren zestig van de vorige eeuw, dat een Rogeriaanse psycholoog kon imiteren. ‘Wat vind je er zelf van? Ik hoor je zeggen dat… Destijds heel vernieuwend, maar het was een soort papagaai. Echte empathie was het niet.’

Tijdens zijn promotieproject over ouder-kind-conflictoplossingen heeft Van Lissa zich intensief beziggehouden met de rol van empathie. ‘Je hebt het meeleven met anderen en begrijpen van emoties van anderen. Dat begrijpen kan een algoritme best leren, het meeleven denk ik niet. Het interessante aan empathie is overigens dat mensen nooit zeker weten of ze emoties van anderen goed hebben begrepen. Uit onderzoek blijkt dat wij nogal slecht zijn in het aanvoelen van elkaars emoties.’

Vraag is of dat wat uitmaakt, denkt hij hardop. ‘Misschien volstaat zo’n Rogeriaans algoritme wel. Interessantere vraag is of een cliënt daar belang bij heeft. Daarin kan ik me moeilijker inleven. Maar ik kan me voorstellen dat wie bijvoorbeeld suïcidaal is en niemand heeft om mee te praten, gered kan worden door een algoritme met wie hij of zij op dat moment kan communiceren.’

Schoonman: ‘Ik verwacht dat artificiële empathie alleen maar zal toenemen. Kijk naar bejaardentehuizen waar wegens personeelstekort robotjes worden ingezet. Die merken aan bejaarden wanneer ze droevig zijn, vragen of het goed met ze gaat, of ze een muziekje zullen opzetten. Bejaarden vinden het vaak prachtig. Eindelijk ‘‘iemand’’ die tijd voor ze heeft en niet louter volgens een minutieus opgelegd protocol handelt.’

Van Lissa: ‘We kunnen best ver komen met artificiële empathie. Tegelijk vraag ik me af hoe nuttig het is. Als de computer op het juiste moment de juiste persoon uit een crisissituatie kan helpen, prima. Maar we moeten als samenleving ook nadenken of het wenselijk is dat bejaarden vooral met robotjes communiceren.’

Schoonman: ‘Wat voor rol kunnen psychologen in zo’n maatschappelijke discussie spelen?’

Van Lissa: ‘Mijn hoop is dat psychologen zich steeds meer zullen laten ondersteunen door algoritmes. Dan hoeven ze minder tijd te verspillen aan klusjes zoals het scoren van vragenlijsten en het schrijven van rapporten. Als je die tijd inzet voor het stimuleren van kwaliteitsinteracties met mensen die het nodig hebben, creëer je win-winsituaties. Nu worden werknemers weliswaar e¾ciënter maar de grotere winstmarges zijn voor de top van het bedrijf. Dat is niet goed. Laten we zulke winst aan e¾ciëntie inzetten voor menselijke interactie met kwetsbare doelgroepen.’

Schoonman: ‘Daar sluit ik me volledig bij aan.’

Klimaatverandering

Tot besluit de aanleiding tot dit tweegesprek: luiden AI en big data het einde van de psychologie en de mensheid en menselijkheid in? Gaan algoritmes de rol van psychologen overnemen?

Als we niet goed oppassen en we de techneuten het spel laten bepalen, vreest Schoonman van wel.

Van Lissa denkt dat het zo’n vaart niet zal lopen. ‘Klimaatverandering is een aanmerkelijk urgenter probleem.’

‘Goed mogelijk,’ knipoogt Schoonman. ‘Maar onderschat daarbij niet de rol van die energievretende computercentra die al die Big Data voor ons opslaan en bewaren.’

Bronnen:

  1. Groot, A.D. de (1961). Methodologie. Grondslagen van onderzoek en denken in de gedragswetenschappen. Den Haag: Mouton & Co.
  2. Linschoten, J. (1964). Idolen van de psycholoog. Utrecht: Bijleveld.
  3. ELIZA – Wikipedia