Lees verder
Artificiële intelligentie interacteert met mensen. Daarom maakt het per definitie ethische beslissingen en moeten we ons volgens Jan Broersen, hoofddocent van de opleiding ai aan de Universiteit Utrecht en hoogleraar logical methods in Artificial Intelligence, bezighouden met hoe we algoritmen moraliteit kunnen aanleren. Maar kunnen we iets als een moreel kompas wel programmeren? Wat is daarin wenselijk? En hoe zit het met de ethiek van chatbot ChatGPT? ‘Je kunt allerlei ethische principes in regels stoppen, allerlei scenario’s bedenken, maar dat blijft altijd een versimpelde versie van ons morele kompas.’
Anouk Bercht
Foto: Marieke Wijntjes

Wie aan een moreeldilemma denkt, denkt aan het trolleyprobleem. Hoewel er meerdere variaties zijn komt het ongeveer hierop neer: een trolley rijdt over een spoor waar hij tegen een aantal mensen aan zal rijden. De trolley kan nog wisselen naar een ander spoor, maar zal daar ook tegen iemand aanrijden. Al is het slechts één persoon. Wat is het moreel juiste om te doen?

‘Als AI-model heb ik geen eigen morele overtuigingen of emoties, en daarom kan ik geen beslissing nemen over wat moreel juist is in deze situatie. Ik ben geprogrammeerd om informatie en feiten te verstrekken, en om te helpen bij het begrijpen van verschillende perspectieven op een bepaalde kwestie. Het is aan mensen om de informatie die ik verstrek te evalueren en hun eigen conclusies te trekken op basis van hun eigen morele overtuigingen en waarden.’ Dit zegt ChatGPT nog in maart dit jaar als ik het trolleyprobleem voorleg.

Weet de machine straks beter wat ik wil dan ik zelf?

‘Er is een soort ethische schil in ChatGPT gebouwd’, vertelt Jan Broersen, hoogleraar logical methods in Artificial Intelligence. ‘En die schil bepaalt of een tekst bijvoorbeeld beledigend is, of vol staat met vooroordelen. Sommige teksten worden op basis daarvan niet gedeeld.’ De jongensdroom van Broersen was om machines te kunnen bouwen die gelijk zijn aan het menselijk brein. Hij studeerde wiskunde in Delft en verdiepte zich vervolgens onder meer in logica, filosofie, ethiek en artificiële intelligentie – onderwerpen die op zichzelf met elkaar te maken hebben. ‘Een logicus houdt zich bezig met beweringen: “Als dit het geval is, dan is dat ook het geval”, of: “Als dit én dit het geval is, dan is dat níet het geval”. Als mensen doen we ook aan logica. Als ik nu iets beweer, en later beweer ik dat dat niet waar is, dan ben ik inconsistent en daar kom ik meestal niet zomaar mee weg. Al lijken de aanhangers van Donald Trump het minder erg te vinden dat hij inconsistent is. Maar goed, een logicus probeert beweringen dus om te zetten naar een wiskundige taal.’

Logica ligt daarnaast ten grondslag aan de eerste vormen van artificiële intelligentie. ‘Door allerlei beweringen te programmeren, kan het systeem berekeningen en ‘keuzes’ maken’, legt Broersen uit. ‘De artificiële intelligentie van nu ziet er wel heel anders uit. Zo is ChatGPT niet op logica gebaseerd, maar voorspelt het op basis van miljarden teksten welke output het moet genereren. De makers weten zelf waarschijnlijk ook niet welke bronnen de chatbot allemaal gebruikt.’

Daarnaast is logica op een bepaalde manier hetzelfde als filosofie, vindt Broersen, omdat logisch redeneren veel gebruikt wordt in dat vakgebied. En tot slot: ‘Uiteindelijk is bijna alles ook ethiek’, zegt hij. ‘Sla de krant open en alles gaat impliciet over de vraag wat het juiste is om te doen. Of je voor of tegen een bepaald standpunt bent, welke belangen je in de gaten wilt houden en welke minder. Allemaal ethische kwesties.’

Bonuskaart

Artificiële intelligentie en ethiek raken elkaar volgens Broersen dan ook constant. ‘Kijk alleen al naar alle discussies en ongerustheden rond ChatGPT.’ Hij doelt op vragen als: moeten we zo’n chatbot eigenlijk wel willen? Hoe moeten scholen ermee omgaan? En werkt ChatGPT bijvoorbeeld niet enkel in het voordeel van de groep mensen die weet hoe ze ermee moeten omgaan? En gaat dat dan dus per definitie ten kosten van de mensen die het niet kunnen gebruiken? Broersen: ‘Daarnaast hebben engineers niet altijd voldoende oog voor ethiek en de ethische consequenties van hun applicatie, uit enthousiasme willen zij vaak vooral dat de techniek zo goed mogelijk werkt. Daar schuilt een gevaar.’

Zelfs over een simpele bonuskaart en bijbehorende applicatie die bepaalde producten aanbeveelt, vallen ethische vragen te stellen. Hoe wenselijk is het dat een algoritme dat doet?

Is het dan te laat om te beslissen dat we ethische beslissingen nóóit aan artificiële intelligentie overlaten? Volgens Broersen wel. ‘Als we vinden dat systemen geen ethische beslissingen mogen maken, moeten we überhaupt geen artificiële intelligentie meer ontwikkelen.’ En dat ziet hij niet meer gebeuren. ‘Artificiële intelligentie interacteert met mensen en komt hoe dan ook in situaties terecht waarin ethische beslissingen moeten worden ‘genemen’. ChatGPT ‘kiest’ ook welke informatie het geeft en welke informatie niet, en beïnvloedt zo mogelijk de gebruiker. Dat is ook een ethische beslissing,’ legt Broersen uit. ‘Ik vind het een mooie gedachte, dat alleen mensen ethische beslissingen mogen nemen. Maar we zijn al zo ver, we móeten dus wel nadenken over hoe we willen dat moraliteit er in ai-systemen uit gaat zien.’

Natuurlijk heeft Broersen zijn gedachten daar al over laten gaan. Maar om antwoord te geven op vragen over moraliteit bij machines moeten we eerst kijken naar onze eigen moraliteit. Hoe ziet ons morele kompas er eigenlijk uit? Hoe weten wij wat ‘het juiste’ is om te doen? ‘Dat is een goede vraag’, zegt Broersen desgevraagd. ‘Moreel kompas is een moeilijk begrip.’ Als Broersen zijn kinderen moraliteit wil bijbrengen, bijvoorbeeld omdat ze hun kamer niet opruimen, valt hij vaak terug op principes, op regels. ‘Denk bijvoorbeeld aan het principe van eerlijkheid, iedereen wil in een schoon en opgeruimd huis leven en het werk in huis moet eerlijk verdeeld worden.’ Maar een waar en absoluut vonnis over wat moreel juist is en wat verwerpelijk, bestaat natuurlijk niet. Iedereen heeft zijn eigen overwegingen.

Liegen

Dat Broersen zijn kinderen moraliteit wil bijbrengen door principes te gebruiken, past het meest bij de theoretische stroming die ‘regelconsequentialisme’ heet. ‘Bij regelconsequentialisme bepalen de gevolgen van het opvolgen van bepaalde principes of regels in de context of iets moreel juist is om te doen,’ legt Broersen uit. ‘In de ene context kan het ene principe bijvoorbeeld zwaarder wegen dan het andere, maar in een andere context is dat misschien weer andersom.’ ‘Niet liegen’ zou zo’n algemene regel kunnen zijn omdat de gevolgen van liegen waarschijnlijk altijd onwenselijker zijn dan niet liegen.

Naast regelconsequentialisme is er onder meer de deugdethiek van de Duitse filosoof Immanuel Kant. Volgens deze theorie bepalen met name iemands intenties of iets het juiste is om te doen. Broersen: ‘De intentie om te liegen of de intentie om te doden zijn ethisch verwerpelijk. Volgens Kant moeten mensen zich aan dat soort ethische wetten houden als ze het juiste willen doen.’ Deze theorie kijkt nooit naar de gevolgen van het volgen van die wetten. ‘Een beroemde kritiek op dit Kantiaans denken is bijvoorbeeld dat je ook niet mag liegen als er een moordenaar aan je deur staat en jij het volgende slachtoffer op zolder hebt verstopt,’ zegt Broersen.

Volgens het utilitarisme, bepaalt het gemiddelde algemeen welzijn van iedereen die de gevolgen van de handeling ervaart of iets nu juist is om te doen of niet. ‘Het doel heiligt de middelen als het gemiddelde welzijn er maar op vooruit gaat.’

Broersen heeft sympathie voor theorie van Kant, maar vindt dat je ook altijd moet nadenken over de gevolgen van wat je doet. ‘In de praktijk gaat het bovendien vrijwel enkel over de gevolgen. Denk aan de stikstofcrisis. Er wordt altijd teruggeredeneerd op basis van een bepaalde uitkomst, het gaat nooit over wat we vinden van de intentie om stikstof te produceren.’  

Praktische ethiek

Of er een ‘ware’ ethische theorie is en wat precies een moreel kompas is, zijn dus ingewikkelde vragen. Liever denkt Broersen na over welke onderdelen van ethisch denken we in een machine zouden kunnen stoppen. ‘Wat praktisch bruikbaar is, is absoluut niet hetzelfde als een moreel kompas, of de beste ethische theorie.’

Volgens Broersen is er maar één ethische theorie die we praktisch kunnen inprogrammeren: regelconsequentialisme. ‘Bovendien ligt deze theorie een beetje tussen utilisme en Kantiaanse ethiek in. Dit is de enige bruikbare theorie omdat je de op logica gebaseerde ai-systemen regels kunt meegeven. Ethische principes kun je omzetten naar expliciete wiskundige regels.’

Broersen plaatst wel meteen een kanttekening: ‘Zoiets kan dus wel enkel met de ‘oude’, op logica gebaseerde ai. Niet met de techniek waarmee veel moderne artificiële intelligentie, zoals ChatGPT, gebouwd zijn. ChatGPT voorspelt uitkomsten op basis van ontzettend veel data, en gaat juist níet over regels. Ik zie niet voor me hoe je het kunt leren wat moreel verwerpelijk is door het allerlei voorbeelden te geven van immorele en morele beslissingen, volgens mij is het abstractieniveau van moraliteit daarvoor te hoog. Maar misschien heb ik het mis. De ethische schil die eromheen zit, is nu letterlijk ingevuld door de makers, die ‘kiest’ de chatbot dus niet zelf.’

Als het over ethiek en ChatGPT gaat, ziet Broersen nog wel meer problemen. ‘Je kunt ChatGPT allerlei vragen stellen over ethiek, en er komen fantastische antwoorden, maar het kan die antwoorden niet op zichzelf toepassen. Het gedraagt zich ethisch – want het geeft bepaalde informatie wel en niet – maar níet op basis van wat het ‘weet’ over ethiek.’

Ook vindt Broersen het problematisch dat de makers van ChatGPT de bronnen die het gebruikt niet kennen, dat ChatGPT geen zelfkennis  heeft. ‘Het weet niet wat het wel en niet kan. Want voordat de chatbot bestond waren er nog geen gegevens over te vinden, alles wat het over zichzelf weet, is dus wat de makers erin hebben gestopt.’ Last but not least vindt Broersen het problematisch dat de chatbot onzin kan uitkramen. ‘Ik heb de chatbot al betrapt op allerlei hallucinaties en onwaarheden.’

Zelfrijdende auto’s

En hoe zit het met zelfrijdende auto’s? Moeten en kunnen we die morele regels aanleren? Volgens Broersen is het zeker denkbaar dat we zelfrijdende auto’s moraliteit kunnen bijbrengen met behulp van regelconsequentialisme. Hij hoopt ook dat we dat gaan doen omdat de zelfrijdende auto’s er gewoon gaan komen. ‘Mensen maken fouten die tot ernstige ongelukken lijden en die een zelfrijdende auto nooit zou maken. Denk aan in slaap vallen of afgeleid raken door je mobiele telefoon. Zelfrijdende auto’s zullen op hun beurt keuzes maken die wij nooit zouden maken.’

Broersen verwacht dat de politiek niet naar specifieke situaties zal kijken, maar zal instemmen met zelfrijdende auto’s zodra ze in het algemeen minder ongelukken maken dan mensen. ‘Het argument dat auto’s moreel verwerpelijke beslissingen zullen nemen, zelfs als we moraliteit ingeprogrammeerd hebben, zal van tafel geveegd worden,’ verwacht Broersen.

‘Je kunt van alles in regels stoppen, allerlei scenario’s bedenken, ook naderhand – als er iets fout gaat – maar het blijft altijd een versimpelde versie, een afgeleide van ons morele kompas. Wij hebben gevoelens, medeleven, en baseren onze beslissingen ook daarop. Al kan dat natuurlijk ook fout gaan, als we boos zijn bijvoorbeeld. Toch denk ik dat we nooit alles kunnen afdekken van wat wij zouden doen.’ Corner cases, wordt dat ook wel genoemd: ‘Voorvallen of omstandigheden die buiten het ontwerp van de techniek liggen en totaal onverwacht zijn, maar waarbij de auto wel een keuze moet maken over leven en dood.’

Is het niet denkbaar dat ai-systemen, juist omdat ze geen emoties en vooroordelen hebben, betere morele beslissingen nemen dan mensen? ‘Ik krijg inderdaad de indruk dat mensen denken dat artificiële intelligentie in staat is een soort absoluut zuivere beslissingen te nemen, zonder vooroordelen. Maar ik ben sceptisch. Er zijn al tal van voorbeelden waaruit blijkt dat de vooroordelen die wij hebben, ook in allerlei software terug te vinden zijn.’ Hij doelt bijvoorbeeld op antispieksoftware die de Vrije Universiteit Amsterdam bij online tentamens inzette en die studenten van kleur bleek te discrimineren. Daarnaast benoemt Broersen opnieuw het verschil tussen de op logica gebaseerde ‘oude’ ai-technieken en de nieuwere vormen, waaronder ChatGPT. ‘Als we zelf de regels bedenken, zoals bij de oudere vormen, kunnen we zorgen dat de regels geen vooroordelen bevatten. Maar de vraag is of dat lukt, want wij hebben die regels er dan alsnog in geprogrammeerd. Technieken als ChatGPT volgen geen regels maar nemen juist alle vooroordelen die in de bronnen zitten over, die hebben dus zeker allerlei vooroordelen.’

En zou artificiële intelligentie ons kunnen helpen met het nemen van beslissingen? Bijvoorbeeld door argumenten op een rijtje te zetten? ‘Je kunt ChatGPT zeker vragen stellen’, zegt Broersen, ‘maar je weet nooit waar de antwoorden erop vandaan komen en dat is problematisch.’ Sinds een tijdje werkt hij samen met onder meer psychologen aan een project om te onderzoeken of ai kan helpen in het versterken van onze eigen intenties. ‘Mensen hebben last van weakness of the will, we willen iets, maar doen het tegenovergestelde. Denk aan verslavingen, of uitstelgedrag. Zelf probeer ik bijvoorbeeld minder vlees te eten, maar ik vind het moeilijk. Zou een ai-systeem mij daarin kunnen helpen?  Het ligt natuurlijk gevoelig en roept allerlei vragen op. Weet de machine straks dan beter wat ik wil dan ik zelf? Interessant om daarover na te denken.’

Ik voorspel dat de politiek het onbelangrijk vindt dat een zelfrijdende auto immorele beslissingen kan maken, zolang die auto minder ongelukken veroorzaakt

Machines met emoties

Om met zijn jongensdroom af te sluiten: kan artificiële intelligentie ons evenaren? Zal er ooit artificiële intelligentie bestaan die emoties kent en een bewustzijn heeft, in vaktermen ook wel sterke artificiële intelligentie, of strong ai, genoemd?

Broersen gelooft er niet in. ‘Dít is natuurlijk de belangrijkste vraag, dit is waarom ik überhaupt in ai geïnteresseerd ben geraakt. De vraag wordt ook steeds belangrijker omdat ai steeds succesvoller wordt.’

Broersen legt uit dat de techniek waarmee een smartphone gemaakt is, zo’n vijventwintig jaar geleden nog de hele ruimte waar we in zitten vulde – en het is een grote kantoorruimte met  zo’n acht werkplekken. ‘De ontwikkelingen gaan razendsnel. Toch denk ik dat machines en mensen nooit hetzelfde zullen zijn, al zijn een boel mensen, bijvoorbeeld veel studenten, het met mij oneens.’ Volgens Broersen is de vraag ook vooral: waar ligt de grens? Wat noemen we precies sterke ai? ‘Als een machine zich emotioneel gedraagt, heeft ze dan emoties?’

Broersen denkt van niet. ‘Onze fysiekeeigenschappen bepalen wie wij zijn, en die zijn zo fundamenteel anders dan de fysieke kenmerken van computers. Er gebeurt zo veel meer in ons brein dan rekensommetjes maken.’

Wie de hersenen volgens Broersen ziet als een computer, slaat het brein plat. ‘Dan ga je voorbij aan de complexiteit van de hersenen, van de cellen, de chemische stoffen en interacties. Om eerlijk te zijn vind ik ook helemaal niet dat de bewijslast aan mijn kant ligt. Het is toch overduidelijk dat wij zoveel meer zijn dan een simpele machine!?’