Laura Hollink benoemd tot hoogleraar Responsible AI in Culture and Media

De Universiteit Utrecht heeft Laura Hollink per 1 maart 2026 benoemd tot hoogleraar Responsible AI in Culture and Media. Haar leerstoel richt zich op het blootleggen van bias in AI-systemen, zoals aanbevelingsalgoritmes, en de ontwikkeling van inclusieve AI bij organisaties in cultuur en media.

De snelle ontwikkelingen in kunstmatige intelligentie roepen vragen op in de cultuur- en mediasector, vertelt Hollink. “Er zijn gigantische stappen gezet, vooral in taalmodellen, maar ook in personalisatie, aanbevelingssystemen en beslissingsondersteuning. Bij veel organisaties rijst de vraag: past de manier waarop we dit toepassen bij de normen en waarden die we belangrijk vinden?”

Er zijn terechte zorgen dat AI-systemen vooroordelen versterken, dat privacygaranties ontbreken en menselijk toezicht afneemt. “Diversiteit en inclusie zijn belangrijke pijlers binnen de cultuursector; het is belangrijk dat iedereen gezien wordt. De kennis hierover is heel groot binnen de sector, maar de technologie is nog niet zo ver.”

Bibliotheken

Als voorbeeld noemt Hollink aanbevelingssystemen in bibliotheken. In dergelijke systemen worden auteurs waarop veel wordt geklikt, zichtbaarder voor het publiek. Dit is een bekend fenomeen, dat popularity bias wordt genoemd. “Wij ontdekten dat hierdoor de culturele diversiteit van de aanbevelingen achteruit gaat. Bibliotheken willen de lezer bedienen, en zijn niet gebaat bij een systeem dat de lezer richting een minder divers aanbod stuurt.”

Ook nieuwsmedia maken gebruik van AI, bijvoorbeeld voor het maken van headlines, korte beschrijvingen en samenvattingen. “Ook bij dergelijke ‘kleine’ taken zit er vaak een systematische bias in de modellen”, aldus Hollink. “Denk bijvoorbeeld aan een negatieve, meer stereotiepe benadering van mensen met een queer-identiteit. Daar moet je je als organisatie bewust van zijn als je AI inzet.”

In Hollinks leerstoel gaat het niet zozeer om het tegengaan van de vooroordelen, maar om het blootleggen ervan. Hollink: “Welke bias is er, en op welke plek in de keten? In de dataset, het algoritmisch model of in de interface naar de gebruiker? Kunnen we zien waar het zit en hoe groot de invloed is op de uitkomsten?”

Een andere vraag gaat over de definitie van diversiteit en inclusie. “Gaat het bij een aanbevelingssysteem voor boeken om diversiteit in auteurs, in onderwerpen, of om een betere vertegenwoordiging van minderheden? In eerder onderzoek hebben we binnen die sectoren aan mensen gevraagd wat ze precies bedoelen als ze daarover praten en dat leverde telkens een ander antwoord op.”

Systematische analyse van bias

Samen met haar PhD studenten gaat Hollink bijvoorbeeld onderzoeken hoe ze verborgen vooroordelen in taalmodellen kunnen opsporen en analyseren. Daarvoor stellen ze onderzoeksdatasets samen, die gebruikt kunnen worden voor grootschalige, systematische analyse van bias in tekst die gegenereerd wordt door taalmodellen.

Hollink zal de leerstoel combineren met haar werk als onderzoeker bij het Centrum Wiskunde & Informatica (CWI) in Amsterdam. “Als nationaal onderzoeksinstituut is de connectie met de universiteit heel belangrijk voor het CWI. Zo kunnen we bijdragen aan onderwijs en samenwerkingen opzetten in een groter netwerk.”

De eerste indruk van haar Utrechtse werkplek? “Aan de Universiteit Utrecht is impact maken niet alleen een mooi laagje over het onderzoek, maar wordt het daadwerkelijk gewaardeerd. Voor mij is onderzoek doen niet alleen een kwestie van publicaties verzamelen, maar het verschil kunnen maken in de samenleving. Bovendien werken hier excellente collega’s in de domeinen grenzend aan de mijne. Waar ik ook mee bezig ben, er zal altijd iemand zijn om mee van gedachten te wisselen, niet alleen bij de faculteit Bètawetenschappen, maar ook bij Geesteswetenschappen en Sociale Wetenschappen. Dat gaf voor mij de doorslag om hier aan de slag te gaan.”

Tekst: Universiteit van Utrecht
Foto's: Harold van de Kamp

Laura Hollink

Meer informatie