Dashboard moet bias in AI systemen voor bibliotheken zichtbaar maken

Onderzoekers van de Human-Centered Data Analytics-groep (HCDA) ontwikkelen samen met softwarebedrijven een dashboard dat vooroordelen in aanbevelingssystemen van bibliotheken inzichtelijk maakt. Voor dit project ontvangen ze €123.900 subsidie van het SIDN fonds en Topsector ICT.

Publicatiedatum
23 juni 2025

Aanbevelingssystemen bepalen in toenemende mate onze digitale keuzes – van de boeken die we lezen tot de muziek die we luisteren en het nieuws dat we zien. Ze doen gepersonaliseerde suggesties op basis van lees- of luistergedrag. Maar deze AI-systemen zijn niet zo neutraal als ze lijken: ze liggen onder vuur vanwege hun neiging tot bias – bijvoorbeeld het versterken van stereotypen of het creëren van filterbubbels.

Bibliotheken hechten veel waarde aan publieke waarden zoals inclusiviteit en zijn daarom terughoudend met het gebruik van automatische aanbevelingen. Uit zorgen over mogelijke verborgen vooroordelen in zulke systemen ontstond de behoefte aan meer inzicht. Om daaraan tegemoet te komen, ontwikkelt de HCDA-groep samen met softwarebedrijf Bookarang BV, software-ontwikkelaar Simon Dirks en de Koninklijke Bibliotheek (KB) een diagnostisch dashboard. Dit systeem analyseert leengedrag en aanbevolen boekenlijsten, met speciale aandacht voor vooroordelen tegenover bepaalde groepen auteurs. Het uiteindelijke doel is dat bibliotheken en ICT-bedrijven het dashboard kunnen inzetten om hun digitale diensten transparanter, eerlijker en mensgerichter te maken.

Over het project

Het project, DiBiLi (Diagnosing Bias in Library Recommender Systems), bouwt voort op eerder werk binnen het Cultural AI Lab, waaronder het promotieonderzoek van Savvina Daniil naar verantwoorde aanbevelingssystemen. Het sluit aan bij de digitale vernieuwing van de KB, die werkt aan een gepersonaliseerd online bibliotheekplatform.

Vanuit CWI zijn HCDA-groepsleider Laura Hollink en Savvina Daniil betrokken bij het dashboard. [ruimte voor quote Savvina]

Over de subsidie

De subsidie komt voort uit de call Responsible AI in de praktijk, een samenwerking tussen het SIDN fonds en Topsector ICT. De call richt zich op de ontwikkeling van praktisch toepasbare kaders, randvoorwaarden en ontwerpprincipes voor verantwoorde AI. De oplossingen kunnen gericht zijn op een specifieke sector of maatschappelijke uitdaging. Projectvoorstellen moesten worden ingediend door een kennisinstelling in samenwerking met minimaal één bedrijf. Van de 39 inzendingen zijn er 10 geselecteerd, waaronder DiBiLi.

Over de onderzoekers

Laura Hollink

Laura Hollink is gespecialiseerd in verantwoorde AI voor de cultuur- en mediasector. Recente onderzoeken richten zich onder andere op het meten van eerlijkheid en diversiteit in aanbevelingssystemen, het analyseren van bevooroordeelde (koloniale) terminologie in kennisgrafen, en het opsporen van bias in de output van generatieve AI.

Hollink leidt de onderzoeksgroep Human-Centered Data Analytics en maakt deel uit van het managementteam van CWI. Daarnaast is ze co-directeur van het Cultural AI Lab en betrokken bij het AI, Media and Democracy Lab.

portret van Laura Hollink

Savvina Daniil

is promovendus bij de groep Human-Centered Data Analytics. Ze doet onderzoek naar bias in aanbevelingssystemen: informatiefilters die gepersonaliseerde suggesties doen voor relevante items. Daniil onderzoekt welke onderdelen van het optimalisatieproces en welke kenmerken van de gebruikte data deze bias veroorzaken.

In 2023 won ze bij ICT.OPEN de eerste prijs voor haar poster over de bron van bias in aanbevelingssystemen.

Savvina Daniil met de prijs voor haar poster

Header foto: Unsplash