De snelle ontwikkelingen in kunstmatige intelligentie roepen vragen op in de cultuur- en mediasector, vertelt Hollink. “Er zijn gigantische stappen gezet, vooral in taalmodellen, maar ook in personalisatie, aanbevelingssystemen en beslissingsondersteuning. Bij veel organisaties rijst de vraag: past de manier waarop we dit toepassen bij de normen en waarden die we belangrijk vinden?”
Er zijn terechte zorgen dat AI-systemen vooroordelen versterken, dat privacygaranties ontbreken en menselijk toezicht afneemt. “Diversiteit en inclusie zijn belangrijke pijlers binnen de cultuursector; het is belangrijk dat iedereen gezien wordt. De kennis hierover is heel groot binnen de sector, maar de technologie is nog niet zo ver.”
Bibliotheken
Als voorbeeld noemt Hollink aanbevelingssystemen in bibliotheken. In dergelijke systemen worden auteurs waarop veel wordt geklikt, zichtbaarder voor het publiek. Dit is een bekend fenomeen, dat popularity bias wordt genoemd. “Wij ontdekten dat hierdoor de culturele diversiteit van de aanbevelingen achteruit gaat. Bibliotheken willen de lezer bedienen, en zijn niet gebaat bij een systeem dat de lezer richting een minder divers aanbod stuurt.”
Ook nieuwsmedia maken gebruik van AI, bijvoorbeeld voor het maken van headlines, korte beschrijvingen en samenvattingen. “Ook bij dergelijke ‘kleine’ taken zit er vaak een systematische bias in de modellen”, aldus Hollink. “Denk bijvoorbeeld aan een negatieve, meer stereotiepe benadering van mensen met een queer-identiteit. Daar moet je je als organisatie bewust van zijn als je AI inzet.”