Voor internationaal opererende bedrijven is het aantrekkelijk om één AI-oplossing te gebruiken voor alle markten. Zo’n centrale aanpak biedt schaalvoordelen en lijkt te zorgen voor uniformiteit. Maar, zo blijkt uit onderzoek van CWI, dit uitgangspunt staat op losse schroeven: de taal waarin een AI wordt aangesproken, beïnvloedt de antwoorden die het systeem geeft – en niet zo’n beetje ook.
Taal stuurt uitkomsten
Het probleem gaat verder dan kleine nuanceverschillen. Onderzoeker Davide Ceolin, tenured researcher binnen de Human-Centered Data Analytics-groep van het CWI, en zijn internationale onderzoeksteam ontdekten dat de standpunten die identieke Large Language Models (LLM’s) innemen, kunnen variëren. Dit is afhankelijk van de gehanteerde taal: zo leverden zij meer economisch progressieve reacties in het Nederlands en meer centrum-conservatieve in het Engels. Voor organisaties die AI toepassen bij HR, de klantenservice of strategische besluitvorming, heeft dit directe consequenties voor bedrijfsprocessen en reputatie.
Deze verschillen zijn niet incidenteel. Statistische analyse toont aan dat de taal van de gebruikte prompt een sterkere invloed heeft op het AI-antwoord dan andere factoren, zoals toegewezen nationaliteit. “We gingen ervan uit dat de output van een AI-model consistent zou blijven, ongeacht de taal. Maar dat blijkt dus niet zo te zijn,” aldus Ceolin.
Voor bedrijven betekent dit meer dan een academische curiositeit. Ceolin benadrukt: "Wanneer een systeem anders reageert op gebruikers met uiteenlopende talen of culturele achtergronden, kan dit voordelig uitpakken - denk aan personalisering - maar ook nadelig, zoals bij vooroordelen. Wanneer de eigenaren van deze systemen zich niet bewust zijn van deze bias, kunnen ze schadelijke gevolgen ervaren."

Vooroordelen met gevolgen
De implicaties van deze bevindingen reiken verder dan alleen politieke standpunten. Elk domein waarin AI wordt ingezet – van HR en klantenservice tot risicobeoordeling – loopt risico op scheve uitkomsten als gevolg van taalspecifieke vooroordelen. Een AI-assistent die sollicitanten anders beoordeelt afhankelijk van de taal van hun cv, of een chatbot die inconsistente antwoorden geeft aan klanten in verschillende talen: het zijn realistische scenario’s.
Volgens Ceolin zijn zulke afwijkingen geen toevallige uitschieters, maar patronen met een systematisch karakter. “Dat maakt het extra zorgwekkend. Zeker als organisaties zich hier niet bewust van zijn.”
Voor Nederlandse multinationals is dit een reëel risico. Zij opereren vaak in meerdere talen, maar maken gebruik van één centraal AI-systeem. “Ik vermoed dat dit probleem al voorkomt binnen organisaties, maar het is niet duidelijk in hoeverre zij zich ervan bewust zijn,” zegt Ceolin. Het onderzoek suggereert bovendien dat kleinere taalmodellen gemiddeld consistenter zijn dan de grotere, meer geavanceerde varianten – die juist gevoeliger lijken voor culturele en linguïstische nuances.
Wat kunnen organisaties doen?
Het goede nieuws: het probleem kan worden opgespoord en beperkt. Ceolin adviseert om AI-systemen regelmatig te toetsen met behulp van persona-based prompting: het testen van verschillende scenario’s waarin taal, nationaliteit of cultuur van de gebruiker varieert. “Zo kun je analyseren of specifieke kenmerken leiden tot onverwacht of ongewenst gedrag.”
Daarnaast is het belangrijk om scherp te hebben wie er met het systeem werken, en in welke taal. Alleen dan kun je beoordelen of het systeem in de praktijk consistent en eerlijk opereert. Ceolin pleit voor duidelijke governance-kaders die rekening houden met taalgevoelige vooringenomenheid, net zoals dat nu al gebeurt met security of ethiek.
Structurele aanpak vereist
Volgens de onderzoekers is meertalige AI-bias geen tijdelijk fenomeen dat vanzelf verdwijnt. “Vergelijk het met de beginjaren van internetbeveiliging,” stelt Ceolin. “Wat toen als bijzaak werd gezien, bleek later van strategisch belang.” CWI werkt inmiddels samen met het Franse partnerinstituut INRIA om de mechanismen achter dit probleem verder te ontrafelen.
De conclusie is helder: bedrijven die AI inzetten in meertalige contexten doen er goed aan om bewust met dit risico om te gaan. Niet alleen om technische redenen, maar ook om reputatieschade, juridische complicaties en oneerlijke behandeling van klanten of medewerkers te voorkomen.
“AI wordt steeds vaker ingezet, maar het inzicht in hoe taal het systeem beïnvloedt staat in de kinderschoenen,” besluit Ceolin. “Daar is nog veel werk te doen.”
Auteur: Kim Loohuis
Headerfoto: Shutterstock