Deze vraag staat centraal in het proefschrift “From Aligned Models to Trusted Interfaces: Explainable Health Intervention and Transparent Health Information Seeking” dat Xin Sun op 20 november 2025 zal verdedigen. Zijn proefschrift werd begeleid door dr. Abdallah El Ali (CWI). In zijn onderzoek bestudeert Xin Sun hoe we deze AI-tools niet alleen intelligent, maar ook verklaarbaar en betrouwbaar kunnen maken in gezondheidszorg.

Verbetering van de verklaarbaarheid en controle van LLM's
Het werk van Xin slaat een brug tussen mens-computerinteractie, natuurlijke taalverwerking en psychologie om twee kernthema's aan te pakken. Het eerste thema betreft het verbeteren van de verklaarbaarheid en controle in situaties waarin AI als digitale therapeut fungeert. De huidige LLM's genereren vaak reacties als een black box, zonder hun redenering te tonen. Om dit probleem op te lossen, introduceert Xin de Script-Strategy Aligned Generation (SSAG)-benadering. Deze methode dwingt de LLM om eerst een therapeutische strategie te voorspellen (zoals “reflectie” of “advies”) voordat deze de daadwerkelijke dialoog genereert. Op deze manier zijn de acties van LLM's beter controleerbaar en verklaarbaar voor zowel onderzoekers als gebruikers, wat van cruciaal belang is voor het opbouwen van vertrouwen in digitale psychotherapietools.
Bevorderen van vertrouwen in door LLM aangestuurde gezondheidsinformatie
Het tweede thema van Xins onderzoek richt zich op het bevorderen van vertrouwen in door LLM aangestuurde gezondheidsinformatie door middel van gemengde onderzoeksmethoden en gedrags- en fysiologische sensoren. Verrassend genoeg blijkt uit het onderzoek dat mensen meer vertrouwen hebben in door LLM aangestuurde conversational search (een manier van zoeken waarbij je natuurlijke taal gebruikt, alsof je een gesprek voert met een zoekmachine) dan in traditionele zoekmachines. Wel blijkt dat ze door mensen gelabelde informatie als betrouwbaarder beschouwen dan door AI gelabelde inhoud.
Door technische modeluitlijning te koppelen aan empirische beoordelingen van menselijk vertrouwen, biedt Xin bruikbare inzichten voor het ontwerpen van verklaarbare en transparante LLM-systemen in de digitale gezondheidszorg. Zijn werk slaat een brug tussen hoe AI werkt en hoe mensen het ervaren en vertrouwen, en biedt waardevolle richtlijnen voor ontwikkelaars en ontwerpers die LLM's zowel effectief als betrouwbaar willen maken in praktische gezondheidstoepassingen.
Meer informatie over de promotie
- Promovendus: Xin Sun
- Proefschrift: From Aligned Models to Trusted Interfaces: Explainable Health Intervention and Transparent Health Information Seeking
- Promotor: Dr. Jos A. Bosch
- Co-promotor: Dr. Abdallah El Ali en Dr. Jan de Wit
- Datum verdediging: 20 november 2025, 10:00-12:00 uur
- Locatie: Agnietenkapel, Universiteit van Amsterdam