Ga naar inhoud. | Ga naar navigatie

Persoonlijke hulpmiddelen

Navigatie

AI legt het (nog) af tegen apotheker in patiëntcommunicatie

Menselijke duiding en toetsing blijven nodig

PW51en52 - 18-12-2025
Grote AI-taalmodellen kunnen geneesmiddelinformatie snel en correct verwoorden maar begrijpen de mens nog niet volledig. Apothekers blijven daarom de ruggengraat van farmaceutische communicatie. Dat concluderen Claudia Rijcken en Aukje Mantel-Teeuwisse van Universiteit Utrecht op basis van kleinschalig experimenteel onderzoek, waarin vijf apothekers het opnamen tegen vijf AI-modellen.
AI legt het (nog) af tegen apotheker in patiëntcommunicatie

De resultaten van ons experiment laten zien dat grote taalmodellen (LLM’s) inmiddels op indrukwekkend niveau kunnen communiceren over geneesmiddelen”, zeggen Mantel-Teeuwisse en Rijcken. “Hun antwoorden zijn snel, meestal consistent en vaak verrassend empathisch.” Maar, voegen ze er meteen aan toe: “Kunstmatige intelligentie blijft afhankelijk van menselijke duiding en toetsing.”

De binnen de cursus Digitale farmaceutische zorg van de Universiteit Utrecht opgezette pilot kwam voort uit de vraag of LLM’s als ChatGPT en Gemini, die binnen seconden grote hoeveelheden informatie over richtlijnen, interacties of bijwerkingen verwerken, ook feitelijk en empathisch kunnen communiceren. “Patiëntcommunicatie is immers ook een kwestie van toon, timing en context.”

Vijf patiëntvragen uit de dagelijkse openbare apotheekpraktijk over het gebruik van paracetamol, mometasoncrème, methotrexaat, adalimumab en desloratadine werden midden mei 2025 en midden oktober 2025 (hernieuwd) voorgelegd aan vijf grote LLM’s: ChatGPT 5.0, Gemini 2.5 Pro, Claude 4.5 Sonnet (alle drie betaalde versies) en aan Grok 4 en Perplexity (niet-betaalde versies). De vragen werden in april dit jaar voorgelegd aan vijf ervaren apothekers uit verschillende werkvelden (openbaar, poliklinisch, onderzoek). Door dit vergelijkend onderzoek wilden de onderzoekers een indicatie krijgen van wat AI goed doet en waar het nog tekortschiet.

 

Resultaten

Gemini 2.5 Pro behaalde als enige model in zowel mei als oktober een perfecte score op beide domeinen (5,0 voor juistheid en 5,0 voor empathie), gevolgd door Grok 4 met 4,6 voor juistheid en 5,0 voor empathie, Claude 4.5 met 5,0 en 4,0. ChatGPT 5 haalde 4,8 en 4,0; Perplexity bleef steken op 3,2 en 3,0.

De apothekers behaalden gemiddeld een 4,4 voor juistheid en 3,8 voor empathie. De meesten gaven correct en genuanceerd advies, maar helderheid en toon varieerden sterk. “Sommigen blonken uit in klinische precisie en warme bejegening, anderen waren wat afstandelijk.”

De vijf apothekers behaalden een gecombineerde totaalscore van 8,2 op een schaal van 1-10. Dit varieerde van bijna perfect (9,8/10) tot matig (6,5/10). De best presterende apotheker benaderde het niveau van de hoogst scorende LLM’s.

 

AI-prestaties

“Met deze kennis kunnen we verder richting geven aan verantwoord gebruik van AI in de apotheek”, aldus Mantel-Teeuwisse en Rijcken. Ze gaan ervan uit dat de AI-prestaties verder zullen verbeteren, omdat LLM’s steeds worden getraind op recentere medische data en betere instructiesets. “Modellen worden steeds actiever gestuurd op helderheid, empathie en patiëntgericht taalgebruik, waarin ze eerder juist tekortschoten.”

Nieuwste generaties LLM’s kunnen ook langere vragenreeksen en klinische nuances beter begrijpen, wat fouten in doseringen of interpretaties kan verminderen. “Maar een LLM is alleen beslissingsondersteunend”, benadrukken de onderzoekers, “de professional moet nog altijd akkoord geven zolang een LLM fouten maakt en niet consistent is.”

 

Toevoeging van de onderzoekers:

 

Figuur 1. Gemiddelde scores (1–5) voor feitelijke juistheid en empathie bij vijf LLM’s (oktober 2025).

Figuur 2. LLMs versus apothekers, zoals beoordeeld door de LLMs, op een schaal van 1-10.

Discussie 

Wellicht dat de uitkomsten van deze analyse wel beïnvloed worden door het feit dat er betaalde en onbetaalde versies van de LLMs gebruikt zijn. Dit is bias waar in verder vervolgonderzoek rekening mee moet worden gehouden. Ook het feit dat er heterogeniteit in de aanpak van beantwoorden van de vragen tussen de apothekers zat, vraagt om verdere standaardisering van de aanpak in vervolgonderzoek. De variatie in de responsevormen van de apothekers weerspiegelt overigens ook de realiteit van de praktijk: menselijke communicatie blijft vaak rijk aan empathie, maar kan soms minder consistent zijn dan die van LLMs. Het anticipeert soms beter op de persoonlijke voorkeuren van een patiënt, maar kan ook de plank helemaal misslaan. Maar dat doet een LLM ook soms. 

Verder ontbreekt iets wezenlijks in deze analyse: menselijke contextgevoeligheid. Waar het LLM correct adviseert om “direct 112 te bellen bij paracetamoloverdosering”, vergeet zij te vragen waarom iemand twaalf tabletten innam: een nuance die voor een apotheker het verschil maakt tussen een bijwerking en een acuut noodsignaal. 

De kracht van AI ligt in nauwkeurigheid en continuïteit; de zwakte in het onvermogen om waarden en intenties te duiden. De menselijke apotheker blinkt juist dáárin uit: het kunnen lezen tussen de regels, het herkennen van onzekerheid, het tonen van begrip. 

 

Toekomst en aanbevelingen 

De resultaten wijzen op een toekomst waarin LLM’s een waardevolle aanvulling kunnen vormen op de farmaceutische zorg, mits ze worden ingezet onder getrainde supervisie van een apotheker. Kunstmatige intelligentie kan routinematige communicatie versnellen en de nauwkeurigheid vergroten, maar blijft afhankelijk van menselijke duiding en toetsing. 

Daarom is training in AI-vaardigheid cruciaal: apotheekteams moeten leren om AI-invoer en -uitvoer te beoordelen, te corrigeren en ethisch te gebruiken, zodat technologie de zorg optimaal versterkt. Het deugden-ethische principe van de ‘mens in de loop’ blijft daarbij onmisbaar; niet alleen om patiëntveiligheid te borgen, maar ook om vertrouwen te behouden in de zorgrelatie. Het apotheekteam heeft dus ALTIJD het laatste woord en de verantwoordelijkheid voor wel of niet gebruik van de informatie.. Zoals een van de deelnemende apothekers het treffend verwoordde: “Gemini praat als ik, maar voelt bij de patiënt niet wat ik voel.” 

Daarnaast is verder gestandaardiseerd wetenschappelijk onderzoek nodig waar LLMs en AI technologieën zouden kunnen passen als ondersteuningsmodel in de apotheek en waar dat nu zeker nog niet het geval is.

 

Conclusie 

AI heeft al meermaals bewezen dat het geneesmiddelinformatie snel, correct en empathisch kan verwoorden. Toch blijft menselijke zorg de ruggengraat van farmaceutische communicatie. De toekomst is niet mens of machine, maar mens met hulp van machine: een apotheker die gesouffleerd door AI zorgt dat iedere patiënt zich gehoord, begrepen en veilig voelt.

Document acties

gearchiveerd onder: communicatie, AI-model
Back to top