In het nieuws
AI-systemen, zoals ChatGPT, geven geen correct medisch advies. Dat blijkt uit nieuw onderzoek waarover De Standaard op 9 februari berichtte. Een onderzoeker van de Universiteit van Oxford bevestigt aan de krant dat deze systemen de bal vaak misslaan.
Conclusie
Een goed uitgevoerde studie toont aan dat mensen die klachten ‘bespreken’ met een chatbot twee op de drie keer een fout advies krijgen. Systemen kunnen nog zo vernuftig zijn, ze blijven afhankelijk van de juiste input van de gebruiker. Die moet de klachten precies kunnen formuleren. Een arts of apotheker kan je beter informeren en zal de juiste bijvragen stellen, omdat die ook andere signalen kan opvangen, zoals stress, angst of onzekerheid.
Lees verder »Waar komt dit nieuws vandaan?
Steeds meer mensen gaan te rade bij chatbots voor medisch advies. Volgens De Standaard loopt het vaak mis tussen patiënt en computer. Dat zou blijken uit een pas gepubliceerd onderzoek (1). Onderzoekers van de Universiteit van Oxford zochten uit of de adviezen die diverse systemen (waaronder ChatGPT) geven, juist zijn. Daarvoor bedachten ze 10 scenario’s voor fictieve patiënten (2). 1.298 proefpersonen kregen een gedetailleerde beschrijving en moesten in hun eigen woorden aan diverse AI-systemen vragen wat ze moesten doen (2).
De analyse toont dat een AI-systeem in de meeste gevallen juiste antwoorden suggereert, op voorwaarde dat het alle relevante details krijgt. Maar in de praktijk gebeurt dat meestal niet.
Wanneer de proefpersonen de klachten zelf moesten formuleren op basis van het scenario, waren de antwoorden meestal niet juist.
Wanneer de proefpersonen klachten net iets anders formuleerden of details die belangrijk zijn voor een correcte diagnose niet vermeldden, gaf het systeem in slechts 35% een juiste inschatting van het probleem.
Kortom, een AI-systeem geeft geen betrouwbaar advies.
Bron
(1) Eckert M. Dr. ChatGPT helpt u niet beter dan Dr. Google, en dat ligt niet aan de ‘kennis’ van de AI-modellen. De Standaard. 9 februari 2026.
Hoe moet je dit nieuws interpreteren?
Een AI-systeem zoals een chatbot kan heel vernuftig gebouwd zijn, maar als je niet de juiste context kan schetsen of exact de juiste vragen kan formuleren, krijg je onbetrouwbare antwoorden terug.
Een arts of apotheker waaraan je medisch advies vraagt, zal met jou een gesprek beginnen en meestal wel de juiste bijvragen stellen, afgaande op de informatie die je geeft. Een menselijke zorgverlener heeft als belangrijke troef dat hij op basis van lichaamstaal of andere signalen, angst of stress bijvoorbeeld, beter kan inschatten in welke richting hij moet zoeken. Dat kan een AI-systeem of chatbot niet. Daarom zit een AI-systeem er vaak naast.
Conclusie
Een goed uitgevoerde studie toont aan dat mensen die klachten ‘bespreken’ met een chatbot twee op de drie keer een fout advies krijgen. Systemen kunnen nog zo vernuftig zijn, ze blijven afhankelijk van de juiste input van de gebruiker. Die moet de klachten precies kunnen formuleren. Een arts of apotheker kan je beter informeren en zal de juiste bijvragen stellen, omdat die ook andere signalen kan opvangen, zoals stress, angst of onzekerheid.
Referenties
(2) Bean AM, Payne RE, Parsons G et al. Reliability of LLMs as medical assistants for the general public: a randomized preregistered study. Nat Med 2026.