)
Blog
AI in de zorg: zo verandert het zoekgedrag van patiënten
Hoe zorginstellingen hun content klaarstomen voor de nieuwe patiënt
Ook patiënten verwachten 24/7 een snel en relevant antwoord op hun medische vragen. Maar in plaats van Google-zoekresultaten doorploegen, kloppen ze steeds vaker bij ChatGPT of Perplexity aan met hun gezondheidsvragen: "Wat moet ik doen bij hartkloppingen?" Maar komen ze dan bij jouw zorginstelling terecht, of bij een onbetrouwbare informatiebron?
Verlies je patiënt niet aan een digitale kwakzalver
Ken je het scenario? Je patiënt voelt zich niet lekker en moet drie weken wachten op een afspraak bij de arts. Dus raadpleegt hij dokter Google. Vroeger leverde dat een lange lijst met zoekresultaten, die hem bij de juiste (medische) bron deed uitkomen.
Nu niet meer. Alsmaar meer mensen stellen hun gezondheidsvragen direct aan AI-assistenten zoals ChatGPT, Google Gemini of Perplexity. Het antwoord krijgen ze in één heldere tekst - soms met, maar vaak zonder bronvermelding of verificatie.
Deze verschuiving heeft grote gevolgen voor zorginstellingen. Waar je vroeger nog enige controle had over welke informatie je patiënten vonden via zoekmachine-optimalisatie, verdwijnt die controle nu naar de AI-modellen die antwoorden genereren. En dat brengt zowel kansen als risico's met zich mee.
Evolutie in medisch zoekgedrag
Steeds meer patiënten zoeken online naar medische informatie voordat ze naar de dokter gaan. Tegelijkertijd nemen AI-tools zoals ChatGPT een prominentere rol in bij het beantwoorden van gezondheidsvragen. 74% van de Nederlanders van 12 jaar en ouder zocht in de eerste helft van 2022 online naar informatie over gezondheid en leefstijl, zo meldt het Centraal Bureau voor de Statistiek (CBS).
Hoe verandert AI het zoekgedrag van patiënten?
Het verschil tussen traditioneel zoeken en AI-gedreven zoeken is fundamenteel. Bij Google krijg je een lijst met links naar verschillende websites. Bij AI-tools en zoekmachines krijg je één direct antwoord, samengesteld uit meerdere en vaak anonieme bronnen. De patiënten kunnen op basis van dat eerste antwoord in dialoog gaan met de zoekbot, en vragen stellen in natuurlijke taal, alsof ze tegen een dokter praten.
Voorbeeld van een patiëntvraag: "Ik ben 35 jaar, heb diabetes type 2 en voel me de laatste dagen vaak duizelig na het opstaan. Moet ik me zorgen maken en wat kan ik er zelf aan doen?"
Op basis van een vraag die je patiënt in natuurlijke taal stelt, genereert een AI-tool een uitgebreid antwoord dat verschillende mogelijke oorzaken noemt, zelfhulptips geeft en adviseert wanneer een doktersbezoek nodig is.
Die informatie voegt de AI-zoekmachine of chatbot uit verschillende bronnen bij elkaar: de tool put daarbij uit de offlinedata waarop hij werd getraind, gebruikt zijn eigen zelf opgebouwde informatie-index, of valt terug op traditionele zoekmachines als Bing, Google en Yahoo.
Hallucineren met dodelijke gevolgen
AI zoekt informatie in meerdere bronnen. Het probleem? Het is niet altijd duidelijk welke bronnen dit zijn en hoe betrouwbaar deze zijn. Daarnaast durft een AI-chatbot wel eens te ‘hallucineren’. Dan verzinnen ze feiten of omstandigheden en die ze met grote zekerheid voorschotelen aan gebruikers als waarheid.
Dit hallucineren gebeurt om meerdere redenen:
AI-taalmodellen zijn getraind op data, en die kunnen verkeerd, verouderd zijn
De tools interpreteren de gegevens verkeerd, of nemen ze uit context
AI-tools vinden simpelweg de juiste kennis niet en voorspelt dan een antwoord op basis van wat logisch lijkt
Maar vooral is dit een inherent probleem: AI gebruikt een neuraal netwerk en statistiek om antwoorden te geven, maar het heeft geen ingebouwd systeem om waarheid en leugen van elkaar te onderscheiden.
Zo toonde een onderzoek bijvoorbeeld aan dat 69% van de aangehaalde wetenschappelijke bronnen volledig verzonnen zijn, maar toch geloofwaardig lijken door realistisch klinkende titels en auteursnamen. (1)
We zien steeds vaker voorbeelden van AI-tools die gevaarlijke medische adviezen geven. Van verkeerde doseringen tot het afraden van noodzakelijke behandelingen. Een studie van Stanford Medicine toonde aan dat AI-chatbots in 22% van de gevallen medisch incorrecte informatie verstrekten die schadelijk kon zijn voor patiënten.
Concrete voorbeelden van foutieve AI-adviezen:
Een chatbot beveelt aspirine aan bij maagklachten (terwijl dit juist schadelijk kan zijn)
AI-zoekmachine geeft een verkeerde doseringsinformatie op voor kinderen
De tool raadt COVID-vaccinaties bij bepaalde risicogroepen
Zelfdiagnoses van huidaandoeningen die onbehandelde kanker over het hoofd zagen
Hoe blijf je als zorgorganisatie relevant en betrouwbaar?
Wil je als zorgorganisatie je missie vervullen en de vragen van je patiënten correct beantwoorden en behandelen? Dan moet je ervoor zorgen dat je met je betrouwbare, correcte en geverifieerde content het verschil maakt.
Net als bij Search Engine Optimisation, waar jij je content vindbaar maakt dankzij het gebruik van woorden waarop je patiënten zoeken, moet je nu die content ook afstemmen op de AI-zoekmachine.
En dat doe je om te beginnen door je informatie zo te structureren dat die als een hapklaar antwoord kan worden overgenomen door de AI-tool of zoekmachine. En door je teksten te schrijven volgens het E-E-A-T-principe dat Google al jaren hanteert, maar dat nu ook cruciaal wordt voor AI: zorg dat je teksten getuigen van Experience (persoonlijke ervaring), Expertise, Authoritativeness (autoriteit in je vakgebied en Trustworthiness (betrouwbaarheid).
Zorg bijvoorbeeld dat je content duidelijk laat zien wie de auteur is en link door naar LinkedIn voor bewijs van zijn of haar kwalificaties. Verwijs naar officiële richtlijnen en wetenschappelijke studies. Deel getuigenissen en casestudies die tonen hoe efficiënt een aanpak was ... Maar wat je ook doet: wees transparant over beperkingen van online medisch advies.
Case: Thuisarts.nl
Thuisarts.nl is een perfect voorbeeld van hoe je E-E-A-T-principes toepast. Alle content wordt samengesteld door huisartsen, gebaseerd op NHG-standaarden, en regelmatig geüpdatet. Het resultaat? Met 4 miljoen paginaweergaven per maand is het de meest vertrouwde medische informatiebron van Nederland. AI-tools citeren Thuisarts.nl regelmatig als betrouwbare bron, juist omdat de E-E-A-T-signalen zo sterk zijn.
360° SEO in de zorg
Zorg dat jouw geverifieerde informatie te vinden is op alle kanalen die je patiënten frequenteren, dus ook op online thematische of verenigingssites, gezondheidsfora, communities als reddit en, ja, social media.
Moderne zoekmachine-optimalisatie in de zorg gaat vandaag immers verder dan traditionele SEO. Je moet rekening houden met lokale zoekopdrachten, sociale media, online reviews én AI-tools. Wij noemen dit 360° SEO.
Optimaliseer specifiek voor AI-tools door je content te structureren in vraag-en-antwoord-formaten, duidelijke conclusies te trekken en bronvermeldingen en vooral links toe te voegen. AI-tools geven de voorkeur aan content die direct antwoord geeft op specifieke vragen.
Benieuwd hoe AI-proof jouw content is?
Vraag een audit aan of plan een sessie met onze patient journey experts.