Arrow iconArrow icon used in website

AI in de zorg: zo verandert het zoekgedrag van patiënten

Hoe zorginstellingen hun content klaarstomen voor de nieuwe patiënt

Ook patiënten verwachten 24/7 een snel en relevant antwoord op hun medische vragen. Maar in plaats van Google-zoekresultaten doorploegen, kloppen ze steeds vaker bij ChatGPT of Perplexity aan met hun gezondheidsvragen: "Wat moet ik doen bij hartkloppingen?" Maar komen ze dan bij jouw zorginstelling terecht, of bij een onbetrouwbare informatiebron?

Man smiling at iO office

Verlies je patiënt niet aan een digitale kwakzalver

Ken je het scenario? Je patiënt voelt zich niet lekker en moet drie weken wachten op een afspraak bij de arts. Dus raadpleegt hij dokter Google. Vroeger leverde dat een lange lijst met zoekresultaten, die hem bij de juiste (medische) bron deed uitkomen.  

Nu niet meer. Alsmaar meer mensen stellen hun gezondheidsvragen direct aan AI-assistenten zoals ChatGPT, Google Gemini of Perplexity. Het antwoord krijgen ze in één heldere tekst - soms met, maar vaak zonder bronvermelding of verificatie. 

Deze verschuiving heeft grote gevolgen voor zorginstellingen. Waar je vroeger nog enige controle had over welke informatie je patiënten vonden via zoekmachine-optimalisatie, verdwijnt die controle nu naar de AI-modellen die antwoorden genereren. En dat brengt zowel kansen als risico's met zich mee. 

Evolutie in medisch zoekgedrag

Steeds meer patiënten zoeken online naar medische informatie voordat ze naar de dokter gaan. Tegelijkertijd nemen AI-tools zoals ChatGPT een prominentere rol in bij het beantwoorden van gezondheidsvragen. 74% van de Nederlanders van 12 jaar en ouder zocht in de eerste helft van 2022 online naar informatie over gezondheid en leefstijl, zo meldt het Centraal Bureau voor de Statistiek (CBS). 

Hoe verandert AI het zoekgedrag van patiënten?

Het verschil tussen traditioneel zoeken en AI-gedreven zoeken is fundamenteel. Bij Google krijg je een lijst met links naar verschillende websites. Bij AI-tools en zoekmachines krijg je één direct antwoord, samengesteld uit meerdere en vaak anonieme bronnen. De patiënten kunnen op basis van dat eerste antwoord in dialoog gaan met de zoekbot, en vragen stellen in natuurlijke taal, alsof ze tegen een dokter praten.

Voorbeeld van een patiëntvraag: "Ik ben 35 jaar, heb diabetes type 2 en voel me de laatste dagen vaak duizelig na het opstaan. Moet ik me zorgen maken en wat kan ik er zelf aan doen?"

Op basis van een vraag die je patiënt in natuurlijke taal stelt, genereert een AI-tool een uitgebreid antwoord dat verschillende mogelijke oorzaken noemt, zelfhulptips geeft en adviseert wanneer een doktersbezoek nodig is.  

Die informatie voegt de AI-zoekmachine of chatbot uit verschillende bronnen bij elkaar: de tool put daarbij uit de offlinedata waarop hij werd getraind, gebruikt zijn eigen zelf opgebouwde informatie-index, of valt terug op traditionele zoekmachines als Bing, Google en Yahoo.  

A person in a pink shirt appears with a blurred, double exposure effect against a plain background.

Hallucineren met dodelijke gevolgen

AI zoekt informatie in meerdere bronnen. Het probleem? Het is niet altijd duidelijk welke bronnen dit zijn en hoe betrouwbaar deze zijn. Daarnaast durft een AI-chatbot wel eens te ‘hallucineren’. Dan verzinnen ze feiten of omstandigheden en die ze met grote zekerheid voorschotelen aan gebruikers als waarheid. 

Dit hallucineren gebeurt om meerdere redenen: 

  • AI-taalmodellen zijn getraind op data, en die kunnen verkeerd, verouderd zijn  

  • De tools interpreteren de gegevens verkeerd, of nemen ze uit context 

  • AI-tools vinden simpelweg de juiste kennis niet en voorspelt dan een antwoord op basis van wat logisch lijkt 

Maar vooral is dit een inherent probleem: AI gebruikt een neuraal netwerk en statistiek om antwoorden te geven, maar het heeft geen ingebouwd systeem om waarheid en leugen van elkaar te onderscheiden. 

Zo toonde een onderzoek bijvoorbeeld aan dat 69% van de aangehaalde wetenschappelijke bronnen volledig verzonnen zijn, maar toch geloofwaardig lijken door realistisch klinkende titels en auteursnamen.  (1) 

We zien steeds vaker voorbeelden van AI-tools die gevaarlijke medische adviezen geven. Van verkeerde doseringen tot het afraden van noodzakelijke behandelingen. Een studie van Stanford Medicine toonde aan dat AI-chatbots in 22% van de gevallen medisch incorrecte informatie verstrekten die schadelijk kon zijn voor patiënten. 

Concrete voorbeelden van foutieve AI-adviezen:

  • Een chatbot beveelt aspirine aan bij maagklachten (terwijl dit juist schadelijk kan zijn)

  • AI-zoekmachine geeft een verkeerde doseringsinformatie op voor kinderen

  • De tool raadt COVID-vaccinaties bij bepaalde risicogroepen 

  • Zelfdiagnoses van huidaandoeningen die onbehandelde kanker over het hoofd zagen 

Close-up of two people hugging, showing intertwined hands and a smiling face. One person wears a gray suit.

Hoe blijf je als zorgorganisatie relevant en betrouwbaar?

Wil je als zorgorganisatie je missie vervullen en de vragen van je patiënten correct beantwoorden en behandelen? Dan moet je ervoor zorgen dat je met je betrouwbare, correcte en geverifieerde content het verschil maakt.  

Net als bij Search Engine Optimisation, waar jij je content vindbaar maakt dankzij het gebruik van woorden waarop je patiënten zoeken, moet je nu die content ook afstemmen op de AI-zoekmachine. 

En dat doe je om te beginnen door je informatie zo te structureren dat die als een hapklaar antwoord kan worden overgenomen door de AI-tool of zoekmachine. En door je teksten te schrijven volgens het E-E-A-T-principe dat Google al jaren hanteert, maar dat nu ook cruciaal wordt voor AI: zorg dat je teksten getuigen van Experience (persoonlijke ervaring), Expertise, Authoritativeness (autoriteit in je vakgebied en Trustworthiness (betrouwbaarheid). 

Zorg bijvoorbeeld dat je content duidelijk laat zien wie de auteur is en link door naar LinkedIn voor bewijs van zijn of haar kwalificaties. Verwijs naar officiële richtlijnen en wetenschappelijke studies. Deel getuigenissen en casestudies die tonen hoe efficiënt een aanpak was ... Maar wat je ook doet: wees transparant over beperkingen van online medisch advies. 

Case: Thuisarts.nl

Thuisarts.nl is een perfect voorbeeld van hoe je E-E-A-T-principes toepast. Alle content wordt samengesteld door huisartsen, gebaseerd op NHG-standaarden, en regelmatig geüpdatet. Het resultaat? Met 4 miljoen paginaweergaven per maand is het de meest vertrouwde medische informatiebron van Nederland. AI-tools citeren Thuisarts.nl regelmatig als betrouwbare bron, juist omdat de E-E-A-T-signalen zo sterk zijn.

A glossy blue liquid swirl on a smooth beige surface, creating a dynamic and elegant visual contrast.

360° SEO in de zorg

Zorg dat jouw geverifieerde informatie te vinden is op alle kanalen die je patiënten frequenteren, dus ook op online thematische of verenigingssites, gezondheidsfora, communities als reddit en, ja, social media.  

Moderne zoekmachine-optimalisatie in de zorg gaat vandaag immers verder dan traditionele SEO. Je moet rekening houden met lokale zoekopdrachten, sociale media, online reviews én AI-tools. Wij noemen dit 360° SEO. 

Optimaliseer specifiek voor AI-tools door je content te structureren in vraag-en-antwoord-formaten, duidelijke conclusies te trekken en bronvermeldingen en vooral links toe te voegen. AI-tools geven de voorkeur aan content die direct antwoord geeft op specifieke vragen. 

Whitepaper: Bouwen aan een menselijke digitale patient journey

Ontdek hoe een slimme patient journey betere zorgervaringen biedt, zorgteams ontlast en digitale tools menselijk inzet.

patientjourney

Benieuwd hoe AI-proof jouw content is?

Vraag een audit aan of plan een sessie met onze patient journey experts.

Peter Smit - iO
Jouw contactpersoon:PeterBusiness Consultant
Clarissa_Filius - iO
Jouw contactpersoon:ClarissaSEO Strategist
Telephone iconTelephone icon used in website+32 3 361 40 00
Telephone iconTelephone icon used in website+31 88 201 3101
Mail iconMail icon to signify link to contact em-mail address
business@iodigital.com

Gerelateerde artikelen