Arrow iconArrow icon used in website

De toekomst van SEO

Hoe merken in de Benelux AI Search strategisch inzetten

Visual waves

Q&A sessie – the director’s cut

AI schudt de wereld van SEO flink door elkaar — en het gaat razendsnel. Dat was de duidelijke boodschap tijdens ons iO webinar van 19 juni: “The Future of SEO – How brands in the Benelux are successfully leveraging AI Search”.

Onze sprekers, Clarissa Filius, SEO Lead in Nederland bij iO, en Jens Michiels, SEO lead in België, vertelden hoe AI-gedreven zoektools — zoals ChatGPT, Perplexity en Google SGE — de spelregels in search marketing helemaal herschrijven.

Zij gidsten ons door het hele verhaal: van Generative Engine Optimisation (GEO) tot de subtiele verschillen tussen lokale en conversatiegerichte zoekopdrachten. Daarmee tonen ze glashelder aan dat je er met alleen klassieke SEO-tactieken niet meer komt. Hun belangrijkste inzicht? Simpel: wie zichtbaar wil blijven, moet zijn keywordstrategie herzien en voluit kiezen voor een AI-first aanpak voor zijn content.

Wil je weten hoe futureproof jouw huidige SEO-strategie is en hoe je ‘m snel kunt optimaliseren? Start vandaag nog je 360° SEO-transformatie.

Een helder antwoord op al jullie vragen

Geen wonder dat deze hot topic een stroom aan interessante, praktische vragen losmaakte bij de deelnemers. Jammer genoeg was er tijdens de Q&A na het webinar niet genoeg tijd om ze allemaal te beantwoorden. Maar ze verdienen zeker onze aandacht, dus we hebben de tijd genomen om ze hier volledig te beantwoorden.
Heb je live gekeken of en je gewoon benieuwd hoe je AI search kan inzetten voor jouw merk of organisatie? Lees dan zeker verder, het loont de moeite.

Q&A | Jouw vragen, onze antwoorden

Klopt het dat AI-crawlers geen PDF’s kunnen lezen, en dat we daarom JavaScript en PDF’s beter vermijden?

Inderdaad. AI-crawlers werken allemaal op hun eigen manier en hebben het doorgaans moeilijk om PDF-inhoud op te pikken via websearch of URL’s. Tools zoals ChatGPT kunnen een PDF alleen lezen als je die zelf uploadt. Dus als belangrijke content op je site in een PDF verstopt zit, ziet AI die gewoon niet. Voor JavaScript-gegenereerde content geldt hetzelfde: crawlers zien die inhoud niet en hem dus ook niet renderen.

Hoe zit het met sociale media zoals YouTube en TikTok op het gebied GEO-optimalisatie? Zien AI-systemen die als betrouwbare bron?

Sociale content duikt sowieso op in Google’s AI-modus, net zoals je nu al videofragmenten ziet in de gewone zoekresultaten. Maar specifiek voor GEO verwachten we dat de impact eerder beperkt blijft. Oké, LinkedIn verschijnt af en toe als bron, maar sterke social prestaties zorgen niet automatisch voor een plek in AI-resultaten. Toch zien we social search wel als deel van een bredere 360° SEO-strategie: waar je doelgroep zich ophoudt, daar moet jij als merk of bedrijf ook zitten.

Hebben jullie praktische tips voor content die goed werkt met knowledge graphs?

Zeker: werk bijvoorbeeld altijd met duidelijke titels. Gebruik slimme interne links, gestructureerde data en consistente naamgeving. Bouw topic clusters en maak pagina’s met woordenlijsten om gerelateerde content te verbinden. Hou het modulair, met FAQ’s en duidelijke definities. AI haalt er meestal korte stukjes tekst uit, dus hou je kerninfo beknopt en makkelijk om op te pikken. Sterke E-E-A-T-signalen versterken je geloofwaardigheid én je zichtbaarheid.

Wat is het verschil tussen crawlers en AI-modellen die content trainen?

Wel, ze hebben wee compleet verschillende functies: crawlers (zoals zoekmachines of data-aggregators) scannen websites om informatie te verzamelen en op te slaan voor zoekresultaten. Qua machine learning ‘leren’ ze in feite niets. Trainingsmodellen daarentegen analyseren enorme datasets om patronen en verbanden te leren herkennen. Die gegevens worden onderdeel van hun interne statistische kennis, niet als opgeslagen documenten maar als aangeleerde structuren. Kort samengevat: crawlers halen enkel inhoud op, terwijl trainingsmodellen die inhoud gebruiken om te generaliseren en antwoorden te genereren. Bovendien werken crawlers continu, terwijl training slechts af en toe gebeurt.

Worden sitemaps nog gecrawld door AI-systemen?

AI-systemen gebruiken je sitemap niet rechtstreeks, maar dat is zeker geen reden om ze zomaar weg te halen — ze blijft cruciaal om je pagina’s te indexeren. AI-tools baseren zich nog steeds op klassieke crawlers zoals Google en Bing, en die hebben je sitemap echt wel nodig.

Hoe kan je als host omgaan met al die extra bottraffic?

Zorg dat je grip hebt op crawlers en verlaag de druk op je server. Blokkeer URL’s die geen meerwaarde biedeb in robots.txt, gebruik slimme caching (zoals Redis of Varnish) en zet een CDN in om traffic te kanaliseren. Check regelmatig je logs op overbodige bots en ze af te blokken via .htaccess of een firewall. Stel rate limiting in om piekbelasting te voorkomen. Werk je met Magento? Optimaliseer dan je indexering en caching om de dynamische load te beperken. Handel 404’s altijd netjes af met lichte foutmeldingspagina’s en leid veel voorkomende kapotte links om. AI-bots zoals GPTBot of CCBot kun je in robots.txt blokkeren, maar doe dat niet klakkeloos – anders loop je de kans dat je content niet opduikt in AI-tools.

Houden LLM’s rekening met klassieke rankings of hebben ze hun eigen systeem?

LLM’s gebruiken eigenlijk geen klassieke rankings — althans niet rechtstreeks — maar ze halen wel dingen uit zoekmachines zoals Google of Bing. Goede rankings verhogen je zichtbaarheid en kans op referenties, zeker als er real-time search bij komt kijken. AI-modellen halen trouwens vaker info uit pagina’s buiten de top 20 dan gewone gebruikers, om meer diversiteit te bieden.

Welke curated lists gebruiken LLM’s?

Bij training werken ze waarschijnlijk met lijsten van bekende en betrouwbare merken en sites. Vergelijk het met hoe we vaak meteen aan McDonald’s en Burger King denken bij het woord ‘fastfood’: LLM’s hebben net zo’n interne referentielijst.

Is gestructureerde data nog steeds een best practice?

Ja, absoluut. Schema.org-markup (JSON-LD) of GraphQL-eigenschappen helpen AI-systemen om je content beter te begrijpen en correcter weer te geven. Moderne modellen en retrievalsystemen kunnen die gestructureerde data steeds beter inzetten als heldere kennis. Dat verhoogt de nauwkeurigheid, vermindert de kans dat AI gaat hallucineren en zorgt voor preciezere antwoorden. En precies dat is precies waar we naar moeten streven.

Hoe beslissen LLM’s welke sites ze tonen?

Eigenlijk is het een combinatie van methodes. De belangrijkste factoren zijn de trainingsdata (met daarin vaak al samengestelde lijsten van betrouwbare merken) en live search (momenteel via de Google- en Bing-API’s). Daarbij geven ze de voorkeur aan gezaghebbende domeinen met sterke E-E-A-T-signalen en up-to-date informatie.

En in de VS? Zien jullie daar andere trends?

AI Search is daar veel sneller uitgerold, dus er zijn al meer GEO-use cases. Logisch. We zien nu tools opduiken zoals query fan-out simulation en LLM-keyword research. Ook opvallend: er is een gemelde daling van 34,5% in click-through rates, wat aantoont hoe AI-gegenereerde antwoorden het zoekgedrag van gebruikers veranderen.

Zijn er strategieën specifiek voor de non-profitsector op het gebied van AI Search en GEO?

AI Search en GEO kunnen enorm waardevol zijn voor non-profits – ze boosten je zichtbaarheid bij informatieve zoekopdrachten en zorgen dat gebruikers betrouwbare antwoorden krijgen als ze op zoek zijn naar steun, informatie of een goed doel om te steunen. Het is daarbij wel cruciaal om branded zoekopdrachten goed te monitoren, zodat je weet hoe AI-tools jouw organisatie aan je publiek presenteren. We werken met heel wat non-profits samen en kunnen de komende maanden al een paar resultaten en use cases met jullie delen. Maar laat ons intussen gerust al even weten als je wat hulp of advies kunt gebruiken.

Komt er een overzicht van best practice tools? Er lijken er namelijk heel wat te zijn met overlappende functies.

Momenteel kennen we onder andere Profound, Rankshift, Similarweb, Xfunnel, Semrush en Otterly. Maar een écht best practice overzicht is er bij ons weten nog niet – de tools ontwikkelen zich razendsnel en AI-tracking functies zijn nog relatief nieuw. Profound is de eerste die AI-zoekvolumes aanbiedt, maar ideaal zou zijn als Google en OpenAI die data zelf zouden delen. Bij iO maken we daarom trackers op maat en dashboards voor AI-visibility monitoring, zodat onze klanten minder afhankelijk zijn van externe (en vaak dure) tools.

Veranderen search- en clickvolumes naargelang de customer journey?

Zeker. Vooral in de awareness- en considerationfases merken we een verschuiving: gebruikers stellen vragen aan AI die ze vroeger zelf gingen opzoeken.

Wij leveren medische content waarbij precisie en context cruciaal zijn. We maken ons zorgen dat AI dit misschien verkeerd interpreteert of verkeerd weergeeft. Hoe zorgen we ervoor dat alles accuraat blijft?

Je zal al wel gemerkt hebben dat AI-gegenereerde antwoorden vaak disclaimers bevatten zoals “ChatGPT kan fouten maken” of waarschuwingen bij medisch advies. LLM-antwoorden combineren meestal meerdere bronnen, dus als jouw website als bron gebruikt wordt, betekent dat juist dat je als waardevol wordt gezien en het waard bent om door te klikken. Het feit dat je wordt genoemd, is dus eigenlijk een positief signaal.

Wat vind je van Google’s Project Mariner, dat onderzoek kan doen, producten kan vergelijken en misschien zelfs aankopen kan afronden? Hoe zou dit de customer journey en marketingoptimalisatie kunnen beïnvloeden?

Mijn inschatting is dat dat nog wel even op zich zal laten wachten. We zijn net begonnen met AI in zoekopdrachten, en voordat AI-agenten zoals Project Mariner betrouwbaar vergelijkingen kunnen maken of betalingen kunnen verwerken, is er nog heel veel complexe techniek nodig. Ik verwacht niet dat dit snel de standaard wordt.
Als het aanslaat, zal de grootste impact technisch zijn: bedrijven moeten hun websites dan aanpassen aan AI-agents, zodat formulieren goed werken en acties nauwkeurig uitgevoerd kunnen worden.  

Waarom nog investeren in SEO/GEO als AI toch vaak geen bron vermeldt?

Goed punt. Precies daarom is het belangrijk om selectief te zijn welke crawlers je site mogen bezoeken. De meeste generative engines en LLM’s gebruiken Google en Bing om content te vinden, dus het is lastig om alle ‘probleemgevallen’ te blokkeren. Maar de bekende spelers zoals ChatGPT, Perplexity en Gemini tonen wél hun bronnen, wat juist kan zorgen voor meer naamsbekendheid en extra bezoekers.

Heb je tips voor bedrijven met fysieke winkels en afhankelijk zijn van lokale SEO? Bijvoorbeeld om beter zichtbaar te worden in LLM-zoekopdrachten zoals ‘beste beddenwinkels in Amsterdam’…

Omdat AI-zoektools zoals ChatGPT en Google’s AI Mode steeds vaker lokale resultaten en bedrijfsprofielen tonen, is het belzngrijk dat jouw bedrijf en locatie daar goed in naar voren komen. Veel traditionele lokale SEO-tactieken blijven hierbij relevant: sterke reviews verzamelen, consistente vermeldingen (citations) opbouwen en zorgen voor goede referenties op betrouwbare lokale websites en in content.
Bij iO verwerken we lokale SEO daarom in onze 360° SEO-aanpak, zodat je zichtbaarheid op zowel klassieke zoekmachines als AI-gedreven zoektools maximaal benut wordt.

Wat zijn de verwachting over Google Ads en andere betaalde zoekmodellen, en vooral de manier waarop die zich gaan ontwikkelen met de evolutie van AI?

We zien dat Google volop experimenteert met de volgorde van resultaten. Soms beginnen de zoekpagina’s nu met AI-gegenereerde antwoorden, gevolgd door organische resultaten en daarna pas Google Ads. Het is duidelijk dat Google nog niet heeft besloten hoe ze hun SERP-structuur nu precies gaan vormgeven. We houden dat dus scherp in de gaten…

Er is nogal wat te doen over “hacks” zoals je bedrijfsnaam keer op keer noemen in ChatGPT of betalen voor een plekje in zogenaamde listicles. Werkt dat eigenlijk?

Ik twijfel er sterk aan, want die zogenaamde “hacks” zijn geen betrouwbare strategieën. Je merk steeds opnieuw noemen in prompts heeft nul komma nul effect. Modellen als ChatGPT of Gemini worden niet getraind op gebruikersinput. Het hertrainen gebeurt zelden, is duur, en gaat via zorgvuldig samengestelde datasets van meerdere betrouwbare bronnen.
Betalen voor een plekje in een listicles kan soms helpen, maar alleen als die lijstjes op gezaghebbende websites staan die AI-systemen daadwerkelijk gebruiken. Veel AI’s werken met retrieval-augmented generation (RAG), waarbij ze realtime info ophalen uit externe bronnen.
Ons advies? Richt je beter op digitale PR en plaats kwalitatieve content op gerespecteerde domeinen. Dat wordt veel eerder opgepikt door AI-systemen en levert consistent resultaat op.

Kun je een voorbeeld geven van een klant die succesvol is overgestapt van traditionele SEO naar AI-zoekstrategieën?

We zitten nog in een vroege fase van het testen van AI-zoekstrategieën, en het betekent zeker geen definitief afscheid van traditionele SEO. Het is eerder een uitbreiding: we voegen GEO toe bovenop de bestaande SEO-inspanningen. Voor klanten die al goed presteren met traditionele SEO, zien we een verbeterde zichtbaarheid in AI-overzichten. Daarnaast passen we content- en technische optimalisaties toe die specifiek gericht zijn op GEO-zichtbaarheid – zoals het helder structureren van content, het versterken van topical authority en het verbeteren van de paginasnelheid. Hoewel we hier uiteraard geen specifieke klantgegevens kunnen delen, zien we bij meerdere projecten al meetbare resultaten. Neem gerust contact op met ons als je meer wilt weten of een paar cases wilt bespreken.

Heeft de verschuiving naar AI-gestuurde zoekopdrachten een lineair effect op de verkoopprestaties?

Niet echt. De impact op verkoopprestaties is niet uitgesproken lineair te noemen. DE eerste signalen wijzen op meer impressies, minder kliks, en mogelijk stabiele of zelfs verbeterde conversies, vooral wanneer AI aanbevelingen doet. Dit kan duiden op beter gekwalificeerd en bij voorbaat geïnteresseerd webverkeer. De relatie is echter nog in ontwikkeling en we begrijpen de exacte dynamiek nog niet helemaal. De effecten verschillen waarschijnlijk per markt en op lange termijn blijft de verdere evolutie wat onduidelijk.

We zagen dat het webverkeer uit de VS eerder daalde dan in andere regio’s. Kan dat komen door de eerdere uitrol van LLM-gebaseerde zoekfuncties in de States?

Ja, precies. Die vroege daling in de VS komt doordat Google al in mei 2024 AI Overviews lanceerde in de VS. Deze functies veranderen het zoekgedrag doordat ze vragen direct in de zoekresultaten beantwoorden, waardoor doorklikken minder nodig is. Google breidde AI Overviews in augustus 2024 uit naar het Verenigd Koninkrijk, India en Brazilië, en in oktober 2024 naar meer dan 100 landen. Door strengere regelgeving begon de uitrol in de EU pas in maart 2025 en werd die pas 100% operationeel in mei 2025. Die timing verklaart waarom het verkeer in de VS eerder veranderde dan bij ons.

Gerelateerde artikelen