LLM-zichtbaarheid meten: zo weet je of AI jou ziet
LLM-zichtbaarheid meten betekent checken of AI-tools zoals ChatGPT, Claude, Perplexity en Google AI Overviews jouw content daadwerkelijk oppakken en citeren. Je stelt relevante prompts, legt vast welke bronnen het model noemt en volgt dat over tijd. Zonder meting weet je niet of jouw GEO-werk iets oplevert. Met meting zie je precies welke pagina's scoren en welke niet.
Waarom is LLM-zichtbaarheid meten nu relevant?
Zoekgedrag verandert sneller dan de meeste dashboards bijhouden. Waar vroeger tien blauwe links op Google de kern waren, beginnen steeds meer mensen hun zoektocht in een chatbot. Ze vragen ChatGPT of Perplexity om een vergelijking, een aanbeveling of een uitleg, en klikken pas daarna door. Als jouw bedrijf in die antwoorden niet voorkomt, mis je een klantreis die je in je klassieke tracking niet eens ziet.
LLM-zichtbaarheid meten sluit dat gat. Je krijgt een beeld van welk merk, welke website en welke content AI-tools kiezen als betrouwbare bron. Dat is waardevolle data. Vooral omdat je er direct iets mee kunt: zwakke thema's verbeteren, sterke pagina's uitbreiden en gaps invullen waar je concurrenten wel zichtbaar zijn. Meer achtergrond over hoe die selectie werkt lees je in onze blog over hoe AI-zoekmachines bronnen kiezen.
Wat meet je precies?
LLM-zichtbaarheid valt uiteen in drie lagen. De eerste laag is kennis: weet het model dat jouw merk of website bestaat? Dat check je met directe prompts als "Wat weet je over merk X?" of "Welke specialisten in niche Y ken je?". De tweede laag is citaat: wordt jouw domein opgehaald als bron bij vragen die jouw doelgroep stelt? Daar gaat het om zichtbare links en expliciete vermeldingen in de antwoordtekst.
De derde laag is sentiment: hoe wordt jouw merk beschreven in die antwoorden? Positief, neutraal, negatief? Soms staan er verouderde claims in AI-antwoorden die niet meer kloppen met hoe jouw bedrijf nu werkt. Die wil je opsporen, omdat ze jouw positionering uit handen geven. Alle drie de lagen samen geven een compleet beeld van hoe de AI-wereld jouw bedrijf ziet.
Welke tools gebruik je voor LLM-tracking?
De markt voor GEO-tracking tools groeit snel. Peec AI, Profound, Otterly.ai, AthenaHQ en Bluegill behoren tot de meest gebruikte platforms. Ze werken volgens hetzelfde principe: je voert een lijst prompts in, de tool stelt die prompts automatisch aan meerdere modellen en logt hoe vaak jouw domein in de antwoorden voorkomt. Vervolgens krijg je dashboards met share of voice, citation count en verschuivingen over tijd.
Prijzen lopen uiteen van rond de 50 tot enkele honderden euro per maand, afhankelijk van het aantal prompts en modellen. Voor kleinere bedrijven is een basisabonnement vaak genoeg. Grotere merken die meerdere onderwerpen tegelijk willen monitoren, kiezen voor een uitgebreider plan. Je kunt ook handmatig beginnen met een gratis spreadsheet. Dat is arbeidsintensief, maar werkt prima als je nog geen budget hebt vrijgemaakt.
Hoe stel je een bruikbare prompt-set samen?
Een prompt-set is de ruggengraat van iedere meting. Slechte prompts geven misleidende data. Goede prompts geven inzicht waar je mee kunt werken. Begin met een lijst van vijftien tot dertig vragen die jouw doelgroep in de praktijk stelt. Kijk naar je klantgesprekken, naar Google Search Console en naar veelgestelde vragen die binnenkomen via mail of telefoon.
Varieer in type vraag. Vergelijkende prompts zoals "Wat is het verschil tussen A en B?", aanbevelingsprompts zoals "Welke bureaus in Nederland kun je aanbevelen voor X?" en definitieprompts zoals "Wat is Z?". Iedere vraagtype activeert een ander type content. Zo krijg je zicht op welke prompttypes jouw zwakke en sterke plekken zijn. Bij onze klanten zien we vaak dat aanbevelingsprompts in het begin het zwakst scoren, omdat die expliciete merkvermeldingen vereisen.
Welke metrics zijn echt belangrijk?
Focus op vier kernmetrics. Share of voice laat zien welk percentage van de antwoorden jouw merk of domein benoemt, binnen een duidelijk afgebakend thema. Citation rate telt hoe vaak jouw domein als klikbare bron verschijnt. Positie binnen het antwoord geeft aan hoe prominent je staat: eerste bron, derde bron of aan het einde. Sentiment scoort of jouw merk positief, neutraal of negatief wordt beschreven.
Verliefd worden op één cijfer is een valkuil. Share of voice kan stijgen terwijl citation rate daalt, bijvoorbeeld omdat je vaker genoemd wordt in lopende tekst maar minder vaak als klikbare bron. Kijk altijd naar het totaalbeeld. Een webshop die we begeleidden verdubbelde share of voice binnen zes weken, maar zag de conversie uit AI-verkeer pas toenemen toen ook citation rate omhoog ging. Meer over hoe je het rendement van betaalde campagnes meet lees je in onze blog over de ROI van Google Ads meten.
Hoe herken je onjuiste of verouderde claims?
AI-modellen hallucineren. Dat betekent dat ze soms dingen zeggen over jouw bedrijf die niet kloppen of niet meer actueel zijn. Prijs, dienstenaanbod, branche-focus of oprichter, alles kan onbewust verkeerd worden weergegeven. Als je dat niet meet, ligt dat gewoon op straat. Potentiële klanten lezen verouderde informatie en nemen een beslissing op basis van onjuiste data.
Log bij elke meting letterlijk een paar karakteristieken uit het antwoord. "Claim over ons, klopt of klopt niet". Als iets niet klopt, is de oplossing meestal simpel: publiceer nieuwe, kraakheldere content die de juiste feiten stelt en zorg dat die content technisch bereikbaar is voor AI-crawlers. Een paar weken later komen de aangepaste feiten vaak al terug in de antwoorden.
Van meting naar groei: hoe zet je data om in actie?
Data zonder actie is rapportage, geen marketing. Plan na elke meetronde een vaste evaluatie. Welke prompts scoren zwak? Welk type content ontbreekt op je site? Waar verwijzen de AI-tools wel naar concurrenten en niet naar jou? Dat zijn jouw briefs voor de volgende contentronde. Een structuur die we bij klanten veel gebruiken is een rolling backlog: elke twee weken een nieuwe set prioriteiten op basis van de meting.
Koppel je meting ook aan conversie. Welke blogs die in AI-antwoorden verschijnen, trekken nieuw verkeer? Welke zetten dat verkeer om in contactaanvragen of verkopen? Zo ontstaat een feedbackloop: AI-zichtbaarheid verbeteren, verkeer meten, conversie optimaliseren, weer opnieuw. Dat is GEO als groeikanaal, niet als eenmalig project.
Wie is verantwoordelijk voor LLM-tracking?
In veel MKB-teams is niemand officieel verantwoordelijk voor GEO. Die taak landt vaak ergens tussen SEO, content en strategie. Kies bewust één persoon die eindverantwoordelijk is voor het meten, rapporteren en omzetten naar acties. Zonder eigenaar verzandt de meting in een spreadsheet die niemand opent.
Kleinere bedrijven kunnen dit zelf doen met een paar uur per week. Grotere organisaties kiezen vaak voor een externe GEO-specialist die de meting en de strategie verzorgt. Belangrijk is dat de uitkomsten maandelijks in een managementrapport terechtkomen, naast de klassieke marketingmetrics. Dan wordt AI-zichtbaarheid een serieuze KPI.
Wil je weten of jouw merk zichtbaar is in ChatGPT, Perplexity en Google AI Overviews? We maken een nulmeting en laten zien welke stappen de meeste groei opleveren. Plan een gesprek via onze contactpagina.
Veelgestelde vragen
Wat betekent LLM-zichtbaarheid precies?
LLM-zichtbaarheid is de mate waarin grote taalmodellen zoals ChatGPT, Claude, Perplexity en Gemini jouw merk, website of content oppakken in hun antwoorden. Het gaat om twee dingen: of ze jouw content kennen en of ze die daadwerkelijk citeren in antwoorden aan eindgebruikers.
Welke tools meten LLM-zichtbaarheid?
De bekendste tools zijn Peec AI, Profound, Otterly.ai, AthenaHQ en Bluegill. Ze simuleren prompts die jouw doelgroep stelt en loggen hoe vaak jouw domein als bron verschijnt. Voor een snelle gratis check gebruik je de zoekfunctie in ChatGPT of Perplexity zelf.
Hoe vaak moet je LLM-zichtbaarheid meten?
Een wekelijkse of tweewekelijkse meting werkt voor de meeste bedrijven. Modellen updaten hun indexen en antwoorden veranderen sneller dan in klassieke SEO. Meet altijd rond een vaste dag en tijd, want antwoorden wisselen gedurende de dag.
Wat is een goede LLM-zichtbaarheidsscore?
Er is geen harde norm. Bij onze klanten zien we dat een share of voice van 10 tot 25 procent binnen een duidelijk gedefinieerd onderwerp al serieuze impact geeft. Groter dan je denkt, want AI-tools tonen gemiddeld maar drie tot vijf bronnen per antwoord.
Helpt een hoge Google-ranking bij LLM-zichtbaarheid?
Gedeeltelijk. Google AI Overviews leunen sterk op de reguliere Google-index, dus een goede ranking helpt daar direct. ChatGPT en Perplexity gebruiken andere bronnen en eigen indexen. Een goede SEO-basis is nuttig, maar geen garantie voor citaties in andere AI-tools.
Kun je LLM-zichtbaarheid zelf meten zonder dure tool?
Ja. Maak een lijst van vijftien tot dertig prompts die jouw doelgroep zou stellen, stel ze handmatig aan ChatGPT, Perplexity en Google AI Overviews, en leg vast welke bronnen worden genoemd. Zet dat in een spreadsheet. Dat kost tijd, maar geeft een eerlijk basisbeeld.