Michel van Velde: AI search is een slordige journalist
[Column] Omdat AI niet verifieert maar assembleert, ontstaat een nieuw soort beïnvloedbaarheid
AI-gestuurde zoekmachines veranderen het informatielandschap sneller dan veel organisaties beseffen. Waar we jarenlang vertrouwden op Google, wenden miljoenen mensen zich nu tot modellen zoals ChatGPT en Google AI voor directe antwoorden. Daardoor ontstaat een nieuwe dynamiek die vaak wordt onderschat: AI search gedraagt zich steeds vaker als een journalist, maar dan als een slordige journalist.
Een goede journalist selecteert bronnen, controleert feiten en bouwt een verhaal dat klopt. AI werkt anders. Het model raadpleegt wel meerdere bronnen, maar zonder journalistiek geweten. Het controleert niets, beoordeelt de betrouwbaarheid van bronnen niet en stelt een antwoord samen op basis van waarschijnlijkheid. Waarheid wordt geen gecontroleerd gegeven meer, maar een constructie die ontstaat uit zichtbaarheid, herhaling en semantische herkenning. Dat creëert risico’s en kansen.
Hoe AI search informatie verzamelt
Recent onderzoek van Nective Digital, gepubliceerd op Search Engine Land, laat zien dat ChatGPT in ongeveer een derde van de gevallen zelf een internetzoekopdracht uitvoert. Dat betekent dat AI niet alleen werkt met de trainingsdata waarop het model is gebouwd, maar ook actief nieuwe informatie ophaalt.
Het doet dat via langere en contextrijke zoektermen, ook wel Fan Out Queries genoemd. Die zoektermen bevatten vaak woorden als vergelijking, review en jaartallen zoals 2025. AI zoekt content die volledig, actueel en semantisch duidelijk lijkt.
Maar die resultaten worden zelden gecontroleerd. AI maakt geen onderscheid tussen betrouwbare en onbetrouwbare bronnen. De journalistieke eindredactie ontbreekt volledig. In diverse tests bleek zelfs dat een deel van de door AI genoemde bronnen nooit heeft bestaan, terwijl de AI ze wel met overtuiging presenteerde.
Waarheid als optelsom van zichtbaarheid
Omdat AI niet verifieert maar assembleert, ontstaat een nieuw soort beïnvloedbaarheid. De vraag wordt niet langer: staat de juiste informatie online. De vraag wordt: is deze informatie zichtbaar, consistent en semantisch helder genoeg om door AI te worden opgepikt.
AI kiest wat het begrijpt. Content die duidelijk gestructureerd is, steeds dezelfde terminologie gebruikt en op meerdere plekken terugkomt, wint. Herhaling voelt voor een model als bevestiging. Daardoor lopen organisaties met wisselend taalgebruik of verschillende definities het risico dat AI hun verhaal vervormt. Het model vult gaten op met aannames, combineert oud met nieuw en koppelt een merk soms aan thema’s die niet kloppen. En omdat steeds meer gebruikers vertrouwen op AI antwoorden, wordt deze verwarring direct zichtbaar in mens machine interacties.
Een nieuw strategisch speelveld
De tijd dat je uitsluitend schreef voor mensen is voorbij. Je schrijft nu ook voor machines. AI search is een tweede lezer: een lezer zonder gevoel voor nuance, maar met een grote voorkeur voor patronen, structuur, consistentie en autoriteit.
Dit vraagt om een andere manier van strategisch denken. Merken moeten bepalen welke terminologie ze claimen, hoe ze hun positionering formuleren, welke argumenten ze consistent herhalen en hoe ze autoriteit opbouwen in het digitale ecosysteem. AI hoeft niet overtuigd te worden, het moet gevoed worden.
Merkconsistentie is hierdoor geen esthetische keuze meer, maar een strategische noodzaak. Een merk dat zijn verhaal overal anders vertelt, verdwijnt uit de antwoorden van AI of wordt verkeerd gerepresenteerd. Een merk dat zijn verhaal disciplineert, creëert een voordeel: AI herkent het patroon en reproduceert het.
AI beïnvloeden zonder misleiding
AI search beïnvloeden, betekent niet dat je systemen moet misleiden. Het gaat om het begrijpen van de spelregels. Dat begint met consistente terminologie: hoe noem je jouw product, jouw methode, jouw claim. Daarna vraagt het om content die logisch is opgebouwd, helder schrijft en semantisch klopt.
Autoriteit is de derde factor. Publicaties in vakmedia, whitepapers, case studies en herhaalde verwijzingen bouwen geloofwaardigheid op. Hoe vaker een model jouw merk ziet in een serieuze context, hoe groter de kans dat jouw informatie deel uitmaakt van het antwoord dat AI formuleert.
Je brieft AI zoals je een journalist zou briefen. Het verschil is dat de journalist vragen stelt en feiten controleert. De AI doet dat niet. Daarom moet je verhaal vanaf de basis kloppen en overal hetzelfde zijn. Dat vraagt om afstemming tussen organisatie, proces, inhoud en technologie.
Conclusie: als AI een slordige journalist is, wees dan de woordvoerder die helder communiceert
AI search is een doorbraak, maar op dit moment nog een journalist zonder eindredacteur: snel, overtuigend en soms gevaarlijk onnauwkeurig. Wie niet actief stuurt op hoe zijn merk digitaal verschijnt, laat ruimte voor ruis, fouten en misinterpretaties die door miljoenen mensen worden gezien.
De enige manier om zichtbaar en correct gerepresenteerd te worden, is door je verhaal discipline, herhaling en helderheid te geven. Merken die dat doen, worden herkend. Eerst door de gebruiker, en steeds vaker door de AI die hun verhaal doorvertelt.
Als AI de slordige journalist is, moet jij de woordvoerder zijn die het juiste verhaal levert. Wie de input beheerst, beheerst de output.
Michel van Velde is CEO en Brand & AI Director bij Ablestar. Hij adviseert internationale merken op het snijvlak van merkstrategie, digitale innovatie en artificiële intelligentie.
Volg Marketing Report op LinkedIn!
Abonneer je op onze gratis dagelijkse nieuwsbrief
Registreer jouw bureau gratis in de Marketing Report reclamebureau database The List
Lees ook:
Michel van Velde (Craftmore): Door onze aanpak zijn we flexibel en kunnen we echt bouwen aan iets bijzonders
Craftmore ontwikkelt Europese B2B-campagne voor Marmot
Jordy van Raaij Technology Director Craftmore
Ablestar ontwikkelt merkstrategie voor Miron Glass
[Forum] Een nieuw business model voor creative agencies?
Dit artikel is gepubliceerd door: Saskia van Weert