AR Wayfinding op Expo’s: Onze Finale Test & Onze conclusies
Deze post bouwt voort op de inzichten uit onze vorige twee blogposts, waarin we onderzochten hoe Augmented Reality kan worden ingezet om bezoekers op expo’s op een gepersonaliseerde manier de weg te wijzen. Het uitgangspunt daarbij was een ervaring zonder fysieke kaarten en zonder app-downloads, waarbij bezoekers via een QR-code rechtstreeks in de browser op hun smartphone een AR-navigatie kunnen openen.
Ons doel was eenvoudig: kunnen we een proof of concept bouwen waarmee bezoekers een bestemming kiezen en vervolgens in Augmented Reality pijlen zien die hen stap voor stap naar de juiste stand begeleiden?
Na twee experimenten werden de belangrijkste knelpunten snel duidelijk. De beschikbare scantijd op locatie bleek beperkt, de ervaring verschilde sterk per toestel en tijdens het navigeren trad er merkbare drift op in de AR-localisatie. In de eerste testen lag de focus vooral op het technisch werkend krijgen van de volledige pipeline, van scannen tot visualisatie. De tweede test bracht deze setup in een realistischere expo-context, waar duidelijk werd hoe gevoelig de oplossing is voor schaal, dynamiek en veranderende omgevingsfactoren.
Daarom besloten we voor onze derde en finale test om het experiment bewust te beperken tot één kleiner, duidelijk afgebakend deel van een expo. Door de schaal en het aantal variabelen sterk te reduceren, wilden we onderzoeken wat er vandaag wél betrouwbaar mogelijk is binnen de huidige stand van browser-gebaseerde AR-technologie.
Wat we probeerden te bereiken (en waarom)
Voor deze test kozen we voor een kleine zone met een paar strategische navigatiepunten.
De workflow was steeds dezelfde:
Scan maken in Immersal
Scan importeren in Mattercraft
3. Navigatieobjecten plaatsen
– eindpunten
– kruispunten
– obstakels
De applicatie berekende steeds de route:
- Als je een directe verbinding had: recht naar het eindpunt.
- Zo niet: een pijltje op het eerstvolgende kruispunt waar je moest afslaan.
We gebruikten Mattercraft omdat dit bezoekers toelaat om simpelweg een QR-code te scannen en onmiddellijk de AR-ervaring te openen — geen app-store nodig.
We wisten: deze setup is niet gepolished. Geen AR-occlusion, geen UI-optimalisatie.
Maar het doel was niet een afgewerkte app maken — het doel was begrijpen waar de technologie nu staat.
De vier belangrijkste lessen die uit al onze testen naar voren kwamen
Lesson 1 — Kleine ruimtes tracken goed, grote ruimtes (nog) niet
Dit was al duidelijk in Test 1 en werd verder bevestigd in Test 3.
Kleinere, visueel rijke zones:
snelle verwerking
minder drift
makkelijker voor de gebruiker om stabiel te localiseren
Grote expo-hallen:
✘ te weinig overlap
✘ te veel variabelen die veranderen
✘ verwerken duurt te lang om te itereren
✘ geen tijd om foutieve scans opnieuw te doen de avond voor de expo
Dit alleen al maakt AR-wayfinding op volledige expo’s vandaag moeilijk reproduceerbaar.
Lesson 2 — Navigatiegedrag veroorzaakt systematische drift
Alle huidige best practices voor AR-scanning zijn gebaseerd op één centraal focaal punt:

Onze kleine testzone werkte wél, maar zelfs daar zagen we drift wanneer gebruikers het toestel richtten op hun doel i.p.v. op het gescande gebied.
Dit is geen bug — het is een fundamentele mismatch tussen hoe mensen navigeren en hoe deze methode van AR-localisatie vandaag werkt.
Lesson 3 — De scanning workflow past niet binnen de realiteit van een expo
In theorie kun je drift oplossen door te itereren:
- aanpassen
- opnieuw scannen
- testen
- verfijnen
In een vaste locatie (museum, retailruimte, kantoor) is dat perfect haalbaar.
In een expo-omgeving niet.
Waarom?
- je krijgt pas toegang wanneer stands net worden opgebouwd
- de opstelling verandert tot vlak voor het evenement
- banners worden verplaatst
- meubels verschuiven
- licht verandert
- er is simpelweg geen tijd om meerdere iteraties te doen
Zelf met één kleine scan hadden we niet genoeg tijd om deze 100% stabiel te krijgen.
Lesson 4 — Browser-gebaseerde AR is niet consistent over toestellen
Dit is een van de eerlijkste maar hardste conclusies.
In onze tests:
-
High-end toestellen (recentste iPhones, high-end Android)
→ snel, stabiel, betere localisatie, betere camera’s
-
Mid-range toestellen
→ wisselvallig, soms goede tracking, soms verlies van positie
-
Oudere toestellen
→ onvoldoende hardware voor betrouwbare AR in de browser
Je kan dus vandaag niet verwachten dat elke bezoeker dezelfde ervaring krijgt.
Wat dit betekent voor AR-wayfinding in 2025
AR-wayfinding werkt — maar niet overal en niet onder alle omstandigheden.
Waar het vandaag wél realistisch is:
musea
permanente tentoonstellingen
retailomgevingen
indoor bedrijfsrouting
locaties waar je weken of maanden de tijd hebt om te scannen, te testen en te itereren
Waar het nog te vroeg voor is:
✘ grote expo’s waar alles dynamisch is
✘ tijdelijke events met last-minute opbouw
✘ situaties waar consistentie per toestel verplicht is
✘ workflows die 100% reproduceerbaar moeten zijn
Samengevat:
Een werkende wayfinder bouwen is perfect mogelijk, maar niet consistent genoeg om er vandaag een vaste, betrouwbare workflow van te maken in een expo-context.
De technologie is krachtig — het ecosysteem is gewoon nog niet helemaal klaar voor deze specifieke use-case.
Tot slot
Dit experiment was voor ons geen “mislukking”, maar een realistische reality check.
Door de drie testen hebben we nu een veel duidelijker beeld:
- wat werkt,
- wat niet werkt,
- en vooral waarom.
We delen deze bevindingen omdat de sector vooral nood heeft aan échte ervaringen, niet alleen demo’s onder ideale omstandigheden.
AR-navigatie heeft een mooie toekomst.
Maar vandaag vraagt het nog de juiste context — én tijd om te itereren.