1 June 2017
Nu de gratis A/B testing tool Google Optimize voor iedereen beschikbaar is zal er hopelijk nog meer getest en geleerd worden. Er is al veel geschreven over de nieuwe tool, maar de meeste reviews en artikelen gaan voornamelijk in op de werking van de tool in vergelijking met andere A/B testing tools. Een van de veelgenoemde voordelen van Google Optimize is de feilloze verbinding met Google Analytics. Om dit te testen ga ik in dit artikel in op de analyse van A/B testen.
Er zijn twee standaard rapporten waarin afgeronde testen geanalyseerd kunnen worden: het Google Optimize rapport en het Google Analytics Experiment rapport. Een voordeel van het Google Optimize rapport is dat het de Bayesiaanse kans op een winnaar aangeeft. Het Analytics Experimenten rapport biedt daarentegen de mogelijkheid om één segment te selecteren zodat je dieper in de resultaten kunt duiken. Maar beide rapporten zijn erg summier en bevatten alleen het broodnodige: de totaal sessies en de hoeveelheid behaalde doelen per variant. Er wordt bijvoorbeeld niet gekeken naar de impact van een test op de gemiddelde tijd of het uitstappercentage op een pagina. Maar de twee voornaamste problemen zijn de verschillen tussen de experiment sessies van Google Optimize en Analytics en de manier waarop experiment sessies worden gebruikt.
Voordat ik dieper in het verschil tussen Google Optimize en Analytics duik ben ik geïnteresseerd in de definitie van een ‘experiment sessie’ zoals deze geformuleerd wordt door Google Optimize en Google Analytics. Deze lijken op papier hetzelfde, maar in de praktijk is er wel degelijk een verschil: de aantallen zijn gemiddeld 1% tot 2% hoger in Google Analytics. Bij testen die minder dan een week hebben gelopen lijkt dit verschil veel groter en zie je in Google Analytics zelfs tot 6%(!) extra bezoekers en transacties*. Dit kan grote gevolgen hebben. Je kunt bijvoorbeeld een winnende variatie afkeuren doordat je de verkeerde analysemethode gebruikt.
*Voor de bovenstaande data heb ik naar de resultaten van 27 uiteenlopende testen gekeken in Google Optimize en Google Analytics.
Google geeft zelf een aantal redenen voor het verschil tussen de twee tools:
De laatste reden verklaart ook het grotere verschil bij testen die maar een aantal dagen hebben gelopen. Dit alles lijkt mij voldoende bewijs om je testen niet in Google Optimize te analyseren maar in Google Analytics. Helaas mis je dan wel de Bayesiaanse kans op een winnaar die in de tool verwerkt is, maar gelukkig zijn er genoeg Bayesiaanse calculators beschikbaar (bijvoorbeeld AB testguide).
Naast het niet overeenkomen van de Google Optimize en Analytics data analyseer ik vrijwel altijd gebruikers in plaats van sessies/experiment sessies. Bij een op sessie gebaseerde analyse ligt de focus op de korte termijn, maar veel producten hebben een aankoopproces van meerdere sessies die je misloopt als je op basis van sessies analyseert. Ook brengt een ‘op sessie gebaseerde analyse’ statistische problemen met zich mee omdat het conversiepercentage dan een stuk lager is, deze blog van Hubert Wassner gaat hier dieper op in. Daarnaast is Bayesiaanse statistiek gebaseerd op twee waardes: 0 en 1 oftewel, wel of niet gekocht. Als je sessies meet betekent dit dat een bezoeker meerdere keren iets kan kopen. Maar je wilt alleen kijken of een bezoeker converteert, los van hoe vaak er iets gekocht wordt.
Op basis van de bovenstaande bevindingen heb ik kort samengevat wat de beste manier is om met Google Optimize je experimenten te analyseren:
Het doel van de voorbeeldtest is om het aantal transacties te verhogen vanaf de testpagina. Het segment ziet er dan al volgt uit:
Als je de gebruikers zonder transactie en de gebruikers met een transactie per variant in een Bayesiaanse calculator invoert dan heeft de B variant vanaf de testpagina een kans van 80,5% op een hoger conversiepercentage dan het origineel. Afhankelijk van hoeveel risico je wilt nemen kun je er dan voor kiezen om de variant te implementeren. Daarnaast zien we dat de test waarschijnlijk weinig invloed heeft gehad op het gedrag van de bezoeker omdat de gemiddelde tijd op de pagina en het bouncepercentage ongeveer hetzelfde is gebleven.
Dit artikel is op 22 mei jl. gepubliceerd op Webanalisten.nl