Suggerimenti per il test A / B su Google Play Experiments

Google Play

Per gli sviluppatori di app Android, Esperimenti di Google Play può fornire informazioni preziose e contribuire ad aumentare le installazioni. L'esecuzione di un test A / B ben progettato e ben pianificato può fare la differenza tra un utente che installa la tua app o quella di un concorrente. Tuttavia, ci sono molti casi in cui i test sono stati eseguiti in modo improprio. Questi errori possono funzionare contro un'app e comprometterne le prestazioni.

Ecco una guida per l'utilizzo Esperimenti di Google Play per A / B testing.

Configurazione di un esperimento di Google Play

Puoi accedere alla Console esperimento dalla dashboard dell'app della Console per gli sviluppatori di Google Play. Vai a Presenza in negozio sul lato sinistro dello schermo e selezionare Esperimenti della scheda dello store. Da lì, puoi selezionare "Nuovo esperimento" e impostare il tuo test.

Esistono due tipi di esperimenti che puoi eseguire: Esperimento grafico predefinito Esperimento localizzato. L'esperimento grafico predefinito eseguirà i test solo nelle regioni con la lingua selezionata come predefinita. Localized Experiment, d'altra parte, eseguirà il test in qualsiasi regione in cui è disponibile l'app.

Il primo ti consente di testare elementi creativi come icone e screenshot, mentre il secondo ti consente anche di testare le tue descrizioni brevi e lunghe.

Quando scegli le varianti di test, tieni presente che più varianti testerai, più tempo sarà necessario per ottenere risultati utilizzabili. Troppe varianti possono far sì che i test richiedano più tempo e traffico per stabilire un intervallo di confidenza che determini il possibile impatto sulla conversione.

Comprensione dei risultati dell'esperimento

Durante l'esecuzione dei test, è possibile misurare i risultati in base ai primi installatori o agli installatori mantenuti (un giorno). Gli installatori per la prima volta sono le conversioni totali legate alla variante, mentre gli installatori mantenuti sono gli utenti che hanno mantenuto l'app dopo il primo giorno.

La console fornisce anche informazioni su Current (utenti che hanno l'app installata) e Scaled (quante installazioni avresti ipoteticamente ottenuto se la variante avesse ricevuto il 100% del traffico durante il periodo di test).

Esperimenti di Google Play e test A / B

L'intervallo di confidenza del 90% viene generato dopo che il test è stato eseguito per un tempo sufficientemente lungo da ottenere informazioni utili. Mostra una barra rossa / verde che indica come le conversioni si adeguerebbero teoricamente se la variante fosse distribuita in tempo reale. Se la barra è verde, è uno spostamento positivo, rosso se è negativo e / o entrambi i colori indicano che potrebbe oscillare in entrambe le direzioni.

Best practice da considerare per i test A / B in Google Play

Quando esegui il test A / B, ti consigliamo di attendere fino a quando non viene stabilito l'intervallo di confidenza prima di trarre conclusioni. Le installazioni per variante possono variare durante il processo di test, quindi senza eseguire il test abbastanza a lungo da stabilire un livello di affidabilità, le varianti potrebbero funzionare in modo diverso se applicate in tempo reale.

Se non c'è abbastanza traffico per stabilire un intervallo di confidenza, puoi confrontare le tendenze di conversione settimana per settimana per vedere se ci sono coerenze che emergono.

Ti consigliamo inoltre di monitorare l'impatto post-distribuzione. Anche se l'intervallo di confidenza indica che una variante di test avrebbe avuto prestazioni migliori, le sue prestazioni effettive potrebbero comunque differire, soprattutto se ci fosse un intervallo rosso / verde.

Dopo aver distribuito la variante di prova, tieni d'occhio le impressioni e osserva come vengono influenzate. Il vero impatto potrebbe essere diverso da quello previsto.

Dopo aver determinato quali varianti funzionano meglio, ti consigliamo di iterare e aggiornare. Parte dell'obiettivo del test A / B è trovare nuovi modi per migliorare. Dopo aver appreso cosa funziona, puoi creare nuove varianti tenendo presente i risultati.

Esperimenti di Google Play e risultati dei test A / B

Ad esempio, quando si lavora con AVIS, Gummicube è stato sottoposto a più round di test A / B. Ciò ha contribuito a determinare quali elementi creativi e messaggistica hanno convertito meglio gli utenti. Questo approccio ha prodotto un aumento del 28% delle conversioni dai soli test grafici delle funzionalità.

L'iterazione è importante per la crescita della tua app. Ti aiuta ad aumentare continuamente il numero delle conversioni man mano che i tuoi sforzi crescono.

Conclusione

Il test A / B può essere un ottimo modo per migliorare la tua app e il tuo generale Ottimizzazione dell'App Store. Quando si imposta il test, assicurarsi di limitare il numero di varianti testate contemporaneamente per accelerare i risultati del test.

Durante il test, monitora in che modo le tue installazioni sono influenzate e cosa mostra l'intervallo di confidenza. Più utenti vedono la tua app, maggiori sono le tue possibilità di stabilire una tendenza coerente che convalidi i risultati.

Infine, ti consigliamo di iterare costantemente. Ogni iterazione può aiutarti a capire cosa converte meglio gli utenti, così puoi capire meglio come ottimizzare e ridimensionare la tua app. Adottando un approccio metodico al test A / B, uno sviluppatore può lavorare per far crescere ulteriormente la propria app.

Cosa ne pensi?

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati dei tuoi commenti.