Jak testować A/B zrzuty ekranu w App Store dla zwiększenia konwersji
Pragmatyczny przewodnik po testach A/B zrzutów ekranu w App Store i Google Play: generowanie wariantów przez API, testy sekwencyjne vs równoległe, dobór wielkości próby oraz odczytywanie wyników z Apple Product Page Optimization i Google Play Store Listing Experiments.
TL;DR
Wybierz jedną zmienną. Generuj warianty, duplikując szablony i zmieniając jeden element. Renderuj przez API, prześlij do App Store Connect (PPO) lub Play Console (Store Listing Experiments). Przeprowadź test przez co najmniej jeden pełny tydzień. Promuj zwycięzcę. Powtórz.
Dlaczego warto testować A/B właśnie zrzuty ekranu?
Zrzuty ekranu są najbardziej wpływowym elementem strony aplikacji w sklepie. Dane Apple dotyczące Product Page Optimization pokazują, że pierwsze trzy zrzuty ekranu generują większość wzrostu konwersji — więcej niż ikona, podtytuł, a nawet wideo zapowiedzi aplikacji. Dokumentacja Google Store Listing Experiments potwierdza to samo: zwycięstwa testów graficznych zwykle zdecydowanie przewyższają zwycięstwa testów tekstowych.
Powodem, dla którego zespoły pomijają testy zrzutów ekranu, jest tarcie. Wyprodukowanie czterech zestawów konkurencyjnych (kontrola + 3 warianty) × trzy rozmiary iPhone × dwa rozmiary iPad × wszystkie obsługiwane lokalizacje oznacza dziesiątki plików na test. Dzięki API renderującemu tarcie znika — jeden duplikat szablonu, jedna zmiana parametru, jedno wywołanie API.
Co właściwie powinieneś testować?
Testuj jedną zmienną na rundę. Najbardziej wpływowe zmienne, w przybliżonej kolejności malejącego znaczenia, to:
- Nagłówek pierwszego zrzutu ekranu — widoczny bez przewijania w wynikach wyszukiwania
- Funkcja flagowa — od której funkcji zaczynasz prezentację
- Styl tła — płaski kolor vs gradient vs zdjęcie
- Ramka urządzenia — z ramką vs bez ramki, kąt makiety
- Pozycja podpisu — nad, pod lub jako nakładka
- Kolor elementu CTA — główny kolor marki vs kontrastowy akcent
Powstrzymaj się od testowania pięciu rzeczy naraz. Testy wieloczynnikowe wymagają ruchu, którego większość aplikacji nie ma, a kończysz ze zwycięzcą, którego nie potrafisz wyjaśnić.
Jak generować warianty programistycznie?
Zduplikuj szablon kontrolny w edytorze, zmień jeden element, zapisz. Następnie renderuj każdy wariant przez to samo wywołanie API — różni się tylko templateId:
# Render the control + 3 challengers
for VARIANT in control red_cta photo_bg short_headline; do
curl -X POST https://api.screenshots.live/v1/renders \
-H "Authorization: Bearer $SCREENSHOTSLIVE_API_TOKEN" \
-H "Content-Type: application/json" \
-d "{
\"templateId\": \"tpl_home_v3_${VARIANT}\",
\"locales\": [\"en-US\"],
\"devices\": [\"iphone-6.7\", \"iphone-6.1\"],
\"outputDir\": \"./variants/${VARIANT}\"
}"
doneW większości testów renderuj tylko te lokalizacje, których faktycznie dotyczy test. Apple App Store Connect Product Page Optimization działa per lokalizacja, więc test tylko dla USA potrzebuje jedynie zasobów en-US.
Jak skonfigurować test w App Store Connect (PPO)?
Apple Product Page Optimization pozwala testować do trzech stron konkurencyjnych względem domyślnej strony w jednej lokalizacji. Apple losowo rozkłada ruch, raportuje wyświetlenia i współczynnik konwersji per wariant oraz pokazuje przedziały ufności, gdy test osiąga istotność statystyczną.
- W App Store Connect otwórz swoją aplikację → Product Page Optimization → Create New Test.
- Dodaj do trzech wariantów strony produktu. Każdy wariant otrzymuje własny zestaw zrzutów ekranu, zapowiedź aplikacji i ikonę.
- Przydziel ruch. Domyślny podział 25% na wariant (kontrola + trzy) sprawdza się w większości aplikacji.
- Wybierz lokalizację. PPO działa per lokalizacja — ten sam test nie może być stosowany jednocześnie do wielu lokalizacji.
- Prześlij do recenzji. Każdy wariant jest sprawdzany przez App Review jak normalne zgłoszenie binarne.
- Uruchom test po zatwierdzeniu wszystkich wariantów.
Zobacz oficjalną stronę Apple Product Page Optimization, aby poznać aktualne limity i czas recenzji.
Jak skonfigurować Google Play Store Listing Experiments?
Proces Google jest podobny, ale bardziej elastyczny. W Play Console przejdź do Store Presence → Store Listing Experiments → Create Experiment. Wybierz:
- Typ: Default Listing (globalny) lub Localized Listing (per lokalizacja)
- Zasób: zrzuty ekranu telefonu, tablet 7-calowy, tablet 10-calowy, grafika promocyjna, ikona
- Warianty: do trzech kandydatów vs kontrola
- Podział odbiorców: domyślnie 25%/25%/25%/25% lub niestandardowy
Play Console automatycznie obsługuje przedziały ufności i oznacza zwycięzcę, gdy wzrost jest statystycznie istotny. Najnowszą dokumentację Google znajdziesz pod hasłem Run experiments on your store listing.
Jak duża próba jest potrzebna?
Użyj standardowego kalkulatora testu z dla dwóch proporcji (z-test) z następującymi danymi:
- Bazowy współczynnik konwersji: obecny CTR strony produktu (zwykle 25–35% w App Store, 5–10% w Play Store)
- Minimalny wykrywalny wzrost: 5% wzrostu względnego to rozsądny próg; poniżej 3% rzadko jest wart czasu
- Poziom istotności: 95% (α = 0,05)
- Moc testu: 80% (β = 0,20)
Dla bazy 30% i wzrostu względnego 5% potrzebujesz mniej więcej 100–150 tys. wyświetleń na wariant. Większość aplikacji z mniej niż 50 tys. wyświetleń tygodniowo powinna prowadzić testy sekwencyjne (jeden wariant przez dwa tygodnie, potem kolejny, porównując ze stabilną historyczną bazą) zamiast równoległych.
Jak długo prowadzić test?
Co najmniej jeden pełny tydzień. Wzorce konwersji znacząco wahają się w zależności od dnia tygodnia i źródła ruchu (Search Ads vs organiczny). Siedem dni obejmuje pełny cykl tygodniowy. Dwa tygodnie są lepsze przy niskim ruchu. Zatrzymaj test wcześniej tylko jeśli (a) różnica jest przytłaczająca (>30% wzrostu) oraz (b) test trwał co najmniej siedem pełnych dni. Wczesne zatrzymanie na szumie to najczęstszy sposób, by wdrożyć gorszą stronę niż ta, od której się zaczęło.
Jak odczytywać wyniki, nie oszukując samego siebie?
Korzystaj z przedziałów ufności samej platformy. Zarówno Apple PPO, jak i Google Play Experiments raportują 90% / 95% przedziały ufności wzrostu wariantu nad kontrolą. Jeśli przedział przecina zero, test jest nierozstrzygnięty — nie wdrażaj wariantu konkurencyjnego tylko dlatego, że estymacja punktowa jest dodatnia.
Nie próbuj wyciągać wyników z danych zewnętrznych narzędzi MMP. Wariant, który widzi użytkownik, jest decydowany po stronie serwera przez Apple lub Google — twój MMP nie widzi, z którego wariantu pochodzi użytkownik. Pulpit samego sklepu jest jedynym wiarygodnym źródłem prawdy.
Co zrobić ze zwycięskim wariantem?
Promuj zwycięski wariant na domyślny. Przegrywających szablonów nie powinno się usuwać — zachowaj je jako punkty odniesienia i zapisz jednolinijkową notatkę o tym, co się zmieniło i czego się nauczyłeś. Następny test bazuje na poprzednim: jeśli krótki nagłówek pokonał długi, kolejny test może badać style ikon w ramach tego krótkiego nagłówka.
Połącz ten przewodnik z przewodnikiem o automatyzacji CI/CD, aby warianty były generowane automatycznie przy każdym wydaniu, oraz z przewodnikiem o lokalizacji, aby twój zwycięzca został przetłumaczony na ponad 30 języków bez ponownego testowania każdego z nich.
Generuj wszystkie te rozmiary automatycznie
Przestań ręcznie zmieniać rozmiar zrzutów ekranu. Zaprojektuj jeden szablon i wyrenderuj każdy rozmiar, urządzenie i język jednym wywołaniem API.
Zacznij za darmo — wypróbuj Screenshots.live