Detta är det tredje och sista inlägget i bloggserien om A/B-test. Här kommer du få ta del av en del praktiska exempel på hur Invise har optimerat vår egen, och våra kunders, webb med hjälp av A/B-test. I exemplen får du ta del av hur originalversionen såg ut, vad vi testade den mot och varför, plus resultaten av utfallet.

Här hittar du alla delar i bloggserien om A/B-test:

A/B-test, del 1: Vad är det & vad kan man testa?

A/B-test, del 2: Fördelar & nackdelar

A/B-test, del 3: Praktiska exempel

Test av rubrik på en landningssida

Original rubrik: Frågorna du inte får missa att ställa XXX innan din XXX
Variation: Den viktigaste guiden om XXX
Resultat: Ökade konverteringen med 21%

Test av formulär

Original: Ett enkelt formulär utan bilder
Variation: Vi la in en bild på en anställd tillsammans med ett citat ovanför formuläret
Hypotes: Besökare vill inte lämna personliga uppgifter om inte upplevelsen inger förtroende (via en bild på en riktig anställd)
Resultat: Minskade konverteringen med 10%. De flesta som besöker sidan gör det via mobilen, och bilden gjorde att besökarna fick scrolla för långt för att nå formuläret. Bilden på doktorn ligger nu på en plats som inte stör för mobilanvändare.

Ändring i design

Original: Landningssidan saknade headerbild, rubriken låg på en röd smal platta.
Variation: En headerbild (250 px hög) utan skarpa detaljer lades bakom rubriken (samma rubrik).
Hypotes: Sidan upplevs som daterad om den inte innehåller en bild, och besökaren antar att det även gäller guiden – vilket gör att de inte vill konvertera.
Resultat: Konverteringen ökade med 4%.

Läs mer: 3 skäl till varför design är viktigt för ditt företag

Olika ämnesrader i ett mailutskick

Original: En lång ämnesrad med längre ord.
Variation: En kort ämnesrad med lite humor.
Hypotes: Mottagarna är en grupp som får många nyhetsbrev. Långa och formella ämnesrader gör att mailet drunknar i massan.
Resultat: Variationen hade 3% högre open rate och 1.2 % ökning i click through rate.

6 viktiga lärdomar att ta med dig om A/B-test:

  • Det gör att du kan optimera marknadsföringen kontinuerligt
  • Du kan dra slutsatser baserat på faktiska resultat
  • Du testar på riktiga besökare, vilket ger tillförlitliga resultat
  • Det kräver att du investerar tid
  • Det kräves någorlunda volym i trafik
  • A/B-test kräver grundlig research

Sugen på att läsa mer? Jag vill passa på att tipsa om boken ”You Should Test That”, skriven av optimerings-gurun Chris Goward som arbetat med företag som Google, Electronic Arts och Iron Mountain.