Derfor er brugertest værdifulde i konverteringsoptimering

Brugertest er et værdifuldt og effektivt værktøj i optimering af alle typer digitale medier. Læs hvordan brugertest kan indgå i konverteringsoptimering og få indblik i vigtige forskelle i brugertest.

Tillad mig først en kort “belærende” omgang introduktion, bare for en ordens skyld. Vil du kun høre om umodereret brugertest i relation til konverteringsoptimering, så spring ned til det afsnit.

Helt grundlæggende er en brugertest: Sæt en bruger til at løse relevante opgaver i brugergrænsefladen. Optag stemme, video og den interaktion der foregår. Analyser resultatet. I grunden enkelt.

Grafik af brugertest
Ja, sådan foregår det: Brugertest

For de fleste betyder brugertest det, der i folkemunde kaldes en “Tænke-højt-test” (eller måske mere korrekt en brugertest med brug af tænke-højt protokollen). Den vigtige forskel er at brugeren fortæller (tænker-højt) hvad hun tænker, mens hun klikker rundt og løser opgaverne. Det er den type test som usability og UX bureauerne laver. Det er den klassiske brugertest.

Derudover er der en række variationer over temaet. En vigtig forskel, er interaktionen mellem de der afvikler testen og selve testdeltageren. I den klassiske test er der nemlig en moderator (nogen kalder det testlederen). Det er den person der styrer testen: Tager imod, fortæller hvad der skal ske, sætter testen i gang, stiller spørgsmål og runder af. En af moderatorens vigtigste opgaver er, at sørge for at testpersonen tænker højt, at spørge ind til situationer undervejs og eventuelt hjælpe testpersonen videre i testen. Kort fortalt er moderatorens erfaring og kompetence afgørende for testens kvalitet.

Umodererede test og kvalitet

Derfor er det vigtigt at skelne mellem modererede og umodererede test. De test man køber på nettet (som fx hos Usertribe og Optuner i Danmark, hvor brugere fra et panel udfører test hjemme på deres egen computer er umodererede test). Når der ikke er en moderator til at følge, støtte, spørge ind og holde brugeren til biddet, ja så er der en række potentielle fejlkilder. For eksempel at brugeren løser opgaverne forkert, kigger på de forkerte ting på sitet, glemmer at fortælle hvad der foregår eller på anden måde “spilder” tiden. Det gør at disse umodererede test reelt set, er af en lavere validitet. Det betyder at man i mindre grad får svar på det man spørger om – altså at der er støj i resultaterne.

Det er nogen ligeglade med, det betyder at troværdigheden, at gyldigheden, at kvaliteten af de konklusioner man laver – at den er mindre. Så vær opmærksom på det.

Her kan du se et eksempler på brugertest fra Optuner.dk:

Brugertest i konverteringsoptimering

Brugertest er et vigtigt værktøj i konverteringsoptimering. Af flere grunde, lad mig bare nævne to:

1) Brugertest giver direkte indsigt i hvor brugerne oplever problemer på dit website. I brugertesten kan du (og andre) med egne øjne se hvor brugerne har det svært, se hvor de reagerer negativt, høre hvor de synes ting er underlige, osv. Hvis brugerne tænker højt, kan du høre hvordan de selv sætter ord på de situationer og få indblik i brugerens egen måde at forstå og begrunde problemer. Det kan du ikke med andre metoder.

Det er meget sjældent at der ikke kommer værdi ud af en brugertest og det sker oftest hvis testen ikke er forberedt ordentligt.

2) Særligt til konverteringsoptimering er der en sidegevinst. For optimering handler meget om at forstå hvilke følelser, beslutninger og begreber, dine potentielle kunder bruger tillægger dit produkt og din service. Men modsat et rent interview, så sidder de med websitet foran sig og kan forholde sig konkret til det. Når du lytter til optagelsen, får du foræret temaer til din value proposition, til dine søgeord, til hypoteser omkring hvilke følelsesmæssige aspekter omkring beslutningsprocessen der er i spil – er det angst, er det motivationen, er det ikke det værd, er det for kompliceret?

Hvis du skal lave et kundeportræt (for ikke at kalde det en persona), så få du gode input der. Det portræt kan du bruge til at “spørge” hver gang du har en designbeslutning (til netop det kundesegment naturligvis): Hvad er det drivende princip som re-designet skal afprøve? Hvad er vores hypotese? Det kvalificerer dine beslutninger og minimerer behovet for gætværk.

Det er også derfor mange konverteringsoptimerings-konsulenter taler varmt for UX og usability – der er en stærk kobling der.

Faktisk mener jeg, at umodereret brugertest er bedre til at kvalificere hypoteser i konverteringsoptimering end som udgangspunkt for direkte re-design rettelser. Lad mig forklare. Tag ikke de problemer du oplever i en umodereret test for pålydende, sådan at du på baggrund af fx 5 test ændrer direkte på dit website. Mange gange kan det ikke forsvares uden at en erfaren konsulent /brugertest specialist har været inde over. Men brug i stedet testen som en af flere kilder, til at opbygge din kundeforståelse – for den er guld værd når der skal diskuteres hvilke ændringer der skal afprøves.

Fordele og ulemper

De umodererede test har også et par fordele: De er billigere, hurtigere og nemmere at gennemføre end andre typer brugertest.  En færdig rapport med 5 brugertest, konklusioner og ekspert-råd koster fra omkring 9.000. De mere traditionelle testrapporter koster ofte fra 25 til 50.000. Men husk at pris og kvalitet har en sammenhæng som antydet ovenfor.

Det gør dog at langt flere bruger de umodererede test og det er kun godt. Det betyder også at det er billigere at lave flere og det kan kun anbefales.

Skriv gerne dine erfaringer herunder, meget gerne i relation til at lave konverteringsoptimering  og har du spørgsmål til brugertest, så er de meget velkomne. Jeg har skrevet en bog der introducerer brugertest på www.usabilitybog.dk, ellers kan jeg varmt anbefale Steve Krug’s bog: Rocket Surgery Made Easy, som trods titlen er en glimrende og underholdende introduktion.

Luk dine ører når folk blærer sig med forøgede konverteringsrater

Hvorfor?

Fordi du ikke kan bruge de tal til noget. De er totalt relative. Lad mig give et eksempel:

"Jeg har forøget konverteringsraten med 25%".

For det første ved vi ikke noget om, hvad de 25% dækker over. Hvis jeg havde 20 salg i går og 25 i dag, så er det forøget med 25%. Ikke nødvendigvis imponerende.
Og hvad er det der er forøget? Ofte tales der om konverteringer, men det behøver ikke være mersalg. Det kan også blot være mikro-konverteringer, som tilmeldinger til nyhedsbrev eller bare klik på en søgeknap.

Så forøgelsen i sig selv, om den er 10% eller 200% er ligegyldig. Og der er flere faktorer der spiller ind.

Du kan jo læse lidt på det her: Should I optimize for micro conversions?

Pointen, i denne artikel af Widerfunnel, er at du kan risikere at optimere "lokalt", men samtidigt skade dit salg eller anden makrokonvertering længere nede i salgstragten. Det er en rigtig bitch, fordi du (og jeg) typisk har langt færre konverteringer på makroniveau (altså fx salg) end på mikro (fx søgning på produkt). Nogle optimizere siger 100, andre 200 konverteringer, men er dine variationer i testen meget ensartede kan du risikere at skulle op på langt højere tal.

I eksemplet herunder (sammenklip fra Optimizely), kan du se at jeg har over 800 konverteringer på mig mål, men kun en statistisk sikkerhed på højest 87%. Optimizely selv arbejder som minimum med 95% sikkerhed, og det er jeg altså langt fra. For mange mindre websites er det at have 800 konverteringer rigtigt meget og tager lang tid at indhente. Men alligevel ser jeg ofte personer fra begejstret fortæller om deres forøgelse baseret på 50 konverteringer – det er altså ikke godt nok. Så tag ikke andres tal for gode varer. (Heller ikke mine ;) ).

Konverteringstal fra optimizely

På samme måde kan man heller ikke sammenligne konverteringsrater i almindelighed. Morten Vadskær fortæller for eksempel altid om hans 9% på kondomaten (der er hak i pladen Morten), men hos mig i rejsebranchen er 9% en umulighed. Lå vi på 9% var vi stenrige. Så de 9% er ligegyldige og siger ikke noget om Morten succes eller dygtighed – i hvert fald ikke i forhold til dit website (med mindre du sælger kondomer). Nu er kunderne måske heller ikke så bange for at brænde fingrene på en pakke kondomer til 25,95, men de er lidt mere forsigtige når det er årets opsparing på turen til Thailand til 40.000. Konkurrence er vist også lidt hårdere i rejsebranchen.

Så skal du lytte til folk der vil fortælle om deres resultater, så spørg hellere til deres metodik, til hvilke erfaringer de kan give videre som er relevante for dit website. Du skal gøre dig dine egne erfaringer. Få fundet dig en optimizer du kan lide at arbejde med, øve dig på at opsætte mål, tjekke om du mener værktøjet er troværdigt: Du kan fx prøve at lave en test med de samme 5 variationer og se hvor længe der skal gå, før alle variationerne scorer lige højt.

Jeg har været igennem et par forskellige værktøjer nu og har fundet min favorit, men selvom jeg kører test med omkring 20.000 besøg om måneden, så føler jeg mig stadig ikke sikker på værktøjet. Stoler jeg ikke på værktøjet, så kan det hele være ligemeget.

Gør det selv

Ligesom med brugertest har jeg det sådan, at du faktisk kan (læs: bør) gøre hele arbejdet selv – ikke købe dig til det udefra. Det er ikke svært at lære og det bliver bedst hvis det er en rolig, langsigtet proces, der følges med de øvrige aktiviteter du har omkring markedsføring og optimering. Det er i hvert fald mit råd. Men modsat brugertest (som jeg fx også har skrevet en bog om og som også er rimeligt let at lære), så er det ikke så let af finde dansksproget, introducerende, hjælpsom tekst om emnet.

Derfor må vi gøre vores egne erfaringer, lære det selv, forstå vores egne tal, relatere dem til vores forretning. Men jeg vil i hvert fald meget gerne dele erfaringer – kender du et godt forum til det?

/Ole

Skal I også i gang med at måle på usability?

Der er en klar trend i tiden synes jeg, omkring at måle på usability. Måle i den forstand, at få fingre i nogle tal, der kan give indblik i hvordan vores brugere handler. Og her taler vi ikke bare om at se besøgstal i Google Analytics, men også om at få nogle kvantitative svar på forskellige brugs-relaterede spørgsmål i forskellige brugs-relaterede kontekster. Hele tiden med ønske om mere konkret at få indblik i 'kvalitet i brugen' af vores produkt. Lad mig give et eksempel:

Usability KPI i en kommune

En kommune i hovedstadsområdet ønsker helt overordnet at sætte sig en række mål for brugen af kommunens digitale services – alt fra antal henvendelser i borgerservice om barsel til antallet af downloads af bestemmelser omkring sygefraværsregler. Behovet udspringer primært fra tankegang (tror jeg) omkring at styre fremdrift igennem måling – altså en form for ledelsesstrategi. Det betyder at kommunens afdelinger skal definere en række KPI'er – målepunkter på deres ydelser – og på et mere systematisk niveau kunne afgøre om der sker fremdrift på baggrund af de aktiviteter og initiativer/projekter der sættes i søen. Det giver sikkert alt sammen udmærket mening.

Webafdelingen i pågældende kommune står nu overfor en udfordring, om ikke andet, så som kompetence på det digitale område og ansvarlig for at hjælpe resten af organisationen på vej: Hvilke målepunkter skal der opstilles (på vegne af hele kommunens online servicestruktur) og hvordan skal disse måles?

Jeg blev inviteret til at give lidt input, gennemgå et par måder at måle på usability og tage en diskussion med nogle af medarbejderne omkring hvordan de skulle bevæge sig fremad i den proces. Her er i korte træk hvad vi talte om:

Første trin er at beslutte hvad der skal måles på. De enkelte afdelinger har nogle svagt definerede ønsker og forskellige politiske prioriteter, men trænger til at kigge på to ting: Den ene er at få defineret hvad der skaber værdi for kommunen (eller afdelingerne) og den anden er at undersøge hvad der skaber værdi for brugerne. Værdi kan være at have færre borgere der ringer til kommunen og i stedet selvbetjener sig til svar/løsninger. For begge parter er dette en nemmere og hurtigere løsning = værdi. Målet er selvsagt at skabe mere af den værdi for kommunen, ved at forøge værdien for borgerne (det er jo en slags essens af det arbejde med usability).

Hvordan kan den værdi så måles? Det kan være gennem helt almindelig statistik, altså besøgstal eller lignende. Både på den online del, men også på presset på telefoner og email. Uanset hvordan vi skaber den viden, så vil den blive et udgangspunkt, det vi med fint kan kalde for et benchmark. Der vil også blive behov for nogle tilgange til at teste/måle, hvordan brugen udvikler sig, efterhånden som vi re-designer vores digitale services.

Fra den viden kan man også forsøge at skabe nogle usabilitymål. Et usabilitymål kan indeholde en beskrivelse af hvem der skal kunne hvad og i hvilken grad, samt naturligvis et niveau der skal opnås. Så kan kommunen fra test til test, vurdere om der er fremdrift.
En begrundelse for at tale om usabilitymål og for at se på andre tilgang en at kigge på brugs-relateret statistik, er at fx besøgstal og bouncerate%, ikke siger noget om hvor svært brugerne har ved fx at forstå regler eller love. Der skal andre metoder til.

Tre måder at måle på brugen

Den typiske tilgang er at lave brugertests. At stille repræsentative brugere repræsentative opgaver og tage bestik af hvordan det går. Det giver masser af input til at forbedre de digitale services, men der kan være en udfordring omkring at måle på disse tests. Uden måling kan vi ikke arbejde med målepunkter. Men til en start kan man sagtens få tal ud af brugertests, fx den procentvise gennemførelse af testopgaver, antal klik eller den tid det tager at løse opgaven (alt efter typen af test).

En anden tilgang kan være at gå mere digitalt til værks. Her kommer kommunen lidt til kort, fordi der ligger en række tekniske begrænsninger for hvilke værktøjer der må implementeres på kommunale hjemmesider (hvilket jeg personligt synes er bullocks). Men hvis vi lige ser bort fra det, så kunne en tilgang være hændelses-sporing.

I Google Analytics hedder det også Event Tracking. Det er et spændende og relativt nyt fænomen. Fordelen er at der kan opstilles hele specifikke handlinger online, som tælles og opsummeres i Googles Analytics interfacet. Det kan være klik på bestemte elementer, udfyldning af felter, downloads eller alt muligt andet. Det giver mulighed for at komme lidt mere i detaljen end blot sidevisninger og besøg. Det giver også mulighed for at måle på handlinger der foregår på den enkelte side eller opsamle sammensatte handlinger, som man fokuseret ønsker at tælle.

Denne metode giver ikke indblik i hvorfor brugerne handler som de gør, men prøver i stedet at fokusere på at tælle ønskede handlinger, som et symptom (eller målepunkt) på kvaliteten af brugen.

En tredie tilgang kan være at lave A/B eller multivariant test, hvor forskellige variationer af en hjemmeside, eller dens elementer testes live op mod hinanden. Det er også et område under stor udvikling, som har en vis iboende evidensbaseret styrke, fordi man direkte kan måle hvordan forskellige designs klarer sig.

Det kan gøre på mange måder, fra at teste en enkel sides evne til at skabe flere most-wanted-actions, til at vurdere om en hele sekvens af sider får flere brugere til at gennemføre et bestemt forløb. Om det bruges til e-handel eller til regler for sygedagpenge er som sådan underordnet.

Hvad skal vi måle på?

Så lang så godt. Tre forskellige tilgange som har hver deres styrker og svagheder, som til dels kan minimeres ved at afvikle dem sideløbende. Men også tre tilgange som alle har som forudsætning, at man ved hvad man vil måle på.

Så den største opgave, også for omtalte kommune, er at definere: Hvad vil vi måle på og hvilke mål skal vi sætte for brugen?

Kommunen valgte at starte med at indsamle viden. Lave brugertest og spørgeskemaer, for at få et indtryk af den nuværende brugs-situation(er).

Men kommunen er blot et eksempel. Samme behov opstår i denne tid naturligt i mange andre virksomheder, hvor ledelsen meget gerne vil have bedre styre på fremdrift og værdi af alle de digitale services. Men ikke bare værdi som besøgstal eller antal klik – også værdi som kvalitet i brugen – fordi den kvalitet i stigende grad er en afgørende faktor i virksomhedens strategi.

 

/Ole Gregersen