CorsoUX - Corso di UX Design
Torna al Blog
UX - User Research

AB test: cos'è e come usarlo per aumentare le conversioni

Come progettare un A/B test davvero utile alle decisioni di prodotto: ipotesi, metriche, dimensioni del campione, tool 2026 e gli errori statistici che invalidano la maggior parte dei test in azienda.

CorsoUX10 min di lettura
AB test: cos'è e come usarlo per aumentare le conversioni

L'A/B test è il metodo più democratico per prendere decisioni di prodotto. Non richiede un ricercatore senior, non costa molto, e parla la lingua che piace al business: numeri. È anche uno dei metodi più facilmente sbagliati: la maggior parte degli A/B test che si fanno in azienda è viziata da errori statistici o da framing sbagliato, e produce decisioni che non avrebbero dovuto essere prese.

Questo articolo ti accompagna attraverso l'A/B test fatto bene nel 2026: come formulare un'ipotesi che valga il test, come stimare la dimensione del campione, quali tool usare oggi (diversi da quelli di 5 anni fa), e come riconoscere i risultati che sembrano vincenti ma non lo sono.

Cosa imparerai leggendo:

  • Cos'è davvero un A/B test e quando ha senso farlo
  • Come si formulano ipotesi testabili e metriche primarie
  • I tool di A/B testing più usati nel 2026
  • Come evitare i 5 errori statistici più comuni
  • Gli esempi reali di test che hanno cambiato prodotti famosi

Cos'è un A/B test e cosa non è

Un A/B test (o split test) confronta due versioni di un elemento — una pagina, un bottone, un copy, un flusso — mostrandole casualmente a due gruppi di utenti simili e misurando quale genera risultati migliori su una metrica definita prima del test.

Il cuore metodologico è la randomizzazione: se dividi gli utenti in modo davvero casuale, le differenze osservate tra A e B sono attribuibili con alta probabilità alla differenza di design, non ad altre variabili. È un esperimento controllato nella pratica di prodotto.

Cosa non è un A/B test:

  • Non è "provare una cosa per due settimane e vedere se va meglio del mese scorso". Quello è un confronto pre/post, con mille variabili incontrollate.
  • Non è "mostrare la variante nuova a 100 persone e chiedere se preferiscono". Quello è un test di preferenza, non un A/B test di comportamento.
  • Non è "rilasciare la nuova feature e guardare le metriche". Quello è un rollout, non un esperimento.

L'A/B test misura il comportamento reale, non le opinioni. È questa la sua forza.

Quando ha senso fare un A/B test

Tre condizioni che devono essere vere insieme perché valga la pena.

1. Hai volumi sufficienti. Un A/B test richiede migliaia di conversioni per rilevare differenze piccole (5-10%). Se il tuo sito ha 200 visite al giorno e 5 conversioni, dovresti aspettare mesi per un singolo test. Sotto una certa soglia i test qualitativi (usability test con 5 persone) producono più insight con meno rischio.

2. L'effetto atteso è rilevante. Testare se "cambiare il colore del bottone da blu a verde" aumenta la conversione dell'0,3% è tecnicamente possibile ma quasi mai economicamente sensato. Concentrati su cambiamenti che potrebbero produrre effetti del 10-30%+ sulla metrica target.

3. Hai una metrica primaria chiara. "Vogliamo migliorare l'esperienza" non è una metrica. "Aumentare il tasso di checkout completato dal carrello" sì. Una metrica per test, punto.

Se anche una sola delle tre condizioni manca, un A/B test è probabilmente lo strumento sbagliato. Meglio un usability test, un'intervista, o un rilascio progressivo senza pretese statistiche.

Come si progetta un A/B test serio

Fase 1: formulare l'ipotesi

Un'ipotesi forte ha sempre questa struttura:

Se cambio [elemento] con [variante], allora [metrica] cambierà di [direzione e magnitudine attese] perché [ragionamento basato su dati o research].

Esempio cattivo: "Testiamo un bottone rosso per vedere se funziona meglio." Esempio buono: "Se sposto il bottone 'Completa ordine' sopra la piega sul mobile, il tasso di completamento del checkout aumenterà di almeno il 15%, perché dai session recording vediamo che il 40% degli utenti mobile non arriva mai a scrollare fino al bottone attuale."

L'ipotesi buona ha ragionamento, magnitudine attesa e fonte dell'intuizione. Senza queste tre cose stai facendo test alla cieca.

Fase 2: dimensionare il campione

La domanda chiave: quante conversioni servono per rilevare un effetto del X% con confidenza statistica del 95%?

La formula è complessa ma i calcolatori gratuiti la fanno in 10 secondi:

Esempio concreto: se il tuo tasso di conversione attuale è 5% e vuoi rilevare un miglioramento assoluto dell'1% (cioè portarlo al 6%), servono circa 6.300 visite per variante con confidenza del 95% e potenza statistica dell'80%.

Il messaggio importante: dimensiona prima, non dopo. I test "fermati appena sembra che vinca qualcuno" sono una delle principali fonti di falsi positivi.

Fase 3: impostare il test nel tool

Scegli un tool (vedi sezione sotto), definisci:

  • URL target (o flusso in caso di test mobile/app)
  • Variante A (controllo, il design attuale)
  • Variante B (la tua ipotesi)
  • Metrica primaria (e solo una primaria)
  • Metriche secondarie (2-3 massimo, per controllo)
  • Percentuale di traffico da instradare al test (tipicamente 50/50)
  • Durata minima del test (basata sul campione necessario)

Fase 4: far girare il test senza toccarlo

La regola d'oro: non guardare i risultati prima della fine prevista. Ogni volta che sbirci e prendi una decisione sulla base di dati parziali, introduci bias di interruzione che invalidano il test.

Durata minima suggerita: almeno 2 settimane interi, anche se i numeri arrivano prima. Questo copre i cicli settimanali (utenti del weekend vs utenti feriali) che in quasi tutti i prodotti mostrano comportamenti diversi.

Fase 5: analizzare e decidere

Al termine del test, leggi i risultati:

  • La differenza è statisticamente significativa? (p-value < 0,05 è la soglia classica)
  • La differenza è rilevante in pratica? Un test può essere statisticamente significativo ma con un effetto troppo piccolo per giustificare il rollout.
  • Le metriche secondarie confermano la storia? Se il tasso di click aumenta ma il bounce rate aumenta di più, qualcosa è sbagliato nel framing.

Decisione: implementi la variante vincente, o fermi tutto se non c'è un vincitore chiaro.

I tool di A/B testing nel 2026

Il panorama è cambiato molto negli ultimi anni. Google Optimize (gratuito) è stato dismesso nel 2023, e questo ha spinto il mercato verso soluzioni a pagamento più specializzate.

Enterprise e scale-up

  • Optimizely — il più completo per aziende con volumi alti. Web, mobile, feature flag, full-stack testing. Prezzo enterprise.
  • VWO — alternativa più accessibile a Optimizely, con una suite completa che include session recording e heatmap. Prezzi a partire da qualche centinaio di dollari al mese.
  • AB Tasty — piattaforma europea con buona GDPR compliance, molto usata nelle aziende EU.

Feature flag e testing server-side

  • LaunchDarkly — lo standard per il feature flagging, con capacità di A/B test server-side integrate. Pensato per team di prodotto tech.
  • Statsig — alternativa più recente, molto usata dalle startup tech, con un tier gratuito generoso.
  • GrowthBook — open source, self-hostable, ottimo per chi vuole controllo completo sui dati.

Piccole aziende e prototipi

  • Convert.com — fascia media, facile da usare, buona per e-commerce.
  • Microsoft Clarity — gratuito, non è un tool di A/B test vero e proprio ma fornisce session recording e heatmap per informare le ipotesi del test.

UX Research focalizzato

  • Maze — test di usabilità non moderati che possono funzionare come preference test; non sostituisce un A/B comportamentale puro.

Per approfondire gli strumenti di research non moderata leggi la guida ai tool di unmoderated testing.

Gli errori statistici più comuni

Cinque insidie che invalidano una quota enorme dei test in azienda:

1. Peeking (sbirciare i risultati)

Guardare i risultati ogni giorno e fermare il test "appena sembra che B abbia vinto" è uno dei modi più veloci per convincersi che una variante peggiore è migliore. Ogni interruzione anticipata gonfia il tasso di falsi positivi.

Soluzione: fissa la durata prima del test e non guardare risultati parziali. Se devi guardare, usa tool con correzione sequenziale (Bayesian tests, group sequential analysis).

2. Test di cambiamenti troppo piccoli

Testare se "il bottone deve essere #3A7CF5 o #3B7EF6" è una perdita di tempo: le differenze cromatiche troppo piccole non producono effetti rilevabili con i volumi tipici. Testa ipotesi grosse, non dettagli.

3. Multipli test sulla stessa pagina contemporaneamente

Se testi A/B sul bottone e contemporaneamente A/B sul titolo, le varianti si intrecciano e non puoi più attribuire gli effetti. Un test alla volta per area di prodotto — o test multivariati (MVT) strutturati, se hai il know-how per progettarli.

4. Ignorare le metriche di counter-balance

Un test che aumenta il click-through può abbassare la qualità dei lead. Un test che aumenta le registrazioni può abbassare il churn. Definisci sempre metriche di contro-bilanciamento e monitorale.

5. Non considerare l'effetto novità

Quando mostri una variante nuova, molti utenti la cliccano semplicemente perché è diversa. Questo effetto novità svanisce in 1-2 settimane. Se il tuo test dura meno, attribuirai al design quello che è solo curiosità momentanea.

Esempi reali di A/B test che hanno cambiato prodotti

Obama 2008: il test che ha cambiato le donazioni politiche

La campagna presidenziale Obama del 2008 ha fatto uno degli A/B test più celebrati nella storia del digitale. La pagina di iscrizione alla newsletter (e donazioni) aveva 6 varianti: diverse immagini (foto vs video di Obama) e diversi testi sul bottone CTA ("Sign Up", "Learn More", "Join Us Now", "Sign Up Now").

La combinazione vincente (foto di famiglia + bottone "Learn More") ha portato un miglioramento del 40% nei tassi di iscrizione. Moltiplicato per il traffico totale della campagna, ha generato circa 288 milioni di dollari di donazioni aggiuntive rispetto alla baseline, secondo le analisi post-campagna di Dan Siroker, all'epoca Director of Analytics della campagna e poi fondatore di Optimizely.

Airbnb: il matching che fa accendere la prenotazione

Airbnb ha una cultura di A/B test estrema: ogni cambiamento significativo nel prodotto passa per un test. Uno dei più noti ha riguardato il rendering dei risultati di ricerca: mostrare prezzi totali (con fees) invece di prezzi per notte ha ridotto il tasso di abbandono carrello ma ha ridotto anche il click sui primi risultati. Il trade-off è stato accettato perché la metrica primaria (prenotazioni completate) è migliorata.

Booking.com: 1000 esperimenti in parallelo

Booking.com nel suo picco di crescita eseguiva letteralmente migliaia di esperimenti in parallelo — un livello di sofisticazione possibile solo con traffico enorme e infrastruttura dedicata. Il lesson learned pubblicamente condiviso dai loro blog post: "la maggior parte dei tuoi test vincenti sarà nell'ordine dell'1-2% di miglioramento, non del 20%. Diffida dei risultati troppo belli per essere veri."

Domande frequenti

Quanto dura un A/B test tipico?

Dipende dal volume. Per un sito con volumi medi (10.000 visite al giorno) un test tipico dura 2-4 settimane. Per volumi bassi può allungarsi a 6-8 settimane. Per volumi altissimi (Booking, Amazon) un test può concludere in 2-3 giorni.

Posso fare A/B test con Google Analytics?

Google Analytics non è un tool di A/B test: misura il comportamento degli utenti ma non randomizza il traffico tra varianti. Hai bisogno di un tool dedicato (Optimizely, VWO, Statsig, ecc.) che poi può inviare i dati degli esperimenti a Google Analytics per analisi integrate.

A/B test e usability test sono alternativi?

No, sono complementari. Il test di usabilità (5 persone, moderato) scopre perché un design non funziona. L'A/B test (migliaia di utenti, comportamentale) misura quanto una soluzione funziona. I migliori team di prodotto usano entrambi in sequenza: usability test per generare ipotesi, A/B test per validarle su scala.

Serve uno statistico per fare A/B test?

Per test semplici no: i tool moderni gestiscono la matematica. Per test complessi (MVT, segmentazioni, cross-device) la consulenza di uno statistico o un data scientist fa una differenza enorme — sia nell'interpretazione dei risultati sia nell'evitare errori.

Qual è la differenza tra A/B test e multivariate test (MVT)?

Un A/B test confronta due varianti di un singolo elemento. Un MVT confronta molte combinazioni di più elementi contemporaneamente (es. 3 titoli × 3 immagini × 2 bottoni = 18 varianti). Gli MVT richiedono volumi molto più alti — mediamente 5-10 volte più traffico di un A/B test semplice.

Posso fare A/B test su piccoli volumi senza statistica formale?

Sì, ma devi essere onesto sulla natura del risultato. Un "mini A/B test" con poche centinaia di utenti può dare indicazioni qualitative — "forse B funziona meglio" — ma non prove statistiche. È più simile a un test di preferenza esteso. Leggi la guida al test di preferenza per il metodo qualitativo equivalente.

Prossimi passi

L'A/B test è uno strumento potente ma che va usato nel momento giusto del ciclo di prodotto. Tre consigli pratici:

  1. Non partire da qui: prima dei test quantitativi, fai usability test qualitativi per capire i problemi reali
  2. Leggi la guida completa sul user research per inquadrare l'A/B test nel panorama dei metodi disponibili
  3. Studia la legge di Hick e gli altri principi cognitivi per formulare ipotesi più forti sul comportamento degli utenti

Nel Corso di User Research di CorsoUX, l'A/B test è uno dei metodi che insegniamo accanto a interviste, test di usabilità moderati e non moderati, con esercizi pratici su prodotti reali supervisionati da mentor che fanno research ogni giorno.

Condividi