Struttura headings (8 sezioni):
- Cos’è davvero l’A/B testing (e cosa non è) — definizione operativa, link a performance marketing
- Come si imposta un test A/B che porta risultati veri — metodologia step-by-step, ipotesi, traffico minimo
- Cosa testare prima: CTA, headline, immagini, prezzi — priorità d’impatto, lista ordinata
- A/B testing su Facebook Ads e creative testing — link a Facebook Ads e creative
- A/B testing su Google Ads: annunci, landing, keywords — link a Google Ads
- A/B testing nelle email per spingere il CTR — link a email marketing
- Gli errori più comuni che ti fanno buttare soldi nei test — checklist pratica
- Strumenti, significatività statistica e quando fermare un test — link a casi studio e AI
FAQ finali: 6 domande frequenti
A/B Testing per Migliorare le Conversioni: La Guida Pratica che Avresti Voluto Leggere Prima

Punti Chiave da Portare a Casa
| Cosa devi sapere | In una riga |
|---|---|
| Definizione | Confronti due versioni (A e B) della stessa cosa per vedere quale converte meglio |
| Quando funziona | Solo con traffico sufficiente, ipotesi chiara e una variabile alla volta |
| Cosa testare per primo | CTA, headline e immagine principale: portano il maggior delta |
| Errore numero uno | Fermare il test troppo presto, prima della significatività statistica |
| ROI atteso | Un programma di test serio porta tra il 10% e il 40% in più di conversioni nei primi 6 mesi |
| Strumenti base | Google Optimize (deprecato), VWO, Optimizely, Convert, oppure i test nativi di Meta e Google |
Cos’è Davvero l’A/B Testing (e Cosa Non È)
L’A/B testing è un esperimento. Mostri la versione A a metà del traffico, la versione B all’altra metà, e guardi quale porta più conversioni. Punto. Non è “intuito guidato dai dati”, non è “ottimizzazione magica”, non è qualcosa che fai una volta e dimentichi.
Quando ho cominciato a fare test seri sui clienti che gestisco col team di Dominanza Digitale, pensavo che bastasse cambiare il colore di un bottone per fare miracoli. Sbagliato. I micro-cambi raramente spostano l’ago. Quello che sposta l’ago sono i cambi strutturali: una promessa diversa, un’offerta riposizionata, un’immagine che parla a un’altra fetta di pubblico.
E qui c’è un equivoco grosso da chiarire subito. L’A/B testing non è un sostituto della strategia. Se la tua landing page è generica, se il prodotto non ha un posizionamento forte, se il funnel ha buchi, nessun test ti salverà. Il test serve a ottimizzare qualcosa che già funziona, non a riparare qualcosa che è rotto.
Cosa serve quindi per partire?
- Un’ipotesi formulata bene: “se cambio X, succederà Y, perché Z”
- Una metrica primaria chiara: conversioni, lead, fatturato per visitatore — una sola
- Traffico sufficiente: sotto i 1.000 visitatori per variante a settimana, lascia perdere
- Una sola variabile cambiata: altrimenti non saprai mai cosa ha causato cosa
Quanto traffico serve davvero? Dipende dal baseline conversion rate. Se converti al 2%, ti servono parecchie migliaia di visite per variante. Se converti al 15%, te ne basteranno molte meno. Esistono calcolatori di sample size gratuiti — usali sempre prima di lanciare un test, mai dopo.
Una nota personale: il primo cliente serio su cui ho fatto test era un e-commerce di abbigliamento sportivo. Volevamo testare due headline diverse sulla home. Risultato? Nessuna delle due ha vinto in modo statisticamente significativo. La lezione che ho imparato? Avevamo testato due varianti troppo simili tra loro. Da lì in poi, regola fissa: le varianti devono essere radicalmente diverse, altrimenti stai sprecando traffico per scoprire che 7 e 7 sono uguali.
Come Si Imposta un Test A/B che Porta Risultati Veri
Il processo che usiamo internamente è semplice ma rigido. Salta uno step e il test perde valore. Te lo racconto come lo spiego ai junior che entrano nel team di performance.
Fase 1: Identificazione del problema. Guardi i dati. Dove perdi più persone nel funnel? Heatmap, session recording, GA4 — questi sono i tuoi amici. Se il 70% degli utenti scrolla solo metà della landing, hai trovato dove iniziare. Se il bottone “aggiungi al carrello” ha un click rate del 3%, hai trovato dove iniziare.
Fase 2: Formulazione dell’ipotesi. Niente “proviamo questo e vediamo che succede”. Le ipotesi vere hanno questa struttura:
- Osservazione: i dati ci dicono X
- Ipotesi: pensiamo che Y sia la causa
- Predizione: cambiando Y, otterremo Z
- Misura: la metrica primaria sarà K
Fase 3: Calcolo del sample size. Mai partire senza sapere quanti utenti servono. Quanti? Dipende da:
| Variabile | Impatto sul sample size |
|---|---|
| Conversion rate attuale | Più basso = più utenti necessari |
| Minimum detectable effect | Più piccolo il delta che vuoi rilevare = più traffico |
| Confidence level | Standard 95%, alcuni usano 90% per andare più veloce |
| Statistical power | Standard 80% |
Fase 4: Lancio del test in condizioni pulite. Non lanciare durante il Black Friday. Non lanciare quando hai una campagna di brand awareness in corso che gonfia il traffico. Non testare due cose insieme sulla stessa pagina (a meno che tu non sappia fare un test multivariato vero, che è un’altra bestia).
Fase 5: Analisi e decisione. Quando il sample size è raggiunto e il risultato è significativo, decidi. Implementi la variante vincente, oppure scarti tutto e formuli un’ipotesi nuova. Niente “lo lascio andare un’altra settimana per essere sicuro” — quello è un modo elegante di mentire a se stessi.
Una cosa che molti dimenticano: documenta sempre tutto. Ipotesi, durata, varianti, risultato, decisione. Tra sei mesi non ti ricorderai più perché avevi fatto un certo test, e rifare gli stessi esperimenti è uno dei modi più stupidi di bruciare budget.
Cosa Testare Prima: CTA, Headline, Immagini, Prezzi

Non tutti gli elementi sono uguali. Se hai tempo per fare 10 test all’anno, dove li metti? Ecco l’ordine di priorità che ho costruito negli anni guardando centinaia di test, in ordine di impatto medio sulle conversioni.
1. La promessa principale (headline + sottotitolo). È la cosa che guarda per prima il 100% degli utenti. Cambiare la promessa significa cambiare a chi parli e perché. Un headline che vende il “risultato finale” batte quasi sempre uno che descrive il “prodotto”. Esempio: “Rinforza la schiena in 8 settimane” batte “Corso di pilates online avanzato”.
2. La call-to-action. Testo, colore, posizione, dimensione. Ma soprattutto testo. “Acquista ora” contro “Inizia subito” contro “Provalo gratis 14 giorni” — la differenza tra il peggiore e il migliore può essere del 40-60% sul click rate. Eppure quasi nessuno lo testa per davvero, si va a sentimento.
3. L’immagine principale (hero). Persona contro prodotto. Volto contro corpo intero. Sguardo in camera contro sguardo verso il prodotto. Le foto stock non funzionano quasi mai, le foto autentiche battono quelle finte 8 volte su 10.
4. Il prezzo e la struttura dell’offerta. Tre piani contro due piani. Mensile contro annuale. Sconto in percentuale contro sconto in valore assoluto. Qui i delta possono essere enormi, ma attenzione: testare prezzi diversi sullo stesso pubblico nello stesso momento ha implicazioni etiche e legali. Fai segmentazione per geografia o per nuovo/vecchio cliente.
5. La social proof. Numero di recensioni mostrate, posizione delle testimonianze, presenza di loghi clienti. Spostare le recensioni sopra il fold porta in media il 15-20% in più di conversioni su e-commerce.
6. Il form. Numero di campi, ordine dei campi, presenza di placeholder, etichette sopra o accanto. Ridurre da 7 a 4 campi su un form di lead generation può raddoppiare il tasso di compilazione. Te lo dico per esperienza: fatto su un cliente B2B, +118% di lead in due settimane. Stop.
Cosa non testare per primo? I micro-elementi. Il colore esatto del bottone, la sfumatura del background, la dimensione del padding. Roba che porta delta dell’1-2%, che spesso non raggiunge nemmeno la significatività statistica e che ruba tempo prezioso a test che davvero contano.
E un consiglio da chi ha visto sbagliare tante volte: prima di testare qualcosa, chiediti “se vincesse del 30%, cambierebbe qualcosa di sostanziale nel business?” Se la risposta è no, non testare quella cosa.
A/B Testing su Facebook Ads e Creative Testing

Su Meta, l’A/B testing ha una sua logica particolare. Non è la landing page che cambia, è il creative — e il creative su Facebook Ads è il 70-80% del successo della campagna. Targeting e budget contano, ma l’algoritmo è diventato così bravo che spesso testare audience non porta più i delta di una volta. Il vero campo di battaglia oggi è la creative.
Come si fa un test creative serio su Meta? Due strade.
Strada A: il test nativo dentro Ads Manager. Meta ti permette di lanciare A/B test ufficiali. Tieni costanti tutte le variabili, cambi una sola cosa (creative, audience, posizionamento, ottimizzazione). Pulito, statistico, affidabile. Difetto? Costa, perché serve traffico dedicato ad ogni variante.
Strada B: il test per CBO con più ad set. Lasci che l’algoritmo distribuisca il budget in base alle performance. Più veloce, più economico, ma meno “scientifico”. Va bene per identificare creative vincenti rapidamente, meno bene per misurare delta precisi.
Cosa testare nei creative? Ecco cosa funziona meglio in ordine di impatto:
- Hook nei primi 3 secondi del video: cambia tutto, è la variabile più importante in assoluto
- Formato: video contro statico, carosello contro singola immagine
- Angolo del messaggio: pain point contro aspirazione contro social proof
- UGC contro creative brand: l’UGC vince quasi sempre nei nuovi clienti, ma perde in retargeting
- Lunghezza del video: 15 secondi contro 30 contro 60 — dipende molto dal prodotto
Una cosa che ho imparato lavorando su account che spendono 6 cifre al mese: non testare un creative per volta. Lancia 8-12 creative in parallelo dentro lo stesso ad set, lascia girare 5-7 giorni, e poi analizza. L’algoritmo di Meta è abbastanza furbo da identificare i vincenti in pochi giorni se il budget è sufficiente.
Quanto budget serve? Regola pratica: almeno 50 acquisti per creative per dichiarare un vincitore con un minimo di confidenza. Se il tuo CPA è 25 euro, servono 1.250 euro per creative testato. Sembrano tanti? Considera l’alternativa: scalare un creative perdente e bruciare 5.000 euro per scoprire che non funzionava.
E i metriche da guardare durante il test? Non solo CPA e ROAS. Guarda anche:
| Metrica | Cosa ti dice |
|---|---|
| Hook rate (3s) | Se il creative cattura attenzione |
| Hold rate (15s) | Se mantiene l’attenzione |
| CTR outbound | Se la promessa convince a cliccare |
| CPM | Se il pubblico ha affinità col creative |
Per altre tattiche su retargeting, ti consiglio di leggere la guida sulle strategie di remarketing nel performance marketing che abbiamo pubblicato sul blog.
A/B Testing su Google Ads: Annunci, Landing, Keywords

Su Google Ads il discorso cambia parecchio. Qui l’utente arriva con un’intenzione specifica, ha cercato qualcosa, vuole risolvere un problema adesso. Quindi cosa testi? Tre cose principali, in quest’ordine.
Gli annunci (Responsive Search Ads). Google ti chiede 15 headline e 4 descrizioni, e poi mescola tutto. Sembra che il test lo faccia lui, ma non è così. Il test serio lo fai tu, esperimentando con angoli diversi:
- Headline focalizzata sul beneficio principale
- Headline focalizzata sul prezzo o offerta
- Headline focalizzata sul brand
- Headline focalizzata sull’urgenza
- Headline focalizzata sulla differenziazione
Crea due RSA separate con angoli totalmente diversi e usa i Drafts and Experiments di Google per fare il test in modo pulito. Splitta il traffico 50/50, lascia girare almeno 2 settimane (o finché non raggiungi 100 conversioni per variante), e decidi.
Le landing page. Stessa keyword, stesso annuncio, due landing diverse. Qui i delta sono spesso enormi. Una landing dedicata batte quasi sempre la home page del sito di un fattore 2-3x. E una landing con il messaggio identico a quello dell’annuncio (message match) batte quella generica anche di più.
Le keyword e i match type. Test meno comuni ma a volte rivelatori. Phrase match contro broad match modificato (anche se “modificato” non esiste più ufficialmente, l’effetto del match type è ancora rilevante). Branded contro non-branded come spesa percentuale del budget. Long tail contro head terms.
Una cosa importante che pochi sanno: su Google Ads il sample size necessario è spesso più alto che su Meta, perché le conversioni qui hanno una varianza maggiore. Un click su Google può portare a un acquisto da 50 euro o da 500 euro, mentre su Meta la varianza per click è generalmente più contenuta.
Per la parte SEO collegata, dare un’occhiata anche al lavoro di SEO performance può darti idee su come testare titoli e meta description in modo iterativo (lì il test è più lento ma altrettanto importante).
Errore comune che vedo fare anche da agenzie esperte: testare le keyword negative come se fossero un test A/B. Non lo sono. Aggiungere keyword negative migliora la pertinenza, ma non è un esperimento controllato — è ottimizzazione di campagna. Non confondere le due cose.
Per casi reali, vale la pena dare un’occhiata ai case study di successo nel performance marketing dove abbiamo documentato test che hanno portato risultati concreti.
A/B Testing nelle Email per Spingere il CTR

L’email è uno dei canali con il miglior rapporto investimento-rendimento per fare A/B testing. Perché? Perché il traffico è “tuo”, non lo paghi a click, e puoi testare quasi tutto senza conseguenze sui costi. Su email marketing il margine di miglioramento è spesso enorme.
Quali elementi testare in una email?
- Subject line: la cosa più importante in assoluto, determina l’open rate
- Preview text: spesso dimenticato, ma può aumentare l’open rate del 10-20%
- Mittente: nome persona contro nome brand contro brand+persona (“Marco da [Brand]”)
- Headline interna: la prima cosa che leggono dopo aver aperto
- CTA: testo, colore, posizione (sopra il fold sempre)
- Lunghezza dell’email: corta e diretta contro lunga e narrativa
- Personalizzazione: con nome contro senza nome, con segmentazione contro broadcast
Come si fa un test serio sulle email? La maggior parte delle piattaforme (Klaviyo, Mailchimp, ActiveCampaign, Brevo) hanno A/B test nativi. Ma attenzione a una cosa: il sample size sulle liste piccole è quasi sempre insufficiente per avere risultati statisticamente significativi.
Regola pratica che usiamo internamente:
| Dimensione lista | Cosa puoi testare seriamente |
|---|---|
| Sotto 5.000 contatti | Solo subject line, e con cautela |
| 5.000 – 25.000 | Subject line, mittente, CTA principale |
| 25.000 – 100.000 | Tutto, anche con segmentazioni |
| Oltre 100.000 | Test multivariati, automazioni complete |
Sulle subject line, una scoperta che mi ha sorpreso quando l’ho vista la prima volta: le subject line con emoji vincono in alcuni settori (e-commerce moda, food) e perdono in altri (B2B, finance, legal). Mai dare per scontato che quello che funziona altrove funzioni anche per te.
Su una flow di benvenuto di un cliente nel beauty, abbiamo testato due varianti dell’email numero 3:
- Variante A: focus su prodotto, sconto del 10%
- Variante B: focus su storia del brand, nessuno sconto
Risultato? La B ha convertito di più, e i clienti acquisiti avevano un LTV superiore del 35% nei 6 mesi successivi. Lezione: la metrica giusta da testare nelle email non è sempre l’open rate o il CTR. A volte è il revenue per email inviata, o ancora meglio, il valore del cliente nel tempo.
Quando la lista è troppo piccola per fare A/B test puliti, una cosa che si può fare è il sequential testing: invii la versione A questa settimana, la B quella prossima, e confronti. Non è scientificamente perfetto (le condizioni esterne cambiano), ma su liste piccole è meglio di niente.
Gli Errori Più Comuni che Ti Fanno Buttare Soldi nei Test
Negli ultimi anni ho visto fare gli stessi errori a chiunque inizi a fare A/B testing — me compreso. Te li elenco così magari te li risparmi.
Errore 1: fermare il test troppo presto. L’errore numero uno in assoluto. Vedi che la variante B sta vincendo del 20% dopo 3 giorni e dichiari vittoria. Non funziona così. La fluttuazione iniziale è enorme, e quel 20% può sparire (o invertirsi) in 2 settimane. Aspetta sempre il sample size pianificato. Sempre.
Errore 2: non avere un’ipotesi. “Vediamo se questo bottone verde converte di più del rosso” non è un’ipotesi, è un capriccio. L’ipotesi vera spiega perché dovrebbe vincere una variante. Se non sai dirlo, probabilmente non stai testando la cosa giusta.
Errore 3: testare troppe cose insieme. Cambi headline, immagine, e CTA tutto in una volta. Vince la variante B. E ora? Cosa l’ha fatta vincere? Non lo sai. Non saprai mai se cambiando solo l’headline avresti avuto lo stesso risultato. Una variabile alla volta, sempre.
Errore 4: ignorare la stagionalità. Lanciare un test la settimana di Pasqua, di Natale, o durante un evento speciale del settore. I dati saranno inquinati. Aspetta condizioni stabili.
Errore 5: non considerare il dispositivo. Un test che vince globalmente potrebbe perdere su mobile e vincere su desktop. Segmenta sempre i risultati. Mobile e desktop sono due mondi diversi e meritano analisi separate.
Errore 6: confondere correlazione e causalità. “Da quando ho cambiato il sito, le vendite sono salite”. Sì, ma forse era anche partita una nuova campagna pubblicitaria. O forse era cambiata la stagione. Solo un test controllato ti dice cosa ha causato cosa.
Errore 7: non documentare niente. Tra 6 mesi non ti ricorderai cosa avevi testato. E quando il nuovo collega chiederà “perché abbiamo questa variante della pagina?”, nessuno saprà rispondere. Tieni un foglio Excel, un Notion, qualunque cosa, ma documenta.
Errore 8: testare con traffico insufficiente. Se hai 200 visite al giorno sulla landing che vuoi testare, lascia perdere. Non avrai mai un risultato significativo in tempi ragionevoli. Concentrati su altre cose, tipo aumentare il traffico tramite programmatic advertising o canali organici.
Errore 9: testare cose senza valore strategico. Migliorare del 5% una pagina che genera 100 euro al mese? Stai sprecando tempo. Concentra i test su pagine ad alto traffico e alto valore. Il principio di Pareto vale anche qui.
Errore 10: non considerare il post-test. Il test è finito, la variante B ha vinto. Bene. Ma quando arrivano nuovi visitatori, vedono ancora la stessa pagina, e nel tempo l’effetto novità svanisce. Monitora le performance anche dopo l’implementazione, perché a volte il vincitore di breve termine non è il vincitore di lungo termine.
Strumenti, Significatività Statistica e Quando Fermare un Test
Ultimo capitolo, ma non meno importante. Parliamo di strumenti pratici e di matematica (poca, promesso).
Strumenti per A/B testing on-site:
- VWO: completo, intuitivo, costoso ma vale i soldi se fai test seri
- Optimizely: standard enterprise, potentissimo
- Convert.com: alternativa più economica, ottima per agenzie
- AB Tasty: forte sulla personalizzazione oltre che sui test
- PostHog: open source, sempre più usato nel mondo SaaS
- Microsoft Clarity + GA4: per chi vuole partire gratis e fare test “manuali”
Google Optimize è stato deprecato a settembre 2023, quindi se ancora lo usi (o se trovi vecchi articoli che lo consigliano), aggiornati. Per Meta e Google Ads, usa i tool nativi (Experiments e Drafts).
Significatività statistica: cosa è e perché ti serve.
La significatività statistica al 95% significa che c’è il 95% di probabilità che la differenza che vedi sia reale e non dovuta al caso. Sotto questa soglia, il test non ha valore scientifico. Le tool calcolano questo automaticamente, ma capire il concetto è importante.
Un’altra metrica spesso ignorata è la statistical power, di solito fissata all’80%. Significa che hai l’80% di probabilità di rilevare un effetto reale se c’è. Sample size piccoli abbassano la power, e ti fanno rischiare di non vedere vittorie reali.
Quando fermare un test? Tre criteri devono essere soddisfatti tutti e tre:
- Hai raggiunto il sample size pianificato
- Il test è andato avanti per almeno una o due settimane intere (per coprire ciclicità settimanali)
- La significatività statistica è raggiunta
Mai fermarsi su due su tre. Mai.
Una nota su AI e A/B testing. Stanno arrivando strumenti basati su AI che promettono di “ottimizzare automaticamente” senza bisogno di test classici (sistemi multi-armed bandit, ad esempio). Sono utili in alcuni contesti, soprattutto quando vuoi massimizzare il revenue immediato e non ti interessa il “perché” qualcosa funziona. Ma hanno limiti: non ti danno insight chiari, sono scatole nere. Per il momento, il mio consiglio è di affiancare AI ai test classici, non di sostituirli. Se ti interessa il tema, abbiamo una pagina dedicata all’AI applicata al marketing.
Per chi vuole approfondire come scegliere il canale giusto da ottimizzare, consiglio la lettura di canali più efficaci per il performance marketing — capire il canale viene prima del test, non dopo.
E se vuoi un confronto tra approcci, dare un occhio alla differenza tra performance marketing e marketing tradizionale chiarisce perché il testing è una pratica nativa del digitale.
Vuoi un team che ti supporta dall’ipotesi al test fino all’implementazione? Contattaci — facciamo questo lavoro tutti i giorni e abbiamo numeri da mostrare prima di parlare.
Domande Frequenti
Quanto dura in media un A/B test?
Dipende dal traffico e dal delta che vuoi rilevare. Per un sito con 10.000 visite mensili sulla pagina testata, conta tra le 2 e le 4 settimane. Sotto le 2 settimane, quasi mai un test ha valore statistico, perché non copre nemmeno un ciclo settimanale completo.
Posso fare A/B testing su un sito con poco traffico?
Tecnicamente sì, ma raramente ne vale la pena. Sotto i 5.000 visitatori mensili sulla pagina specifica, è meglio concentrarsi su strategie qualitative: heatmap, session recording, interviste utente. Quando hai abbastanza traffico, allora parti coi test quantitativi.
Quanto costa fare A/B testing in modo serio?
Il software base parte da zero euro (con Microsoft Clarity e Google Analytics 4). Tool professionali stanno tra i 200 e i 2.000 euro al mese. Ma il costo vero è il tempo: un programma di test serio richiede almeno 8-15 ore a settimana di una persona dedicata, tra ipotesi, setup, analisi e documentazione.
Quale è la differenza tra A/B testing e test multivariato?
L’A/B test confronta due versioni con una sola variabile cambiata. Il test multivariato (MVT) confronta diverse combinazioni di variabili (es. 3 headline x 2 immagini = 6 varianti). L’MVT serve traffico molto più alto e ha senso solo quando il sample size è abbondante. Per la maggior parte delle aziende, A/B classico è sufficiente.
Quanto miglioramento posso aspettarmi dai test A/B?
Nei primi 6-12 mesi di un programma serio, è realistico ottenere tra il 15% e il 40% di miglioramento del conversion rate complessivo. Ma è un effetto cumulativo: tanti piccoli test che si sommano, non un singolo test miracoloso. Chi promette +200% con un test solo, ti sta vendendo fumo.
Devo testare anche su mobile e desktop separatamente?
Sì, sempre. Le abitudini di navigazione, le velocità di lettura e i pattern di click sono talmente diversi che un test che vince su desktop può perdere su mobile. Segmenta sempre i risultati, e idealmente, ottimizza separatamente le due esperienze.
Posso usare l’AI per fare A/B testing automatico?
Esistono strumenti basati su algoritmi multi-armed bandit che ottimizzano in tempo reale senza aspettare la fine del test. Sono utili in contesti specifici (cataloghi grandi, e-commerce con tante variazioni), meno utili quando vuoi insight strategici chiari su perché qualcosa funziona. Per la maggior parte delle aziende, mix di test classici e AI dove ha senso è la strada giusta.