Un dark pattern è un elemento di interfaccia progettato intenzionalmente per ingannare l'utente e fargli fare qualcosa che altrimenti non farebbe: iscriversi a una newsletter, condividere più dati del necessario, pagare un servizio che non voleva, rendere un abbonamento quasi impossibile da cancellare.
Il termine è stato coniato nel 2010 da Harry Brignull, UX specialist inglese che ha creato il sito deceptive.design. Da allora il concetto è passato da curiosità di settore a tema regolatorio europeo: dal febbraio 2024, il Digital Services Act (DSA) vieta esplicitamente molti dark pattern alle grandi piattaforme, con sanzioni fino al 6% del fatturato globale.
Nel 2026, conoscere i dark pattern non è più solo una questione etica — è un tema di compliance, reputazione e protezione legale. Questa guida ti presenta i 12 tipi più diffusi con esempi reali, ti spiega cosa dice la normativa UE aggiornata, e ti propone alternative etiche che funzionano meglio nel lungo periodo.
Cosa imparerai leggendo:
- La definizione formale di dark pattern (e perché è diversa da "design aggressivo")
- I 12 tipi classificati nella tassonomia più aggiornata
- Esempi reali di aziende multate (Amazon, Meta, Epic Games)
- Cosa vieta esattamente il DSA e quali sanzioni prevede
- Come sostituire un dark pattern con un'alternativa che converte meglio
- Gli strumenti di test per identificare dark pattern nel tuo prodotto
Cos'è un dark pattern
Un dark pattern è un'interfaccia costruita per ingannare l'utente sul significato delle sue azioni. La chiave è l'intenzionalità: non è un errore di design, è una scelta consapevole fatta per massimizzare una metrica (iscrizioni, vendite, retention) a scapito del benessere dell'utente.
La definizione formale del Competition and Markets Authority britannico (2022) è chiara:
"I dark pattern sono caratteristiche di design che spingono, ingannano o manipolano gli utenti verso decisioni contrarie ai loro interessi o alle loro intenzioni originali."
Tre elementi distinguono un dark pattern da un design "solo aggressivo":
- Inganno: l'utente non capisce cosa sta facendo davvero
- Asimmetria: l'azione che il design favorisce è molto più facile di quella che l'utente vuole
- Sfruttamento cognitivo: usa bias psicologici (urgenza, paura della perdita, default) per scavalcare il pensiero razionale
Un "buy now" grande e colorato non è un dark pattern (è vendita legittima). Un "iscriviti" che di fatto attiva un abbonamento ricorrente senza dirlo chiaramente lo è.
I 12 tipi di dark pattern (tassonomia deceptive.design)
Harry Brignull ha identificato 12 categorie principali. Ognuna viene da comportamenti osservati in centinaia di prodotti reali.
1. Confirmshaming — "Vergogna se non ti iscrivi"
Quando rifiutare un'offerta richiede cliccare su un'opzione formulata in modo umiliante: "No, non mi interessa risparmiare tempo", "Preferisco continuare a perdere denaro".
Esempio: popup di newsletter con scelta "Sì, voglio risparmiare" vs "No, odio gli sconti".
Alternativa etica: un semplice "Chiudi" o "No grazie" neutro.
2. Roach Motel — "Facile entrare, impossibile uscire"
Iscriversi a un servizio richiede un click. Cancellare richiede di chiamare un numero, inviare una raccomandata, passare 5 pagine di conferma.
Esempio famoso: Amazon Prime è stato multato dalla FTC americana per 1.6 miliardi di dollari nel 2023 per aver reso estremamente difficile la cancellazione dell'abbonamento.
Alternativa etica: la cancellazione deve richiedere lo stesso numero di click dell'iscrizione. Il DSA europeo lo richiede esplicitamente.
3. Forced Continuity — Abbonamento automatico silenzioso
La prova gratuita si trasforma in abbonamento a pagamento senza preavviso chiaro. L'utente scopre l'addebito sulla carta settimane dopo.
Esempio: alcune piattaforme streaming passano da free trial a piano annuale da 79.99€ con zero notifiche a 24 ore dalla scadenza.
Alternativa etica: email di reminder 3 giorni prima + notifica in-app + possibilità di cancellare con 1 click.
4. Sneak into Basket — Aggiunte al carrello senza permesso
Durante il checkout compaiono servizi accessori (assicurazione, donazione, garanzia estesa) già pre-selezionati. L'utente se non fa attenzione li paga.
Esempio storico: i siti di biglietti aerei che aggiungevano automaticamente "assicurazione viaggio" e "priority boarding" al carrello.
Alternativa etica: opt-in esplicito, non pre-selezionato. Gli extra li aggiunge l'utente, non il sistema.
5. Disguised Ads — Pubblicità mascherate da contenuto
Un articolo sembra editoriale ma è sponsorizzato. Un bottone "Download" nella pagina di una libreria apre in realtà una pubblicità a pagamento.
Alternativa etica: marcare chiaramente contenuti sponsorizzati con etichette visibili ("Sponsorizzato", "Pubblicità"), distinguere graficamente annunci dal contenuto.
6. Misdirection — Distrazione visiva per nascondere l'opzione meno profittevole
Il bottone "Continua con abbonamento premium" è grande, verde, al centro. Il link "continua con versione gratuita" è piccolo, grigio, in angolo.
Esempio: molti servizi freemium nascondono la versione gratuita dietro link quasi invisibili.
Alternativa etica: dare lo stesso peso visivo alle opzioni, lasciare che l'utente scelga in base al valore, non al design.
7. Hidden Costs — Costi nascosti fino all'ultimo step
Il prezzo visualizzato nel listino è 29€. Nel checkout finale diventa 47€ per "spese di gestione, IVA, commissione di pagamento". L'utente è già dentro il funnel emotivamente e completa l'acquisto.
Normativa: il DSA obbliga le piattaforme a mostrare il prezzo finale completo fin dalla prima visualizzazione.
Alternativa etica: mostrare il prezzo "all inclusive" dalla prima schermata.
8. Privacy Zuckering — Consenso forzato alla condivisione dati
Il banner cookie ha un enorme "Accetta tutto" ma il "Rifiuta" richiede 3 click in un sotto-menu nascosto. Alternative troppo onerose rispetto al consenso.
Normativa: il GDPR (2018) e le linee guida CNIL/EDPB del 2022 già vietano questo comportamento. Deve esistere un pulsante "Rifiuta tutto" con la stessa prominenza di "Accetta tutto".
Alternativa etica: banner cookie simmetrici con scelte paritetiche.
9. Trick Questions — Domande con doppia negazione
"Non vuoi non ricevere le nostre comunicazioni?" Spuntando la checkbox l'utente non sa se ha acconsentito o rifiutato.
Alternativa etica: domande positive e dirette. "Vuoi ricevere le nostre email? [Sì] [No]".
10. Fake Urgency — Timer e countdown inventati
"Solo 2 camere rimaste!", "Offerta scade tra 04:37", "37 persone stanno guardando questo prodotto". Tutti valori generati casualmente o non veritieri.
Esempio: Booking.com è stata multata più volte per banner di urgenza non veritieri sui posti disponibili.
Alternativa etica: mostrare dati reali di urgenza solo quando sono reali. L'onestà ripaga in fiducia del brand nel lungo periodo.
11. Fake Social Proof — Recensioni inventate
Recensioni, testimonial e stelle generate da bot o scritte da dipendenti dell'azienda.
Normativa: il Consumer Protection Act UK 2024 e la Direttiva Omnibus UE 2022 vietano le recensioni false con sanzioni fino al 4% del fatturato.
Alternativa etica: moderare recensioni reali, rispondere pubblicamente alle negative, incoraggiare feedback autentico.
12. Nagging — Richieste ripetute che non accettano il no
L'app chiede di attivare le notifiche. Tu dici "no". Al prossimo avvio chiede di nuovo. Poi ancora. Poi ancora. Finché cedi.
Alternativa etica: rispettare il primo "no" per almeno 30-60 giorni. Re-chiedere solo se c'è un cambio di contesto (nuova feature, nuovo evento).
Cosa vieta il DSA (Digital Services Act)
Il Digital Services Act europeo è in vigore dal 17 febbraio 2024 per tutte le piattaforme. Nell'articolo 25, il DSA vieta esplicitamente i dark pattern sulle interfacce online, con questa formulazione:
"I fornitori di piattaforme online non progettano, organizzano o gestiscono le loro interfacce in modo da ingannare o manipolare i destinatari del servizio, o in modo tale da distorcere o compromettere sostanzialmente la capacità dei destinatari del servizio di prendere decisioni libere e informate."
Le categorie specificamente vietate dal DSA includono:
- Prominence asimmetrica delle opzioni (es. accept vs reject con stile molto diverso)
- Richieste ripetute dopo che l'utente ha già scelto
- Rendere più difficile terminare un servizio rispetto a iniziarlo
- Spingere decisioni sfruttando bias cognitivi
Sanzioni: fino al 6% del fatturato globale annuo. Per aziende come Amazon o Meta, significa miliardi di euro.
Dark pattern famosi con multe reali
Amazon Prime — 1.6 miliardi $ (FTC 2023)
Nel giugno 2023 la Federal Trade Commission degli USA ha citato Amazon per aver usato dark pattern in almeno 3 categorie: Roach Motel (cancellazione difficile), Confirmshaming (le opzioni per rifiutare erano umilianti), Nagging (richieste ripetute di abbonamento). Multa: 1.6 miliardi di dollari.
Epic Games / Fortnite — 520 milioni $ (FTC 2022)
Epic è stata multata per aver usato pattern manipolativi su minori all'interno di Fortnite: acquisti accidentali facilitati, impossibilità di richiedere rimborsi, Pattern for kids. 520 milioni di dollari di multa, molti dei quali rimborsati ai bambini.
Meta / Facebook — 390 milioni € (DPC Irlandese 2023)
Il Data Protection Commission irlandese ha multato Meta per aver "nascosto" le impostazioni privacy dietro UI poco chiare e dark pattern di consenso GDPR.
TikTok — 345 milioni € (DPC Irlandese 2023)
Multata per dark pattern nella gestione della privacy dei minori: impostazioni predefinite che esponevano i dati, rendendo difficile modificarle.
Come sostituire dark pattern con alternative etiche
Il paradosso interessante è che molte alternative etiche convertono meglio nel lungo periodo. Non perché gli utenti siano buoni, ma perché non si sentono truffati e diventano clienti che tornano.
| Dark pattern | Alternativa etica | Effetto sul business |
|---|---|---|
| Cancellazione impossibile | Cancellazione in 1 click | Churn +5% iniziale, LTV +20% nel tempo |
| Costi nascosti | Prezzo "all inclusive" in vetrina | Abbandono carrello -15% |
| Confirmshaming | Opzioni neutre | Email opt-in -10%, brand trust ++ |
| Fake urgency | Urgency reale quando presente | Conversion stabile, ritorni ++ |
| Privacy zuckering | Consenso simmetrico | Brand trust ++, compliance automatica |
I numeri sopra sono basati su case study pubblici di aziende che hanno testato il passaggio (Booking, Patagonia, Basecamp hanno pubblicato dati simili).
Strumenti per identificare dark pattern nel tuo prodotto
- Deceptive.design — la "Hall of Shame" di Harry Brignull, con esempi di dark pattern aggiornati e nomi di aziende.
- DarkPatterns.uxp2.com — progetto di ricerca di Purdue University con dataset pubblico.
- UX audit manuale — una volta alla settimana, prova a cancellare il tuo abbonamento, a rifiutare cookie, a leggere il prezzo finale. Se una qualsiasi di queste azioni è sproporzionatamente difficile, c'è un dark pattern.
- Heuristic review — durante il review del design, aggiungi "È onesto?" alle domande di Nielsen. Un checklist rapido: se l'utente capisse al 100% cosa sta facendo, agirebbe comunque? Se no, è un dark pattern.
Domande frequenti
Tutti i dark pattern sono illegali?
No, non tutti sono esplicitamente illegali. Molti sono contrari a normative settoriali (GDPR per i consensi, DSA per le piattaforme grandi, direttive consumatori per le informazioni precontrattuali), altri sono "solo" eticamente discutibili. Ma la tendenza normativa europea è chiaramente verso la loro proibizione totale.
Un dark pattern funziona sempre?
Funziona nel breve termine per aumentare metriche come iscrizioni o vendite immediate. Ma erode la fiducia del brand, aumenta il churn, genera recensioni negative e — oggi — attira sanzioni regolatorie. Nel lungo termine il ROI è quasi sempre negativo.
Come convinco un product manager che non vale la pena usare dark pattern?
Con tre argomenti: (1) sanzioni reali e documentate (Amazon 1.6 miliardi, Epic 520 milioni); (2) crescita del churn misurabile quando un utente si sente ingannato; (3) il rischio reputazionale nell'era dei social (basta un TikTok virale che smaschera il dark pattern). Se il PM ancora resiste, proponi un A/B test etico vs manipolativo e misura il LTV (lifetime value), non solo la conversion istantanea.
Il pulsante "Accetta tutto" sui cookie è un dark pattern?
Non di per sé. Diventa un dark pattern quando il "Rifiuta tutto" è nascosto, richiede più click, ha testo meno leggibile o posizione asimmetrica. Il GDPR e le linee guida EDPB richiedono simmetria tra le due opzioni. Se stai progettando un banner cookie, assicurati che "Accetta" e "Rifiuta" abbiano lo stesso peso visivo.
Come imparo a riconoscere i dark pattern nel mio lavoro quotidiano?
Tre esercizi: (1) ogni settimana spendi 15 minuti su deceptive.design leggendo i nuovi esempi segnalati; (2) quando usi un prodotto digitale, chiediti "cosa vuole farmi fare davvero questo schermo?"; (3) discuti i dark pattern trovati nel tuo prodotto con il team in una "review etica" mensile. Nel nostro corso di UX dedichiamo un modulo specifico all'etica del design — leggi anche la guida alle euristiche di Nielsen per il framework classico.
Prossimi passi
L'etica del design è passata da tema filosofico a requisito di business. I designer che sanno riconoscere e rifiutare i dark pattern, offrendo alternative che convertono meglio eticamente, sono tra i profili più richiesti dal mercato europeo del 2026 — soprattutto in finance, ecommerce e servizi B2C che devono gestire la compliance DSA.
Il corso completo di UX Design di CorsoUX include un modulo dedicato all'UX etica: analisi di dark pattern famosi, workshop di refactoring etico, studio della normativa DSA/GDPR applicata al design. Esci con un portfolio che dimostra sensibilità etica, sempre più apprezzata dai recruiter delle aziende serie.
Per approfondire:
- Le 10 euristiche di Nielsen — i principi fondamentali di un'interfaccia onesta
- WCAG 2.2 e accessibilità web — l'altro pilastro del design etico obbligatorio nel 2026
- UI Design: principi fondamentali — come usare il visual per aiutare, non ingannare




