Dark Pattern nei Social Media: Cosa sono?

Nel 2010 la Electronic Frontier Foundation era talmente infastidita dal modo in cui Facebook stimolava gli utenti a rinunciare sempre di più alla loro privacy che coniò il termine “Privacy Zuckering” per indicare l’invasività della piattaforma che caratterizzava il noto social network di Mark Zuckerberg. A distanza di un decennio, anche se Facebook ha fatto fronte a numerosi scandali che fanno preoccupare le persone per tali manipolazioni, i ricercatori hanno scoperto che la “Privacy Zuckering“ persiste ancora con le sue strategie discutibili.

Ad esempio, un recente pop-up di Twitter afferma che gli utenti hanno il controllo sui loro dati, ma li invita ad “attivare gli annunci personalizzati” per migliorare quelli che già vengono visualizzati sulla piattaforma, e se però si rifiutano gli annunci mirati ci si dovranno sorbire “annunci meno pertinenti”.

In realtà, questo è un vecchio trucco che Facebook ha utilizzato fin dal 2010, quando consentì agli utenti di rinunciare ai siti web dei loro partner che raccoglievano e registravano le loro informazioni disponibili pubblicamente sulla piattaforma. Chiunque rifiutasse quella personalizzazione visualizzava un pop-up che chiedeva: “Sei sicuro? Consentire la personalizzazione istantanea ti offrirà un’esperienza più ricca mentre navighi sul web”.

Fino a poco tempo fa, Facebook metteva pure in guardia le persone contro la disattivazione delle sue funzioni di riconoscimento facciale: “Se mantieni disattivato il riconoscimento facciale, non saremo in grado di utilizzare questa tecnologia qualora uno sconosciuto utilizzasse la tua foto per impersonarti“, presentando con un colore blu luminoso il pulsante per attivare l’impostazione, e con un grigio meno accattivante il pulsante per tenerlo spento.

I ricercatori del settore chiamano “dark patterns” (schemi oscuri) queste strategie e formulazioni che cercano di manipolare le scelte degli utenti.

Siete di fronte a dei dark pattern anche quando LinkedIn vi mostra parte di un messaggio InMail nella vostra email, ma poi vi costringe a visitare la piattaforma per saperne di più, oppure quando provate a disattivare o eliminare il vostro account su Facebook ma siete reindirizzati alla funzione di disconnessione.

I “dark patterns” compaiono in tutto il web, spingendo le persone ad iscriversi a newsletter, aggiungere articoli e beni di consumo ai loro carrelli o iscriversi ai servizi in realtà non desiderati.

Colin Gray, un ricercatore della Purdue University che studia i dark patterns dal 2015, ne ha identificati cinque tipi fondamentali: “fastidioso”, “ostruttivo”, “furtivo”, “interferente” con l’interfaccia e di “azione forzata”. Tutti questi compaiono nei controlli sulla privacy. Lui ed altri ricercatori nel campo hanno notato la dissonanza cognitiva verso la privacy e gli strumenti per modulare queste scelte, che spesso vengono presentate con linguaggio confuso e con un design manipolativo, nonché altre funzionalità progettate per raccogliere sempre più dati personali degli utenti.

Queste manipolazioni sulla privacy non si limitano ai social media. Sono diventati endemici del web in generale, soprattutto sulla scia del GDPR. Dall’entrata in vigore del Regolamento UE sulla protezione dei dati personali nel 2018, ai siti web era stato richiesto di chiedere alle persone il consenso per raccogliere determinati tipi di informazioni, ma alcuni banner di consenso chiedono semplicemente di accettare le politiche sulla privacy, senza alcuna possibilità di dire di no. “Alcune ricerche evidenziano che oltre il 70% dei banner per il consenso nell’UE hanno una sorta di schema oscuro incorporato”, afferma Gray su Wired.

Recentemente, social network come Facebook e Twitter hanno iniziato a concedere ai propri utenti un controllo più preciso della loro privacy online. Il controllo della privacy di Facebook, ad esempio, vi guida attraverso una serie di scelte con illustrazioni dai colori vivaci. Ma Gray osserva che le impostazioni predefinite sono spesso impostate tenendo conto del minor grado di privacy possibile e che le molte diverse caselle di controllo possono avere un effetto travolgente nei confronti degli utenti.

L’anno scorso, i senatori statunitensi Mark Warner e Deb Fischer hanno presentato un disegno di legge che intenderebbe vietare questo tipo di “interfacce manipolative”. Il “Deceptive Experiences to Online Users Reduction Act” renderebbe illegale per siti web come Facebook utilizzare schemi oscuri quando riguardano dati personali. “Le richieste fuorvianti di fare semplicemente clic sul pulsante ‘OK’ possono spesso trasferire contatti, messaggi, attività di navigazione, foto o informazioni sulla posizione senza che l’utente se ne accorga”, ha scritto il senatore Fischer quando è stato presentato questo disegno di legge.

Il problema è che diventa molto difficile definire un dark pattern: “Tutto il design ha un livello persuasivo”, afferma Victor Yocco, l’autore del libro “Design for the Mind: Seven Psychological Principles of Persuasive Design”. Per definizione, il design incoraggia qualcuno a utilizzare un prodotto in un modo particolare, che non è intrinsecamente negativo. Gray ha anche incontrato difficoltà a tracciare il confine tra schema oscuro e design semplicemente scadente.

Molti di questi dark patterns vengono utilizzati per calcolare metriche che indicano i risultati, come l’aumento degli utenti o il tempo trascorso nelle sessioni. Gray cita un esempio tratto dall’app per smartphone “Trivia Crack”, che sollecita i suoi utenti a giocare a un altro gioco ogni due o tre ore. Come spiega Yocco, questi tipi di notifiche possono portare a comportamenti estremamente compulsivi.

Infine, gli schemi più oscuri di tutti sorgono quando le persone cercano di abbandonare queste piattaforme. Basta provare a disattivare il proprio account Instagram per scoprire come sia eccezionalmente difficile, e neanche è possibile farlo dall’app, ma occorre usare la versione desktop del sito, e l’impostazione è addirittura nascosta all’interno della sezione” Modifica profilo”.

 

Autore: Amedeo Leone

Articolo Ripreso da: Federprivacy.org