Dark pattern: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m +precisazione |
→Bait-and-switch: +amplio il concetto |
||
(24 versioni intermedie di 13 utenti non mostrate) | |||
Riga 1:
In [[informatica]], un '''dark pattern''' o '''modello oscuro''' (inteso come
Il [[User experience design|
Nel 2021 la [[Electronic Frontier Foundation]] e [[Consumer Reports]] hanno
== Descrizione di alcuni modelli ==
=== Privacy Zuckering ===
"Privacy Zuckering" – dal nome del co-fondatore di [[Facebook]] e [[Amministratore delegato|CEO]] di [[Meta Platforms]] [[Mark Zuckerberg]] – è una pratica che induce l'utente a condividere più informazioni di quelle che intendeva.<ref name=":2">{{Cita web|url=https://www.deceptive.design/types|titolo=Deceptive design - Types of deceptive
Per quanto riguarda l'Europa, l'adozione del [[regolamento generale sulla protezione dei dati]] (GDPR) prevede, all'art. 25, l'introduzione dei concetti di [[privacy by design]] e [[privacy by default]], che prevedono, rispettivamente, che il software e la sua interfaccia debbano garantire la privacy dell'utente sin dal momento della sua progettazione, e in ogni caso con le opzioni di configurazione selezionate in modo predefinito per garantire la massima privacy<ref>{{Cita web|url=https://www.garanteprivacy.it/regolamentoue/data-protection-by-design-e-data-protection-by-default|titolo=Data Protection by Design e Data Protection by Default|sito=www.garanteprivacy.it|lingua=it-IT|accesso=2023-05-08}}</ref>.
'''"Privacy Zuckering" per l'addestramento dei modelli di IA'''
A metà del 2024, Meta Platforms ha annunciato l’intenzione di utilizzare i dati degli utenti di Facebook e Instagram per addestrare le sue tecnologie di intelligenza artificiale, inclusi i sistemi generativi. Questa iniziativa prevedeva l’elaborazione di dati provenienti da post pubblici e non pubblici, interazioni e persino account abbandonati. Gli utenti avevano tempo fino al 26 giugno 2024 per opporsi a questo trattamento dei dati. Tuttavia, i critici hanno sottolineato che il processo era pieno di ostacoli, tra cui notifiche e-mail fuorvianti, reindirizzamenti a pagine di accesso e moduli di rinuncia difficili da trovare. Anche quando gli utenti riuscivano a individuare i moduli, era richiesto di fornire una motivazione per l’opzione di rinuncia, nonostante la politica di Meta affermasse che qualsiasi motivo sarebbe stato accettato, sollevando dubbi sulla necessità di questo passaggio aggiuntivo.<ref>{{Cita web|url=https://www.technologyreview.com/2024/06/14/1093789/how-to-opt-out-of-meta-ai-training/|urlarchivio=https://web.archive.org/web/20240614135315/https://www.technologyreview.com/2024/06/14/1093789/how-to-opt-out-of-meta-ai-training/|urlmorto=sì|titolo=How to opt out of Meta's AI training {{!}} MIT Technology Review|data=|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en|autore=Aleksandra Wrona|url=https://www.snopes.com/news/2024/06/13/meta-ai-training-user-data/|titolo=Why Opting Out of Meta's Use of Facebook, Instagram Posts for AI Training Isn't Easy|sito=Snopes|data=2024-06-13|accesso=2025-01-04}}</ref>
Il Centro Europeo per i Diritti Digitali (Noyb) ha risposto alle pratiche controverse di Meta presentando reclami in 11 paesi dell’UE. Noyb ha accusato Meta di utilizzare "dark patterns" per compromettere il consenso degli utenti, in violazione del Regolamento Generale sulla Protezione dei Dati (GDPR). Questi reclami hanno evidenziato che il processo di rinuncia ostacolante di Meta includeva moduli nascosti, meccanismi di reindirizzamento e requisiti inutili, come fornire motivazioni per rinunciare — tattiche che esemplificano i "dark patterns", progettate deliberatamente per scoraggiare gli utenti dal rinunciare. Inoltre, Meta ha ammesso di non poter garantire che i dati degli utenti che hanno scelto di rinunciare fossero completamente esclusi dai suoi set di dati per l’addestramento, sollevando ulteriori preoccupazioni sulla privacy e la conformità alle normative sulla protezione dei dati.<ref>{{Cita web|lingua=it|url=https://noyb.eu/it/noyb-urges-11-dpas-immediately-stop-metas-abuse-personal-data-ai|titolo=noyb sollecita 11 DPA a fermare immediatamente l'abuso dei dati personali da parte di Meta per l'IA|sito=noyb.eu|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en|url=https://www.dataguidance.com/news/eu-noyb-files-11-complaints-against-meta-use-data-ai|titolo=DataGuidance|sito=DataGuidance|accesso=2025-01-04}}</ref>
Di fronte alla crescente pressione normativa e pubblica, la Commissione irlandese per la protezione dei dati (DPC) è intervenuta, portando Meta a sospendere i suoi piani di elaborazione dei dati degli utenti dell'UE/SEE per l’addestramento dell’IA. Questa decisione, sebbene significativa, non ha portato a una modifica giuridicamente vincolante della politica sulla privacy di Meta, lasciando aperte domande sull’impegno a lungo termine dell’azienda nel rispettare i diritti sui dati nell’UE. Al di fuori dell’UE, tuttavia, Meta ha proceduto con l’aggiornamento della sua politica sulla privacy come previsto il 26 giugno 2024, spingendo i critici a mettere in guardia sulle implicazioni globali di tali pratiche.<ref>{{Cita web|lingua=it|url=https://noyb.eu/it/preliminary-noyb-win-meta-stops-ai-plans-eu|titolo=(Preliminare) noyb WIN: Meta blocca i piani di AI nell'UE|sito=noyb.eu|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en-us|autore=Silviu STAHIE|url=https://www.bitdefender.com/en-us/blog/hotforsecurity/meta-forced-to-pause-ai-training-on-data-collected-from-facebook-and-instagram-users-in-europe|titolo=Meta Forced to Pause AI Training on Data Collected from Facebook and Instagram Users in Europe|sito=Hot for Security|accesso=2025-01-04}}</ref>
Questo episodio ha evidenziato il problema pervasivo dei "dark patterns" nelle impostazioni sulla privacy e le sfide nel rendere responsabili le grandi aziende tecnologiche per le loro pratiche sui dati. I gruppi di advocacy hanno richiesto quadri normativi più rigorosi per prevenire tattiche ingannevoli e garantire che gli utenti possano esercitare un controllo significativo sulle proprie informazioni personali.<ref>{{Cita web|lingua=en-US|autore=Paul Sawers|url=https://techcrunch.com/2024/10/03/hey-uk-heres-how-to-opt-out-of-meta-using-your-facebook-and-instagram-data-to-train-its-ai/|titolo=Hey, UK! Here's how to 'opt out' of Meta using your Facebook and Instagram data to train its AI|sito=TechCrunch|data=2024-10-03|accesso=2025-01-04}}</ref>
=== Bait-and-switch ===
I modelli ''esca-con-cambio'' (''Bait-and-switch'' in inglese) [[Pubblicità|pubblicizzano]] un prodotto o servizio gratuito (o a un prezzo notevolmente ridotto) che in realtà non è disponibile oppure lo è in quantità molto ridotte (utilizzato quindi solo come [[esca]]). Dopo aver annunciato l'indisponibilità del prodotto desiderato, la pagina presenta prodotti simili a prezzo superiore o di qualità inferiore.<ref name="webdesign">{{Cita web|url=https://webdesign.tutsplus.com/articles/dark-patterns-in-ui-and-website-design--webdesign-8506|titolo=Dark Patterns in UI and Website Design|sito=Web Design Envato Tuts+|accesso=26 dicembre 2022|dataarchivio=26 dicembre 2022|urlarchivio=https://web.archive.org/web/20221226105844/https://webdesign.tutsplus.com/articles/dark-patterns-in-ui-and-website-design--webdesign-8506|urlmorto=sì}}</ref><ref name="dark">{{Cita web|url=https://www.deceptive.design/|titolo=Deceptive Design - user interfaces crafted to trick you
Con questo termine inoltre viene evidenziata una forma di [[Frode|frode commerciale]] diffusa in molti altri ambiti diversi dal commercio elettronico<ref>{{Cita web|lingua=it-IT|url=https://www.consumatori.it/news/truffa-bait-and-switch/|titolo=Prezzo troppo conveniente? Attenzione alla truffa bait-and-switch|sito=Consumatori.it|accesso=2025-09-01}}</ref>, che spazia dalla camera di albergo che al momento di prenotarla non risulta disponibile a quel prezzo, e in cambio vengono proposte camere alternative molto più costose o più piccole, alle [[Televendita|vendite a distanza]] che pubblicizzano un prodotto che non è mai stato realmente disponibile con quelle caratteristiche e a quel prezzo, l'offerta era quindi "troppo bella per essere vera"<ref>{{Cita web|lingua=en-US|url=https://corporatefinanceinstitute.com/resources/management/bait-and-switch/|titolo=Bait and Switch|sito=Corporate Finance Institute|accesso=2025-09-01}}</ref>.
=== Confirmshaming ===
La ''conferma imbarazzante'' (''Confirmshaming'' in inglese) usa la [[Emozione|risposta emotiva]] per indurre gli utenti a provare [[vergogna]] nel compiere, ovvero confermare, l'azione di rifiuto. Ad esempio, quando
=== Misdirection ===
Tecnica comunemente impiegata nei [[software]] di installazione di altre applicazioni (''[[installer]]''), il ''depistaggio'' (''misdirection'' in inglese) presenta all'utente un pulsante simile a un tipico pulsante di avanzamento dell'installazione, ma l'inganno consiste nel mostrare all'utente un pulsante "Accetto questi termini" in primo piano con lo scopo di chiedergli di accettare i termini di un programma diverso e non correlato a quello che stava tentando di installare. Poiché l'utente in genere accetta i termini per forza d'abitudine, il programma "intruso" viene installato insieme a quello principale che invece era l'unico che l'utente desiderava ottenere con quell'installer.
Gli autori dell'installer lo hanno progettato in questo modo in quanto vengono pagati dagli autori del programma non correlato/estraneo per ogni installazione che effettuano per conto
Anche alcuni siti web, quando richiedono informazioni non necessarie, utilizzano il depistaggio. Ad esempio, si inserisce un nome utente e una password su una pagina e, dopo aver fatto clic sul pulsante "Avanti", la pagina successiva chiede all'utente il proprio indirizzo e-mail con un altro pulsante "Avanti" come unica opzione.<ref>{{Cita web|url=http://www.reddit.com/r/TheoryOfReddit/comments/71mker/why_do_we_need_email_addresses_to_create_reddit/|titolo=Why do we need email addresses to create Reddit accounts now?|autore=bleachypeachy|sito=|data=
In alcuni casi, la pagina mostra il metodo per saltare il passaggio come un piccolo link in grigio anziché come un pulsante, in modo che non risulti evidente per l'utente.<ref>{{Cita web|url=https://medium.com/@danrschlosser/linkedin-dark-patterns-3ae726fe1462|titolo=LinkedIn Dark Patterns|autore=Dan Schlosser|sito=Medium|data=9 giugno 2015
Possono anche essere utilizzate formulazioni confuse
=== Roach motel ===
Un motel di scarafaggi (''roach
Di recente, negli Stati Uniti, la [[Federal Trade Commission]] (FTC) ha annunciato che aumenterà il controllo contro l'applicazione di modelli oscuri come il roach motel che inducono i consumatori a sottoscrivere abbonamenti e/o ne rendono difficile la cancellazione. La FTC ha stabilito requisiti chiave relativi alla trasparenza e alla chiarezza delle informazioni, al consenso informato espresso e alla cancellazione semplice e facile.<ref name=":1">{{Cita web|url=https://www.ftc.gov/news-events/news/press-releases/2021/10/ftc-ramp-enforcement-against-illegal-dark-patterns-trick-or-trap-consumers-subscriptions|titolo=FTC to Ramp up Enforcement against Illegal Dark Patterns that Trick or Trap Consumers into Subscriptions|sito=Federal Trade Commission|data=
=== Sneak into basket ===
L'''intrufolarsi nel cestino'' (''sneak into basket'' in inglese) è l'aggiunta di prodotti o servizi non richiesti, oltre a quelli che sono stati scelti, nella lista finale dei prodotti selezionati per l'acquisto, detta carrello o cestino (''basket'' in inglese), in analogia al contenitore con cui si raccolgono i prodotti da acquistare in un negozio fisico. Questo è avvenuto grazie alla preselezione di caselle di controllo che l'utente avrebbe dovuto deselezionare nelle pagine precedenti affinché i prodotti non richiesti non venissero aggiunti al carrello (''negative billing option''). Questa tecnica è diventata illegale nel [[Regno Unito]] e in molti Paesi dell'[[Unione europea]].<ref name=":2" />
=== Hidden costs ===
▲Di recente, negli Stati Uniti, la [[Federal Trade Commission]] (FTC) ha annunciato che aumenterà il controllo contro l'applicazione di modelli oscuri come il roach motel che inducono i consumatori a sottoscrivere abbonamenti e/o ne rendono difficile la cancellazione. La FTC ha stabilito requisiti chiave relativi alla trasparenza e alla chiarezza delle informazioni, al consenso informato espresso e alla cancellazione semplice e facile.<ref name=":1">{{Cita web|url=https://www.ftc.gov/news-events/news/press-releases/2021/10/ftc-ramp-enforcement-against-illegal-dark-patterns-trick-or-trap-consumers-subscriptions|titolo=FTC to Ramp up Enforcement against Illegal Dark Patterns that Trick or Trap Consumers into Subscriptions|sito=Federal Trade Commission|data=2021-10-28|lingua=en}}</ref>
I ''costi nascosti'' (''hidden costs'' in inglese) sono quelli che non appaiono mai durante tutto il processo di scelta dei prodotti o dei servizi da acquistare (tipicamente da un sito di [[Commercio elettronico|e-commerce]], di prenotazione voli, hotel, noleggio veicoli e anche combinazioni fra queste), ma solo nell'ultima pagina del pagamento finale con il riepilogo dei prodotti o servizi acquistati (''checkout''), e solo dopo aver inserito tutti i dati del metodo di pagamento e i dati personali (ad esempio le spese di spedizione, di servizio, le commissioni, tasse supplementari ecc.). L'utente può essere indotto a confermare l'acquisto con i costi nascosti per non dover tornare indietro nelle pagine precedenti e modificare le proprie scelte, ricompilando nuovamente tutti i dati con notevole ulteriore perdita di tempo e impegno o ricominciare dall'inizio il processo di acquisto presso un altro sito.<ref name=":2" />
== Ricerca ==
Nel 2016 e nel 2017<ref>{{Cita pubblicazione|nome=Christoph|cognome=Bösch|nome2=Benjamin|cognome2=Erb|nome3=Frank|cognome3=Kargl|data=2016|titolo=Tales from the Dark Side: Privacy Dark Strategies and Privacy Dark Patterns|rivista=Proceedings on Privacy Enhancing Technologies|doi=10.1515/popets-2016-0038|url=https://petsymposium.org/popets/2016/popets-2016-0038.php}}</ref> la ricerca ha documentato pratiche anti-privacy sui [[social media]] che utilizzano modelli oscuri.<ref>{{Cita libro|nome=Lothar|cognome=Fritsch|titolo=Privacy dark patterns in identity management|url=http://dl.gi.de/handle/20.500.12116/3583|data=2017|editore=Gesellschaft für Informatik, Bonn|lingua=en|ISBN=978-3-88579-671-8}}</ref> Nel 2018 il Norwegian Consumer Council (Forbrukerrådet) ha pubblicato "Deceived by Design", un rapporto sui design ingannevoli dell'interfaccia utente di [[Facebook]], [[Google (azienda)|Google]] e [[Microsoft]]
Una ricerca dell'aprile 2022 rileva che i modelli oscuri sono ancora comunemente utilizzati sul mercato, evidenziando la necessità di un ulteriore controllo di tali pratiche da parte del pubblico, dei ricercatori e delle autorità di regolamentazione.<ref>{{
Ai sensi del [[Regolamento generale sulla protezione dei dati]] (GDPR) dell'
Uno studio del 2020 ha rilevato che le aziende "[[GAFAM|big tech]]" spesso utilizzavano interfacce utente ingannevoli per scoraggiare i propri utenti dall'[[opt-out]].<ref>{{Cita pubblicazione|nome=Soheil|cognome=Human|nome2=Florian|cognome2=Cech|data=2021|titolo=A Human-Centric Perspective on Digital Consenting: The Case of GAFAM|rivista=Human Centred Intelligent Systems|editore=Springer|curatore=Alfred Zimmermann, Robert J. Howlett, Lakhmi C. Jain|pp=
== Legalità ==
Bait-and-switch è una forma di [[Frode aziendale|frode]] che viola la legge statunitense. Nell'Unione europea, il GDPR richiede che il consenso informato di un utente al trattamento delle proprie informazioni personali sia inequivocabile, dato liberamente e specifico per ogni utilizzo delle informazioni personali. Questo ha lo scopo di impedire che gli utenti accettino inconsapevolmente tutto il trattamento dei dati per impostazione predefinita (che viola il regolamento).
Nell'aprile 2019, l'[[Information Commissioner's Office]] (ICO) del Regno Unito ha emesso una proposta di codice di progettazione per le operazioni dei servizi di social networking quando utilizzati da minori, che vieta l'uso di "[[Teoria dei nudge|nudge]]" per attirare gli utenti in opzioni con impostazioni di privacy basse. Questo codice sarebbe applicabile ai sensi del GDPR.<ref>{{Cita news|lingua=en
Il 9 aprile 2019, i senatori statunitensi [[Deb Fischer]] e [[Mark Warner (politico statunitense)|Mark Warner]] hanno introdotto il ''Deceptive Experiences To Online Users Reduction'' (DETOUR) Act, che renderebbe illegale per le aziende con più di 100 milioni di utenti attivi mensili l'utilizzo di modelli oscuri quando cercano il consenso per utilizzare le loro informazioni personali.<ref>{{Cita web|url=https://www.theverge.com/2019/4/9/18302199/big-tech-dark-patterns-senate-bill-detour-act-facebook-google-amazon-twitter|titolo=Big Tech’s ‘dark patterns’ could be outlawed under new Senate bill|autore=Makena Kelly|sito=The Verge|data=9 aprile 2019
Nel marzo 2021, la California ha adottato emendamenti al ''California Consumer Privacy Act'', che vieta l'uso di interfacce utente ingannevoli che hanno "l'effetto sostanziale di sovvertire o compromettere la scelta di un consumatore di rinunciare".<ref name=":0" />
Riga 62 ⟶ 80:
== Note ==
<references
== Voci correlate ==
|