Dark pattern: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m →Misdirection: +sistemazione linguaggio e altri fix |
→Bait-and-switch: +amplio il concetto |
||
(27 versioni intermedie di 13 utenti non mostrate) | |||
Riga 1:
In [[informatica]], un '''dark pattern''' o '''modello oscuro''' (inteso come malevolo, cattivo), noto anche come '''modello di progettazione ingannevole''' (''deceptive design'' in [[Lingua inglese|inglese]]) è un'[[interfaccia utente]] che è stata accuratamente studiata e realizzata per indurre gli utenti a compiere azioni indesiderate e svantaggiose per loro, come acquistare un'assicurazione troppo costosa o iscriversi a servizi in abbonamento non voluti.<ref name="fastcode">{{Cita web|url=
Il [[User experience design|
Nel 2021 la [[Electronic Frontier Foundation]] e [[Consumer Reports]] hanno
== Descrizione di alcuni modelli ==
=== Privacy Zuckering ===
"Privacy Zuckering" – dal nome del co-fondatore di [[Facebook]] e [[Amministratore delegato|CEO]] di [[Meta Platforms]] [[Mark Zuckerberg]] – è una pratica che induce l'utente a condividere più informazioni di quelle che intendeva.<ref name=":2">{{Cita web|url=https://www.deceptive.design/types|titolo=Deceptive design - Types of deceptive
Per quanto riguarda l'Europa, l'adozione del [[regolamento generale sulla protezione dei dati]] (GDPR) prevede, all'art. 25, l'introduzione dei concetti di [[privacy by design]] e [[privacy by default]], che prevedono, rispettivamente, che il software e la sua interfaccia debbano garantire la privacy dell'utente sin dal momento della sua progettazione, e in ogni caso con le opzioni di configurazione selezionate in modo predefinito per garantire la massima privacy<ref>{{Cita web|url=https://www.garanteprivacy.it/regolamentoue/data-protection-by-design-e-data-protection-by-default|titolo=Data Protection by Design e Data Protection by Default|sito=www.garanteprivacy.it|lingua=it-IT|accesso=2023-05-08}}</ref>.
'''"Privacy Zuckering" per l'addestramento dei modelli di IA'''
A metà del 2024, Meta Platforms ha annunciato l’intenzione di utilizzare i dati degli utenti di Facebook e Instagram per addestrare le sue tecnologie di intelligenza artificiale, inclusi i sistemi generativi. Questa iniziativa prevedeva l’elaborazione di dati provenienti da post pubblici e non pubblici, interazioni e persino account abbandonati. Gli utenti avevano tempo fino al 26 giugno 2024 per opporsi a questo trattamento dei dati. Tuttavia, i critici hanno sottolineato che il processo era pieno di ostacoli, tra cui notifiche e-mail fuorvianti, reindirizzamenti a pagine di accesso e moduli di rinuncia difficili da trovare. Anche quando gli utenti riuscivano a individuare i moduli, era richiesto di fornire una motivazione per l’opzione di rinuncia, nonostante la politica di Meta affermasse che qualsiasi motivo sarebbe stato accettato, sollevando dubbi sulla necessità di questo passaggio aggiuntivo.<ref>{{Cita web|url=https://www.technologyreview.com/2024/06/14/1093789/how-to-opt-out-of-meta-ai-training/|urlarchivio=https://web.archive.org/web/20240614135315/https://www.technologyreview.com/2024/06/14/1093789/how-to-opt-out-of-meta-ai-training/|urlmorto=sì|titolo=How to opt out of Meta's AI training {{!}} MIT Technology Review|data=|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en|autore=Aleksandra Wrona|url=https://www.snopes.com/news/2024/06/13/meta-ai-training-user-data/|titolo=Why Opting Out of Meta's Use of Facebook, Instagram Posts for AI Training Isn't Easy|sito=Snopes|data=2024-06-13|accesso=2025-01-04}}</ref>
Il Centro Europeo per i Diritti Digitali (Noyb) ha risposto alle pratiche controverse di Meta presentando reclami in 11 paesi dell’UE. Noyb ha accusato Meta di utilizzare "dark patterns" per compromettere il consenso degli utenti, in violazione del Regolamento Generale sulla Protezione dei Dati (GDPR). Questi reclami hanno evidenziato che il processo di rinuncia ostacolante di Meta includeva moduli nascosti, meccanismi di reindirizzamento e requisiti inutili, come fornire motivazioni per rinunciare — tattiche che esemplificano i "dark patterns", progettate deliberatamente per scoraggiare gli utenti dal rinunciare. Inoltre, Meta ha ammesso di non poter garantire che i dati degli utenti che hanno scelto di rinunciare fossero completamente esclusi dai suoi set di dati per l’addestramento, sollevando ulteriori preoccupazioni sulla privacy e la conformità alle normative sulla protezione dei dati.<ref>{{Cita web|lingua=it|url=https://noyb.eu/it/noyb-urges-11-dpas-immediately-stop-metas-abuse-personal-data-ai|titolo=noyb sollecita 11 DPA a fermare immediatamente l'abuso dei dati personali da parte di Meta per l'IA|sito=noyb.eu|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en|url=https://www.dataguidance.com/news/eu-noyb-files-11-complaints-against-meta-use-data-ai|titolo=DataGuidance|sito=DataGuidance|accesso=2025-01-04}}</ref>
Di fronte alla crescente pressione normativa e pubblica, la Commissione irlandese per la protezione dei dati (DPC) è intervenuta, portando Meta a sospendere i suoi piani di elaborazione dei dati degli utenti dell'UE/SEE per l’addestramento dell’IA. Questa decisione, sebbene significativa, non ha portato a una modifica giuridicamente vincolante della politica sulla privacy di Meta, lasciando aperte domande sull’impegno a lungo termine dell’azienda nel rispettare i diritti sui dati nell’UE. Al di fuori dell’UE, tuttavia, Meta ha proceduto con l’aggiornamento della sua politica sulla privacy come previsto il 26 giugno 2024, spingendo i critici a mettere in guardia sulle implicazioni globali di tali pratiche.<ref>{{Cita web|lingua=it|url=https://noyb.eu/it/preliminary-noyb-win-meta-stops-ai-plans-eu|titolo=(Preliminare) noyb WIN: Meta blocca i piani di AI nell'UE|sito=noyb.eu|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en-us|autore=Silviu STAHIE|url=https://www.bitdefender.com/en-us/blog/hotforsecurity/meta-forced-to-pause-ai-training-on-data-collected-from-facebook-and-instagram-users-in-europe|titolo=Meta Forced to Pause AI Training on Data Collected from Facebook and Instagram Users in Europe|sito=Hot for Security|accesso=2025-01-04}}</ref>
Questo episodio ha evidenziato il problema pervasivo dei "dark patterns" nelle impostazioni sulla privacy e le sfide nel rendere responsabili le grandi aziende tecnologiche per le loro pratiche sui dati. I gruppi di advocacy hanno richiesto quadri normativi più rigorosi per prevenire tattiche ingannevoli e garantire che gli utenti possano esercitare un controllo significativo sulle proprie informazioni personali.<ref>{{Cita web|lingua=en-US|autore=Paul Sawers|url=https://techcrunch.com/2024/10/03/hey-uk-heres-how-to-opt-out-of-meta-using-your-facebook-and-instagram-data-to-train-its-ai/|titolo=Hey, UK! Here's how to 'opt out' of Meta using your Facebook and Instagram data to train its AI|sito=TechCrunch|data=2024-10-03|accesso=2025-01-04}}</ref>
=== Bait-and-switch ===
I modelli ''esca-
Con questo termine inoltre viene evidenziata una forma di [[Frode|frode commerciale]] diffusa in molti altri ambiti diversi dal commercio elettronico<ref>{{Cita web|lingua=it-IT|url=https://www.consumatori.it/news/truffa-bait-and-switch/|titolo=Prezzo troppo conveniente? Attenzione alla truffa bait-and-switch|sito=Consumatori.it|accesso=2025-09-01}}</ref>, che spazia dalla camera di albergo che al momento di prenotarla non risulta disponibile a quel prezzo, e in cambio vengono proposte camere alternative molto più costose o più piccole, alle [[Televendita|vendite a distanza]] che pubblicizzano un prodotto che non è mai stato realmente disponibile con quelle caratteristiche e a quel prezzo, l'offerta era quindi "troppo bella per essere vera"<ref>{{Cita web|lingua=en-US|url=https://corporatefinanceinstitute.com/resources/management/bait-and-switch/|titolo=Bait and Switch|sito=Corporate Finance Institute|accesso=2025-09-01}}</ref>.
=== Confirmshaming ===
La ''conferma imbarazzante'' (''Confirmshaming'' in inglese) usa la [[Emozione|risposta emotiva]] per
=== Misdirection ===
Tecnica comunemente impiegata nei [[software]] di installazione
Gli autori dell'installer lo hanno progettato in questo modo in quanto vengono pagati dagli autori del programma non correlato/estraneo per ogni installazione che effettuano per conto loro. Il percorso alternativo previsto dall'installer, che consente all'utente di evitare l'installazione del programma indesiderato, è visualizzato in modo molto meno evidente,<ref>{{Cita web|url=https://www.ghacks.net/2013/07/17/sourceforges-new-installer-bundles-program-downloads-with-adware/|titolo=SourceForge's new Installer bundles program downloads with adware - gHacks Tech News|sito=gHacks Technology News|data=17 luglio 2013|lingua=en}}</ref> o sembra controintuitivo (come rifiutare i termini di servizio).
Anche alcuni siti web quando richiedono informazioni non necessarie utilizzano il depistaggio. Ad esempio, si inserisce un nome utente e una password su una pagina e, dopo aver fatto clic sul pulsante "Avanti", la pagina chiede all'utente il proprio indirizzo e-mail con un altro pulsante "Avanti" come unica opzione.<ref>{{Cita web|url=http://www.reddit.com/r/TheoryOfReddit/comments/71mker/why_do_we_need_email_addresses_to_create_reddit/|titolo=Why do we need email addresses to create Reddit accounts now?|autore=bleachypeachy|sito=|data=2017-09-21}}</ref> In questo modo viene nascosta la possibilità di premere "avanti" potendo accedere ugualmente al servizio senza dover inserire le ulteriori informazioni. In alcuni casi, la pagina mostra il metodo per saltare il passaggio come un piccolo link in grigio anziché come un pulsante, in modo che non risulti evidente per l'utente.<ref>{{Cita web|url=https://medium.com/@danrschlosser/linkedin-dark-patterns-3ae726fe1462|titolo=LinkedIn Dark Patterns|autore=Dan Schlosser|sito=Medium|data=2015-06-09|lingua=en}}</ref> Altri esempi includono siti che offrono un modo per invitare amici inserendo il loro indirizzo e-mail, per caricare un'immagine del profilo o per identificare interessi personali a scopo di [[Profilazione (programmazione)|profilazione]].▼
▲Anche alcuni siti web, quando richiedono informazioni non necessarie, utilizzano il depistaggio. Ad esempio, si inserisce un nome utente e una password su una pagina e, dopo aver fatto clic sul pulsante "Avanti", la pagina successiva chiede all'utente il proprio indirizzo e-mail con un altro pulsante "Avanti" come unica opzione.<ref>{{Cita web|url=http://www.reddit.com/r/TheoryOfReddit/comments/71mker/why_do_we_need_email_addresses_to_create_reddit/|titolo=Why do we need email addresses to create Reddit accounts now?|autore=bleachypeachy|sito=|data=
Possono anche essere utilizzate formulazioni confuse per indurre gli utenti ad accettare formalmente un'opzione che secondo loro aveva il significato opposto, ad esempio un pulsante di consenso al trattamento dei dati personali presentato con una dicitura "non vendere le mie informazioni personali".<ref name=":0">{{Cita web|url=https://www.theverge.com/2021/3/16/22333506/california-bans-dark-patterns-opt-out-selling-data|titolo=California bans ‘dark patterns’ that trick users into giving away their personal data|autore=James Vincent|sito=The Verge|data=2021-03-16|lingua=en-US}}</ref>▼
In alcuni casi, la pagina mostra il metodo per saltare il passaggio come un piccolo link in grigio anziché come un pulsante, in modo che non risulti evidente per l'utente.<ref>{{Cita web|url=https://medium.com/@danrschlosser/linkedin-dark-patterns-3ae726fe1462|titolo=LinkedIn Dark Patterns|autore=Dan Schlosser|sito=Medium|data=9 giugno 2015|lingua=en}}</ref> Altri esempi includono siti che offrono un modo per invitare amici inserendo il loro indirizzo e-mail, per caricare un'immagine del profilo o per identificare interessi personali a scopo di [[Profilazione dell'utente|profilazione]].
▲Possono anche essere utilizzate formulazioni confuse
=== Roach motel ===
Un motel
Di recente, negli Stati Uniti, la [[Federal Trade Commission]] (FTC) ha annunciato che aumenterà il controllo contro l'applicazione di modelli oscuri come il roach motel che inducono i consumatori a sottoscrivere abbonamenti e/o ne rendono difficile la cancellazione. La FTC ha stabilito requisiti chiave relativi alla trasparenza e alla chiarezza delle informazioni, al consenso informato espresso e alla cancellazione semplice e facile.<ref name=":1">{{Cita web|url=https://www.ftc.gov/news-events/news/press-releases/2021/10/ftc-ramp-enforcement-against-illegal-dark-patterns-trick-or-trap-consumers-subscriptions|titolo=FTC to Ramp up Enforcement against Illegal Dark Patterns that Trick or Trap Consumers into Subscriptions|sito=Federal Trade Commission|data=
=== Sneak into basket ===
L'''intrufolarsi nel cestino'' (''sneak into basket'' in inglese) è l'aggiunta di prodotti o servizi non richiesti, oltre a quelli che sono stati scelti, nella lista finale dei prodotti selezionati per l'acquisto, detta carrello o cestino (''basket'' in inglese), in analogia al contenitore con cui si raccolgono i prodotti da acquistare in un negozio fisico. Questo è avvenuto grazie alla preselezione di caselle di controllo che l'utente avrebbe dovuto deselezionare nelle pagine precedenti affinché i prodotti non richiesti non venissero aggiunti al carrello (''negative billing option''). Questa tecnica è diventata illegale nel [[Regno Unito]] e in molti Paesi dell'[[Unione europea]].<ref name=":2" />
=== Hidden costs ===
I ''costi nascosti'' (''hidden costs'' in inglese) sono quelli che non appaiono mai durante tutto il processo di scelta dei prodotti o dei servizi da acquistare (tipicamente da un sito di [[Commercio elettronico|e-commerce]], di prenotazione voli, hotel, noleggio veicoli e anche combinazioni fra queste), ma solo nell'ultima pagina del pagamento finale con il riepilogo dei prodotti o servizi acquistati (''checkout''), e solo dopo aver inserito tutti i dati del metodo di pagamento e i dati personali (ad esempio le spese di spedizione, di servizio, le commissioni, tasse supplementari ecc.). L'utente può essere indotto a confermare l'acquisto con i costi nascosti per non dover tornare indietro nelle pagine precedenti e modificare le proprie scelte, ricompilando nuovamente tutti i dati con notevole ulteriore perdita di tempo e impegno o ricominciare dall'inizio il processo di acquisto presso un altro sito.<ref name=":2" />
== Ricerca ==
Nel 2016 e nel 2017<ref>{{Cita pubblicazione|nome=Christoph|cognome=Bösch|nome2=Benjamin|cognome2=Erb|nome3=Frank|cognome3=Kargl|data=2016|titolo=Tales from the Dark Side: Privacy Dark Strategies and Privacy Dark Patterns|rivista=Proceedings on Privacy Enhancing Technologies|doi=10.1515/popets-2016-0038|url=https://petsymposium.org/popets/2016/popets-2016-0038.php}}</ref> la ricerca ha documentato pratiche anti-privacy sui [[social media]] che utilizzano modelli oscuri.<ref>{{Cita libro|nome=Lothar|cognome=Fritsch|titolo=Privacy dark patterns in identity management|url=http://dl.gi.de/handle/20.500.12116/3583|data=2017|editore=Gesellschaft für Informatik, Bonn|lingua=en|ISBN=978-3-88579-671-8}}</ref> Nel 2018 il Norwegian Consumer Council (Forbrukerrådet) ha pubblicato "Deceived by Design", un rapporto sui design ingannevoli dell'interfaccia utente di [[Facebook]], [[Google (azienda)|Google]] e [[Microsoft]]
Una ricerca dell'aprile 2022 rileva che i modelli oscuri sono ancora comunemente utilizzati sul mercato, evidenziando la necessità di un ulteriore controllo di tali pratiche da parte del pubblico, dei ricercatori e delle autorità di regolamentazione.<ref>{{
Ai sensi del [[Regolamento generale sulla protezione dei dati]] (GDPR) dell'
Uno studio del 2020 ha rilevato che le aziende "[[GAFAM|big tech]]" spesso utilizzavano interfacce utente ingannevoli per scoraggiare i propri utenti dall'[[opt-out]].<ref>{{Cita pubblicazione|nome=Soheil|cognome=Human|nome2=Florian|cognome2=Cech|data=2021|titolo=A Human-Centric Perspective on Digital Consenting: The Case of GAFAM|rivista=Human Centred Intelligent Systems|editore=Springer|curatore=Alfred Zimmermann, Robert J. Howlett, Lakhmi C. Jain|pp=139-159|lingua=en|doi=10.1007/978-981-15-5784-2_12|url=https://link.springer.com/chapter/10.1007/978-981-15-5784-2_12}}</ref> Nel 2022 un rapporto della [[Commissione europea]] ha rilevato che "il 97% dei siti Web e delle app più popolari utilizzati dai consumatori dell'UE ha implementato almeno un modello oscuro".<ref>{{Cita libro|autore=Directorate-General for Justice and Consumers (European Commission)|nome2=Francisco|cognome2=Lupiáñez-Villanueva|nome3=Alba|cognome3=Boluda|titolo=Behavioural study on unfair commercial practices in the digital environment: dark patterns and manipulative personalisation : final report|url=https://data.europa.eu/doi/10.2838/859030|data=2022|editore=Publications Office of the European Union|ISBN=978-92-76-52316-1|DOI=10.2838/859030}}</ref> e nel 2024 un’altra indagine della Commissione UE ha evidenziato che il 37% dei siti di shopping online usa dark pattern per persuadere gli utenti a fare acquisti con modalità non realmente vantaggiose per loro.<ref>[https://www.italiaoggi.it/economia-e-politica/economia-e-finanza/digitale-federprivacy-servono-legalita-e-etica-nella-gestione-dei-diritti-x8kn3ctt?refresh_cens Digitale, Federprivacy: servono legalità e etica nella gestione dei diritti]. Italia Oggi</ref>
== Legalità ==
Bait-and-switch è una forma di [[Frode aziendale|frode]] che viola la legge statunitense. Nell'Unione
Nell'aprile 2019, l'[[Information Commissioner's Office]] (ICO) del Regno Unito ha emesso una proposta di codice di progettazione per le operazioni dei servizi di social networking quando utilizzati da minori, che vieta l'uso di "[[Teoria dei nudge|nudge]]" per attirare gli utenti in opzioni con impostazioni di privacy basse. Questo codice sarebbe applicabile ai sensi del GDPR.<ref>{{Cita news|lingua=en
Il 9 aprile 2019, i senatori statunitensi [[Deb Fischer]] e [[Mark Warner (politico statunitense)|Mark Warner]] hanno introdotto il ''Deceptive Experiences To Online Users Reduction'' (DETOUR) Act, che renderebbe illegale per le aziende con più di 100 milioni di utenti attivi mensili l'utilizzo di modelli oscuri quando cercano il consenso per utilizzare le loro informazioni personali.<ref>{{Cita web|url=https://www.theverge.com/2019/4/9/18302199/big-tech-dark-patterns-senate-bill-detour-act-facebook-google-amazon-twitter|titolo=Big Tech’s ‘dark patterns’ could be outlawed under new Senate bill|autore=Makena Kelly|sito=The Verge|data=9 aprile 2019
Nel marzo 2021, la California ha adottato emendamenti al ''California Consumer Privacy Act'', che vieta l'uso di interfacce utente ingannevoli che hanno "l'effetto sostanziale di sovvertire o compromettere la scelta di un consumatore di rinunciare".<ref name=":0" />
Nell'ottobre 2021, la Federal Trade Commission ha rilasciato una dichiarazione sulla politica di applicazione, annunciando un giro di vite nei confronti delle aziende che utilizzano modelli oscuri che "ingannano o intrappolano i consumatori nei servizi in abbonamento". A seguito dell'aumento del numero di reclami, l'agenzia sta rispondendo applicando queste leggi sulla protezione dei consumatori.<ref name=":1" />
Secondo il [[Comitato europeo per la protezione dei dati]], il "principio del trattamento leale di cui all'articolo 5, paragrafo 1, lettera a) del GDPR funge da punto di partenza per valutare se un modello di progettazione costituisca effettivamente un 'dark pattern'".<ref>{{Cita web|url=https://edpb.europa.eu/system/files/2022-03/edpb_03-2022_guidelines_on_dark_patterns_in_social_media_platform_interfaces_en.pdf|titolo=Guidelines 3/2022 on
Dark patterns in social media platform interfaces: How to
Riga 55 ⟶ 80:
== Note ==
<references
== Voci correlate ==
|