Dark pattern: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m +fix wl |
→Bait-and-switch: +amplio il concetto |
||
(18 versioni intermedie di 12 utenti non mostrate) | |||
Riga 1:
In [[informatica]], un '''dark pattern''' o '''modello oscuro''' (inteso come
Il [[User experience design|
Nel 2021 la [[Electronic Frontier Foundation]] e [[Consumer Reports]] hanno
== Descrizione di alcuni modelli ==
Riga 9:
=== Privacy Zuckering ===
"Privacy Zuckering" – dal nome del co-fondatore di [[Facebook]] e [[Amministratore delegato|CEO]] di [[Meta Platforms]] [[Mark Zuckerberg]] – è una pratica che induce l'utente a condividere più informazioni di quelle che intendeva.<ref name=":2">{{Cita web|url=https://www.deceptive.design/types|titolo=Deceptive design - Types of deceptive design|lingua=en}}</ref> Gli utenti possono rinunciare alla riservatezza di queste informazioni senza accorgersene, oppure non compiendo le azioni concepite per rendere difficoltosa o ritardare la possibilità di rinunciare alla condivisione delle proprie informazioni private. La [[California]] ha approvato regolamenti che limitano questa pratica da parte delle aziende nel ''California Consumer Privacy Act''.<ref>{{Cita web|url=https://oag.ca.gov/news/press-releases/attorney-general-becerra-announces-approval-additional-regulations-empower-data|titolo=Attorney General Becerra Announces Approval of Additional Regulations That Empower Data Privacy Under the California Consumer Privacy Act|sito=State of California - Department of Justice - Office of the Attorney General|data=15 marzo 2021|lingua=en}}</ref>
Per quanto riguarda l'Europa, l'adozione del [[regolamento generale sulla protezione dei dati]] (GDPR) prevede, all'art. 25, l'introduzione dei concetti di [[privacy by design]] e [[privacy by default]], che prevedono, rispettivamente, che il software e la sua interfaccia debbano garantire la privacy dell'utente sin dal momento della sua progettazione, e in ogni caso con le opzioni di configurazione selezionate in modo predefinito per garantire la massima privacy<ref>{{Cita web|url=https://www.garanteprivacy.it/regolamentoue/data-protection-by-design-e-data-protection-by-default|titolo=Data Protection by Design e Data Protection by Default|sito=www.garanteprivacy.it|lingua=it-IT|accesso=2023-05-08}}</ref>.
'''"Privacy Zuckering" per l'addestramento dei modelli di IA'''
A metà del 2024, Meta Platforms ha annunciato l’intenzione di utilizzare i dati degli utenti di Facebook e Instagram per addestrare le sue tecnologie di intelligenza artificiale, inclusi i sistemi generativi. Questa iniziativa prevedeva l’elaborazione di dati provenienti da post pubblici e non pubblici, interazioni e persino account abbandonati. Gli utenti avevano tempo fino al 26 giugno 2024 per opporsi a questo trattamento dei dati. Tuttavia, i critici hanno sottolineato che il processo era pieno di ostacoli, tra cui notifiche e-mail fuorvianti, reindirizzamenti a pagine di accesso e moduli di rinuncia difficili da trovare. Anche quando gli utenti riuscivano a individuare i moduli, era richiesto di fornire una motivazione per l’opzione di rinuncia, nonostante la politica di Meta affermasse che qualsiasi motivo sarebbe stato accettato, sollevando dubbi sulla necessità di questo passaggio aggiuntivo.<ref>{{Cita web|url=https://www.technologyreview.com/2024/06/14/1093789/how-to-opt-out-of-meta-ai-training/|urlarchivio=https://web.archive.org/web/20240614135315/https://www.technologyreview.com/2024/06/14/1093789/how-to-opt-out-of-meta-ai-training/|urlmorto=sì|titolo=How to opt out of Meta's AI training {{!}} MIT Technology Review|data=|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en|autore=Aleksandra Wrona|url=https://www.snopes.com/news/2024/06/13/meta-ai-training-user-data/|titolo=Why Opting Out of Meta's Use of Facebook, Instagram Posts for AI Training Isn't Easy|sito=Snopes|data=2024-06-13|accesso=2025-01-04}}</ref>
Il Centro Europeo per i Diritti Digitali (Noyb) ha risposto alle pratiche controverse di Meta presentando reclami in 11 paesi dell’UE. Noyb ha accusato Meta di utilizzare "dark patterns" per compromettere il consenso degli utenti, in violazione del Regolamento Generale sulla Protezione dei Dati (GDPR). Questi reclami hanno evidenziato che il processo di rinuncia ostacolante di Meta includeva moduli nascosti, meccanismi di reindirizzamento e requisiti inutili, come fornire motivazioni per rinunciare — tattiche che esemplificano i "dark patterns", progettate deliberatamente per scoraggiare gli utenti dal rinunciare. Inoltre, Meta ha ammesso di non poter garantire che i dati degli utenti che hanno scelto di rinunciare fossero completamente esclusi dai suoi set di dati per l’addestramento, sollevando ulteriori preoccupazioni sulla privacy e la conformità alle normative sulla protezione dei dati.<ref>{{Cita web|lingua=it|url=https://noyb.eu/it/noyb-urges-11-dpas-immediately-stop-metas-abuse-personal-data-ai|titolo=noyb sollecita 11 DPA a fermare immediatamente l'abuso dei dati personali da parte di Meta per l'IA|sito=noyb.eu|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en|url=https://www.dataguidance.com/news/eu-noyb-files-11-complaints-against-meta-use-data-ai|titolo=DataGuidance|sito=DataGuidance|accesso=2025-01-04}}</ref>
Di fronte alla crescente pressione normativa e pubblica, la Commissione irlandese per la protezione dei dati (DPC) è intervenuta, portando Meta a sospendere i suoi piani di elaborazione dei dati degli utenti dell'UE/SEE per l’addestramento dell’IA. Questa decisione, sebbene significativa, non ha portato a una modifica giuridicamente vincolante della politica sulla privacy di Meta, lasciando aperte domande sull’impegno a lungo termine dell’azienda nel rispettare i diritti sui dati nell’UE. Al di fuori dell’UE, tuttavia, Meta ha proceduto con l’aggiornamento della sua politica sulla privacy come previsto il 26 giugno 2024, spingendo i critici a mettere in guardia sulle implicazioni globali di tali pratiche.<ref>{{Cita web|lingua=it|url=https://noyb.eu/it/preliminary-noyb-win-meta-stops-ai-plans-eu|titolo=(Preliminare) noyb WIN: Meta blocca i piani di AI nell'UE|sito=noyb.eu|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en-us|autore=Silviu STAHIE|url=https://www.bitdefender.com/en-us/blog/hotforsecurity/meta-forced-to-pause-ai-training-on-data-collected-from-facebook-and-instagram-users-in-europe|titolo=Meta Forced to Pause AI Training on Data Collected from Facebook and Instagram Users in Europe|sito=Hot for Security|accesso=2025-01-04}}</ref>
Questo episodio ha evidenziato il problema pervasivo dei "dark patterns" nelle impostazioni sulla privacy e le sfide nel rendere responsabili le grandi aziende tecnologiche per le loro pratiche sui dati. I gruppi di advocacy hanno richiesto quadri normativi più rigorosi per prevenire tattiche ingannevoli e garantire che gli utenti possano esercitare un controllo significativo sulle proprie informazioni personali.<ref>{{Cita web|lingua=en-US|autore=Paul Sawers|url=https://techcrunch.com/2024/10/03/hey-uk-heres-how-to-opt-out-of-meta-using-your-facebook-and-instagram-data-to-train-its-ai/|titolo=Hey, UK! Here's how to 'opt out' of Meta using your Facebook and Instagram data to train its AI|sito=TechCrunch|data=2024-10-03|accesso=2025-01-04}}</ref>
=== Bait-and-switch ===
I modelli ''esca-con-cambio'' (''Bait-and-switch'' in inglese) [[Pubblicità|pubblicizzano]] un prodotto o servizio gratuito (o a un prezzo notevolmente ridotto) che in realtà non è disponibile oppure lo è in quantità molto ridotte (utilizzato quindi solo come [[esca]]). Dopo aver annunciato l'indisponibilità del prodotto desiderato, la pagina presenta prodotti simili a prezzo superiore o di qualità inferiore.<ref name="webdesign">{{Cita web|url=https://webdesign.tutsplus.com/articles/dark-patterns-in-ui-and-website-design--webdesign-8506|titolo=Dark Patterns in UI and Website Design|sito=Web Design Envato Tuts+|accesso=26 dicembre 2022|dataarchivio=26 dicembre 2022|urlarchivio=https://web.archive.org/web/20221226105844/https://webdesign.tutsplus.com/articles/dark-patterns-in-ui-and-website-design--webdesign-8506|urlmorto=sì}}</ref><ref name="dark">{{Cita web|url=https://www.deceptive.design/|titolo=Deceptive Design - user interfaces crafted to trick you|lingua=en}}</ref>
Con questo termine inoltre viene evidenziata una forma di [[Frode|frode commerciale]] diffusa in molti altri ambiti diversi dal commercio elettronico<ref>{{Cita web|lingua=it-IT|url=https://www.consumatori.it/news/truffa-bait-and-switch/|titolo=Prezzo troppo conveniente? Attenzione alla truffa bait-and-switch|sito=Consumatori.it|accesso=2025-09-01}}</ref>, che spazia dalla camera di albergo che al momento di prenotarla non risulta disponibile a quel prezzo, e in cambio vengono proposte camere alternative molto più costose o più piccole, alle [[Televendita|vendite a distanza]] che pubblicizzano un prodotto che non è mai stato realmente disponibile con quelle caratteristiche e a quel prezzo, l'offerta era quindi "troppo bella per essere vera"<ref>{{Cita web|lingua=en-US|url=https://corporatefinanceinstitute.com/resources/management/bait-and-switch/|titolo=Bait and Switch|sito=Corporate Finance Institute|accesso=2025-09-01}}</ref>.
=== Confirmshaming ===
La ''conferma imbarazzante'' (''Confirmshaming'' in inglese) usa la [[Emozione|risposta emotiva]] per indurre gli utenti a provare [[vergogna]] nel compiere, ovvero confermare, l'azione di rifiuto. Ad esempio, quando
=== Misdirection ===
Tecnica comunemente impiegata nei [[software]] di installazione di altre applicazioni (''[[installer]]''), il ''depistaggio'' (''misdirection'' in inglese) presenta all'utente un pulsante simile a un tipico pulsante di avanzamento dell'installazione, ma l'inganno consiste nel mostrare all'utente un pulsante "Accetto questi termini" in primo piano con lo scopo di chiedergli di accettare i termini di un programma diverso e non correlato a quello che stava tentando di installare. Poiché l'utente in genere accetta i termini per forza d'abitudine, il programma "intruso" viene installato insieme a quello principale che invece era l'unico che l'utente desiderava ottenere con quell'installer.
Gli autori dell'installer lo hanno progettato in questo modo in quanto vengono pagati dagli autori del programma non correlato/estraneo per ogni installazione che effettuano per conto
Anche alcuni siti web, quando richiedono informazioni non necessarie, utilizzano il depistaggio. Ad esempio, si inserisce un nome utente e una password su una pagina e, dopo aver fatto clic sul pulsante "Avanti", la pagina successiva chiede all'utente il proprio indirizzo e-mail con un altro pulsante "Avanti" come unica opzione.<ref>{{Cita web|url=http://www.reddit.com/r/TheoryOfReddit/comments/71mker/why_do_we_need_email_addresses_to_create_reddit/|titolo=Why do we need email addresses to create Reddit accounts now?|autore=bleachypeachy|sito=|data=21 settembre 2017}}</ref> In questo modo viene nascosta all'utente la possibilità di premere "avanti" potendo accedere ugualmente al servizio anche senza dover inserire le ulteriori informazioni, come l'indirizzo email.
Riga 25 ⟶ 39:
In alcuni casi, la pagina mostra il metodo per saltare il passaggio come un piccolo link in grigio anziché come un pulsante, in modo che non risulti evidente per l'utente.<ref>{{Cita web|url=https://medium.com/@danrschlosser/linkedin-dark-patterns-3ae726fe1462|titolo=LinkedIn Dark Patterns|autore=Dan Schlosser|sito=Medium|data=9 giugno 2015|lingua=en}}</ref> Altri esempi includono siti che offrono un modo per invitare amici inserendo il loro indirizzo e-mail, per caricare un'immagine del profilo o per identificare interessi personali a scopo di [[Profilazione dell'utente|profilazione]].
Possono anche essere utilizzate formulazioni confuse
=== Roach motel ===
Un motel di scarafaggi (''roach
Di recente, negli Stati Uniti, la [[Federal Trade Commission]] (FTC) ha annunciato che aumenterà il controllo contro l'applicazione di modelli oscuri come il roach motel che inducono i consumatori a sottoscrivere abbonamenti e/o ne rendono difficile la cancellazione. La FTC ha stabilito requisiti chiave relativi alla trasparenza e alla chiarezza delle informazioni, al consenso informato espresso e alla cancellazione semplice e facile.<ref name=":1">{{Cita web|url=https://www.ftc.gov/news-events/news/press-releases/2021/10/ftc-ramp-enforcement-against-illegal-dark-patterns-trick-or-trap-consumers-subscriptions|titolo=FTC to Ramp up Enforcement against Illegal Dark Patterns that Trick or Trap Consumers into Subscriptions|sito=Federal Trade Commission|data=28 ottobre 2021|lingua=en}}</ref>
Riga 39 ⟶ 53:
== Ricerca ==
Nel 2016 e nel 2017<ref>{{Cita pubblicazione|nome=Christoph|cognome=Bösch|nome2=Benjamin|cognome2=Erb|nome3=Frank|cognome3=Kargl|data=2016|titolo=Tales from the Dark Side: Privacy Dark Strategies and Privacy Dark Patterns|rivista=Proceedings on Privacy Enhancing Technologies|doi=10.1515/popets-2016-0038|url=https://petsymposium.org/popets/2016/popets-2016-0038.php}}</ref> la ricerca ha documentato pratiche anti-privacy sui [[social media]] che utilizzano modelli oscuri.<ref>{{Cita libro|nome=Lothar|cognome=Fritsch|titolo=Privacy dark patterns in identity management|url=http://dl.gi.de/handle/20.500.12116/3583|data=2017|editore=Gesellschaft für Informatik, Bonn|lingua=en|ISBN=978-3-88579-671-8}}</ref> Nel 2018 il Norwegian Consumer Council (Forbrukerrådet) ha pubblicato "Deceived by Design", un rapporto sui design ingannevoli dell'interfaccia utente di [[Facebook]], [[Google (azienda)|Google]] e [[Microsoft]]
Una ricerca dell'aprile 2022 rileva che i modelli oscuri sono ancora comunemente utilizzati sul mercato, evidenziando la necessità di un ulteriore controllo di tali pratiche da parte del pubblico, dei ricercatori e delle autorità di regolamentazione.<ref>{{Cita pubblicazione|cognome=Runge|nome=Julian|data=14 aprile 2022|titolo="Dark patterns" in online services: a motivating study and agenda for future research|url=https://doi.org/10.1007/s11002-022-09629-4|lingua=en|doi=10.1007/s11002-022-09629-4|issn=1573-059X}}</ref>
Riga 45 ⟶ 59:
Ai sensi del [[Regolamento generale sulla protezione dei dati]] (GDPR) dell'Unione europea, tutte le aziende devono ottenere un consenso libero e inequivocabile dai clienti prima di raccogliere e utilizzare ("elaborare") le loro informazioni di identificazione personale.
Uno studio del 2020 ha rilevato che le aziende "[[GAFAM|big tech]]" spesso utilizzavano interfacce utente ingannevoli per scoraggiare i propri utenti dall'[[opt-out]].<ref>{{Cita pubblicazione|nome=Soheil|cognome=Human|nome2=Florian|cognome2=Cech|data=2021|titolo=A Human-Centric Perspective on Digital Consenting: The Case of GAFAM|rivista=Human Centred Intelligent Systems|editore=Springer|curatore=Alfred Zimmermann, Robert J. Howlett, Lakhmi C. Jain|pp=
== Legalità ==
Riga 68 ⟶ 80:
== Note ==
<references
== Voci correlate ==
|