Dark pattern: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Bot: numeri di pagina nei template citazione |
→Bait-and-switch: +amplio il concetto |
||
(4 versioni intermedie di 3 utenti non mostrate) | |||
Riga 1:
In [[informatica]], un '''dark pattern''' o '''modello oscuro''' (inteso come
Il [[User experience design|progettista dell'esperienza utente]] Harry Brignull ha coniato il [[neologismo]] ''dark pattern'' il 28 luglio 2010 con la registrazione del dominio darkpatterns.org, una "libreria di pattern con l'obiettivo specifico di individuare e svergognare interfacce utente ingannevoli".<ref name="alistapart">{{Cita web|url=https://alistapart.com/article/dark-patterns-deception-vs-honesty-in-ui-design/|titolo=Dark Patterns: Deception vs. Honesty in UI Design|autore=Harry Brignull|sito=A List Apart|data=1º novembre 2011|lingua=en}}</ref><ref name="ars">{{Cita web|url=https://arstechnica.com/information-technology/2016/07/dark-patterns-are-designed-to-trick-you-and-theyre-all-over-the-web/|titolo=Dark Patterns are designed to trick you (and they’re all over the Web)|autore=Ars Staff|sito=Ars Technica|data=28 luglio 2016|lingua=en-us}}</ref><ref name=":3">{{Cita web|url=https://www.theatlantic.com/technology/archive/2019/08/how-dark-patterns-online-manipulate-shoppers/595360/|titolo=The Endless, Invisible Persuasion Tactics of the Internet|autore=Sidney Fussell|sito=The Atlantic|data=2 agosto 2019|lingua=en}}</ref>
Riga 14:
'''"Privacy Zuckering" per l'addestramento dei modelli di IA'''
A metà del 2024, Meta Platforms ha annunciato l’intenzione di utilizzare i dati degli utenti di Facebook e Instagram per addestrare le sue tecnologie di intelligenza artificiale, inclusi i sistemi generativi. Questa iniziativa prevedeva l’elaborazione di dati provenienti da post pubblici e non pubblici, interazioni e persino account abbandonati. Gli utenti avevano tempo fino al 26 giugno 2024 per opporsi a questo trattamento dei dati. Tuttavia, i critici hanno sottolineato che il processo era pieno di ostacoli, tra cui notifiche e-mail fuorvianti, reindirizzamenti a pagine di accesso e moduli di rinuncia difficili da trovare. Anche quando gli utenti riuscivano a individuare i moduli, era richiesto di fornire una motivazione per l’opzione di rinuncia, nonostante la politica di Meta affermasse che qualsiasi motivo sarebbe stato accettato, sollevando dubbi sulla necessità di questo passaggio aggiuntivo.<ref>{{Cita web|url=https://www.technologyreview.com/2024/06/14/1093789/how-to-opt-out-of-meta-ai-training/|urlarchivio=https://web.archive.org/web/20240614135315/https://www.technologyreview.com/2024/06/14/1093789/how-to-opt-out-of-meta-ai-training/|urlmorto=sì|titolo=How to opt out of Meta's AI training {{!}} MIT Technology Review
Il Centro Europeo per i Diritti Digitali (Noyb) ha risposto alle pratiche controverse di Meta presentando reclami in 11 paesi dell’UE. Noyb ha accusato Meta di utilizzare "dark patterns" per compromettere il consenso degli utenti, in violazione del Regolamento Generale sulla Protezione dei Dati (GDPR). Questi reclami hanno evidenziato che il processo di rinuncia ostacolante di Meta includeva moduli nascosti, meccanismi di reindirizzamento e requisiti inutili, come fornire motivazioni per rinunciare — tattiche che esemplificano i "dark patterns", progettate deliberatamente per scoraggiare gli utenti dal rinunciare. Inoltre, Meta ha ammesso di non poter garantire che i dati degli utenti che hanno scelto di rinunciare fossero completamente esclusi dai suoi set di dati per l’addestramento, sollevando ulteriori preoccupazioni sulla privacy e la conformità alle normative sulla protezione dei dati.<ref>{{Cita web|lingua=it|url=https://noyb.eu/it/noyb-urges-11-dpas-immediately-stop-metas-abuse-personal-data-ai|titolo=noyb sollecita 11 DPA a fermare immediatamente l'abuso dei dati personali da parte di Meta per l'IA|sito=noyb.eu|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en|url=https://www.dataguidance.com/news/eu-noyb-files-11-complaints-against-meta-use-data-ai|titolo=DataGuidance|sito=DataGuidance|accesso=2025-01-04}}</ref>
Riga 24:
=== Bait-and-switch ===
I modelli ''esca-con-cambio'' (''Bait-and-switch'' in inglese) [[Pubblicità|pubblicizzano]] un prodotto o servizio gratuito (o a un prezzo notevolmente ridotto) che in realtà non è disponibile oppure lo è in quantità molto ridotte (utilizzato quindi solo come [[esca]]). Dopo aver annunciato l'indisponibilità del prodotto desiderato, la pagina presenta prodotti simili a prezzo superiore o di qualità inferiore.<ref name="webdesign">{{Cita web|url=https://webdesign.tutsplus.com/articles/dark-patterns-in-ui-and-website-design--webdesign-8506|titolo=Dark Patterns in UI and Website Design|sito=Web Design Envato Tuts+|accesso=26 dicembre 2022|dataarchivio=26 dicembre 2022|urlarchivio=https://web.archive.org/web/20221226105844/https://webdesign.tutsplus.com/articles/dark-patterns-in-ui-and-website-design--webdesign-8506|urlmorto=sì}}</ref><ref name="dark">{{Cita web|url=https://www.deceptive.design/|titolo=Deceptive Design - user interfaces crafted to trick you|lingua=en}}</ref>
Con questo termine inoltre viene evidenziata una forma di [[Frode|frode commerciale]] diffusa in molti altri ambiti diversi dal commercio elettronico<ref>{{Cita web|lingua=it-IT|url=https://www.consumatori.it/news/truffa-bait-and-switch/|titolo=Prezzo troppo conveniente? Attenzione alla truffa bait-and-switch|sito=Consumatori.it|accesso=2025-09-01}}</ref>, che spazia dalla camera di albergo che al momento di prenotarla non risulta disponibile a quel prezzo, e in cambio vengono proposte camere alternative molto più costose o più piccole, alle [[Televendita|vendite a distanza]] che pubblicizzano un prodotto che non è mai stato realmente disponibile con quelle caratteristiche e a quel prezzo, l'offerta era quindi "troppo bella per essere vera"<ref>{{Cita web|lingua=en-US|url=https://corporatefinanceinstitute.com/resources/management/bait-and-switch/|titolo=Bait and Switch|sito=Corporate Finance Institute|accesso=2025-09-01}}</ref>.
=== Confirmshaming ===
Riga 51 ⟶ 53:
== Ricerca ==
Nel 2016 e nel 2017<ref>{{Cita pubblicazione|nome=Christoph|cognome=Bösch|nome2=Benjamin|cognome2=Erb|nome3=Frank|cognome3=Kargl|data=2016|titolo=Tales from the Dark Side: Privacy Dark Strategies and Privacy Dark Patterns|rivista=Proceedings on Privacy Enhancing Technologies|doi=10.1515/popets-2016-0038|url=https://petsymposium.org/popets/2016/popets-2016-0038.php}}</ref> la ricerca ha documentato pratiche anti-privacy sui [[social media]] che utilizzano modelli oscuri.<ref>{{Cita libro|nome=Lothar|cognome=Fritsch|titolo=Privacy dark patterns in identity management|url=http://dl.gi.de/handle/20.500.12116/3583|data=2017|editore=Gesellschaft für Informatik, Bonn|lingua=en|ISBN=978-3-88579-671-8}}</ref> Nel 2018 il Norwegian Consumer Council (Forbrukerrådet) ha pubblicato "Deceived by Design", un rapporto sui design ingannevoli dell'interfaccia utente di [[Facebook]], [[Google (azienda)|Google]] e [[Microsoft]].<ref>{{Cita web|url=https://www.forbrukerradet.no/undersokelse/no-undersokelsekategori/deceived-by-design/|titolo=Report: Deceived by design : Forbrukerrådet
Una ricerca dell'aprile 2022 rileva che i modelli oscuri sono ancora comunemente utilizzati sul mercato, evidenziando la necessità di un ulteriore controllo di tali pratiche da parte del pubblico, dei ricercatori e delle autorità di regolamentazione.<ref>{{Cita pubblicazione|cognome=Runge|nome=Julian|data=14 aprile 2022|titolo="Dark patterns" in online services: a motivating study and agenda for future research|url=https://doi.org/10.1007/s11002-022-09629-4|lingua=en|doi=10.1007/s11002-022-09629-4|issn=1573-059X}}</ref>
Riga 57 ⟶ 59:
Ai sensi del [[Regolamento generale sulla protezione dei dati]] (GDPR) dell'Unione europea, tutte le aziende devono ottenere un consenso libero e inequivocabile dai clienti prima di raccogliere e utilizzare ("elaborare") le loro informazioni di identificazione personale.
Uno studio del 2020 ha rilevato che le aziende "[[GAFAM|big tech]]" spesso utilizzavano interfacce utente ingannevoli per scoraggiare i propri utenti dall'[[opt-out]].<ref>{{Cita pubblicazione|nome=Soheil|cognome=Human|nome2=Florian|cognome2=Cech|data=2021|titolo=A Human-Centric Perspective on Digital Consenting: The Case of GAFAM|rivista=Human Centred Intelligent Systems|editore=Springer|curatore=Alfred Zimmermann, Robert J. Howlett, Lakhmi C. Jain|pp=139-159|lingua=en|doi=10.1007/978-981-15-5784-2_12|url=https://link.springer.com/chapter/10.1007/978-981-15-5784-2_12}}</ref> Nel 2022 un rapporto della [[Commissione europea]] ha rilevato che "il 97% dei siti Web e delle app più popolari utilizzati dai consumatori dell'UE ha implementato almeno un modello oscuro".<ref>{{Cita libro|autore=Directorate-General for Justice and Consumers (European Commission)|nome2=Francisco|cognome2=Lupiáñez-Villanueva|nome3=Alba|cognome3=Boluda|titolo=Behavioural study on unfair commercial practices in the digital environment: dark patterns and manipulative personalisation : final report|url=https://data.europa.eu/doi/10.2838/859030|data=2022|editore=Publications Office of the European Union|ISBN=978-92-76-52316-1|DOI=10.2838/859030}}</ref> e nel 2024 un’altra indagine della Commissione UE ha evidenziato che il 37% dei siti di shopping online usa dark pattern per persuadere gli utenti a fare acquisti con modalità non realmente vantaggiose per loro.<ref>[https://www.italiaoggi.it/economia-e-politica/economia-e-finanza/digitale-federprivacy-servono-legalita-e-etica-nella-gestione-dei-diritti-x8kn3ctt?refresh_cens Digitale, Federprivacy: servono legalità e etica nella gestione dei diritti]. Italia Oggi</ref>
== Legalità ==
|