Dark pattern: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
"Privacy Zuckering" per addestrare modelli di intelligenza artificiale
Etichette: Modifica visuale Edit Check (citazioni) attivato Edit Check (citazioni) rifiutato (altro)
Riga 11:
 
Per quanto riguarda l'Europa, l'adozione del [[regolamento generale sulla protezione dei dati]] (GDPR) prevede, all'art. 25, l'introduzione dei concetti di [[privacy by design]] e [[privacy by default]], che prevedono, rispettivamente, che il software e la sua interfaccia debbano garantire la privacy dell'utente sin dal momento della sua progettazione, e in ogni caso con le opzioni di configurazione selezionate in modo predefinito per garantire la massima privacy<ref>{{Cita web|url=https://www.garanteprivacy.it/regolamentoue/data-protection-by-design-e-data-protection-by-default|titolo=Data Protection by Design e Data Protection by Default|sito=www.garanteprivacy.it|lingua=it-IT|accesso=2023-05-08}}</ref>.
 
'''"Privacy Zuckering" per l'addestramento dei modelli di IA'''
 
A metà del 2024, Meta Platforms ha annunciato l’intenzione di utilizzare i dati degli utenti di Facebook e Instagram per addestrare le sue tecnologie di intelligenza artificiale, inclusi i sistemi generativi. Questa iniziativa prevedeva l’elaborazione di dati provenienti da post pubblici e non pubblici, interazioni e persino account abbandonati. Gli utenti avevano tempo fino al 26 giugno 2024 per opporsi a questo trattamento dei dati. Tuttavia, i critici hanno sottolineato che il processo era pieno di ostacoli, tra cui notifiche e-mail fuorvianti, reindirizzamenti a pagine di accesso e moduli di rinuncia difficili da trovare. Anche quando gli utenti riuscivano a individuare i moduli, era richiesto di fornire una motivazione per l’opzione di rinuncia, nonostante la politica di Meta affermasse che qualsiasi motivo sarebbe stato accettato, sollevando dubbi sulla necessità di questo passaggio aggiuntivo.<ref>{{Cita web|url=https://web.archive.org/web/20240614135315/https://www.technologyreview.com/2024/06/14/1093789/how-to-opt-out-of-meta-ai-training/|titolo=How to opt out of Meta's AI training {{!}} MIT Technology Review|sito=web.archive.org|data=2024-06-14|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en|autore=Aleksandra Wrona|url=https://www.snopes.com/news/2024/06/13/meta-ai-training-user-data/|titolo=Why Opting Out of Meta's Use of Facebook, Instagram Posts for AI Training Isn't Easy|sito=Snopes|data=2024-06-13|accesso=2025-01-04}}</ref>
 
Il Centro Europeo per i Diritti Digitali (Noyb) ha risposto alle pratiche controverse di Meta presentando reclami in 11 paesi dell’UE. Noyb ha accusato Meta di utilizzare "dark patterns" per compromettere il consenso degli utenti, in violazione del Regolamento Generale sulla Protezione dei Dati (GDPR). Questi reclami hanno evidenziato che il processo di rinuncia ostacolante di Meta includeva moduli nascosti, meccanismi di reindirizzamento e requisiti inutili, come fornire motivazioni per rinunciare — tattiche che esemplificano i "dark patterns", progettate deliberatamente per scoraggiare gli utenti dal rinunciare. Inoltre, Meta ha ammesso di non poter garantire che i dati degli utenti che hanno scelto di rinunciare fossero completamente esclusi dai suoi set di dati per l’addestramento, sollevando ulteriori preoccupazioni sulla privacy e la conformità alle normative sulla protezione dei dati.<ref>{{Cita web|lingua=it|url=https://noyb.eu/it/noyb-urges-11-dpas-immediately-stop-metas-abuse-personal-data-ai|titolo=noyb sollecita 11 DPA a fermare immediatamente l'abuso dei dati personali da parte di Meta per l'IA|sito=noyb.eu|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en|url=https://www.dataguidance.com/news/eu-noyb-files-11-complaints-against-meta-use-data-ai|titolo=DataGuidance|sito=DataGuidance|accesso=2025-01-04}}</ref>
 
Di fronte alla crescente pressione normativa e pubblica, la Commissione irlandese per la protezione dei dati (DPC) è intervenuta, portando Meta a sospendere i suoi piani di elaborazione dei dati degli utenti dell'UE/SEE per l’addestramento dell’IA. Questa decisione, sebbene significativa, non ha portato a una modifica giuridicamente vincolante della politica sulla privacy di Meta, lasciando aperte domande sull’impegno a lungo termine dell’azienda nel rispettare i diritti sui dati nell’UE. Al di fuori dell’UE, tuttavia, Meta ha proceduto con l’aggiornamento della sua politica sulla privacy come previsto il 26 giugno 2024, spingendo i critici a mettere in guardia sulle implicazioni globali di tali pratiche.<ref>{{Cita web|lingua=it|url=https://noyb.eu/it/preliminary-noyb-win-meta-stops-ai-plans-eu|titolo=(Preliminare) noyb WIN: Meta blocca i piani di AI nell'UE|sito=noyb.eu|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en-us|autore=Silviu STAHIE|url=https://www.bitdefender.com/en-us/blog/hotforsecurity/meta-forced-to-pause-ai-training-on-data-collected-from-facebook-and-instagram-users-in-europe|titolo=Meta Forced to Pause AI Training on Data Collected from Facebook and Instagram Users in Europe|sito=Hot for Security|accesso=2025-01-04}}</ref>
 
Questo episodio ha evidenziato il problema pervasivo dei "dark patterns" nelle impostazioni sulla privacy e le sfide nel rendere responsabili le grandi aziende tecnologiche per le loro pratiche sui dati. I gruppi di advocacy hanno richiesto quadri normativi più rigorosi per prevenire tattiche ingannevoli e garantire che gli utenti possano esercitare un controllo significativo sulle proprie informazioni personali.<ref>{{Cita web|lingua=en-US|autore=Paul Sawers|url=https://techcrunch.com/2024/10/03/hey-uk-heres-how-to-opt-out-of-meta-using-your-facebook-and-instagram-data-to-train-its-ai/|titolo=Hey, UK! Here's how to 'opt out' of Meta using your Facebook and Instagram data to train its AI|sito=TechCrunch|data=2024-10-03|accesso=2025-01-04}}</ref>
 
=== Bait-and-switch ===