Dark pattern: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Bot: correggo template citazione fonti |
m Bot: correggo template citazione fonti |
||
Riga 14:
'''"Privacy Zuckering" per l'addestramento dei modelli di IA'''
A metà del 2024, Meta Platforms ha annunciato l’intenzione di utilizzare i dati degli utenti di Facebook e Instagram per addestrare le sue tecnologie di intelligenza artificiale, inclusi i sistemi generativi. Questa iniziativa prevedeva l’elaborazione di dati provenienti da post pubblici e non pubblici, interazioni e persino account abbandonati. Gli utenti avevano tempo fino al 26 giugno 2024 per opporsi a questo trattamento dei dati. Tuttavia, i critici hanno sottolineato che il processo era pieno di ostacoli, tra cui notifiche e-mail fuorvianti, reindirizzamenti a pagine di accesso e moduli di rinuncia difficili da trovare. Anche quando gli utenti riuscivano a individuare i moduli, era richiesto di fornire una motivazione per l’opzione di rinuncia, nonostante la politica di Meta affermasse che qualsiasi motivo sarebbe stato accettato, sollevando dubbi sulla necessità di questo passaggio aggiuntivo.<ref>{{Cita web|url=https://www.technologyreview.com/2024/06/14/1093789/how-to-opt-out-of-meta-ai-training/|urlarchivio=https://web.archive.org/web/20240614135315/https://www.technologyreview.com/2024/06/14/1093789/how-to-opt-out-of-meta-ai-training/|urlmorto=sì|titolo=How to opt out of Meta's AI training {{!}} MIT Technology Review
Il Centro Europeo per i Diritti Digitali (Noyb) ha risposto alle pratiche controverse di Meta presentando reclami in 11 paesi dell’UE. Noyb ha accusato Meta di utilizzare "dark patterns" per compromettere il consenso degli utenti, in violazione del Regolamento Generale sulla Protezione dei Dati (GDPR). Questi reclami hanno evidenziato che il processo di rinuncia ostacolante di Meta includeva moduli nascosti, meccanismi di reindirizzamento e requisiti inutili, come fornire motivazioni per rinunciare — tattiche che esemplificano i "dark patterns", progettate deliberatamente per scoraggiare gli utenti dal rinunciare. Inoltre, Meta ha ammesso di non poter garantire che i dati degli utenti che hanno scelto di rinunciare fossero completamente esclusi dai suoi set di dati per l’addestramento, sollevando ulteriori preoccupazioni sulla privacy e la conformità alle normative sulla protezione dei dati.<ref>{{Cita web|lingua=it|url=https://noyb.eu/it/noyb-urges-11-dpas-immediately-stop-metas-abuse-personal-data-ai|titolo=noyb sollecita 11 DPA a fermare immediatamente l'abuso dei dati personali da parte di Meta per l'IA|sito=noyb.eu|accesso=2025-01-04}}</ref><ref>{{Cita web|lingua=en|url=https://www.dataguidance.com/news/eu-noyb-files-11-complaints-against-meta-use-data-ai|titolo=DataGuidance|sito=DataGuidance|accesso=2025-01-04}}</ref>
|