Discussione:Adversarial machine learning: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica |
|||
(5 versioni intermedie di 4 utenti non mostrate) | |||
Riga 1:
{{Voce università|PoliMi/Dottorandi/2021}}
== Commenti degli altri partecipanti al seminario ==
Articolo super interessante, ben scritto e dettagliato! --[[Utente:Alessia Arrigoni|Alessia Arrigoni]] ([[Discussioni utente:Alessia Arrigoni|msg]]) 15:58, 18 giu 2021 (CEST)
<code>Nel caso specifico del clustering, lo scopo di un attacco adversarial è quello di massimizzare la distanza (definita tramite una qualche appropriata misura) fra i cluster che si otterrebbero partizionando un dataset D {\textstyle D} {\textstyle D} mediante un determinato algoritmo di clustering e quelli che invece verrebbero prodotti eseguendo lo stesso algoritmo su un dataset D ′ {\displaystyle D'} {\displaystyle D'}, ottenuto dall'unione fra D {\displaystyle D} {\displaystyle D} e A {\textstyle A} {\textstyle A}, dove A {\displaystyle A} A è l'insieme degli input malevoli inseriti dall'attaccante.</code>
Articolo molto interessante! --[[Utente:Margalb|Margalb]] ([[Discussioni utente:Margalb|msg]]) 16:59, 18 giu 2021 (CEST)
== Observations and suggestions for improvements ==
The following observations and suggestions for improvements were collected, following expert review of the article within the [[Wikipedia:GLAM/PoliMi/2021|Science, Tecnology, Society and Wikipedia]] course at the Politecnico di Milano, in June 2021.
La trattazione è abbastanza esaustiva. Sarebbe da precisare meglio cosa si intende per norma di δx e che da questa si hanno luogo diversi attacchi. Si sarebbe potuto anche citare gli attacchi basati sul surrogate model
[[Utente:Ettmajor|Ettmajor]] ([[Discussioni utente:Ettmajor|msg]]) 12:49, 11 lug 2021 (CEST)
|