Discussione:Adversarial machine learning: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
m comment
Riga 3:
<code>Nel caso specifico del clustering, lo scopo di un attacco adversarial è quello di massimizzare la distanza (definita tramite una qualche appropriata misura) fra i cluster che si otterrebbero partizionando un dataset D {\textstyle D} {\textstyle D} mediante un determinato algoritmo di clustering e quelli che invece verrebbero prodotti eseguendo lo stesso algoritmo su un dataset D ′ {\displaystyle D'} {\displaystyle D'}, ottenuto dall'unione fra D {\displaystyle D} {\displaystyle D} e A {\textstyle A} {\textstyle A}, dove A {\displaystyle A} A è l'insieme degli input malevoli inseriti dall'attaccante.</code>
Credo che il periodo questo periodo sia un po' complesso,anche se non sono troppo sicuro di come potrebbe rivisto, per il resto mi sembra davvero un ottimo articolo, su una tematica tanto interessante quanto delicata --[[Utente:Scraich|Scraich]] ([[Discussioni utente:Scraich|msg]]) 16:11, 18 giu 2021 (CEST)
Articolo molto interessante! --[[Utente:Margalb|Margalb]] ([[Discussioni utente:Margalb|msg]]) 16:59, 18 giu 2021 (CEST)
Ritorna alla pagina "Adversarial machine learning".