Discussione:Adversarial machine learning


Ultimo commento: 3 anni fa di Margalb

Articolo super interessante, ben scritto e dettagliato! --Alessia Arrigoni (msg) 15:58, 18 giu 2021 (CEST)Rispondi

Nel caso specifico del clustering, lo scopo di un attacco adversarial è quello di massimizzare la distanza (definita tramite una qualche appropriata misura) fra i cluster che si otterrebbero partizionando un dataset D {\textstyle D} {\textstyle D} mediante un determinato algoritmo di clustering e quelli che invece verrebbero prodotti eseguendo lo stesso algoritmo su un dataset D ′ {\displaystyle D'} {\displaystyle D'}, ottenuto dall'unione fra D {\displaystyle D} {\displaystyle D} e A {\textstyle A} {\textstyle A}, dove A {\displaystyle A} A è l'insieme degli input malevoli inseriti dall'attaccante. Credo che il periodo questo periodo sia un po' complesso,anche se non sono troppo sicuro di come potrebbe rivisto, per il resto mi sembra davvero un ottimo articolo, su una tematica tanto interessante quanto delicata --Scraich (msg) 16:11, 18 giu 2021 (CEST)Rispondi

Articolo molto interessante! --Margalb (msg) 16:59, 18 giu 2021 (CEST)Rispondi

Ritorna alla pagina "Adversarial machine learning".