Clustering gerarchico: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Ho aggiunto il criterio di collegamento di Ward, che mancava
 
(12 versioni intermedie di 7 utenti non mostrate)
Riga 14:
La scelta di una metrica appropriata influenza la forma dei cluster, poiché alcuni elementi possono essere più "vicini" utilizzando una distanza e più "lontani" utilizzandone un'altra. Per esempio, in uno spazio a 2 dimensioni, la distanza tra il punto (1, 1) e l'origine (0, 0) è 2, <math>\sqrt{2}</math> or 1 se si utilizzando rispettivamente le norme 1, 2 o infinito.
 
Metriche comuni sono le seguenti:<ref>{{cita web |lingua=en | titolo=The DISTANCE Procedure: Proximity Measures | url=httphttps://support.sas.com/documentation/cdl/en/statug/59654/HTML/default/statug_distance_sect016.htm |sito=SAS/STAT 9.2 Users Guide | editore= [[SAS Institute]] | data= | accesso=26 aprile 2009 |urlmorto=sì }}</ref>
* La [[distanza euclidea]] (chiamata anche norma 2)
* La [[distanza di Manhattan]] (chiamata anche norma 1)
Riga 25:
Il criterio di collegamento (''linkage criterion'') specifica la distanza tra insiemi di elementi come funzione di distanze tra gli elementi negli insiemi.
 
Dati due insiemi di elementi ''A'' e ''B'' alcuni criteri comunemente utilizzati sono:<ref>{{cita web |lingua=en | titolo=The CLUSTER Procedure: Clustering Methods | url=httphttps://support.sas.com/documentation/cdl/en/statug/59654/HTML/default/statug_cluster_sect012.htm |sito=SAS/STAT 9.2 Users Guide | editore= [[SAS Institute]] | data= | accesso=26 aprile 2009 |urlarchivio=https://web.archive.org/web/20080707081702/http://support.sas.com/documentation/cdl/en/statug/59654/HTML/default/statug_cluster_sect012.htm |dataarchivio=7 luglio 2008 |urlmorto=sì }}</ref>
{|class="wikitable"
! Nome del criterio
Riga 41:
 
dove ''d'' è la metrica prescelta per determinare la similarità tra coppie di elementi.
 
Vi è anche il criterio di Ward, che valuta il cambiamento di varianza intra-cluster quando questi si uniscono e seleziona la coppia che dà luogo a un cluster avente la minima varianza al suo interno. Questo criterio punta a creare cluster compatti e omogenei, con una dispersione simile.<ref>{{Cita web|url=http://www.r-project.it/_book/clustering-gerarchico-agglomerativo-hc.html|titolo=Clustering Gerarchico}}</ref>
 
==Note==
Riga 46 ⟶ 48:
 
==Bibliografia==
*{{Cita libro|autore-capitolo-cognome=Hastie|autore-capitolo-nome=Trevor|autore-capitolo-cognome2=Tibshirani|autore-capitolo-nome2=Robert|autore-capitolo-cognome3=Friedman|autore-capitolo-nome3=Jerome |anno=2001 |titolo=The Elements of Statistical Learning |url=https://archive.org/details/elementsofstatis0000hast|ISBN=0-387-95284-5 |editore=Springer |città=New York |capitolo=14.3.12 Hierarchical clustering |pagine=272–280|lingua=en}}
 
== BibliografiaVoci correlate ==
*{{cita libro|Roberto|Todeschini|Introduzione alla chemiometria|2003|EdiSES|Napoli|ed=1|isbn=88-7959-146-0}}
 
==Voci correlate==
* [[Clustering]]
* [[Dendrogramma]]
 
== Altri progetti ==
{{interprogetto|preposizione=sul}}
 
== Collegamenti esterni ==
*{{cita web |1=https://www.unirc.it/documentazione/materiale_didattico/599_2008_93_1623.pdf |2=(IT) Articolo Il Clustering dell'Unirc |accesso=21 febbraio 2023 }}
*{{cita web|http://www.matematicamente.it/il_magazine/numero_9%3a_aprile_2009/112._data_mining%3a_esplorando_le_miniere_alla_ricerca_della_conoscenza_nascosta_clustering_200905305380/|(IT) Articolo divulgativo sul Clustering e Data Mining}}
 
{{Apprendimento automatico}}
{{Machine learning}}
{{Controllo di autorità}}
{{Portale|matematicastatistica|informatica}}
 
[[Categoria:Apprendimento automatico]]