T-distributed stochastic neighbor embedding: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m wklink
FrescoBot (discussione | contributi)
m Bot: numeri di pagina nei template citazione
 
(9 versioni intermedie di 6 utenti non mostrate)
Riga 1:
{{titolo minuscolo}}
'''t-distributed stochastic neighbor embedding (t-SNE)''' è un [[algoritmo]] di [[riduzione della dimensionalità]] sviluppato da [[Geoffrey Hinton]] e Laurens van der Maaten, ampiamente utilizzato come strumento di [[apprendimento automatico]] in molti ambiti di ricerca.<ref name="MaatenHinton"/><ref name="note1"/><ref name="note2"/><ref name="note3"/><ref name="note4"/><ref name="note5"/><ref name="note6"/> È una tecnica di [[riduzione della dimensionalità non lineare]] che si presta particolarmente all'embedding di [[dataset]] ad alta dimensionalità in uno spazio a due o tre dimensioni, nel quale possono essere visualizzati tramite un [[grafico di dispersione]]. L'algoritmo modella i punti in modo che oggetti vicini nello spazio originale risultino vicini nello spazio a dimensionalità ridotta, e oggetti lontani risultino lontani, cercando di preservare la struttura locale.
 
L'algoritmo si articola in due fasi principali. Nella prima fase viene costruita una [[distribuzione di probabilità]] che ad ogni coppia di punti nello spazio originale ad alta dimensionalità associa un valore di probabilità elevato se i due punti sono simili, basso se sono dissimili. Quindi viene definita una seconda distribuzione di probabilità analoga, nello spazio a dimensione ridotta. L'algoritmo quindi minimizza la [[divergenza di Kullback-Leibler]] delle le due distribuzioni tramite [[discesa del gradiente]], riorganizzando i punti nello spazio a dimensione ridotta.
 
== Algoritmo ==
Dato un insieme di <math>N</math> oggetti <math>\mathbf{x}_1, \dots, \mathbf{x}_N</math> in uno spazio ad alta dimensionalità, t-SNE costruisce una distribuzione di probabilità <math>p_{ij}</math>, simmetrica nelle due variabili e proporzionale alla similarità tra i punti <math>\mathbf{x}_i</math> e <math>\mathbf{x}_j</math>, definita come:<ref>{{citazione|La similarità del punto <math>x_j</math> rispetto al punto <math>x_i</math> è la [[probabilità condizionata]], <math>p_{j|i}</math>, che <math>x_i</math> scelga <math>x_j</math> come suo vicino se i vicini venissero generati casualmente secondo una distribuzione di probablitàprobabilità Gaussiana centrata in <math>x_i</math>.||The similarity of datapoint <math>x_j</math> to datapoint <math>x_i</math> is the conditional probability, <math>p_{j|i}</math>, that <math>x_i</math> would pick <math>x_j</math> as its neighbor if neighbors were picked in proportion to their probability density under a Gaussian centered at <math>x_i</math>.|en|it}}</ref><ref name=MaatenHinton/>
 
: <math>p_{ij} = \frac{p_{j\mid i} + p_{i\mid j}}{2N}</math>
Riga 35:
|volume= 9
|data= Nov 2008
|pp= 2579–26052579-2605
|url= http://jmlr.org/papers/volume9/vandermaaten08a/vandermaaten08a.pdf
}}</ref>
Riga 48:
|rivista= Proceedings of the IEEE International Symposium on Network Computing and Applications
|anno= 2009
|pp= 4–114-11
}}</ref>
 
Riga 58:
|rivista= Proceedings of the International Society for Music Information Retrieval Conference
|anno= 2010
|pp= 339–344339-344
}}</ref>
 
Riga 73:
|numero= 1
|anno= 2010
|pp= 339–351339-351
| doi = 10.1118/1.3267037
|volume= 37
Riga 85:
|rivista= Bioinformatics
|anno= 2009
|pp= 615–620615-620
| doi = 10.1093/bioinformatics/btp035
|volume= 25
Riga 103:
|url= http://ieeexplore.ieee.org/lpdocs/epic03/wrapper.htm?arnumber=7455968
|rivista= 2016 IEEE-EMBS International Conference on Biomedical and Health Informatics (BHI)
|pp= 595–598595-598
| doi = 10.1109/BHI.2016.7455968
}}</ref>
Riga 109:
<ref name="note6">[https://colah.github.io/posts/2015-01-Visualizing-Representations/ ''Visualizing Representations: Deep Learning and Human Beings'' Christopher Olah's blog, 2015]</ref>
</references>
 
== Altri progetti ==
{{interprogetto|preposizione=sul}}
 
== Collegamenti esterni ==
Line 115 ⟶ 118:
* {{YouTube|id=RJVL80Gg3lA|titolo=Visualizing Data Using t-SNE|autore=[[Google Tech Talk]]}}
* {{GitHub|elki-project/elki/blob/master/elki/src/main/java/de/lmu/ifi/dbs/elki/algorithm/projection/TSNE.java|Implementazione di t-SNE nel framework ELKI (approssimazione con il metodo di Barnes-Hut)}}
 
{{portale|informatica}}
{{Apprendimento automatico}}
{{portale|informatica|statistica}}
 
[[Categoria:Apprendimento automatico]]