Word embedding: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Atarubot (discussione | contributi)
template citazione; rinomina/fix nomi parametri
fix wl
Riga 13:
 
== Applicazioni ==
I software per l'apprendimento e l'uso del word embedding sono: [[Word2vec]] sviluppato da [[Tomas Mikolov]]<ref>[https://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf MIKOLOV, Tomas, et al. Efficient estimation of word representations in vector space. ''arXiv preprint arXiv:1301.3781'', 2013].</ref>; [[GloVe (machine learning)|GloVe]], sviluppato dalla Stanford University<ref>{{cita web|url=http://nlp.stanford.edu/projects/glove/|titolo=GloVe|lingua=en}}</ref>; [[Gensim]]<ref>{{cita web|url=http://radimrehurek.com/gensim/|titolo=Gensim}}</ref> e [[Deeplearning4j]]. [[Principal Component Analysis]] (PCA) e [[Tt-Distributeddistributed Stochasticstochastic Neighbourneighbor Embeddingembedding]] (t-SNE) sono entrambi usati per diminuire la dimensione dello spazio dei vettori di parole e visualizzare le word embedding e i [[Clustering|cluster]].<ref>{{Cita pubblicazione|cognome=Ghassemi|nome=Mohammad|cognome2=Mark|nome2=Roger|cognome3=Nemati|nome3=Shamim|anno=2015|titolo=A Visualization of Evolving Clinical Sentiment Using Vector Representations of Clinical Notes|url=http://www.cinc.org/archives/2015/pdf/0629.pdf|rivista=Computing in Cardiology|lingua=en}}</ref>
 
==Note==