{{C|Traduzione che eccede negli inglesismi|informatica|marzo 2017}}
Le '''word embedding''' sono, nell'[[elaborazione del linguaggio naturale]], dei sistemi di mappatura in [[Vettore (matematica)|vettori]] di parole o frasi per lo studio della [[Semantica|vicinanza semantica]] del discorso.
Riga 5 ⟶ 6:
== Software ==
I software per addestrare e usare le word embeddings sono: [[Word2vec]] sviluppato da [[Tomas Mikolov]],; [[GloVe (machine learning)|GloVe]], sviluppato dalla Stanford University<ref>{{cita web|url=http://nlp.stanford.edu/projects/glove/|titolo=GloVe|lingua=en}}</ref>; [[Gensim]]<ref>{{cita web|url=http://radimrehurek.com/gensim/|titolo=Gensim}}</ref> e [[Deeplearning4j]]. [[Principal Component Analysis]] (PCA) e [[T-Distributed Stochastic Neighbour Embedding]] (t-SNE) sono entrambi usati per diminuire la dimensione dello spazio dei vettori di parole (dimensionality reduction) e visualizzare le word embeddingsembedding e i [[Clustering|cluster]].<ref>{{Cita pubblicazione|cognome=Ghassemi|nome=Mohammad|cognome2=Mark|nome2=Roger|last3cognome3=Nemati|cognome3nome3=Shamim|anno=2015|titolo=A Visualization of Evolving Clinical Sentiment Using Vector Representations of Clinical Notes|url=http://www.cinc.org/archives/2015/pdf/0629.pdf|rivista=Computing in Cardiology|doi=|pmid=|accesso=|lingua=en}}</ref>