Word embedding: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Fix link |
Italianizzazione termine |
||
Riga 13:
== Applicazioni ==
Gli algoritmi più popolari proposti per l'apprendimento del word embedding sono [[Word2vec]], sviluppato da [[Tomas Mikolov]]<ref>{{Cita pubblicazione |nome=Thomas |cognome=Mikolov |anno=2013 |titolo=Efficient estimation of word representations in vector space |rivista=Proceedings of NIPS |lingua=en |accesso=4 settembre 2018 |url=http://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf}}</ref>, e [[GloVe (machine learning)|GloVe]], sviluppato dalla Stanford University<ref>{{cita web|url=http://nlp.stanford.edu/projects/glove/|titolo=GloVe|lingua=en}}</ref>. Sono anche disponibili alcuni software e [[Libreria (software)|librerie software]], come [[Gensim]]<ref>{{Cita web |url=http://radimrehurek.com/gensim/ |titolo=Gensim |lingua=en}}</ref> e [[Deeplearning4j]]<ref>{{Cita web |url=https://deeplearning4j.org/ |titolo=Deeplearning4j |sito=deeplearning4j.org |lingua=en |accesso=2018-09-04}}</ref>, che offrono un'implementazione di questi algoritmi e ne permettono l'uso in altre applicazioni. Altri algoritmi, come l'[[
==Note==
|