Word embedding: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
-S (falso abbozzo), modifica motivazione C, +apprendimento automatico, +portale |
template cita "xxxx"; fix formato data |
||
Riga 12:
== Applicazioni ==
Gli algoritmi più popolari proposti per l'apprendimento del word embedding sono [[Word2vec]], sviluppato da [[Tomas Mikolov]]<ref>{{Cita pubblicazione |nome=Thomas |cognome=Mikolov |anno=2013 |titolo=Efficient estimation of word representations in vector space |rivista=Proceedings of NIPS |lingua=en |accesso=4 settembre 2018 |url=http://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf}}</ref>, e [[GloVe (machine learning)|GloVe]], sviluppato dalla Stanford University<ref>{{cita web|url=http://nlp.stanford.edu/projects/glove/|titolo=GloVe|lingua=en}}</ref>. Sono anche disponibili alcuni software e [[Libreria (software)|librerie software]], come [[Gensim]]<ref>{{Cita web |url=http://radimrehurek.com/gensim/ |titolo=Gensim |lingua=en}}</ref> e [[Deeplearning4j]]<ref>{{Cita web |url=https://deeplearning4j.org/ |titolo=Deeplearning4j |sito=deeplearning4j.org |lingua=en |accesso=4 settembre 2018
==Note==
|