Word embedding: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 2:
Le '''word embedding''' sono, nell'[[elaborazione del linguaggio naturale]], dei sistemi di mappatura in [[Vettore (matematica)|vettori]] di parole o frasi per lo studio della [[Semantica|vicinanza semantica]] del discorso.
I thought vectors sono un estensione delle word embedding per intere frasi o anche documenti. Alcuni ricercatori sperano che questi possano aumentare la qualità della [[traduzione automatica]].<ref>{{cite arXiv|title=skip-thought vectors|eprint=1506.06726|last1=Kiros|first1=Ryan|last2=Zhu|first2=Yukun|last3=Salakhutdinov|first3=Ruslan|last4=Zemel|first4=Richard S.|last5=Torralba|first5=Antonio|last6=Urtasun|first6=Raquel|last7=Fidler|first7=Sanja|class=cs.CL|year=2015}}</ref> <ref>{{
== Software ==
I software per addestrare e usare le word embeddings sono [[Word2vec]] sviluppato da [[Tomas Mikolov]], [[GloVe (machine learning)|GloVe]], sviluppato dalla Stanford University<ref>{{
==Note==
<references />
|