Word embedding: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 2:
{{C|Traduzione che eccede nell'uso di termini in inglese|informatica|marzo 2017}}
Il '''word embedding''' (tradotto letteralmente ''[[immersione (matematica)|immersione]] di parole'') è un termine complessivo che indica, nell'[[elaborazione del linguaggio naturale]], un insieme di tecniche di modellazione in cui parole o frasi di un vocabolario vengono mappate in [[Vettore (matematica)|vettori]] di [[numero reale|numeri reali]]. Concettualmente consiste in un'operazione matematica di [[immersione (matematica)|immersione]] in conseguenza della quale uno spazio costituito da una dimensione per parola viene trasformato in uno [[spazio vettoriale]] continuo di dimensione molto inferiore. Queste tecniche trovano applicazione nello studio della [[Semantica|vicinanza semantica]] del discorso.
<!--
I metodi per generare questa mappatura comprendono le [[rete neurale|reti neurali]],<ref>{{cita web |url=http://arxiv.org/abs/1310.4546 |cognome1=Mikolov |nome1=Tomas |titolo=Distributed Representations of Words and Phrases and their Compositionality |cognome2=Sutskever |nome2=Ilya |cognome3=Chen |nome3=Kai |cognome4=Corrado |nome4=Greg |cognome5=Dean |nome5=Jeffrey |sito=arxiv.org/archive/cs.CL| anno=2013|lingua=en}}</ref> la riduzione dimensionale sulla [[matrice di co-occorrenza]] della parola,<ref>{{Cite journal|arxiv=1312.5542 |cognome1=Lebret |nome1=Rémi |titolo=Word Emdeddings through Hellinger PCA |journal=Conference of the European Chapter of the Association for Computational Linguistics (EACL) |volume=2014 |cognome2=Collobert |nome2=Ronan |year=2013}}</ref><ref>{{Cite conference |url=http://papers.nips.cc/paper/5477-neural-word-embedding-as-implicit-matrix-factorization.pdf |titolo=Neural Word Embedding as Implicit Matrix Factorization |cognome=Levy |nome=Omer |conference=NIPS |year=2014 |cognome2=Goldberg |nome2=Yoav}}</ref><ref>{{Cite conference |url=http://ijcai.org/papers15/Papers/IJCAI15-513.pdf |titolo=Word Embedding Revisited: A New Representation Learning and Explicit Matrix Factorization Perspective |cognome=Li |nome=Yitan |conference=Int'l J. Conf. on Artificial Intelligence (IJCAI) |year=2015 |cognome2=Xu |nome2=Linli}}</ref> probabilistic models,<ref>{{Cite journal|cognome=Globerson|nome=Amir|date=2007|titolo=Euclidean Embedding of Co-occurrence Data|url=http://static.googleusercontent.com/media/research.google.com/en//pubs/archive/34951.pdf|journal=Journal of Machine learning research|doi=|pmid=|access-date=}}</ref> and explicit representation in terms of the context in which words appear.<ref>{{cita conference |cognome1=Levy |nome1=Omer |cognome2=Goldberg |nome2=Yoav |titolo=Linguistic Regularities in Sparse and Explicit Word Representations |conference=CoNLL |pages=171–180 |year=2014 |url=https://levyomer.files.wordpress.com/2014/04/linguistic-regularities-in-sparse-and-explicit-word-representations-conll-2014.pdf}}</ref>-->
 
I ''thought vector'' (letteralmente ''vettori di pensiero'') sono un'estensione delle ''word embedding'' per intere frasi o anche documenti. Alcuni ricercatori sperano che questi possano aumentare la qualità della [[traduzione automatica]].<ref>{{cita web|titolo=Skip-thought vectors|url=http://arxiv.org/abs/1506.06726|cognome1=Kiros|nome1=Ryan|cognome2=Zhu|nome2=Yukun|cognome3=Salakhutdinov|nome3=Ruslan|cognome4=Zemel|nome4=Richard S.|cognome5=Torralba|nome5=Antonio|cognome6=Urtasun|nome6=Raquel|cognome7=Fidler|nome7=Sanja|sito=arxiv.org/archive/cs.CL|anno=2015|lingua=en}}</ref> <ref>{{cita web|titolo=Thoughtvectors|url=http://deeplearning4j.org/thoughtvectors|lingua=en}}</ref>