Word embedding: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Bot: numeri di pagina nei template citazione e modifiche minori |
|||
(18 versioni intermedie di 8 utenti non mostrate) | |||
Riga 1:
{{C|Verificare se esistano equivalenti italiani, attestati in letteratura, di termini come "Word embedding", "Thought vector" e "t-distributed stochastic neighbor embedding".|informatica|settembre 2018}}
{{s|informatica}}▼
Il '''word embedding''' (tradotto letteralmente ''[[immersione (matematica)|immersione]] di parole'') anche conosciuto come rappresentazione distribuita delle parole<ref>[http://delivery.acm.org/10.1145/1860000/1858721/p384-turian.pdf?ip=217.77.82.234&id=1858721&acc=OPEN&key=4D4702B0C3E38B35%2E4D4702B0C3E38B35%2E4D4702B0C3E38B35%2E6D218144511F3437&CFID=737338914&CFTOKEN=22047528&__acm__=1489149625_322ca081b3a225a45600ec89749f2a72 Turian, Joseph, Lev Ratinov, and Yoshua Bengio. "Word representations: a simple and general method for semi-supervised learning." Proceedings of the 48th annual meeting of the association for computational linguistics. Association for Computational Linguistics, 2010.]</ref> permette di memorizzare le informazioni sia semantiche che sintattiche delle parole partendo da un [[corpus]] non
▲Il '''word embedding''' (tradotto letteralmente ''[[immersione (matematica)|immersione]] di parole'') anche conosciuto come rappresentazione distribuita delle parole<ref>[http://delivery.acm.org/10.1145/1860000/1858721/p384-turian.pdf?ip=217.77.82.234&id=1858721&acc=OPEN&key=4D4702B0C3E38B35%2E4D4702B0C3E38B35%2E4D4702B0C3E38B35%2E6D218144511F3437&CFID=737338914&CFTOKEN=22047528&__acm__=1489149625_322ca081b3a225a45600ec89749f2a72 Turian, Joseph, Lev Ratinov, and Yoshua Bengio. "Word representations: a simple and general method for semi-supervised learning." Proceedings of the 48th annual meeting of the association for computational linguistics. Association for Computational Linguistics, 2010.]</ref> permette di memorizzare le informazioni sia semantiche che sintattiche delle parole partendo da un [[corpus]] non [[Taggare|taggato]]<ref>[http://www.aclweb.org/anthology/N13-1#page=784 Mikolov, Tomas, Wen-tau Yih, and Geoffrey Zweig. "Linguistic Regularities in Continuous Space Word Representations." Hlt-naacl. Vol. 13. 2013.]</ref> e costruendo uno [[spazio vettoriale]] in cui i vettori delle parole sono più vicini se le parole occorrono negli stessi contesti linguistici, cioè se sono riconosciute come semanticamente più simili (secondo l'ipotesi della [[semantica distribuzionale]]).
==Definizione==
Riga 7 ⟶ 6:
==Metodi==
I metodi per generare questa mappatura comprendono le [[rete neurale artificiale|reti neurali]],<ref>{{cita web |url=
Molte delle nuove tecniche di word embedding sono realizzati con l'architettura delle reti neurali invece che con le più tradizionali tecniche ad [[N-gramma|n-grammi]] e di [[apprendimento supervisionato]].
I ''thought vector'' (letteralmente ''vettori di pensiero'') sono un'estensione delle ''word embedding'' per intere frasi o anche documenti. Alcuni ricercatori sperano che questi possano aumentare la qualità della [[traduzione automatica]].<ref>{{cita web|titolo=Skip-thought vectors|url=
== Applicazioni ==
==Note==
Riga 24 ⟶ 23:
* [[Semantica distribuzionale]]
* [[Linguistica computazionale]]
{{apprendimento automatico}}
[[Categoria:Elaborazione del linguaggio naturale]]
|