Word embedding: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Recupero di 1 fonte/i e segnalazione di 0 link interrotto/i.) #IABot (v2.0 |
m Bot: numeri di pagina nei template citazione e modifiche minori |
||
(4 versioni intermedie di 3 utenti non mostrate) | |||
Riga 1:
{{C|Verificare se esistano equivalenti italiani, attestati in letteratura, di termini come "Word embedding", "Thought vector" e "t-distributed stochastic neighbor embedding".|informatica|settembre 2018}}
Il '''word embedding''' (tradotto letteralmente ''[[immersione (matematica)|immersione]] di parole'') anche conosciuto come rappresentazione distribuita delle parole<ref>[http://delivery.acm.org/10.1145/1860000/1858721/p384-turian.pdf?ip=217.77.82.234&id=1858721&acc=OPEN&key=4D4702B0C3E38B35%2E4D4702B0C3E38B35%2E4D4702B0C3E38B35%2E6D218144511F3437&CFID=737338914&CFTOKEN=22047528&__acm__=1489149625_322ca081b3a225a45600ec89749f2a72 Turian, Joseph, Lev Ratinov, and Yoshua Bengio. "Word representations: a simple and general method for semi-supervised learning." Proceedings of the 48th annual meeting of the association for computational linguistics. Association for Computational Linguistics, 2010.]</ref> permette di memorizzare le informazioni sia semantiche che sintattiche delle parole partendo da un [[corpus]] non annotato<ref>{{Cita web |url=http://www.aclweb.org/anthology/N13-1#page=784 |titolo=Mikolov, Tomas, Wen-tau Yih, and Geoffrey Zweig. "Linguistic Regularities in Continuous Space Word Representations." Hlt-naacl. Vol. 13. 2013. |accesso=10 marzo 2017 |urlarchivio=https://web.archive.org/web/20161130114210/http://www.aclweb.org/anthology/N13-1#page=784 |dataarchivio=30 novembre 2016 |urlmorto=sì }}</ref> e costruendo uno [[spazio vettoriale]] in cui i vettori delle parole sono più vicini se le parole occorrono negli stessi contesti linguistici, cioè se sono riconosciute come semanticamente più simili (secondo l'ipotesi della [[semantica distribuzionale]]).
==Definizione==
Riga 6:
==Metodi==
I metodi per generare questa mappatura comprendono le [[rete neurale artificiale|reti neurali]],<ref>{{cita web |url=https://arxiv.org/abs/1310.4546 |cognome1=Mikolov |nome1=Tomas |titolo=Distributed Representations of Words and Phrases and their Compositionality |cognome2=Sutskever |nome2=Ilya |cognome3=Chen |nome3=Kai |cognome4=Corrado |nome4=Greg |cognome5=Dean |nome5=Jeffrey |sito=arxiv.org/archive/cs.CL| anno=2013|lingua=en}}</ref> la riduzione dimensionale sulla [[matrice di co-occorrenza]] della parola,<ref>{{Cita pubblicazione|arxiv=1312.5542 |cognome1=Lebret |nome1=Rémi |titolo=Word Emdeddings through Hellinger PCA |rivista=Conference of the European Chapter of the Association for
Molte delle nuove tecniche di word embedding sono realizzati con l'architettura delle reti neurali invece che con le più tradizionali tecniche ad [[N-gramma|n-grammi]] e di [[apprendimento supervisionato]].
I ''thought vector'' (letteralmente ''vettori di pensiero'') sono un'estensione delle ''word embedding'' per intere frasi o anche documenti. Alcuni ricercatori sperano che questi possano aumentare la qualità della [[traduzione automatica]].<ref>{{cita web|titolo=Skip-thought vectors|url=https://arxiv.org/abs/1506.06726|cognome1=Kiros|nome1=Ryan|cognome2=Zhu|nome2=Yukun|cognome3=Salakhutdinov|nome3=Ruslan|cognome4=Zemel|nome4=Richard S.|cognome5=Torralba|nome5=Antonio|cognome6=Urtasun|nome6=Raquel|cognome7=Fidler|nome7=Sanja|sito=arxiv.org/archive/cs.CL|anno=2015|lingua=en}}</ref>
== Applicazioni ==
Gli algoritmi più popolari proposti per l'apprendimento del word embedding sono [[Word2vec]], sviluppato da [[Tomas Mikolov]]<ref>{{Cita pubblicazione |nome=Thomas |cognome=Mikolov |anno=2013 |titolo=Efficient estimation of word representations in vector space |rivista=Proceedings of NIPS |lingua=en |accesso=4 settembre 2018 |url=http://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf}}</ref>, e [[GloVe (machine learning)|GloVe]], sviluppato dalla Stanford University<ref>{{cita web|url=http://nlp.stanford.edu/projects/glove/|titolo=GloVe|lingua=en}}</ref>. Sono anche disponibili alcuni software e [[Libreria (software)|librerie software]], come [[Gensim]]<ref>{{Cita web |url=http://radimrehurek.com/gensim/ |titolo=Gensim |lingua=en |accesso=6 marzo 2017 |urlarchivio=https://web.archive.org/web/20170103021308/http://radimrehurek.com/gensim/ |dataarchivio=3 gennaio 2017 |urlmorto=sì }}</ref> e [[Deeplearning4j]]<ref>{{Cita web |url=https://deeplearning4j.org/ |titolo=Deeplearning4j |sito=deeplearning4j.org |lingua=en |accesso=4 settembre 2018 |dataarchivio=18 novembre 2017 |urlarchivio=https://web.archive.org/web/20171118075130/https://deeplearning4j.org/ |urlmorto=sì }}</ref>, che offrono un'implementazione di questi algoritmi e ne permettono l'uso in altre applicazioni. Altri algoritmi, come l'[[Analisi delle componenti principali]] (PCA) e [[t-distributed stochastic neighbor embedding]] (t-SNE), sono usati per diminuire la dimensione dello spazio dei vettori di parole e per permetterne la visualizzazione in uno spazio bidimensionale o tridimensionale<ref>{{Cita pubblicazione|cognome=Ghassemi|nome=Mohammad|cognome2=Mark|nome2=Roger|cognome3=Nemati|nome3=Shamim|anno=2015|titolo=A Visualization of Evolving Clinical Sentiment Using Vector Representations of Clinical Notes|url=http://www.cinc.org/archives/2015/pdf/0629.pdf|rivista=Computing in Cardiology|lingua=en}}</ref>.
==Note==
Riga 26:
{{apprendimento automatico}}
{{portale|informatica}}
[[Categoria:Elaborazione del linguaggio naturale]]
|