Word embedding: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m smistamento lavoro sporco e fix vari using AWB |
m Bot: numeri di pagina nei template citazione e modifiche minori |
||
(2 versioni intermedie di 2 utenti non mostrate) | |||
Riga 6:
==Metodi==
I metodi per generare questa mappatura comprendono le [[rete neurale artificiale|reti neurali]],<ref>{{cita web |url=https://arxiv.org/abs/1310.4546 |cognome1=Mikolov |nome1=Tomas |titolo=Distributed Representations of Words and Phrases and their Compositionality |cognome2=Sutskever |nome2=Ilya |cognome3=Chen |nome3=Kai |cognome4=Corrado |nome4=Greg |cognome5=Dean |nome5=Jeffrey |sito=arxiv.org/archive/cs.CL| anno=2013|lingua=en}}</ref> la riduzione dimensionale sulla [[matrice di co-occorrenza]] della parola,<ref>{{Cita pubblicazione|arxiv=1312.5542 |cognome1=Lebret |nome1=Rémi |titolo=Word Emdeddings through Hellinger PCA |rivista=Conference of the European Chapter of the Association for
Molte delle nuove tecniche di word embedding sono realizzati con l'architettura delle reti neurali invece che con le più tradizionali tecniche ad [[N-gramma|n-grammi]] e di [[apprendimento supervisionato]].
Riga 12:
== Applicazioni ==
Gli algoritmi più popolari proposti per l'apprendimento del word embedding sono [[Word2vec]], sviluppato da [[Tomas Mikolov]]<ref>{{Cita pubblicazione |nome=Thomas |cognome=Mikolov |anno=2013 |titolo=Efficient estimation of word representations in vector space |rivista=Proceedings of NIPS |lingua=en |accesso=4 settembre 2018 |url=http://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf}}</ref>, e [[GloVe (machine learning)|GloVe]], sviluppato dalla Stanford University<ref>{{cita web|url=http://nlp.stanford.edu/projects/glove/|titolo=GloVe|lingua=en}}</ref>. Sono anche disponibili alcuni software e [[Libreria (software)|librerie software]], come [[Gensim]]<ref>{{Cita web |url=http://radimrehurek.com/gensim/ |titolo=Gensim |lingua=en |accesso=6 marzo 2017 |urlarchivio=https://web.archive.org/web/20170103021308/http://radimrehurek.com/gensim/ |dataarchivio=3 gennaio 2017 |urlmorto=sì }}</ref> e [[Deeplearning4j]]<ref>{{Cita web |url=https://deeplearning4j.org/ |titolo=Deeplearning4j |sito=deeplearning4j.org |lingua=en |accesso=4 settembre 2018 |dataarchivio=18 novembre 2017 |urlarchivio=https://web.archive.org/web/20171118075130/https://deeplearning4j.org/ |urlmorto=sì }}</ref>, che offrono un'implementazione di questi algoritmi e ne permettono l'uso in altre applicazioni. Altri algoritmi, come l'[[Analisi delle componenti principali]] (PCA) e [[t-distributed stochastic neighbor embedding]] (t-SNE), sono usati per diminuire la dimensione dello spazio dei vettori di parole e per permetterne la visualizzazione in uno spazio bidimensionale o tridimensionale<ref>{{Cita pubblicazione|cognome=Ghassemi|nome=Mohammad|cognome2=Mark|nome2=Roger|cognome3=Nemati|nome3=Shamim|anno=2015|titolo=A Visualization of Evolving Clinical Sentiment Using Vector Representations of Clinical Notes|url=http://www.cinc.org/archives/2015/pdf/0629.pdf|rivista=Computing in Cardiology|lingua=en}}</ref>.
==Note==
|