Word embedding: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Atarubot (discussione | contributi)
template cita "xxxx"; fix formato data
Recupero di 1 fonte/i e segnalazione di 0 link interrotto/i. #IABot (v2.0beta10)
Riga 9:
Molte delle nuove tecniche di word embedding sono realizzati con l'architettura delle reti neurali invece che con le più tradizionali tecniche ad [[N-gramma|n-grammi]] e di [[apprendimento supervisionato]].
 
I ''thought vector'' (letteralmente ''vettori di pensiero'') sono un'estensione delle ''word embedding'' per intere frasi o anche documenti. Alcuni ricercatori sperano che questi possano aumentare la qualità della [[traduzione automatica]].<ref>{{cita web|titolo=Skip-thought vectors|url=http://arxiv.org/abs/1506.06726|cognome1=Kiros|nome1=Ryan|cognome2=Zhu|nome2=Yukun|cognome3=Salakhutdinov|nome3=Ruslan|cognome4=Zemel|nome4=Richard S.|cognome5=Torralba|nome5=Antonio|cognome6=Urtasun|nome6=Raquel|cognome7=Fidler|nome7=Sanja|sito=arxiv.org/archive/cs.CL|anno=2015|lingua=en}}</ref> <ref>{{cita web|titolo=Thoughtvectors|url=http://deeplearning4j.org/thoughtvectors|lingua=en|accesso=6 marzo 2017|urlarchivio=https://web.archive.org/web/20170211043631/https://deeplearning4j.org/thoughtvectors#|dataarchivio=11 febbraio 2017|urlmorto=sì}}</ref>
 
== Applicazioni ==