MNIST database: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Recupero di 1 fonte/i e segnalazione di 0 link interrotto/i.) #IABot (v2.0.8
Pil56-bot (discussione | contributi)
m smistamento lavoro sporco e fix vari
Riga 4:
[[File:MnistExamples.png|alt=MNIST sample images.|thumb|Un esempio dei dati di test del MNIST]]
La base di dati MNIST contiene {{formatnum:60000}} immagini di addestramento e {{formatnum:10000}} immagini di test<ref>{{cita pubblicazione|autore=Ernst Kussul|autore2=Tatiana Baidyk|titolo=Improved method of handwritten digit recognition tested on MNIST database|rivista=Image and Vision Computing|anno=2004|volume=22|numero=12|pp=971–981|doi=10.1016/j.imavis.2004.03.008}}</ref>; metà dell'insieme di addestramento e metà dell'insieme di test sono state prelevate dall'insieme di addestramento del NIST, mentre le altre metà sono state ottenute dall'insieme di test del NIST stesso<ref>{{cita pubblicazione|cognome=Zhang|nome=Bin|autore2=Sargur N. Srihari|titolo=Fast k -Nearest Neighbor Classification Using Cluster-Based Trees|rivista=IEEE Transactions on Pattern Analysis and Machine Intelligence|anno=2004|volume=26|numero=4|pp=525–528|url=http://mleg.cse.sc.edu/edu/csce822/uploads/Main.ReadingList/KNN_fastbyClustering.pdf|accesso=18 agosto 2013|doi=10.1109/TPAMI.2004.1265868|pmid=15382657}}</ref>.
Diversi lavori riportati su [[Pubblicazione scientifica|pubblicazioni scientifiche]] si sono focalizzati sull'obiettivo di ottenere un basso tasso di errore; in una pubblicazione, che documenta un lavoro basato sull'utilizzo di un sistema gerarchico di [[Rete neurale convoluzionale|reti neurali convoluzionali]], viene riportato un tasso di errore dello 0,23 %<ref name="Multideep">{{cita libro|cognome=Cires¸an|nome=Dan|autore2=Ueli Meier |autore3=Jürgen Schmidhuber |titolo=Multi-column deep neural networks for image classification|rivista=2012 IEEE Conference on Computer Vision and Pattern Recognition|anno=2012|pp=3642–3649|doi=10.1109/CVPR.2012.6248110|arxiv=1202.2745|isbn=978-1-4673-1228-8|url=http://repository.supsi.ch/5145/1/IDSIA-04-12.pdf|citeseerx=10.1.1.300.3283}}</ref>. Gli autori dell'insieme di dati MNIST mantengono una lista di alcuni metodi che sono stati impiegati su di esso<ref name="LeCun">{{cita web|cognome=LeCun|nome=Yann|titolo=MNIST handwritten digit database, Yann LeCun, Corinna Cortes and Chris Burges|url=http://yann.lecun.com/exdb/mnist/|accesso=17 agosto 2013|autore2=Corinna Cortes |autore3=Christopher J.C. Burges }}</ref>: essi hanno utilizzato, nella loro pubblicazione originaria, una [[Macchine a vettori di supporto|SVM]], ottenendo un tasso di errore dello 0,8 %<ref name="Gradient">{{cita pubblicazione|cognome=LeCun|nome=Yann|autore2=Léon Bottou |autore3=Yoshua Bengio |autore4=Patrick Haffner |titolo=Gradient-Based Learning Applied to Document Recognition|rivista=Proceedings of the IEEE |anno=1998|volume=86|numero=11|pp=2278–2324|url=http://yann.lecun.com/exdb/publis/pdf/lecun-98.pdf|accesso=18 agosto 2013|doi=10.1109/5.726791}}</ref>.
 
== L'insieme dei dati==
Riga 21:
 
{{Portale|informatica}}
 
[[Categoria:Intelligenza artificiale]]