Il '''MNIST database''' (''Modified [[National Institute of Standards and Technology]] database'') è una vasta [[base di dati]] di cifre scritte a mano che è comunemente impiegata come [[Training set|insieme di addestramento]] in vari sistemi per l'[[Elaborazione digitale delle immagini|elaborazione delle immagini]].<ref>{{cita web|url=http://www.vision-systems.com/articles/print/volume-9/issue-9/technology-trends/software/support-vector-machines-speed-pattern-recognition.html|titolo=Support vector machines speed pattern recognition - Vision Systems Design|sito=Vision Systems Design|lingua=en|accesso=2013-08-17 agosto 2013}}</ref><ref>{{cita web|url=http://cis.jhu.edu/~sachin/digit/digit.html|titolo=Handwritten digit database|autore=Sachin Gangaputra|lingua=en|accesso=2013-08-17 agosto 2013}}</ref> La base di dati è anche impiegata come insieme di addestramento e di [[Test set|testing]] nel campo dell'[[apprendimento automatico]].<ref>{{cita web|autore=Qiao Yu|titolo=THE MNIST DATABASE of handwritten digits|url=http://www.gavo.t.u-tokyo.ac.jp/~qiao/database.html|accesso=2013-08-18 agosto 2013|lingua=en|data=2007}}</ref><ref>{{cita pubblicazione|autore=John C. Platt|titolo=Using analytic QP and sparseness to speed training of support vector machines|rivista=Advances in Neural Information Processing Systems|anno=1999|pp=557–563|url=http://ar.newsmth.net/att/148aa490aed5b5/smo-nips.pdf|accesso=2013-08-18 agosto 2013}}</ref>
La base di dati è stata creata rimescolando le immagini presenti nel [https://www.nist.gov/srd/upload/nistsd19.pdf dataset del NIST].
[[File:MnistExamples.png|alt=MNIST sample images.|thumb|Un'immagine di esempio del dataset di test del MNIST.]]
Il MNIST database contiene 60.000 immagini di addestramento e 10.000 immagini di testing.<ref>{{cita pubblicazione|autore=Ernst Kussul|autore2=Tatiana Baidyk|titolo=Improved method of handwritten digit recognition tested on MNIST database|rivista=Image and Vision Computing|anno=2004|volume=22|numero=12|pp=971–981|doi=10.1016/j.imavis.2004.03.008}}</ref> Metà dell'insieme di addestramento e metà dell'insieme di test sono stati prelevati dall'insieme di addestramento del NIST, mentre le altre metà sono state ottenute dal dataset di testing del NIST stesso.<ref>{{cita pubblicazione|lastcognome=Zhang|firstnome=Bin|author2autore2=Sargur N. Srihari|titolo=Fast k -Nearest Neighbor Classification Using Cluster-Based Trees|journalrivista=IEEE Transactions on Pattern Analysis and Machine Intelligence|anno=2004|volume=26|issuenumero=4|pp=525–528|url=http://mleg.cse.sc.edu/edu/csce822/uploads/Main.ReadingList/KNN_fastbyClustering.pdf|accessdateaccesso=18 Agostoagosto 2013|doi=10.1109/TPAMI.2004.1265868|pmid=15382657}}</ref>
Diversi lavori riportati su [[Pubblicazione scientifica|pubblicazioni scientifiche]] si sono focalizzati sull'obiettivo di ottenere un basso tasso di errore. In una pubblicazione, che documenta un lavoro basato sull'utilizzo di un sistema gerarchico di [[Rete neurale convoluzionale|reti neurali convoluzionali]], viene riportato un tasso di errore dello 0,23%.<ref name="Multideep">{{cita libro|lastcognome=Cires¸an|firstnome=Dan|author2autore2=Ueli Meier |author3autore3=Jürgen Schmidhuber |titolo=Multi-column deep neural networks for image classification|journalrivista=2012 IEEE Conference on Computer Vision and Pattern Recognition|anno=2012|pp=3642–3649|doi=10.1109/CVPR.2012.6248110|arxiv=1202.2745|isbn=978-1-4673-1228-8|url=http://repository.supsi.ch/5145/1/IDSIA-04-12.pdf|citeseerx=10.1.1.300.3283}}</ref> Gli autori del dataset MNIST mantengono una lista di alcune metodologie che sono state impiegate su di esso.<ref name="LeCun">{{cita web|lastcognome=LeCun|firstnome=Yann|titolo=MNIST handwritten digit database, Yann LeCun, Corinna Cortes and Chris Burges|url=http://yann.lecun.com/exdb/mnist/|accessdateaccesso=17 Agostoagosto 2013|author2autore2=Corinna Cortes |author3autore3=Christopher J.C. Burges }}</ref> Gli autori stessi, nella loro pubblicazione originaria, hanno utilizzato una [[Macchine a vettori di supporto|SVM]] ottenendo un tasso di errore dello 0,8%.<ref name="Gradient">{{cita pubblicazione|lastcognome=LeCun|firstnome=Yann|author2autore2=Léon Bottou |author3autore3=Yoshua Bengio |author4autore4=Patrick Haffner |titolo=Gradient-Based Learning Applied to Document Recognition|rivista=Proceedings of the IEEE |yearanno=1998|volume=86|issuenumero=11|pp=2278–2324|url=http://yann.lecun.com/exdb/publis/pdf/lecun-98.pdf|accessdateaccesso=18 Agostoagosto 2013|doi=10.1109/5.726791}}</ref>