AlexNet: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m smistamento lavoro sporco e fix vari
m smistamento lavoro sporco e fix vari
Riga 26:
Un'implementazione di CNN accelerata tramite GPU, pubblicata da K. Chellapilla et al. nel 2006, mostrò tempi di esecuzione circa quattro volte più veloci rispetto ad esecuzione su CPU.<ref>{{Cita libro|autore1=Kumar Chellapilla |titolo=Tenth International Workshop on Frontiers in Handwriting Recognition |autore2=Sidd Puri |autore3=Patrice Simard |data=2006 |editore=Suvisoft |curatore1=Guy Lorette |capitolo=High Performance Convolutional Neural Networks for Document Processing |urlcapitolo=https://hal.inria.fr/inria-00112631/document |dataarchivio=14 marzo 2016}}</ref> Dan Cireșan et al. pubblicarono nel 2011 un articolo con i risultati della loro CNN, la cui velocità su GPU era 60 volte maggiore rispetto a quella su CPU,<ref name="flexible">{{Cita pubblicazione|cognome=Cireșan|nome=Dan|autore2=Ueli Meier |autore3=Jonathan Masci |autore4=Luca M. Gambardella |autore5=Jurgen Schmidhuber |titolo=Flexible, High Performance Convolutional Neural Networks for Image Classification|rivista=Proceedings of the Twenty-Second International Joint Conference on Artificial Intelligence-Volume Volume Two|anno=2011|volume=2|pp=1237–1242|url=http://www.idsia.ch/~juergen/ijcai2011.pdf|accesso=17 novembre 2013}}</ref><ref>{{Cita web|url=http://benchmark.ini.rub.de/?section=gtsrb&subsection=results|titolo=IJCNN 2011 Competition result table|sito=OFFICIAL IJCNN2011 COMPETITION|lingua=en|accesso=14 gennaio 2019|data=2010}}</ref> vinse quattro competizioni nel settore del riconoscimento delle immagini<ref>{{Cita web|url=http://people.idsia.ch/~juergen/computer-vision-contests-won-by-gpu-cnns.html|cognome1=Schmidhuber|nome1=Jürgen|titolo=History of computer vision contests won by deep CNNs on GPU|lingua=en|accesso=14 gennaio 2019|data=17 marzo 2017}}</ref><ref name="schdeepscholar">{{Cita pubblicazione|cognome1=Schmidhuber|nome1=Jürgen|titolo=Deep Learning|rivista=Scholarpedia|url=http://www.scholarpedia.org/article/Deep_Learning|data=2015|volume=10|numero=11|pp=1527–54|pmid=16764513|doi=10.1162/neco.2006.18.7.1527}}</ref> e avanzò lo stato dell'arte nel riconoscimento delle immagini.<ref name="mcdns">{{Cita libro|cognome1=Cireșan |nome1=Dan |nome2=Ueli |cognome2=Meier |nome3=Jürgen |cognome3=Schmidhuber |titolo=Multi-column deep neural networks for image classification |rivista=2012 IEEE Conference on Computer Vision and Pattern Recognition |data=giugno 2012 |pp=3642–3649 |doi=10.1109/CVPR.2012.6248110 |arxiv=1202.2745 |isbn=978-1-4673-1226-4 |oclc=812295155 |editore=[[Institute of Electrical and Electronics Engineers]] (IEEE) |città=New York, NY}}</ref> Gli autori di AlexNet citarono i risultati di Cireșan e menzionarono le similarità con AlexNet.<ref name=":0" />
 
Di fatto, entrambi i modelli erano varianti dell'architettura introdotta da [[Yann LeCun]] et al. nel 1989,<ref name="LeCun Boser Denker Henderson 1989 pp. 541–551">{{cite journal <!-- Citation bot bypass-->Cita pubblicazione|lastcognome=LeCun |firstnome=Y. |last2cognome2=Boser |first2nome2=B. |last3cognome3=Denker |first3nome3=J. S. |last4cognome4=Henderson |first4nome4=D. |last5cognome5=Howard |first5nome5=R. E. |last6cognome6=Hubbard |first6nome6=W. |last7cognome7=Jackel |first7nome7=L. D. |titletitolo=Backpropagation Applied to Handwritten Zip Code Recognition |journalrivista=Neural Computation |publishereditore=MIT Press - Journals |volume=1 |issuenumero=4 |yearanno=1989 |issn=0899-7667 |url=http://yann.lecun.com/exdb/publis/pdf/lecun-89e.pdf <!-- URL!=DOI; URL is free, not the DOI --> |doi=10.1162/neco.1989.1.4.541 |pagespp=541–551 |oclc=364746139}}</ref><ref name="lecun98">{{Cita pubblicazione|cognome=LeCun|nome=Yann|autore2=Léon Bottou |autore3=Yoshua Bengio |autore4=Patrick Haffner |titolo=Gradient-based learning applied to document recognition|rivista=Proceedings of the IEEE|anno=1998|volume=86|numero=11|pp=2278–2324|url=http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf|accesso=7 ottobre 2016|doi=10.1109/5.726791}}</ref> che applicarono la [[retropropagazione dell'errore]] all'addestramento di una variante di rete neurale convoluzionale precedentemente introdotta da [[Kunihiko Fukushima]] e nota come "[[neocognitron]]",<ref name=fukuneoscholar>{{Cita pubblicazione|cognome1= Fukushima |nome1=K. |anno=2007 |titolo=Neocognitron |rivista=Scholarpedia | volume = 2 | numero = 1|p=1717 | doi=10.4249/scholarpedia.1717| bibcode = 2007SchpJ...2.1717F }}</ref><ref name="intro">{{Cita pubblicazione|cognome=Fukushima|nome=Kunihiko|titolo=Neocognitron: A Self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position|rivista=Biological Cybernetics|anno=1980|volume=36|numero=4|pp=193–202|url=http://www.cs.princeton.edu/courses/archive/spr08/cos598B/Readings/Fukushima1980.pdf|accesso=16 novembre 2013|doi=10.1007/BF00344251|pmid=7370364}}</ref> successivamente estesa con l'uso di max-pooling, introdotto da J. Weng.<ref name="schdeepscholar" /><ref name="weng1993">{{Cita pubblicazione|nome1=J |cognome1=Weng |nome2=N |cognome2=Ahuja |nome3=TS |cognome3=Huang |titolo=Learning recognition and segmentation of 3-D objects from 2-D images |rivista=Proc. 4th International Conf. Computer Vision |anno=1993 |pp=121–128 }}</ref>
 
== Note ==