'''AlexNet''' è un modello di [[rete neurale convoluzionale]] (CNN) [[apprendimento profondo|profonda]] progettata dai [[dottorato di ricerca|dottorandi]] [[Alex Krizhevsky]] e [[Ilya Sutskever]], sotto la supervisione di [[Geoffrey Hinton]].<ref name =":1">{{ CiteCita web|url=https://qz.com/1034972/the-data-that-changed-the-direction-of-ai-research-and-possibly-the-world/| titletitolo=The data that transformed AI research—and possibly the world| firstnome=Dave| lastcognome=Gershgorn| websitesito=Quartz| datedata=26 Julyluglio 2017 }}</ref><ref name=":0">{{ CiteCita journalpubblicazione| last1cognome1=Krizhevsky| first1nome1=Alex| last2cognome2=Sutskever| first2nome2=Ilya| last3cognome3=Hinton| first3nome3=Geoffrey E.| datedata= 24 maggio 2017 -05-24| titletitolo=ImageNet classification with deep convolutional neural networks|url=https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf| journalrivista=Communications of the ACM|volume=60| issuenumero=6| pagespp= 84–9084-90|doi=10.1145/3065386 |s2cid=195908774|issn=0001-0782 |doi-access=free}}</ref> ▼
[[File:AlexNet_architecture_(Krizhevsky_et_al,_2012).pdf|thumb|upright=2|Architettura di AlexNet (Krizhevsky et al., 2012)]]
AlexNet rappresentò un significativo avanzamento nel riconoscimento automatico delle immagini. Nella [[ImageNet|ImageNet Large Scale Visual Recognition Challenge]] del 2012<ref name =":2">{{ CiteCita web|url=https://image-net.org/challenges/LSVRC/2012/results.html| titletitolo=ImageNet Large Scale Visual Recognition Competition 2012 (ILSVRC2012)| websitesito=image-net.org}}</ref> AlexNet ottenne un errore top-5 del 15.3%, oltre 10.8 punti percentuali in meno del secondo classificato. La profondità del modello risultò essenziale per la qualità dei risultati, e il problema dell'elevato costo computazionale venne aggirato eseguendo l'addestramento del modello su due [[GPU]] in parallelo.<ref name=":0" /> ▼
▲'''AlexNet''' è un modello di [[rete neurale convoluzionale]] (CNN) [[apprendimento profondo|profonda]] progettata dai [[dottorato di ricerca|dottorandi]] [[Alex Krizhevsky]] e [[Ilya Sutskever]], sotto la supervisione di [[Geoffrey Hinton]].<ref name =":1">{{Cite web|url=https://qz.com/1034972/the-data-that-changed-the-direction-of-ai-research-and-possibly-the-world/|title=The data that transformed AI research—and possibly the world|first=Dave|last=Gershgorn|website=Quartz|date=26 July 2017 }}</ref><ref name=":0">{{Cite journal|last1=Krizhevsky|first1=Alex|last2=Sutskever|first2=Ilya|last3=Hinton|first3=Geoffrey E.|date=2017-05-24|title=ImageNet classification with deep convolutional neural networks|url=https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf|journal=Communications of the ACM|volume=60|issue=6|pages=84–90|doi=10.1145/3065386|s2cid=195908774|issn=0001-0782|doi-access=free}}</ref>
La descrizione e i risultati di AlexNet furono pubblicati nel 2012 in uno degli articoli di ricerca più influenti nella storia della [[visione artificiale]], citato in oltre {{formatnum:130000}} pubblicazioni al 2023,<ref>[https://scholar.google.com/citations?view_op=view_citation&hl=en&user=xegzhJcAAAAJ&citation_for_view=xegzhJcAAAAJ:u5HHmVD_uO8C AlexNet paper on Google Scholar ]</ref> aprendo la strada all'uso estensivo dell'[[apprendimento profondo]] nella visione artificiale.<ref>{{ CiteCita web|url=https://adeshpande3.github.io/adeshpande3.github.io/The-9-Deep-Learning-Papers-You-Need-To-Know-About.html| titletitolo=The 9 Deep Learning Papers You Need To Know About (Understanding CNNs Part 3)| lastcognome=Deshpande| firstnome=Adit| websitesito=adeshpande3.github.io| access-dateaccesso= 4 dicembre 2018 -12-04}}</ref> ▼
▲AlexNet rappresentò un significativo avanzamento nel riconoscimento automatico delle immagini. Nella [[ImageNet|ImageNet Large Scale Visual Recognition Challenge]] del 2012<ref name =":2">{{Cite web|url=https://image-net.org/challenges/LSVRC/2012/results.html|title=ImageNet Large Scale Visual Recognition Competition 2012 (ILSVRC2012)|website=image-net.org}}</ref> AlexNet ottenne un errore top-5 del 15.3%, oltre 10.8 punti percentuali in meno del secondo classificato. La profondità del modello risultò essenziale per la qualità dei risultati, e il problema dell'elevato costo computazionale venne aggirato eseguendo l'addestramento del modello su due [[GPU]] in parallelo.<ref name=":0" />
▲La descrizione e i risultati di AlexNet furono pubblicati nel 2012 in uno degli articoli di ricerca più influenti nella storia della [[visione artificiale]], citato in oltre {{formatnum:130000}} pubblicazioni al 2023,<ref>[https://scholar.google.com/citations?view_op=view_citation&hl=en&user=xegzhJcAAAAJ&citation_for_view=xegzhJcAAAAJ:u5HHmVD_uO8C AlexNet paper on Google Scholar ]</ref> aprendo la strada all'uso estensivo dell'[[apprendimento profondo]] nella visione artificiale.<ref>{{Cite web|url=https://adeshpande3.github.io/adeshpande3.github.io/The-9-Deep-Learning-Papers-You-Need-To-Know-About.html|title=The 9 Deep Learning Papers You Need To Know About (Understanding CNNs Part 3)|last=Deshpande|first=Adit|website=adeshpande3.github.io|access-date=2018-12-04}}</ref>
== Architettura ==
AlexNet ha otto livelli: i primi cinque livelli sono convoluzionali, alcuni facendo uso di max-pooling, mentre gli ultimi tre livelli sono completamente connessi. Ad eccezione dell'ultimo livello, il resto della rete era diviso in due copie, eseguite separatamente in due GPU.<ref name=":0" /> La rete usa la funzione di attivazione [[Rettificatore (reti neurali)|ReLU]], che dimostrò migliori risultati rispetto a funzioni tradizionali come la [[funzione sigmoidea]] e la [[tangente iperbolica]].<ref name=":0" />
La struttura è la seguente:
== Precursori ==
Un'implementazione di CNN accelerata tramite GPU, pubblicata da K. Chellapilla et al. nel 2006, mostrò tempi di esecuzione circa quattro volte più veloci rispetto ad esecuzione su CPU.<ref>{{cite bookCita libro|author1autore1=Kumar Chellapilla |titletitolo=Tenth International Workshop on Frontiers in Handwriting Recognition |author2autore2=Sidd Puri |author3autore3=Patrice Simard |datedata=2006 |publishereditore=Suvisoft |editor1-lastcuratore1=Guy Lorette |editor1-first=Guy |chaptercapitolo=High Performance Convolutional Neural Networks for Document Processing |chapter-urlurlcapitolo=https://hal.inria.fr/inria-00112631/document |archive-datedataarchivio=14 marzo 2016-03-14}}</ref> Dan Cireșan et al. pubblicarono nel 2011 un articolo con i risultati della loro CNN, la cui velocità su GPU era 60 volte maggiore rispetto a quella su CPU,<ref name="flexible">{{citeCita journalpubblicazione|lastcognome=Cireșan|firstnome=Dan|author2autore2=Ueli Meier |author3autore3=Jonathan Masci |author4autore4=Luca M. Gambardella |author5autore5=Jurgen Schmidhuber |titletitolo=Flexible, High Performance Convolutional Neural Networks for Image Classification|journalrivista=Proceedings of the Twenty-Second International Joint Conference on Artificial Intelligence-Volume Volume Two|yearanno=2011|volume=2|pagespp=1237–12421237-1242|url=http://www.idsia.ch/~juergen/ijcai2011.pdf|access-dateaccesso=17 Novembernovembre 2013}}</ref><ref>{{CiteCita web|url=http://benchmark.ini.rub.de/?section=gtsrb&subsection=results|titletitolo=IJCNN 2011 Competition result table|websitesito=OFFICIAL IJCNN2011 COMPETITION|languagelingua=en-US|access-dateaccesso=14 gennaio 2019-01-14|datedata=2010}}</ref> vinse quattro competizioni nel settore del riconoscimento delle immagini<ref>{{CiteCita web|url=http://people.idsia.ch/~juergen/computer-vision-contests-won-by-gpu-cnns.html|last1cognome1=Schmidhuber|first1nome1=Jürgen|titletitolo=History of computer vision contests won by deep CNNs on GPU|languagelingua=en-US|access-dateaccesso=14 Januarygennaio 2019|datedata=17 Marchmarzo 2017}}</ref><ref name="schdeepscholar">{{citeCita journalpubblicazione|last1cognome1=Schmidhuber|first1nome1=Jürgen|titletitolo=Deep Learning|journalrivista=Scholarpedia|url=http://www.scholarpedia.org/article/Deep_Learning|datedata=2015|volume=10|issuenumero=11|pagespp=1527–541527-54|pmid=16764513|doi=10.1162/neco.2006.18.7.1527|citeseerx=10.1.1.76.1541|s2cid=2309950}}</ref> e avanzò lo stato dell'arte nel riconoscimento delle immagini.<ref name="mcdns">{{cite bookCita libro|last1cognome1=Cireșan |first1nome1=Dan |first2nome2=Ueli |last2cognome2=Meier |first3nome3=Jürgen |last3cognome3=Schmidhuber |titletitolo=Multi-column deep neural networks for image classification |journalrivista=2012 IEEE Conference on Computer Vision and Pattern Recognition |datedata=Junegiugno 2012 |pagespp=3642–36493642-3649 |doi=10.1109/CVPR.2012.6248110 |arxiv=1202.2745 |isbn=978-1-4673-1226-4 |oclc=812295155 |publishereditore=[[Institute of Electrical and Electronics Engineers]] (IEEE) |___locationcittà=New York, NY|citeseerx=10.1.1.300.3283 |s2cid=2161592 }}</ref> Gli autori di AlexNet citarono i risultati di Cireșan e menzionarono le similarità con AlexNet.<ref name=":0" />
Di fatto, entrambi i modelli erano varianti dell'architettura introdotta da [[Yann LeCun]] et al. nel 1989,<ref name="LeCun Boser Denker Henderson 1989 pp. 541–551">{{citeCita journal <!-- Citation bot bypass-->pubblicazione |lastcognome=LeCun |firstnome=Y. |last2cognome2=Boser |first2nome2=B. |last3cognome3=Denker |first3nome3=J. S. |last4cognome4=Henderson |first4nome4=D. |last5cognome5=Howard |first5nome5=R. E. |last6cognome6=Hubbard |first6nome6=W. |last7cognome7=Jackel |first7nome7=L. D. |titletitolo=Backpropagation Applied to Handwritten Zip Code Recognition |journalrivista=Neural Computation |publishereditore=MIT Press - Journals |volume=1 |issuenumero=4 |yearanno=1989 |issn=0899-7667 |url=http://yann.lecun.com/exdb/publis/pdf/lecun-89e.pdf <!-- URL!=DOI; URL is free, not the DOI --> |doi=10.1162/neco.1989.1.4.541 |pagespp=541–551541-551 |oclc=364746139 |accesso=22 aprile 2023 |dataarchivio=10 gennaio 2020 |urlarchivio=https://web.archive.org/web/20200110090230/http://yann.lecun.com/exdb/publis/pdf/lecun-89e.pdf |urlmorto=sì }}</ref><ref name="lecun98">{{citeCita journalpubblicazione|lastcognome=LeCun|firstnome=Yann|author2autore2=Léon Bottou |author3autore3=Yoshua Bengio |author4autore4=Patrick Haffner |titletitolo=Gradient-based learning applied to document recognition|journalrivista=Proceedings of the IEEE|yearanno=1998|volume=86|issuenumero=11|pagespp=2278–23242278-2324|url=http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf|access-dateaccesso=October 7, ottobre 2016|doi=10.1109/5.726791|citeseerxdataarchivio=1030 ottobre 2023|urlarchivio=https://web.1archive.1org/web/20231030100650/http://yann.32lecun.9552com/exdb/publis/pdf/lecun-01a.pdf|s2cidurlmorto=14542261 sì}}</ref> che applicarono la [[retropropagazione dell'errore]] all'addestramento di una variante di rete neurale convoluzionale precedentemente introdotta da [[Kunihiko Fukushima]] e nota come "[[neocognitron]]",<ref name=fukuneoscholar>{{cite journalCita pubblicazione| last1 cognome1= Fukushima | first1 nome1= K. | year anno= 2007 | title titolo= Neocognitron | journal rivista= Scholarpedia | volume = 2 | issuenumero = 1| page p= 1717 | doi=10.4249/scholarpedia.1717| bibcode = 2007SchpJ...2.1717F | doi-access = free }}</ref><ref name="intro">{{citeCita journalpubblicazione|lastcognome=Fukushima|firstnome=Kunihiko|titletitolo=Neocognitron: A Self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position|journalrivista=Biological Cybernetics|yearanno=1980|volume=36|issuenumero=4|pagespp=193–202193-202|url=http://www.cs.princeton.edu/courses/archive/spr08/cos598B/Readings/Fukushima1980.pdf|access-dateaccesso=16 Novembernovembre 2013|doi=10.1007/BF00344251|pmid=7370364|s2cid=206775608}}</ref> successivamente estesa con l'uso di max-pooling, introdotto da J. Weng.<ref name="schdeepscholar" /><ref name="weng1993">{{cite journalCita pubblicazione|first1nome1=J |last1cognome1=Weng |first2nome2=N |last2cognome2=Ahuja |first3nome3=TS |last3cognome3=Huang |titletitolo=Learning recognition and segmentation of 3-D objects from 2-D images |journalrivista=Proc. 4th International Conf. Computer Vision |yearanno=1993 |pagespp=121–128121-128 }}</ref><ref name="schdeepscholar" />
== Note ==
<references />
{{Portale|Informatica|Statistica}}
{{Portale|informatica|statistica}}
{{Categoria:Reti neurali artificiali}} ▼
▲{{[[Categoria:Reti neurali artificiali }}]]
|