Rete neurale artificiale: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Aggiunti link, correzioni minori ed info con citazioni e fonti.
m smistamento lavoro sporco e fix vari using AWB
Riga 4:
Nel campo dell'[[apprendimento automatico]], una '''rete neurale artificiale''' (in [[Lingua inglese|inglese]] ''artificial neural network'', abbreviato in '''ANN''' o anche come '''NN''') è un [[modello matematico|modello computazionale]] composto di "neuroni" artificiali, ispirato vagamente dalla semplificazione di una [[rete neurale|rete neurale biologica]].
 
Questi modelli matematici sono troppo semplici per ottenere una comprensione delle reti neurali biologiche<ref>{{Cita pubblicazione|nome=F.|cognome=Crick|data=1989-01-12 gennaio 1989|titolo=The recent excitement about neural networks|rivista=Nature|volume=337|numero=6203|pp=129–132|accesso=2018-11-27 novembre 2018|doi=10.1038/337129a0|url=https://www.ncbi.nlm.nih.gov/pubmed/2911347}}</ref><ref>{{Cita web|url=http://www.encephalos.gr/48-1-01e.htm|titolo=Encephalos Journal|sito=www.encephalos.gr|accesso=2018-11-27 novembre 2018}}</ref>, ma sono utilizzati per tentare di risolvere problemi ingegneristici di [[intelligenza artificiale]] come quelli che si pongono in diversi ambiti tecnologici (in [[elettronica]], [[informatica]], [[simulazione]], e altre discipline).
 
Una rete neurale artificiale può essere realizzata sia da programmi [[software]] che da [[hardware]] dedicato (DSP, ''[[Digital Signal Processing]]''). Questa branca può essere utilizzata in congiunzione alla [[logica fuzzy]].
 
== Storia ==
L'ampia varietà di modelli non può prescindere dal costituente di base, il neurone artificiale proposto da [[Warren McCulloch|W.S. McCulloch]] e [[Walter Pitts]] in un famoso lavoro del [[1943]]: ''A Logical Calculus of the Ideas Immanent in Nervous Activity'' (Un calcolo logico delle idee immanenti ad un'attività nervosa),<ref>{{cita libro|autore=W. McCulloch, W. Pitts|titolo=A Logical Calculus of Ideas Immanent in Nervous Activity|annanno=1943|editore=Bulletin of Mathematical Biophysics|paginepp=5:115–133}}.Ripubblicato in: [https://www.cs.cmu.edu/~./epxing/Class/10715/reading/McCulloch.and.Pitts.pdf "A Logical Calculus of the Ideas Immanent in Nervous Activity"]. With [[Walter Pitts]]. In: ''Bulletin of Mathematical Biophysics'' Vol 5, pp 115–133. </ref> il quale schematizza un combinatore lineare a soglia, con dati binari multipli in entrata e un singolo dato binario in uscita: un numero opportuno di tali elementi, connessi in modo da formare una rete, è in grado di calcolare semplici [[Funzione booleana|funzioni booleane]].
 
Le prime ipotesi di apprendimento furono introdotte da [[Donald Olding Hebb|D. O. Hebb]] nel libro del [[1949]]: ''The Organization of Behaviour'' (L'organizzazione del comportamento),<ref>{{cita libro|titolo=The Organization of Behaviour|anno=1949|autore=D. O. Hebb|editore=John Wiley & Sons|isbn=978-0-471-36727-7}}</ref> nel quale vengono proposti collegamenti con i modelli complessi del cervello.
Riga 15:
Nel [[1958]], [[János Neumann|J. Von Neumann]] nella sua opera ''The Computer and the Brain'',<ref>{{cita libro|titolo=Il computer e il cervello|autore=John Von Neumann|editore=Bompiani|anno=1999}}</ref> esamina le soluzioni proposte dai precedenti autori sottolineando la scarsa precisione che queste strutture possedevano per potere svolgere operazioni complesse.
 
Nello stesso anno, [[Frank Rosenblatt]] nella rivista ''Psychological review'',<ref>{{cita pubblicazione|autore=Frank Rosenblatt|titolo=The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain|editore=Cornell Aeronautical Laboratory|rivista=Psychological Review, v65, No. 6|anno=1958|paginepp=386–408}}</ref> introduce il primo schema di rete neurale, detto ''Perceptron'' ([[percettrone]]), antesignano delle attuali reti neurali, per il riconoscimento e la classificazione di forme, allo scopo di fornire un'interpretazione dell'organizzazione generale dei sistemi biologici. Il modello probabilistico di Rosenblatt è quindi mirato all'analisi, in forma matematica, di funzioni quali l'immagazzinamento delle informazioni, e della loro influenza sul riconoscimento dei pattern; esso costituisce un progresso decisivo rispetto al modello binario di McCulloch e Pitts, perché i suoi [[Sinapsi|pesi sinaptici]] sono variabili e quindi il percettrone è in grado di apprendere.
 
L'opera di Rosenblatt stimola una quantità di studi e ricerche che dura per un decennio, e suscita un vivo interesse e notevoli aspettative nella comunità scientifica, destinate tuttavia ad essere notevolmente ridimensionate allorché nel [[1969]] [[Marvin Minsky]] e [[Seymour Papert|Seymour A. Papert]], nell'opera ''Perceptrons. An Introduction to Computational Geometry'',<ref>{{cita libro|autore1=Marvin Minsky|autore2=Seymour Papert|titolo=Perceptrons. An Introduction to Computational Geometry|url=https://archive.org/details/perceptronsintro00mins|annooriginale=1987|editore=MIT Press|isbn=978-0-262-63111-2}}</ref> mostrano i limiti operativi delle semplici reti a due strati basate sul percettrone, e dimostrano l'impossibilità di risolvere per questa via molte classi di problemi, ossia tutti quelli non caratterizzati da separabilità lineare delle soluzioni: questo tipo di rete neurale non è abbastanza potente; non è infatti neanche in grado di calcolare la funzione ''or esclusivo'' ([[Disgiunzione esclusiva|XOR]]). A causa di queste limitazioni, al periodo di euforia dovuto ai primi risultati della [[cibernetica]] (come veniva chiamata negli [[Anni 1960|anni sessanta]]) segue un periodo di diffidenza durante il quale tutte le ricerche in questo campo non ricevono più alcun finanziamento dal governo degli [[Stati Uniti d'America]]; le ricerche sulle reti tendono, di fatto, a ristagnare per oltre un decennio, e l'entusiasmo iniziale risulta fortemente ridimensionato.
Riga 208:
* Pessa E., ''Statistica con le reti neurali'', Roma, Di Renzo Editore, 2004. ISBN 978-88-8323-074-5
* Gallo C., ''Reti neurali artificiali: teoria ed applicazioni finanziarie'', 2007 Foggia, Università di Foggia.
*{{Cita testo|titolo=Reti neurali artificiali|url=https://archive.org/details/retineuraliartificiali|autore=Alessandro Mazzetti|editore=Apogeo|anno=1991|ISBNisbn=88-7303-002-5}}
*{{en}} Amit, D. J., ''Modeling brain function'', 1989 New York, NY: Cambridge University Press. ISBN 0-521-36100-1
 
Riga 219:
* [[Rete neurale a base radiale]]
* [[Rete neurale spiking]]
* [[rete neurale olistica]]
* [[Ingegneria neuromorfica]]