Rete neurale artificiale: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Etichette: Annullato Modifica visuale |
m Bot: numeri di pagina nei template citazione |
||
(8 versioni intermedie di 6 utenti non mostrate) | |||
Riga 2:
[[File:Neural network example it.svg|thumb|Struttura di una rete neurale artificiale]]
Nel campo dell'[[apprendimento automatico]], una '''rete neurale artificiale''' (
Questi modelli matematici sono troppo semplici per ottenere una comprensione delle reti neurali biologiche<ref>{{Cita pubblicazione|nome=F.|cognome=Crick|data=12 gennaio 1989|titolo=The recent excitement about neural networks|rivista=Nature|volume=337|numero=6203|pp=
Una rete neurale artificiale può essere realizzata sia da programmi [[software]] che da [[hardware]] dedicato (DSP, ''[[Digital Signal Processing]]''). Questa branca può essere utilizzata in congiunzione alla [[logica fuzzy]].
Riga 15:
Nel [[1958]], [[János Neumann|J. Von Neumann]] nella sua opera ''The Computer and the Brain'',<ref>{{cita libro|titolo=Il computer e il cervello|autore=John Von Neumann|editore=Bompiani|anno=1999}}</ref> esamina le soluzioni proposte dai precedenti autori sottolineando la scarsa precisione che queste strutture possedevano per potere svolgere operazioni complesse.
Nello stesso anno, [[Frank Rosenblatt]] nella rivista ''Psychological review'',<ref>{{cita pubblicazione|autore=Frank Rosenblatt|titolo=The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain|editore=Cornell Aeronautical Laboratory|rivista=Psychological Review, v65, No. 6|anno=1958|pp=
L'opera di Rosenblatt stimola una quantità di studi e ricerche che dura per un decennio, e suscita un vivo interesse e notevoli aspettative nella comunità scientifica, destinate tuttavia ad essere notevolmente ridimensionate allorché nel [[1969]] [[Marvin Minsky]] e [[Seymour Papert|Seymour A. Papert]], nell'opera ''Perceptrons. An Introduction to Computational Geometry'',<ref>{{cita libro|autore1=Marvin Minsky|autore2=Seymour Papert|titolo=Perceptrons. An Introduction to Computational Geometry|url=https://archive.org/details/perceptronsintro00mins|annooriginale=1987|editore=MIT Press|isbn=978-0-262-63111-2}}</ref> mostrano i limiti operativi delle semplici reti a due strati basate sul percettrone, e dimostrano l'impossibilità di risolvere per questa via molte classi di problemi, ossia tutti quelli non caratterizzati da separabilità lineare delle soluzioni: questo tipo di rete neurale non è abbastanza potente; non è infatti neanche in grado di calcolare la funzione ''or esclusivo'' ([[Disgiunzione esclusiva|XOR]]). A causa di queste limitazioni, al periodo di euforia dovuto ai primi risultati della [[cibernetica]] (come veniva chiamata negli [[Anni 1960|anni sessanta]]) segue un periodo di diffidenza durante il quale tutte le ricerche in questo campo non ricevono più alcun finanziamento dal governo degli [[Stati Uniti d'America]]; le ricerche sulle reti tendono, di fatto, a ristagnare per oltre un decennio, e l'entusiasmo iniziale risulta fortemente ridimensionato.
Riga 39:
== Teoria e paradigmi di apprendimento ==
=== Analisi del sistema di apprendimento di una rete neurale ===
Il concetto di rete neurale si pone perché una [[Funzione (matematica)|funzione]] <math>f(x)</math> è definita come una [[Composizione di funzioni|composizione]] di altre funzioni <math>G(x)</math>, che possono a loro volta essere ulteriormente definite come composizione di altre funzioni. Questo può essere comodamente rappresentato come una struttura di reti, con le frecce raffiguranti le dipendenze tra variabili. Una rappresentazione ampiamente utilizzata è la somma ponderata non lineare, dove <math>f(x) =
[[File:Ann dependency (graph).svg|thumb|Figura 1: Diagramma di dipendenza di una rete neurale ''"feedforward"'']]
Riga 152:
In ciascun istante, gli ingressi si propagano nel modo tradizionale e tipico delle reti feedforward, compresa l'applicazione dell'algoritmo di apprendimento (solitamente la ''backpropagation''). Le connessioni retroattive fisse hanno come effetto quello di mantenere una copia dei precedenti valori dei neuroni intermedi, dal momento che tale flusso avviene sempre prima della fase di apprendimento.
In questo modo la rete di Elman tiene conto del suo stato precedente, cosa che le
=== Mappe auto-organizzanti o reti SOM (''Self-Organizing Maps'') ===
Riga 206:
* Meraviglia C., ''Le reti neurali nella ricerca sociale'', Bologna, Il Mulino, 2001. ISBN 978-88-464-3044-1
* Floreano D., Mattiussi C., ''Manuale sulle reti neurali'', Bologna, Il Mulino, 2002. ISBN 978-88-15-08504-7
*
* Gallo C., ''Reti neurali artificiali: teoria ed applicazioni finanziarie'', 2007 Foggia, Università di Foggia.
*{{Cita testo|titolo=Reti neurali artificiali|url=https://archive.org/details/retineuraliartificiali|autore=Alessandro Mazzetti|editore=Apogeo|anno=1991|isbn=88-7303-002-5}}
Riga 226:
== Collegamenti esterni ==
* {{Collegamenti esterni}}
* {{cita web | 1 = http://www.e-nuts.net/it/reti-neurali-feed-forward | 2 = Programma da scaricare e provare che mostra come una rete neurale apprende dagli input. (è disponibile anche un video) | accesso = 26 giugno 2016 | dataarchivio = 24 maggio 2016 | urlarchivio = https://web.archive.org/web/20160524120132/http://www.e-nuts.net/it/reti-neurali-feed-forward | urlmorto = sì }}
* {{cita web|http://www.cash-cow.it/appunti-ed-articoli/reti-neurali-artificiali|Esempio di rete neurale realizzata in Matlab}}
* {{cita web|http://www.skenz.it/stefano/tesi/2_Le_reti_neurali.html|Descrizione del funzionamento di una rete neurale di tipo feed-forward}}
|