Rete neurale artificiale: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Recupero di 1 fonte/i e segnalazione di 0 link interrotto/i.) #IABot (v2.0.9.5 |
m Bot: numeri di pagina nei template citazione |
||
Riga 4:
Nel campo dell'[[apprendimento automatico]], una '''rete neurale artificiale''' ({{Inglese|artificial neural network}}, abbreviato in '''ANN''' o anche come '''NN''') è un [[modello matematico|modello computazionale]] composto di "neuroni" artificiali, ispirato vagamente alla semplificazione di una [[rete neurale|rete neurale biologica]].
Questi modelli matematici sono troppo semplici per ottenere una comprensione delle reti neurali biologiche<ref>{{Cita pubblicazione|nome=F.|cognome=Crick|data=12 gennaio 1989|titolo=The recent excitement about neural networks|rivista=Nature|volume=337|numero=6203|pp=
Una rete neurale artificiale può essere realizzata sia da programmi [[software]] che da [[hardware]] dedicato (DSP, ''[[Digital Signal Processing]]''). Questa branca può essere utilizzata in congiunzione alla [[logica fuzzy]].
Riga 15:
Nel [[1958]], [[János Neumann|J. Von Neumann]] nella sua opera ''The Computer and the Brain'',<ref>{{cita libro|titolo=Il computer e il cervello|autore=John Von Neumann|editore=Bompiani|anno=1999}}</ref> esamina le soluzioni proposte dai precedenti autori sottolineando la scarsa precisione che queste strutture possedevano per potere svolgere operazioni complesse.
Nello stesso anno, [[Frank Rosenblatt]] nella rivista ''Psychological review'',<ref>{{cita pubblicazione|autore=Frank Rosenblatt|titolo=The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain|editore=Cornell Aeronautical Laboratory|rivista=Psychological Review, v65, No. 6|anno=1958|pp=
L'opera di Rosenblatt stimola una quantità di studi e ricerche che dura per un decennio, e suscita un vivo interesse e notevoli aspettative nella comunità scientifica, destinate tuttavia ad essere notevolmente ridimensionate allorché nel [[1969]] [[Marvin Minsky]] e [[Seymour Papert|Seymour A. Papert]], nell'opera ''Perceptrons. An Introduction to Computational Geometry'',<ref>{{cita libro|autore1=Marvin Minsky|autore2=Seymour Papert|titolo=Perceptrons. An Introduction to Computational Geometry|url=https://archive.org/details/perceptronsintro00mins|annooriginale=1987|editore=MIT Press|isbn=978-0-262-63111-2}}</ref> mostrano i limiti operativi delle semplici reti a due strati basate sul percettrone, e dimostrano l'impossibilità di risolvere per questa via molte classi di problemi, ossia tutti quelli non caratterizzati da separabilità lineare delle soluzioni: questo tipo di rete neurale non è abbastanza potente; non è infatti neanche in grado di calcolare la funzione ''or esclusivo'' ([[Disgiunzione esclusiva|XOR]]). A causa di queste limitazioni, al periodo di euforia dovuto ai primi risultati della [[cibernetica]] (come veniva chiamata negli [[Anni 1960|anni sessanta]]) segue un periodo di diffidenza durante il quale tutte le ricerche in questo campo non ricevono più alcun finanziamento dal governo degli [[Stati Uniti d'America]]; le ricerche sulle reti tendono, di fatto, a ristagnare per oltre un decennio, e l'entusiasmo iniziale risulta fortemente ridimensionato.
|