Rete neurale feed-forward: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Nessun oggetto della modifica
 
(5 versioni intermedie di 5 utenti non mostrate)
Riga 1:
[[File:XOR_perceptron_net.png|thumb|right| Rete neurale a 2 strati che calcola la porta logica [[Disgiunzione esclusiva|XOR]]]]
Una '''rete neurale feed-forward''' ("{{Lett|rete neurale con flusso in avanti"}}) o '''rete feed-forward''' è una [[rete neurale artificiale]] dove le connessioni tra lei unitànodi non formano cicli, differenziandosi dalle [[Rete neurale ricorrente|reti neurali ricorrenti]]. Questo tipo di rete neurale fu la prima e più semplice tra quelle messe a punto. In questa rete neurale le informazioni si muovono solo in una direzione, avanti, rispetto a nodi d'ingresso, attraverso nodi nascosti (se esistenti) fino ai nodi d'uscita. Nella rete non ci sono cicli. Le reti feed-forward non hanno memoria didegli input avvenuti a tempi precedenti, per cui l'output è determinato solamente dall'attuale input.
 
== Percettrone a singolo strato ==
La più semplice rete feed-forward è il ''percettrone a singolo strato'' (SLP dall'inglese ''single layer perceptron''), utilizzato verso la fine degli anni '60. Un SLP è costituito da ununo strato in ingresso, seguito direttamente dall'uscita. Ogni unità di ingresso è collegata ad ogni unità di uscita. In pratica questo tipo di rete neurale ha un solo strato che effettua l'elaborazione dei dati, e non presenta nodi nascosti, da cui il nome.
{{...}}
La più semplice rete feed-forward è il ''percettrone a singolo strato'' (SLP dall'inglese single layer perceptron), utilizzato verso la fine degli anni '60. Un SLP è costituito da un strato in ingresso, seguito direttamente dall'uscita. Ogni unità di ingresso è collegata ad ogni unità di uscita. In pratica questo tipo di rete neurale ha un solo strato che effettua l'elaborazione dei dati, e non presenta nodi nascosti, da cui il nome.
 
Gli SLP sono molto limitati a causa del piccolo numero di connessioni e dell'assenza di gerarchia nelle caratteristiche che la rete può estrarre dai dati (questo significa che è capace di combinare i dati in ingresso una sola volta). Famosa fu la dimostrazione, che un SLP non riesce neanche a rappresentare la funzione XOR<ref>{{Cita libro|nome=Minsky, Marvin,|cognome=1927-2016.|titolo=Perceptrons; an introduction to computational geometry|url=https://www.worldcat.org/oclc/817542|edizione=[2d print. with corrections by the authors]|data=[1972]|editore=MIT Press|OCLC=817542|ISBN=0262630222}}</ref>. Questo risultato, apparso nel 1969, scoraggiò i ricercatori e bloccò la ricerca sulle reti neurali per diversi anni.
 
== Percettrone multistrato ==