Rete neurale feed-forward: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Sistemazione automatica della disambigua: XOR - Inversione di redirect Disgiunzione esclusiva |
Aggiunta sezione sul SLP |
||
Riga 1:
[[File:XOR_perceptron_net.png|thumb|right| Rete neurale a 2 strati che calcola la porta logica [[Disgiunzione esclusiva|XOR]]]]
Una '''rete neurale feed-forward''' ("rete neurale
== Percettrone a singolo strato ==
{{...}}
La più semplice rete feed-forward è il ''percettrone a singolo strato'' (SLP dall'inglese single layer perceptron), utilizzato verso la fine degli anni '60. Un SLP è costituito da un strato in ingresso, seguito direttamente dall'uscita. Ogni unità di ingresso è collegata ad ogni unità di uscita. In pratica questo tipo di rete neurale ha un solo strato che effettua l'elaborazione dei dati, e non presenta nodi nascosti, da cui il nome.
Gli SLP sono molto limitati a causa del piccolo numero di connessioni e dell'assenza di gerarchia nelle caratteristiche che la rete può estrarre dai dati (questo significa che è capace di combinare i dati in ingresso una sola volta). Famosa fu la dimostrazione, che un SLP non riesce neanche a rappresentare la funzione XOR. Questo risultato, apparso negli anni '70, scoraggiò i ricercatori e bloccò la ricerca sulle reti neurali per diversi anni.
== Percettrone multistrato ==
{{...}}
| |||