Rete neurale feed-forward: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Bot, replaced: {{Machine learning}} → {{Apprendimento automatico}} |
Nessun oggetto della modifica |
||
| (6 versioni intermedie di 6 utenti non mostrate) | |||
Riga 1:
[[File:XOR_perceptron_net.png|thumb
Una '''rete neurale feed-forward''' (
== Percettrone a singolo strato ==
La più semplice rete feed-forward è il ''percettrone a singolo strato'' (SLP dall'inglese ''single layer perceptron''), utilizzato verso la fine degli anni '60. Un SLP è costituito da
▲La più semplice rete feed-forward è il ''percettrone a singolo strato'' (SLP dall'inglese single layer perceptron), utilizzato verso la fine degli anni '60. Un SLP è costituito da un strato in ingresso, seguito direttamente dall'uscita. Ogni unità di ingresso è collegata ad ogni unità di uscita. In pratica questo tipo di rete neurale ha un solo strato che effettua l'elaborazione dei dati, e non presenta nodi nascosti, da cui il nome.
Gli SLP sono molto limitati a causa del piccolo numero di connessioni e dell'assenza di gerarchia nelle caratteristiche che la rete può estrarre dai dati (questo significa che è capace di combinare i dati in ingresso una sola volta). Famosa fu la dimostrazione
== Percettrone multistrato ==
Questa classe di reti feedforward si distingue dalla precedente dal fatto che tra lo strato di input e quello di output abbiamo uno o più strati di neuroni nascosti (hidden layers). Ogni strato ha connessioni entranti dal precedente strato e uscenti in quello successivo, quindi la propagazione del segnale avviene in avanti senza cicli e senza connessioni trasversali.
Questo tipo di architettura fornisce alla rete una prospettiva globale in quanto aumentano le interazioni tra neuroni.
== Note ==
| |||