Winnow (algoritmo): differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m Mastrocom ha spostato la pagina Bozza:Winnow (algoritmo) a Winnow (algoritmo) senza lasciare redirect: italiano ok
m +tmp Algoritmo
 
(Una versione intermedia di un altro utente non mostrate)
Riga 1:
{{tmp|algoritmo}}
{{Richiesta revisione bozza|ts=20250821112615|richiedente=Capagira|esito=|revisore=}}
{{Bozza|arg=informatica|arg2=|ts=20250821092509|wikidata=Q8025857}}<!-- IMPORTANTE: NON CANCELLARE QUESTA RIGA, SCRIVERE SOTTO -->
 
L'algoritmo '''Winnow''' <ref name=":0">{{Cita pubblicazione|nome=Nick|cognome=Littlestone|data=1988-04-01|titolo=Learning Quickly When Irrelevant Attributes Abound: A New Linear-Threshold Algorithm|rivista=Machine Learning|volume=2|numero=4|pp=285–318|lingua=en|accesso=2025-08-20|doi=10.1023/A:1022869011914|url=https://doi.org/10.1023/A:1022869011914}}</ref> è un metodo di [[apprendimento automatico]] utile a definire un [[classificatore lineare]] a partire da esempi etichettati. Si tratta di un algoritmo molto simile al [[percettrone]], con la differenza che questo adotta uno schema di aggiornamento dei pesi additivo, mentre Winnow utilizza uno schema moltiplicativo che gli consente di funzionare molto meglio in presenza di molte dimensioni (''feature'') non rilevanti (da cui il nome, ="[[Crivello|setaccio]]"). L'algoritmo è semplice e si adatta bene a dati ad alta dimensionalità. Durante l'addestramento, a Winnow viene fornita una sequenza di esempi positivi e negativi. Da questa il metodo apprende un [[iperpiano]] di decisione che può poi essere utilizzato per etichettare nuovi esempi come positivi o negativi. L'algoritmo può essere utilizzato anche in contesti di apprendimento ''online'', nei quali la fase di apprendimento e quella di classificazione non sono nettamente separate.
 
Riga 38 ⟶ 36:
{{Apprendimento automatico}}
 
{{Categorie bozza|
[[Categoria:Algoritmi di classificazione]]
[[Categoria:Apprendimento automatico]]
}}