Winnow (algoritmo): differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
revisione traduzione + miglioramenti
mNessun oggetto della modifica
Riga 1:
{{Bozza|arg=|arg2=|ts=20250821092509|wikidata=Q8025857}}<!-- IMPORTANTE: NON CANCELLARE QUESTA RIGA, SCRIVERE SOTTO -->
 
L' algoritmo '''Winnow''' <ref name=":0">{{Cita pubblicazione|nome=Nick|cognome=Littlestone|data=1988-04-01|titolo=Learning Quickly When Irrelevant Attributes Abound: A New Linear-Threshold Algorithm|rivista=Machine Learning|volume=2|numero=4|pp=285–318|lingua=en|accesso=2025-08-20|doi=10.1023/A:1022869011914|url=https://doi.org/10.1023/A:1022869011914}}</ref> è unaun procedurametodo di [[apprendimento automatico]] utile a definire un [[classificatore lineare]] a partire da esempi etichettati. Si tratta di un algoritmo molto simile al [[percettrone]], con la differenza che questo adotta uno schema di aggiornamento dei pesi additivo, mentre Winnow utilizza uno schema moltiplicativo che gli consente di funzionare molto meglio in presenza di molte dimensioni (''feature'') non rilevanti (da cui il nome, ="[[Crivello|setaccio]]"). L'algoritmo è semplice e si adatta bene a dati ad alta dimensionalità. Durante l'addestramento, a Winnow viene fornita una sequenza di esempi positivi e negativi. Da questa esso apprende un [[iperpiano]] di decisione che può poi essere utilizzato per etichettare nuovi esempi come positivi o negativi. L'algoritmo può essere utilizzato anche in contesti di apprendimento ''online'', dovenei quali la fase di apprendimento e quella di classificazione non sono chiaramentenettamente separate.
 
== Algoritmo ==
Riga 25 ⟶ 26:
* ''Balanced Winnow'' lavora con due insiemi di pesi e quindi due iperpiani. Questo può quindi essere generalizzato per [[classificazione multi-etichetta]].
 
== Limiti di d'errore ==
In determinate condizioni, è possibile dimostrare che il numero di errori commessi da Winnow durante l'apprendimento ha un [[Maggiorante e minorante|limite superiore]] che non dipende dal numero di esempi in ingresso. Se l'algoritmo Winnow1 utilizza <math>\alpha > 1</math> e <math>\Theta \geq 1/\alpha</math> su una funzione-obiettivo che è una disgiunzione monotona di <math>k</math> letterali data da <math>f(x_1,\ldots,x_n)=x_{i_1} \lor \cdots \lor x_{i_k}</math>, allora per qualsiasi sequenza di istanze il numero totale di errori è limitato da: <ref>{{Cita pubblicazione|autore=Nick Littlestone|anno=1989|titolo="Mistake bounds and logarithmic linear-threshold learning algorithms"|rivista=Technical report, University of California, Santa Cruz.|numero=|lingua=en|id=UCSC-CRL-89-11|url=https://www.google.it/books/edition/Mistake_Bounds_and_Logarithmic_Linear_th/X2HbmgEACAAJ}}</ref>