Stacking (apprendimento automatico): differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
miglioramenti
mNessun oggetto della modifica
Riga 1:
=Stacking=
 
Nell'apprendimento automatico, lo '''stacking''' (detto anche, per esteso, '''''stacked generalization''''') è una tecnica di [[apprendimento d'insieme]] che comporta l'addestramento di un modello atto a combinare predizioni fornite attraverso più algoritmi di apprendimento diversi fra loro <ref name=":0">{{Cita pubblicazione|nome=David H.|cognome=Wolpert|data=1992-01-01|titolo=Stacked generalization|rivista=Neural Networks|volume=5|numero=2|pp=241–259|accesso=2025-08-19|doi=10.1016/S0893-6080(05)80023-1|url=https://www.sciencedirect.com/science/article/pii/S0893608005800231}}</ref>. Dapprima, si addestrano tutti i diversi modelli usando i dati disponibili, quindi si addestra l'algoritmo di combinazione (''stimatore finale'') a fare predizioni conclusive utilizzando come input le predizioni fornite dai diversi algoritmi (''stimatori di base'') oppure usando predizioni tramite [[convalida incrociata]] fatte dagli stimatori di base, in modo da prevenire il [[Overfitting|sovradattamento]].<ref>{{Cita web|lingua=en|url=https://scikit-learn/stable/modules/ensemble.html|titolo=1.11. Ensembles: Gradient boosting, random forests, bagging, voting, stacking|sito=scikit-learn|accesso=2025-08-19}}</ref> Da un punto di vista teorico, adottando un algoritmo di combinazione arbitrario, lo stacking è in grado di rappresentare qualsiasi tecnica ''ensemble'', sebbene nella pratica si usi spesso come combinatore un modello di [[regressione logistica]].