Nell'apprendimento automatico, lo '''stacking''' (detto anche, per esteso, '''''stacked generalization''''') è una tecnica di [[apprendimento d'insieme]] che comporta l'addestramento di un modello atto a combinare predizioni fornite attraverso più algoritmi di apprendimento diversi fra loro <ref name=":0">{{Cita pubblicazione|nome=David H.|cognome=Wolpert|data=1992-01-01|titolo=Stacked generalization|rivista=Neural Networks|volume=5|numero=2|pp=241–259|accesso=2025-08-19|doi=10.1016/S0893-6080(05)80023-1|url=https://www.sciencedirect.com/science/article/pii/S0893608005800231}}</ref>. Dapprima, si addestrano tutti i diversi modelli usando i dati disponibili, quindi si addestra l'algoritmo di combinazione (''stimatore finale'') a fare predizioni conclusive utilizzando come input le predizioni fornite dai diversi algoritmi (''stimatori di base'') oppure usando predizioni tramite [[convalida incrociata]] fatte dagli stimatori di base, in modo da prevenire il [[Overfitting|sovradattamento]].<ref>{{Cita web|lingua=en|url=https://scikit-learn/stable/modules/ensemble.html|titolo=1.11. Ensembles: Gradient boosting, random forests, bagging, voting, stacking|sito=scikit-learn|accesso=2025-08-19}}</ref> AdottandoDa un punto di vista teorico, adottando un algoritmo di combinazione arbitrario, lo stacking puòè rappresentare,in dal puntogrado di vista teorico,rappresentare qualsiasi tecnica ''ensemble'', sebbene nella pratica si usi spesso come combinatore un modello di [[regressione logistica]].
Tipicamente lo stacking offre prestazioni migliori di ciascun modello base addestrato. <ref name=":0" /> La tecnica è stata usata con successo super la soluzione di problemi di apprendimento sia supervisionato (regressione <ref>{{Cita pubblicazione|nome=Leo|cognome=Breiman|data=1996-07-01|titolo=Stacked regressions|rivista=Machine Learning|volume=24|numero=1|pp=49–64|lingua=en|accesso=2025-08-19|doi=10.1007/BF00117832|url=https://doi.org/10.1007/BF00117832}}</ref>, classificazione, e apprendimento di distanze <ref>{{Cita pubblicazione|nome=Mete|cognome=Ozay|nome2=Fatos T. Yarman|cognome2=Vural|data=2013-08-12|titolo=A New Fuzzy Stacked Generalization Technique and Analysis of its Performance|accesso=2025-08-19|doi=10.48550/arXiv.1204.0171|url=http://arxiv.org/abs/1204.0171}}</ref>) siae anche non supervisionatisupervisionato (stima di densità <ref>{{Cita pubblicazione|nome=Padhraic|cognome=Smyth|nome2=David|cognome2=Wolpert|data=1999-07-01|titolo=Linearly Combining Density Estimators via Stacking|rivista=Machine Learning|volume=36|numero=1|pp=59–83|lingua=en|accesso=2025-08-19|doi=10.1023/A:1007511322260|url=https://doi.org/10.1023/A:1007511322260}}</ref>). ÈEssa ancheè stata usataimpiegata anche per stimare il tasso di errore nel [[bagging]] <ref>{{Cita pubblicazione|nome=Lior|cognome=Rokach|data=2010-02-01|titolo=Ensemble-based classifiers|rivista=Artificial Intelligence Review|volume=33|numero=1|pp=1–39|lingua=en|accesso=2025-08-19|doi=10.1007/s10462-009-9124-7|url=https://doi.org/10.1007/s10462-009-9124-7}}</ref><ref>{{Cita pubblicazione|nome=David H.|cognome=Wolpert|nome2=William G.|cognome2=Macready|data=1999-04-01|titolo=An Efficient Method To Estimate Bagging's Generalization Error|rivista=Machine Learning|volume=35|numero=1|pp=41–55|lingua=en|accesso=2025-08-19|doi=10.1023/A:1007519102914|url=https://doi.org/10.1023/A:1007519102914}}</ref>. È stato dimostrato che lo stacking possa fornire prestazioni superiori rispetto al modello di mediazione bayesiano <ref>{{Cita pubblicazione|nome=Bertrand|cognome=Clarke|data=2003|titolo=Comparing Bayes Model Averaging and Stacking When Model Approximation Error Cannot be Ignored|rivista=Journal of Machine Learning Research|volume=4|numero=Oct|pp=683–712|accesso=2025-08-19|url=https://www.jmlr.org/papers/v4/clarke03a.html}}</ref>. I due migliori modelli in una nota competizione (''Netflix Prize'') hanno utilizzato il ''blending'', che può essere considerato una forma di stacking <ref>{{Cita pubblicazione|nome=Joseph|cognome=Sill|nome2=Gabor|cognome2=Takacs|nome3=Lester|cognome3=Mackey|data=2009-11-04|titolo=Feature-Weighted Linear Stacking|accesso=2025-08-19|doi=10.48550/arXiv.0911.0460|url=http://arxiv.org/abs/0911.0460}}</ref>.