Fine-tuning (deep learning): differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
+ template, portale e cat
Riga 10:
 
== Vantaggi e rischi ==
Il fine-tuning degli [[Modello linguisticilinguistico di grandi dimensioni|LLM]] ha reso disponibili tecnologie linguistiche avanzate anche in contesti aziendali e accademici con risorse limitate, consentendo un uso efficace e mirato dei modelli pre-addestrati.<ref>Bommasani, R., Hudson, D. A., Adeli, E., et al. (2021). On the Opportunities and Risks of Foundation Models. arXiv:2108.07258.</ref> Tuttavia, è necessario prestare attenzione al rischio di overfitting, che potrebbe ridurre la capacità di generalizzazione del modello.<ref>Brown, T., Mann, B., Ryder, N., et al. (2020). Language Models are Few-Shot Learners. NeurIPS.</ref> Inoltre, il fine-tuning può portare al cosiddetto "catastrophic forgetting", dove il modello dimentica le conoscenze apprese durante il [[Pre-training (apprendimento automatico)|pre-training]]. Problemi etici, come il [[Bias nei modelli di apprendimento automaticoinduttivo|bias]] nei dati di fine-tuning, rappresentano un ulteriore rischio da considerare.
 
== Note ==