Fine-tuning (deep learning): differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Afnecors ha spostato la pagina Bozza:Fine-tuning LLM a Fine-tuning LLM: Pubblicazione bozza |
m + link |
||
(9 versioni intermedie di 6 utenti non mostrate) | |||
Riga 1:
Il '''fine-tuning''', in [[Apprendimento profondo|deep learning]], è una pratica di [[transfer learning]] utilizzata per adattare un [[Modello linguistico di grandi dimensioni|modello pre-addestrato]] (spesso tramite apprendimento autosupervisionato) a un compito specifico. Questo avviene mediante un ulteriore addestramento su un insieme di dati più piccolo e mirato. Nel contesto dell'[[Elaborazione del linguaggio naturale|NLP]], il fine-tuning è ampiamente utilizzato per specializzare modelli linguistici pre-addestrati, come [[BERT]] o [[Generative pre-trained transformer|GPT]], su compiti specifici quali la classificazione del testo, la [[traduzione automatica]] o la generazione controllata di testi.<ref name="Howard, J. 2018">Howard, J., & Ruder, S. (2018). Universal Language Model Fine-tuning for Text Classification. ACL.</ref>
== Esempi di applicazione ==
Tra gli esempi più rilevanti di fine-tuning figurano modelli come BERT (''Bidirectional Encoder Representations from Transformers''), che
Analogamente, modelli generativi quali GPT (''[[Generative Pre-trained Transformer]]''), sviluppati da [[OpenAI]], sono frequentemente oggetto di fine-tuning per specifiche applicazioni, come [[Assistente virtuale|assistenti virtuali]] e strumenti educativi.<ref>Radford, A., Wu, J., Child, R., et al. (2019). Language Models are Unsupervised Multitask Learners. OpenAI.</ref> Un == Tecniche di fine-tuning ==
Il fine-tuning può essere applicato in diversi modi, a seconda delle risorse disponibili e del compito specifico. Nel ''full fine-tuning'', tutti i parametri del modello vengono aggiornati, mentre nel ''partial fine-tuning'' solo alcuni strati vengono addestrati, lasciando gli altri congelati.<ref
| autore = Li, X., & Liang, P. | anno = | titolo = Prefix-Tuning: Optimizing Continuous Prompts for Generation | arXiv }} </ref> Durante il fine-tuning, la scelta degli [[iperparametro (apprendimento automatico)|iperparametri]] è cruciale. Un ''learning rate'' troppo alto può causare instabilità, mentre uno troppo basso può rallentare la convergenza. Tecniche come il ''mixed precision training'' e il ''gradient accumulation'' sono spesso utilizzate per ottimizzare l'uso della memoria e accelerare l'addestramento.<ref>Micikevicius, P., et al. (2018). Mixed Precision Training. ICLR.</ref> Inoltre, il rischio di [[overfitting]] può essere mitigato tramite tecniche di regolarizzazione e [[early stopping]].
== Vantaggi e rischi ==
Il fine-tuning degli [[Modello
| autore = Bommasani, R., Hudson, D. A., Adeli, E., et al. | anno = | titolo = On the Opportunities and Risks of Foundation Models | arXiv }}</ref> Tuttavia, è necessario prestare attenzione al rischio di overfitting, che potrebbe ridurre la capacità di generalizzazione del modello.<ref>Brown, T., Mann, B., Ryder, N., et al. (2020). Language Models are Few-Shot Learners. NeurIPS.</ref> Inoltre, il fine-tuning può portare al cosiddetto "catastrophic forgetting", dove il modello dimentica le conoscenze apprese durante il [[Pre-training (apprendimento automatico)|pre-training]]. Problemi etici, come il [[Bias == Note ==
<references/>
== Altri progetti ==
{{interprogetto}}
== Collegamenti esterni ==
* {{cita web|url=https://www.ibm.com/it-it/think/topics/fine-tuning|titolo=Che cos'è la messa a punto?|autore=Dave Bergmann|data=15 marzo 2024}}
{{Apprendimento automatico}}
{{Controllo di autorità}}
{{Portale|informatica}}
[[Categoria:Apprendimento automatico]]
|