Fine-tuning (deep learning): differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
+arg
Nessun oggetto della modifica
Etichetta: Modifica inattesa del template:Bozza
Riga 1:
{{Bozza|arg=informatica|arg2=scienza|ts=20250316171958|wikidata=}}<!-- IMPORTANTE: NON CANCELLARE QUESTA RIGA, SCRIVERE SOTTO -->
== Fine-tuning degli LLM ==
 
In ''deep learning'', il '''fine-tuning''' è una pratica di [https://en.wikipedia.org/wiki/Transfer_learning Transfer learning] utilizzata per adattare un [[Modello linguistico di grandi dimensioni|modello pre-addestrato]] (spesso tramite [https://en.wikipedia.org/wiki/Self-supervised_learning self-supervised learning]) a un compito specifico. Questo avviene mediante un ulteriore addestramento su un insieme di dati più piccolo e mirato. Nel contesto dell'[[Elaborazione del linguaggio naturale|NLP]], il fine-tuning è ampiamente utilizzato per specializzare modelli linguistici pre-addestrati, come [https://it.wikipedia.org/wiki/BERT BERT] o [https://en.wikipedia.org/wiki/Generative_pre-trained_transformer GPT]], su compiti specifici quali la [https://en.wikipedia.org/wiki/Document_classification Classificazione del testo], la [[Traduzione automatica]] o la generazione controllata di testi.<ref>Howard, J., & Ruder, S. (2018). Universal Language Model Fine-tuning for Text Classification. ACL.</ref>
Il '''fine-tuning degli LLM''' (''Large Language Models'', modelli linguistici di grandi dimensioni) è un processo che consiste nell'adattare modelli pre-addestrati su grandi quantità di dati a compiti specifici mediante un ulteriore addestramento mirato<ref>Howard, J., & Ruder, S. (2018). Universal Language Model Fine-tuning for Text Classification. ACL.</ref>. Questo procedimento permette al modello di apprendere caratteristiche peculiari del dominio o della lingua desiderata, migliorando significativamente le prestazioni su attività quali classificazione del testo, traduzione automatica e generazione controllata di testi<ref>Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. NAACL.</ref>.
 
== Esempi di applicazione ==
Tra gli esempi più rilevanti di fine-tuning figurano modelli come '''BERT''' (''Bidirectional Encoder Representations from Transformers''), che evidenzianodimostrano come un addestramento aggiuntivo possa incrementare notevolmente l'accuratezza del modello.<ref name="Devlin">Devlin et al., 2019.</ref>. Analogamente, modelli generativi quali '''GPT''' (''Generative Pre-trained Transformer''), sviluppati da [[OpenAI]], sono frequentemente oggetto di fine-tuning per specifiche applicazioni, come [[Assistente virtuale|assistenti virtuali]] e strumenti educativi.<ref>Radford, A., Wu, J., Child, R., et al. (2019). Language Models are Unsupervised Multitask Learners. OpenAI.</ref> Ad esempio, il fine-tuning di [[GPT-3]] su dataset specifici ha permesso di creare chatbot specializzati in domini come il supporto clienti o la consulenza medica.
 
== Tecniche di fine-tuning ==
LeIl tecnichefine-tuning comunipuò includonoessere l'integrazioneapplicato diin datidiversi specificimodi, a seconda delle risorse disponibili e del compito especifico. lNel '''aggiustamentofull deifine-tuning''', parametritutti mediantei back-propagationparametri condel tassimodello divengono apprendimentoaggiornati, inferiorimentre rispettonel al'''partial prefine-addestramentotuning''' iniziale<refsolo name="Howard">Howardalcuni &strati Rudervengono addestrati, 2018lasciando gli altri congelati.</ref><ref>LiuHoward, YJ., Ott,& M.Ruder, Goyal, N., et alS. (20192018). RoBERTa:Universal ALanguage RobustlyModel OptimizedFine-tuning BERTfor PretrainingText ApproachClassification. arXiv:1907.11692ACL.</ref>. Tecniche più recenti, come '''[https://en.wikipedia.org/wiki/Fine-tuning_(deep_learning) LoRA]''' (''Low-Rank Adaptation''), permettono di aggiornare solo una notevolepiccola riduzioneparte dei parametri del modello, riducendo notevolmente il costo computazionale,.<ref>Hu rendendoet piùal., accessibile2022. ilLoRA: fineLow-tuningRank diAdaptation modelliof moltoLarge grandiLanguage Models.</ref>Hu Altre tecniche, E.come J.il '''prefix-tuning''' e il '''prompt-tuning''', Shenmodificano solo piccole parti dell'input o del modello, Yrendendo il fine-tuning più efficiente.<ref>Li, Wallis, PX., et& alLiang, P. (20222021). LoRAPrefix-Tuning: Low-RankOptimizing AdaptationContinuous ofPrompts Largefor Language ModelsGeneration. arXiv:21062101.0968500190.</ref>.
 
Durante il fine-tuning, la scelta degli [https://en.wikipedia.org/wiki/Hyperparameter_(machine_learning) iperparametri] è cruciale. Un '''learning rate''' troppo alto può causare instabilità, mentre uno troppo basso può rallentare la convergenza. Tecniche come il '''mixed precision training''' e il '''gradient accumulation''' sono spesso utilizzate per ottimizzare l'uso della memoria e accelerare l'addestramento.<ref>Micikevicius, P., et al. (2018). Mixed Precision Training. ICLR.</ref> Inoltre, il rischio di [[Overfitting]] può essere mitigato tramite tecniche di regolarizzazione e [https://en.wikipedia.org/wiki/Early_stopping early stopping].
 
== Vantaggi e rischi ==
Il fine-tuning degli [[Modelli linguistici di grandi dimensioni|LLM]] ha reso disponibili tecnologie linguistiche avanzate anche in contesti aziendali e accademici con risorse limitate, consentendo un uso efficace e mirato dei modelli pre-addestrati.<ref>Bommasani, R., Hudson, D. A., Adeli, E., et al. (2021). On the Opportunities and Risks of Foundation Models. arXiv:2108.07258.</ref>. Tuttavia, è necessario prestare attenzione al rischio di overfitting, che potrebbe ridurre la capacità di generalizzazione del modello.<ref>Brown, T., Mann, B., Ryder, N., et al. (2020). Language Models are Few-Shot Learners. NeurIPS.</ref> Inoltre, il fine-tuning può portare al cosiddetto '''"catastrophic forgetting"''', dove il modello dimentica le conoscenze apprese durante il [[Pre-training (apprendimento automatico)|pre-training]]. Problemi etici, come il [[Bias nei modelli di apprendimento automatico|bias]] nei dati di fine-tuning, rappresentano un ulteriore rischio da considerare.
 
== Note ==