Fine-tuning (deep learning): differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m Jaqen ha spostato la pagina Fine-tuning LLM a Fine-tuning (deep learning): Titolo errato
Etichette: Modifica da mobile Modifica da web per mobile Modifica da mobile avanzata
Riga 2:
 
== Esempi di applicazione ==
Tra gli esempi più rilevanti di fine-tuning figurano modelli come BERT (''Bidirectional Encoder Representations from Transformers''), che dimostrano come un addestramento aggiuntivo possa incrementare notevolmente l'accuratezza del modello.<ref name="Devlin">Devlin et al., 2019.</ref> Analogamente, modelli generativi quali GPT (''[[Generative Pre-trained Transformer]]''), sviluppati da [[OpenAI]], sono frequentemente oggetto di fine-tuning per specifiche applicazioni, come [[Assistente virtuale|assistenti virtuali]] e strumenti educativi.<ref>Radford, A., Wu, J., Child, R., et al. (2019). Language Models are Unsupervised Multitask Learners. OpenAI.</ref> Ad esempio, il fine-tuning di [[GPT-3]] su dataset specifici ha permesso di creare chatbot specializzati in domini come il supporto clienti o la consulenza medica.
 
== Tecniche di fine-tuning ==