In context learning: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Creazione pagina wikipedia In-context learning |
m fix |
||
Riga 1:
▲L’In-context learning (apprendimento contestuale) è una capacità dei modelli linguistici avanzati, come i transformer, di apprendere rapidamente nuovi compiti basandosi esclusivamente sul contesto fornito nel prompt, senza necessità di ulteriori aggiornamenti dei parametri interni del modello ([[Fine-tuning LLM|fine-tuning]]). Questa forma di apprendimento è emersa chiaramente con l’introduzione di modelli come [[GPT-3]], dove pochi esempi forniti nel testo in ingresso consentono al modello di generalizzare e risolvere compiti specifici in modalità few-shot (pochi esempi) o addirittura zero-shot (nessun esempio)<ref>Brown et al. (2020), “Language Models are Few-Shot Learners” (NeurIPS 2020)</ref>.
== Funzionamento ==
Riga 18 ⟶ 16:
== Note ==
<references/>
|