In context learning: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
mNessun oggetto della modifica |
→top: +O |
||
Riga 1:
{{O|linguistica|maggio 2025}}
{{W|linguistica|aprile 2025}}
L{{'}}'''In-context learning''' ('''apprendimento contestuale''' in italiano) è una capacità dei modelli linguistici avanzati, come i transformer, di apprendere rapidamente nuovi compiti basandosi esclusivamente sul contesto fornito nel prompt, senza necessità di ulteriori aggiornamenti dei parametri interni del modello ([[Fine-tuning LLM|fine-tuning]]). Questa forma di apprendimento è emersa chiaramente con l’introduzione di modelli come [[GPT-3]], dove pochi esempi forniti nel testo in ingresso consentono al modello di generalizzare e risolvere compiti specifici in modalità few-shot (pochi esempi) o addirittura zero-shot (nessun esempio)<ref>Brown et al. (2020), “Language Models are Few-Shot Learners” (NeurIPS 2020)</ref>.
|