In context learning: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
+W |
→top: +O |
||
(2 versioni intermedie di 2 utenti non mostrate) | |||
Riga 1:
{{O|linguistica|maggio 2025}}
{{W|linguistica|aprile 2025}}
L{{'}}'''In-context learning''' ('''apprendimento contestuale''' in italiano) è una capacità dei modelli linguistici avanzati, come i transformer, di apprendere rapidamente nuovi compiti basandosi esclusivamente sul contesto fornito nel prompt, senza necessità di ulteriori aggiornamenti dei parametri interni del modello ([[Fine-tuning LLM|fine-tuning]]). Questa forma di apprendimento è emersa chiaramente con l’introduzione di modelli come [[GPT-3]], dove pochi esempi forniti nel testo in ingresso consentono al modello di generalizzare e risolvere compiti specifici in modalità few-shot (pochi esempi) o addirittura zero-shot (nessun esempio)<ref>Brown et al. (2020), “Language Models are Few-Shot Learners” (NeurIPS 2020)</ref>.
== Funzionamento ==
Nel contesto
== Rilevanza ==
== Sfide e limiti ==
Nonostante i benefici,
Pertanto, l’In-context learning rappresenta un importante passo avanti verso modelli linguistici più versatili, ma la comprensione completa del suo funzionamento e delle sue limitazioni rimane una sfida aperta nella ricerca contemporanea.
Riga 16:
== Note ==
<references/>
== Voci correlate ==
* [[Modello linguistico]]
* [[Transformer (modello linguistico)]]
* [[Apprendimento automatico]]
* [[GPT-3]]
{{portale|linguistica}}
[[Categoria:Apprendimento automatico]]
|