Intelligenza artificiale: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Riga 142:
* [[Apprendimento non supervisionato]]: Trova pattern nei dati non etichettati (es. clustering di clienti), a volte utilizzando il [[data mining]].
* [[Apprendimento per rinforzo]]: Impara tramite tentativi ed errori (es. [[AlphaGo]] di [[DeepMind]]).
* [[Apprendimento
* [[Fine-tuning LLM|Fine-tuning]] ovvero specializzazione dei Modelli: è un processo che permette di adattare un modello generico di intelligenza artificiale a compiti specifici. Invece di addestrare un nuovo modello da zero, si parte da un modello pre-addestrato e lo si affina su un dataset più ristretto e mirato. Esso è utile per personalizzare un modello su un dominio specifico (ad esempio, medicina, finanza, assistenza clienti), inoltre permette di migliorare la qualità delle risposte per applicazioni specifiche. Esso si può effettuare con tecniche come [[Low-Rank Adaptation]] (LoRA), che riducono il numero di parametri da aggiornare, rendendo il processo più efficiente.<ref>{{Cita web|url=https://www.hpe.com/it/it/what-is/fine-tuning.html|titolo=Cos’è il fine tuning (AI)?|accesso=20 febbraio 2025}}</ref>
* [[Distillazione (Intelligenza Artificiale)|Distillazione:]] dove un intelligenza artificiale più avanzata "insegna" a una meno avanzata<ref>{{Cita web|lingua=it|autore=Andrea Daniele Signorelli|url=https://www.wired.it/article/distillazione-intelligenza-artificiale-cos-e/|titolo=L'intelligenza artificiale è diventata così economica da essere un problema per l'Occidente|sito=Wired Italia|data=19 febbraio 2025|accesso=19 febbraio 2025}}</ref> Questo processo abbassa i costi di sviluppo, ma non crea niente di "nuovo", con i problemi per la libera concorrenza che questo consegue.<ref>{{Cita web|url=https://www.ibm.com/it-it/topics/knowledge-distillation#:~:text=Autore%3A%20Dave%20Bergmann-,Cos'%C3%A8%20la%20distillazione%20della%20conoscenza%3F,%22modello%20studente%22%20pi%C3%B9%20piccolo.|titolo=Cosa è la distillazione della conoscenza?|accesso=20 febbraio 2025}}</ref>
|