Intelligenza artificiale: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Giopogib (discussione | contributi)
Giopogib (discussione | contributi)
Riga 142:
* [[Apprendimento non supervisionato]]: Trova pattern nei dati non etichettati (es. clustering di clienti), a volte utilizzando il [[data mining]].
* [[Apprendimento per rinforzo]]: Impara tramite tentativi ed errori (es. [[AlphaGo]] di [[DeepMind]]).
* [[Apprendimento semiauto-supervisionato]] o auto-supervisionato: Un mix tra supervisionato e non supervisionato. Il modello impara a partire da dati che non sono etichettati esplicitamente, ma sfruttando una sorta di auto-etichettamento. Le varie previsioni di sviluppo dati servono quindi esse stesse come "supervisioni" nell'addestramento del modello. Non si ha bisogno di etichette esterne o annotazioni umane.
* [[Fine-tuning LLM|Fine-tuning]] ovvero specializzazione dei Modelli: è un processo che permette di adattare un modello generico di intelligenza artificiale a compiti specifici. Invece di addestrare un nuovo modello da zero, si parte da un modello pre-addestrato e lo si affina su un dataset più ristretto e mirato. Esso è utile per personalizzare un modello su un dominio specifico (ad esempio, medicina, finanza, assistenza clienti), inoltre permette di migliorare la qualità delle risposte per applicazioni specifiche. Esso si può effettuare con tecniche come [[Low-Rank Adaptation]] (LoRA), che riducono il numero di parametri da aggiornare, rendendo il processo più efficiente.<ref>{{Cita web|url=https://www.hpe.com/it/it/what-is/fine-tuning.html|titolo=Cos’è il fine tuning (AI)?|accesso=20 febbraio 2025}}</ref>
* [[Distillazione (Intelligenza Artificiale)|Distillazione:]] dove un intelligenza artificiale più avanzata "insegna" a una meno avanzata<ref>{{Cita web|lingua=it|autore=Andrea Daniele Signorelli|url=https://www.wired.it/article/distillazione-intelligenza-artificiale-cos-e/|titolo=L'intelligenza artificiale è diventata così economica da essere un problema per l'Occidente|sito=Wired Italia|data=19 febbraio 2025|accesso=19 febbraio 2025}}</ref> Questo processo abbassa i costi di sviluppo, ma non crea niente di "nuovo", con i problemi per la libera concorrenza che questo consegue.<ref>{{Cita web|url=https://www.ibm.com/it-it/topics/knowledge-distillation#:~:text=Autore%3A%20Dave%20Bergmann-,Cos'%C3%A8%20la%20distillazione%20della%20conoscenza%3F,%22modello%20studente%22%20pi%C3%B9%20piccolo.|titolo=Cosa è la distillazione della conoscenza?|accesso=20 febbraio 2025}}</ref>